Power Bi Guidance
Power Bi Guidance
Power Bi Guidance
e VUE D’ENSEMBLE
p CONCEPT
modélisation de données ;
p CONCEPT
Relations un à un
Relations Plusieurs-à-plusieurs
Relations actives et inactives
Relations bidirectionnelles
DAX
p CONCEPT
Rapports Power BI
p CONCEPT
p CONCEPT
Quand utiliser des rapports paginés ?
Administration et déploiement
p CONCEPT
p CONCEPT
Planifier un déploiement
Créer du contenu
p CONCEPT
Présentation
Propriété du contenu
Centre d’excellence
Gouvernance
Communauté de la pratique
Service client
Planification de l’implémentation
p CONCEPT
Présentation
Stratégie BI
Configuration du locataire
Workspaces
Sécurité
Audit et supervision
Scénarios d’usage
Centre d’excellence
p CONCEPT
Transformation BI de Microsoft
Vous y trouverez des conseils et les pratiques recommandées pour Power BI. Toutes ces
informations sont régulièrement mises à jour et complétées.
Instructions Description
Techniques de réduction des Décrit différentes techniques permettant de réduire les données
données pour la modélisation chargées dans les modèles d’importation.
des importations
DAX
ノ Agrandir le tableau
Instructions Description
Dataflows
ノ Agrandir le tableau
Instructions Description
Bonnes pratiques pour les Décrit les bonnes pratiques en matière de conception de
dataflows dataflows dans Power BI.
Cet article fournit des conseils qui permettent aux développeurs et aux administrateurs
de créer et de gérer des solutions Power BI optimisées. Vous pouvez optimiser votre
solution sur différentes couches architecturales. Les couches sont les suivantes :
Pour obtenir des conseils spécifiques sur le mode de modèle sémantique, consultez :
Tableaux de bord
Il est important de comprendre que Power BI conserve un cache pour vos mosaïques de
tableaux de bord, à l’exception des mosaïques de rapport actif et des mosaïques de
diffusion en continu. Si votre modèle sémantique applique la sécurité au niveau des
lignes dynamique, veillez à comprendre les implications en matière de performances, car
les mosaïques seront mises en cache par utilisateur.
Lorsque vous épinglez des mosaïques de rapports actifs à un tableau de bord, elles ne
sont pas traitées à partir du cache de requête. Au lieu de cela, elles se comportent
comme des rapports et adressent des requêtes aux v-cores à la volée.
Comme son nom l’indique, la récupération des données à partir du cache offre des
performances supérieures et plus cohérentes que par la source de données. Pour tirer
parti de cette fonctionnalité, vous pouvez notamment définir les tableaux de bord
comme page d’accueil pour vos utilisateurs. Épinglez les éléments visuels les plus utilisés
et demandés aux tableaux de bord. Les tableaux de bord deviennent ainsi une
« première ligne de défense » utile qui fournit des performances cohérentes et une
charge moindre sur la capacité. Les utilisateurs peuvent encore cliquer pour accéder au
rapport afin d’analyser les détails.
Pour les modèles sémantiques de connexions actives et DirectQuery, le cache est mis à
jour régulièrement en interrogeant la source de données. Par défaut, cela se produit
toutes les heures, même si vous pouvez configurer une fréquence différente dans les
paramètres du modèle sémantique. Chaque mise à jour du cache envoie des requêtes à
la source de données sous-jacente pour mettre à jour le cache. Le nombre de requêtes
générées dépend du nombre de visuels épinglés aux tableaux de bord qui dépendent
de cette source de données. Notez que si la sécurité au niveau des lignes est activée, les
requêtes sont générées pour chaque contexte de sécurité différent. Par exemple,
considérez qu’il existe deux rôles différents qui catégorisent vos utilisateurs et qu’ils ont
deux vues différentes des données. Au cours de l’actualisation du cache des requêtes,
Power BI génère deux ensembles de requêtes.
Rapports Power BI
Il existe plusieurs suggestions pour l’optimisation des conceptions de rapport Power BI.
7 Notes
Lorsque les rapports sont basés sur un modèle sémantique DirectQuery, pour
obtenir des optimisations de conception de rapport supplémentaires, consultez
Conseils de modèle DirectQuery dans Power BI Desktop (optimiser les
conceptions de rapport).
Une erreur fréquente consiste à utiliser la vue par défaut de la table non filtrée, soit la
totalité des quelques 100 millions de lignes. Les données de ces lignes sont chargées en
mémoire et décompressées à chaque actualisation. Ce traitement impose des charges
énormes à la mémoire. La solution consiste à utiliser le filtre « N premiers » pour réduire
le nombre maximal d’éléments à afficher dans la table. Vous pouvez définir un nombre
maximal d’éléments supérieur à ce dont les utilisateurs peuvent avoir besoin, par
exemple 10 000. Le résultat est que l’expérience de l’utilisateur final ne change pas, mais
que l’utilisation de la mémoire chute considérablement. Et surtout, les performances
sont améliorées.
Une approche de conception similaire à celle-ci est recommandée pour tous les
éléments visuels de votre rapport. Demandez-vous si toutes les données présentes dans
l’élément visuel sont nécessaires. Est-il possible de réduire la quantité de données
affichées sur le visuel d’une manière ou d’une autre sans gêner l’utilisateur ? Souvenez-
vous que les tables peuvent être coûteuses.
Pour garantir des performances élevées, veillez à mettre à l’épreuve chaque élément
visuel personnalisé. Les visuels Power BI mal optimisés peuvent réduire les performances
de l’intégralité du rapport.
Optimisation de l’environnement
Vous pouvez optimiser l’environnement Power BI en configurant les paramètres de
capacité, en redimensionnant les passerelles de données et en réduisant la latence du
réseau.
Paramètres de capacité
Quand vous utilisez des capacités, disponibles avec Power BI Premium (références SKU
P), avec des licences Premium par utilisateur ou avec Power BI Embedded (références
SKU A, A4-A6), vous pouvez gérer les paramètres de capacité. Pour plus d’informations,
consultez Licences de capacité Microsoft Fabric et Gestion des capacités Premium.
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
Dimensionnement de la passerelle
La passerelle est obligatoire chaque fois que Power BI doit accéder à des données qui ne
sont pas directement accessibles sur Internet. Vous pouvez installer la passerelle de
données locale sur un serveur local ou sur une infrastructure IaaS (infrastructure as a
service) hébergée sur une machine virtuelle.
Conseil
Pour déterminer où se trouve votre abonné, consultez Où est situé mon abonné
Power BI ?
Lorsque les utilisateurs d’un client accèdent au service Power BI, leurs requêtes sont
acheminées vers cette région. Lorsque les requêtes atteignent le service Power BI, celui-
ci peut ensuite envoyer des requêtes supplémentaires (par exemple, à la source de
données sous-jacente ou à la passerelle) qui sont également soumises à la latence du
réseau.
Des outils tels que Azure Speed Test donnent une indication de la latence du réseau
entre le client et la région Azure. De manière générale, pour minimiser l’impact de la
latence du réseau, essayez de rapprocher le plus possible les sources de données, les
passerelles et votre capacité Power BI. De préférence, elles se trouvent dans la même
région. Si la latence du réseau pose problème, essayez de rapprocher les passerelles et
les sources de données de votre capacité Power BI en les plaçant sur des machines
virtuelles hébergées sur le cloud.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse aux modélisateurs de données développant des modèles dans
Power BI Desktop. Il fournit des conseils sur les bonnes pratiques pour savoir quand et
comment utiliser le Query Folding de Power Query.
Le Query Folding permet à une requête Power Query de générer une seule instruction
de requête afin de récupérer et transformer des données sources. Pour plus
d’informations, consultez Query Folding de Power Query.
Guidance
L’aide sur le Query Folding diffère selon le mode du modèle.
Pour une table avec un mode de stockage DirectQuery ou Double, la requête Power
Query doit utiliser le Query Folding.
Pour une table d’importation, vous pouvez peut-être utiliser le Query Folding. Quand
une requête est basée sur une source relationnelle, et dans l’hypothèse où une seule
instruction SELECT peut être construite, vous obtenez les meilleures performances
d’actualisation des données en garantissant le Query Folding. Si le moteur mashup
Power Query est toujours nécessaire pour traiter les transformations, vous devez vous
efforcer de réduire au minimum le travail qu’il doit effectuer, en particulier pour les
modèles sémantiques volumineux (précédemment appelés jeux de données).
Pour une source de données relationnelle, si l’étape qui empêche le Query Folding
peut être obtenue dans une seule instruction SELECT (ou dans la logique
procédurale d’une procédure stockée), utilisez une requête SQL native, comme
décrit ci-après.
Utiliser une requête SQL native : Quand une requête Power Query récupère des
données d’une source relationnelle, il est possible d’utiliser une requête SQL
native. La requête peut en fait être toute instruction valide, y compris l’exécution
d’une procédure stockée. Si l’instruction génère plusieurs jeux de résultats, seul le
premier est retourné. Les paramètres peuvent être déclarés dans l’instruction et
nous vous recommandons d’utiliser la fonction M Value.NativeQuery. Cette
fonction a été conçue pour passer des valeurs de paramètre de manière sécurisée
et pratique. Comprenez bien que le moteur mashup Power Query ne peut pas plier
les étapes de requête ultérieures. Vous devez donc inclure toute la logique de
transformation (dans la mesure du possible) dans l’instruction de requête native.
Quand vous utilisez des requêtes SQL natives, gardez à l’esprit deux points
importants :
Pour une table de modèle DirectQuery, la requête doit être une instruction
SELECT et ne peut pas utiliser d’expressions de table communes (CTE) ou de
procédure stockée.
L’actualisation incrémentielle ne peut pas utiliser de requête SQL native. Elle
force donc le moteur mashup Power Query à récupérer toutes les lignes
sources, puis à appliquer des filtres pour déterminer les changements
incrémentiels.
) Important
Une requête SQL native ne se limite pas forcément à récupérer des données.
Toute instruction valide peut être exécutée (éventuellement plusieurs fois), y
compris pour modifier ou supprimer des données. Appliquez bien le principe
du moindre privilège pour veiller à ce que le compte utilisé pour accéder à la
base de données ait uniquement une autorisation de lecture sur les données
demandées.
Préparer et transformer les données dans la source : Quand vous déterminez que
certaines étapes de requête Power Query ne peuvent pas être pliées, vous pouvez
parfois appliquer les transformations dans la source de données. Pour obtenir les
transformations, vous écrivez une vue de base de données qui transforme
logiquement les données sources. Vous pouvez aussi préparer physiquement les
données et les matérialiser avant que Power BI ne les interroge. Généralement
composé de sources pré-intégrées de données organisationnelles, un entrepôt de
données relationnelles est un excellent exemple de données préparées.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il vous guide dans la définition de requêtes Power Query qui référencent
d'autres requêtes.
Qu’est-ce que cela signifie ? Lorsqu'une requête référence une seconde requête, c'est
comme si les étapes de la seconde requête étaient combinées avec les étapes de la
première requête et s'exécutaient avant elles.
Considérons plusieurs requêtes : Requête1 extrait les données d'un service web, et sa
charge est désactivée. Requête2, Requête3 et Requête4 référencent toutes Requête1, et
leurs sorties sont chargées dans le modèle de données.
Lorsque le modèle de données est actualisé, on suppose souvent que Power Query
récupère le résultat Requête1 et qu'il est réutilisé par des requêtes référencées. Ce
raisonnement est incorrect. En fait, Power Query exécute Requête2, Requête3 et
Requête4 séparément.
Vous pouvez penser que Requête2 intègre les étapes de Requête1. C'est aussi le cas
pour Requête3et Requête4. Le diagramme suivant présente une image plus claire de la
façon dont les requêtes sont exécutées.
Requête1 est exécutée trois fois. Les multiples exécutions peuvent ralentir l’actualisation
des données et avoir un impact négatif sur la source de données.
7 Notes
Recommandations
En général, nous vous recommandons de référencer les requêtes pour éviter la
duplication de la logique dans vos autres requêtes. Comme le décrit le présent article,
cette approche de conception risque toutefois de ralentir l’actualisation des données et
surcharger les sources de données.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Par défaut, quand Power Query importe des données, il met également en cache jusqu’à
1000 lignes de données d’aperçu pour chaque requête. Ce sont ces données d’aperçu
qui vous permettent d’avoir un aperçu rapide des données sources et des résultats de
transformation pour chaque étape de vos requêtes. Elles sont stockées séparément sur
disque et non pas dans le fichier Power BI Desktop.
Recommandation
Pour une actualisation plus rapide, définissez le fichier Power BI Desktop pour mettre à
jour le cache d’aperçu en arrière-plan. Pour ce faire, dans Power BI Desktop, sélectionnez
Fichier > Options et paramètres > Options, puis sélectionnez la page Chargement de
données. Vous pouvez alors activer l’option Autoriser le téléchargement de l’aperçu des
données en arrière-plan. Notez que cette option peut uniquement être définie pour le
fichier actuel.
L’actualisation en arrière-plan peut entraîner la péremption de certaines données
d’aperçu. Si c’est le cas, l’éditeur Power Query vous avertit avec l’avertissement suivant :
Vous pouvez toujours mettre à jour le cache d’aperçu. Vous pouvez le mettre à jour pour
une seule requête ou pour toutes les requêtes à l’aide de la commande Actualiser
l’aperçu. Cette commande se trouve dans le ruban Accueil de la fenêtre de l’éditeur
Power Query.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Conseil
Vous pouvez également essayer Dataflow Gen2 dans Data Factory dans Microsoft
Fabric, une solution d'analyse tout-en-un pour les entreprises. Microsoft Fabric
couvre tous les aspects, du déplacement des données à la science des données, en
passant par l’analyse en temps réel, l’aide à la décision et la création de rapports.
Découvrez comment démarrer un nouvel essai gratuitement.
Conservez des données dans votre propre stockage Azure Data Lake Gen 2, ce qui
vous permet de les exposer à d’autres services Azure en dehors de Power BI.
Créez une source unique de vérité, organisée à partir de données brutes utilisant
des définitions standard du secteur d’activité, qui peut fonctionner avec d’autres
services et produits dans Power Platform. Encouragez l’adoption en supprimant
l’accès des analystes aux sources de données sous-jacentes.
Vous pouvez utiliser Power BI Desktop et le service Power BI avec des flux de données
pour créer des modèles sémantiques, des rapports, des tableaux de bord et des
applications qui utilisent Common Data Model. À partir de ces ressources, vous pouvez
obtenir des insights approfondis sur vos activités d’entreprise. La planification de
l’actualisation de flux de données est gérée directement à partir de l’espace de travail
dans lequel votre flux de données a été créé, tout comme vos modèles sémantiques.
7 Notes
Les flux de données peuvent ne pas être disponibles dans le service Power BI pour
tous les utilisateurs U.S. Government DoD. Pour plus d’informations sur les
fonctionnalités disponibles et non disponibles, consultez Disponibilité des
fonctionnalités Power BI pour les clients U.S. Government.
Contenu connexe
Cet article a fourni une vue d’ensemble de la préparation des données en libre-service
pour le Big Data dans Power BI et les nombreuses façons dont vous pouvez l’utiliser.
Les articles suivants vous permettront d’en savoir plus sur les dataflows et Power BI :
Pour plus d’informations sur le modèle Common Data Model, vous pouvez lire son
article de présentation :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article n’a pas pour but d’aborder par le menu la conception de schémas en étoile.
Pour plus d’informations, reportez-vous directement au contenu publié, comme The
Data Warehouse Toolkit : The Definitive Guide to Dimensional Modeling (3e édition, 2013)
par Ralph Kimball et d’autres.
Les tables de dimension décrivent les entités d’entreprise : les choses que vous
modélisez. Les entités peuvent inclure des produits, des personnes, des lieux et des
concepts, y compris le temps lui-même. La table la plus cohérente que vous trouverez
dans un schéma en étoile est une table de dimension de date. Une table de dimension
contient une ou plusieurs colonnes clés qui jouent le rôle d’identificateur unique et de
colonnes descriptives.
Les tables de faits stockent des observations ou des événements et peuvent être des
commandes client, des soldes de stock, des taux de change, des températures, etc. Une
table de faits contient des colonnes clés de dimension qui se rapportent aux tables de
dimension et des colonnes de mesures numériques. Les colonnes clés de dimension
déterminent la dimensionnalité d’une table de faits, tandis que les valeurs clés de
dimension déterminent sa granularité. Par exemple, imaginez une table de faits conçue
pour stocker des cibles de ventes qui a deux colonnes clés de dimension : Date et
ProductKey. Il est facile de comprendre que la table a deux dimensions. Toutefois, vous
ne pouvez pas déterminer la granularité sans tenir compte des valeurs clés de
dimension. Dans cet exemple, supposez que les valeurs stockées dans la colonne Date
sont le premier jour de chaque mois. Dans ce cas, la granularité se situe au niveau
produit/mois.
En règle générale, les tables de dimension contiennent un nombre relativement petit de
lignes. En revanche, les tables de faits peuvent contenir un très grand nombre de lignes
et croître au fil du temps.
Normalisation et dénormalisation
Pour comprendre certains concepts du schéma en étoile décrits dans cet article, il est
important de connaître ces deux termes : normalisation et dénormalisation.
La normalisation est le terme utilisé pour décrire les données stockées de manière à
réduire les données répétitives. Prenons l’exemple d’une table de produits qui a une
colonne de valeur de clé unique, comme la clé de produit, et des colonnes
supplémentaires qui décrivent les caractéristiques du produit, à savoir son nom, sa
catégorie, sa couleur et sa taille. Une table de ventes est considérée normalisée quand
elle stocke uniquement des clés, comme la clé de produit. Dans l’image suivante,
remarquez que seule la colonne ProductKey enregistre le produit.
Toutefois, si la table de ventes stocke des détails sur les produits qui vont au-delà de la
clé, elle est considérée comme étant dénormalisée. Dans l’image suivante, remarquez
que la colonne ProductKey et d’autres colonnes relatives aux produits enregistrent le
produit.
Quand vous sourcez des données à partir d’un fichier d’exportation ou d’une extraction
de données, elles représentent probablement un jeu de données dénormalisé. Dans ce
cas, utilisez Power Query pour transformer et mettre en forme les données sources en
plusieurs tables normalisées.
Comme décrit dans cet article, vous devez vous efforcer de développer des modèles de
données Power BI optimisés avec des tables qui représentent des données de fait et de
dimension normalisées. Toutefois, il existe une exception où une dimension en flocon
doit être dénormalisée pour produire une seule table de modèle.
Aucune propriété de table n’est définie par les modeleurs pour configurer le type de
table en tant que dimension ou que fait. En fait, c’est déterminé par les relations de
modèle. Une relation de modèle établit un chemin de propagation de filtre entre deux
tables, et c’est la propriété de cardinalité de la relation qui détermine le type de table.
Une cardinalité de relation courante est un-à-plusieurs ou son opposé, plusieurs-à-un.
Le côté « un » est toujours une table de type dimension, tandis que le côté « plusieurs »
est toujours une table de type fait. Pour plus d’informations sur les relations, consultez
Relations de modèle dans Power BI Desktop.
Une conception de modèle bien structurée doit inclure des tables de type dimension ou
de type fait. Évitez de combiner les deux types pour une même table. Nous vous
recommandons également de faire votre possible pour fournir le bon nombre de tables
avec les bonnes relations en place. Il est également important que les tables de type fait
chargent toujours les données avec une granularité cohérente.
Enfin, il est important de comprendre que la conception optimale du modèle relève
pour partie de la science et pour partie de l’art. N’hésitez pas à vous écarter des
recommandations habituelles si cela est judicieux.
Mesures
Clés de substitution
Dimensions en flocon
Dimensions de rôle actif
Dimension à variation lente
Dimensions fourre-tout
Dimensions de fait
Tables de faits sans faits
Mesures
Dans la conception d’un schéma en étoile, une mesure est une colonne de table de faits
qui stocke les valeurs à totaliser.
Dans un modèle Power BI, une mesure a une définition différente (mais similaire). Il
s’agit d’une formule écrite en Dax (Data Analysis Expressions) qui réalise une
totalisation. Les expressions de mesure exploitent souvent les fonctions d’agrégation
DAX comme SUM, MIN, MAX ou AVERAGE pour produire un résultat de valeur scalaire
au moment de la requête (les valeurs ne sont jamais stockées dans le modèle). Une
expression de mesure peut aller de simples agrégations de colonnes à des formules plus
sophistiquées qui remplacent la propagation de relation et/ou de contexte de filtre.
Pour plus d’informations, consultez l’article Principes fondamentaux de DAX dans Power
BI Desktop.
Il est important de comprendre que les modèles Power BI prennent en charge une
deuxième méthode pour effectuer une totalisation. Toute colonne (généralement les
colonnes numériques) peut être totalisée par un visuel de rapport ou Questions et
réponses. Ces colonnes sont appelées mesures implicites. En tant que développeur de
modèles, elles vous sont pratiques parce que, dans de nombreux cas, vous n’avez pas
besoin de créer de mesures. Par exemple, la colonne Sales Amount de la table Reseller
Sales d’Adventure Works peut être totalisée de nombreuses façons (somme, nombre,
moyenne, valeur médiane, valeur minimale, valeur maximale, etc.), sans qu’il soit
nécessaire de créer une mesure pour chaque type d’agrégation possible.
Toutefois, il existe trois raisons impérieuses de créer des mesures, même pour des
totalisations simples au niveau des colonnes :
Quand vous savez que vos auteurs de rapports sont susceptibles d’interroger le
modèle en utilisant MDX (expressions multidimensionnelles), le modèle doit inclure
des mesures explicites. Les mesures explicites sont définies en utilisant DAX. Cette
approche de conception est très appropriée quand un jeu de données Power BI est
interrogé avec MDX, car MDX ne peut pas totaliser les valeurs de colonne. MDX est
notamment utilisé avec Analyser dans Excel, car PivotTables émet des requêtes
MDX.
Quand vous savez que vos auteurs de rapports sont susceptibles de créer des
rapports paginés Power BI à l’aide du concepteur de requêtes MDX, le modèle doit
inclure des mesures explicites. Seul le concepteur de requêtes MDX prend en
charge les agrégats de serveur. Par conséquent, si les auteurs de rapports doivent
faire évaluer les mesures par Power BI (et non par le moteur de rapport paginé), ils
doivent utiliser le concepteur de requêtes MDX.
Si vous devez vous assurer que vos auteurs de rapports peuvent uniquement
totaliser des colonnes de manière spécifique. Par exemple, la colonne Unit Price de
la table Reseller Sales (qui représente un tarif par unité) peut être totalisée, mais
uniquement à l’aide de fonctions d’agrégation spécifiques. Elle ne doit jamais être
cumulée, mais il est approprié de la totaliser à l’aide d’autres fonctions
d’agrégation (valeur minimale, valeur minimale, moyenne, etc.). Dans ce cas, le
modélisateur peut masquer la colonne Unit Price et créer des mesures pour toutes
les fonctions d’agrégation appropriées.
Cette approche de conception fonctionne bien pour les rapports créés dans le service
Power BI et pour Questions et réponses. Toutefois, les connexions actives Power BI
Desktop permettent aux auteurs de rapports d’afficher les champs masqués dans le
volet Champs, ce qui peut entraîner le contournement de cette approche de conception.
Clés de substitution
Une clé de substitution est un identificateur unique que vous ajoutez à une table pour
prendre en charge la modélisation de schémas en étoile. Par définition, elle n’est ni
définie ni stockée dans les données sources. En règle générale, les clés de substitution
sont ajoutées aux tables de dimension des entrepôts de données relationnels afin de
fournir un identificateur unique pour chaque ligne de la table de dimension.
Les relations des modèles Power BI sont basées sur une seule colonne unique dans une
table, qui propage les filtres à une colonne unique dans une autre table. Quand une
table de type dimension dans votre modèle n’inclut pas de colonne unique, vous devez
ajouter un identificateur unique en guise de côté « un » d’une relation. Dans Power BI
Desktop, vous pouvez facilement remplir cette exigence en créant une colonne d’index
Power Query.
Vous devez fusionner cette requête avec la requête côté « plusieurs » afin de pouvoir y
ajouter également la colonne d’index. Quand vous chargez ces requêtes dans le modèle,
vous pouvez créer une relation un-à-plusieurs entre les tables du modèle.
Dimensions en flocon
Une dimension en flocon est un ensemble de tables normalisées pour une entité métier
unique. Par exemple, Adventure Works classe les produits par catégorie et sous-
catégorie. Les produits sont affectées à des sous-catégories, et les sous-catégories sont
à leur tour affectés à des catégories. Dans l’entrepôt de données relationnel Adventure
Works, la dimension des produits est normalisée et stockée dans trois tables associées :
DimProductCategory, DimProductSubcategory et DimProduct.
En faisant appel à votre imagination, vous pouvez vous figurer les tables normalisées
positionnées à l’extérieur de la table de faits, formant une conception en flocon.
Dans Power BI Desktop, vous pouvez choisir de simuler une conception de dimension en
flocon (peut-être parce que vos données sources le font) ou d’intégrer (dénormaliser)
les tables sources en une table de modèle unique. En règle générale, une table de
modèle unique présente plus d’avantages que plusieurs tables de modèle. La décision la
plus optimale peut dépendre des volumes de données et des exigences de facilité
d’utilisation du modèle.
Power BI charge davantage de tables, ce qui est moins efficace du point de vue du
stockage et des performances. Ces tables doivent inclure des colonnes pour
prendre en charge les relations du modèle, ce qui peut agrandir la taille de ce
dernier.
Des chaînes de propagation de filtres de relation plus longues doivent être
parcourues, ce qui est probablement moins efficace que l’application de filtres à
une table unique.
Le volet Champs présente davantage de tables de modèle aux auteurs de rapports,
ce qui peut se traduire par une expérience moins intuitive, en particulier quand les
tables de dimension en flocon contiennent seulement une ou deux colonnes.
Il n’est pas possible de créer une hiérarchie qui englobe les tables.
Quand vous choisissez d’effectuer une intégration à une table de modèle unique, vous
pouvez également définir une hiérarchie qui englobe les niveaux de granularité les plus
bas et élevé de la dimension. Éventuellement, le stockage de données dénormalisées
redondantes peut entraîner une augmentation de la taille de stockage du modèle, en
particulier pour les tables de dimension très grandes.
Dimension à variation lente
Une dimension à variation lente (SCD) est une dimension qui gère correctement les
modifications des membres de la dimension au fil du temps. Elle s’applique quand les
valeurs des entités d’entreprise changent au fil du temps et de manière ad hoc. Un bon
exemple de dimension à variation lente est une dimension de clients, en particulier ses
colonnes de détails de contact telles que l’adresse e-mail et le numéro de téléphone. En
revanche, certaines dimensions sont considérées comme évoluant rapidement quand un
attribut de dimension change souvent, comme le prix du marché d’une action.
L’approche de conception courante dans ces cas consiste à stocker les valeurs d’attribut
à variation rapide dans une mesure de table de faits.
SCD de type 1
Une SCD de Type 1 reflète toujours les valeurs les plus récentes ; ainsi, quand des
modifications sont détectées dans les données sources, les données de la table de
dimension sont remplacées. Cette approche de conception est courante pour les
colonnes qui stockent des valeurs complémentaires, telles que l’adresse e-mail ou le
numéro de téléphone d’un client. Quand l’adresse e-mail ou le numéro de téléphone
d’un client change, la table de dimension met à jour la ligne du client avec les nouvelles
valeurs. C’est comme si le client avait toujours eu ces informations de contact.
Une actualisation non incrémentielle d’une table de type dimension du modèle Power BI
atteint le résultat d’une SCD de type 1. Elle actualise les données de la table afin que les
valeurs les plus récentes soient chargées.
SCD de type 2
Une SCD de Type 2 prend en charge la gestion de version des membres de dimension.
Si le système source ne stocke pas de versions, c’est généralement le processus de
chargement de l’entrepôt de données qui détecte les modifications et gère de manière
appropriée la modification dans une table de dimension. Dans ce cas, la table de
dimension doit utiliser une clé de substitution pour fournir une référence unique à une
version du membre de dimension. Elle comprend également des colonnes qui
définissent la validité de la plage de dates de la version (par exemple, StartDate et
EndDate) et éventuellement une colonne d’indicateur (par exemple, IsCurrent) pour
filtrer facilement en fonction des membres de dimension actuels.
Par exemple, Adventure Works affecte des vendeurs à une région de ventes. Quand un
vendeur change de région, une version du vendeur doit être créée pour que les faits
historiques restent associés à l’ancienne région. Pour prendre en charge une analyse
historique précise des ventes par vendeur, la table de dimension doit stocker les
versions des vendeurs et leur(s) région(s) associée(s). La table doit également inclure des
valeurs de date de début et de fin pour définir la durée de validité. Les versions actuelles
peuvent définir une date de fin vide (ou 12/31/9999), qui indique que la version de la
ligne est la version actuelle. La table doit également définir une clé de substitution, car
la clé d’entreprise (en l’occurrence, l’ID d’employé) n’est pas unique.
Il est important de comprendre que quand les données sources ne stockent pas de
versions, vous devez utiliser un système intermédiaire (comme un entrepôt de données)
pour détecter et stocker les modifications. Le processus de chargement de table doit
conserver les données existantes et détecter les modifications. Quand une modification
est détectée, le processus de chargement de table doit faire expirer la version actuelle. Il
enregistre ces modifications en mettant à jour la valeur EndDate et insère une nouvelle
version dont la valeur StartDate commence par la valeur EndDate précédente. En outre,
les faits connexes doivent utiliser une recherche basée sur le temps pour récupérer la
valeur de clé de dimension correspondant à la date de fait. Un modèle Power BI utilisant
Power Query ne peut pas produire ce résultat. Toutefois, il peut charger des données à
partir d’une table de dimension SCD de type 2 préchargée.
Le modèle Power BI doit prendre en charge l’interrogation des données d’historique
pour un membre, quelle que soit la modification, et pour une version du membre, qui
représente un état particulier du membre dans le temps. Dans le contexte d’Adventure
Works, cette conception vous permet d’interroger les données du vendeur, quelle que
soit la région de vente affectée, ou pour une version particulière du vendeur.
Pour y parvenir, la table de type dimension du modèle Power BI doit inclure une colonne
pour filtrer le vendeur et une autre colonne pour filtrer une version spécifique du
vendeur. Il est important que la colonne de la version fournisse une description non
ambiguë, telle que « Michael Blythe (12/15/2008-06/26/2019) » ou « Michael Blythe
(Current) ». Il est également important de former les consommateurs et les auteurs de
rapports aux principes de base de la dimension SCD de type 2 et de leur montrer
comment obtenir des conceptions de rapport appropriées en appliquant des filtres
corrects.
Une bonne pratique de conception consiste également à inclure une hiérarchie qui
permet aux visuels d’accéder au niveau de version.
Dimensions de rôle actif
Une dimension de rôle actif est une dimension qui peut filtrer des faits liés
différemment. Par exemple, dans Adventure Works, la table de dimension de date a trois
relations avec les faits de ventes des revendeurs. La même table de dimension peut être
utilisée pour filtrer les faits par date de commande, date d’expédition ou date de
livraison.
Dans un modèle Power BI, vous pouvez imiter cette conception en créant plusieurs
relations entre deux tables. Dans l’exemple Adventure Works, les tables Date et Reseller
Sales auraient trois relations. Même si cette conception est possible, il est important de
comprendre qu’il ne peut y avoir qu’une seule relation active entre deux tables de
modèle Power BI. Toutes les autres relations doivent être définies comme étant inactives.
Le fait d’avoir une relation active unique signifie qu’il existe une propagation de filtre
par défaut depuis les données de date vers les données des ventes des revendeurs.
Dans ce cas, la relation active est définie sur le filtre le plus courant utilisé par les
rapports, ce qui, dans Adventure Works, correspond à la relation de la date de
commande.
La seule façon d’utiliser une relation inactive consiste à définir une expression Dax qui
utilise la fonction USERELATIONSHIP. Dans notre exemple, le développeur de modèle
doit créer des mesures pour permettre l’analyse des ventes des revendeurs par date
d’expédition et date de livraison. Ce travail peut être fastidieux, en particulier quand la
table des revendeurs définit de nombreuses mesures. En outre, elle encombre le volet
Champs d’une surabondance de mesures. Il existe également d’autres limitations :
Quand les auteurs de rapports s’appuient sur des colonnes de totalisation, au lieu
de définir des mesures, ils ne peuvent pas obtenir de totalisation pour les relations
inactives sans écrire de mesure au niveau du rapport. Les mesures au niveau du
rapport peuvent être définies uniquement lors de la création de rapports dans
Power BI Desktop.
Avec un seul chemin de relation actif entre les données des ventes des revendeurs
et les données des dates, il n’est pas possible de filtrer simultanément les ventes
des revendeurs par différents types de dates. Par exemple, vous ne pouvez pas
produire un visuel qui trace les ventes par date de commande par ventes livrées.
Observez les bonnes pratiques de conception suivantes quand vous créez des tables de
type dimension de modèle pour chaque rôle :
Assurez-vous que les noms de colonne sont explicites. Bien qu’il soit possible
d’avoir une colonne Year dans toutes les tables de dates (les noms de colonnes
sont uniques dans la table concernée), ce n’est pas explicite à l’échelle des titres de
visuels par défaut. Envisagez de renommer les colonnes dans chaque table de rôle
de dimension, afin que la table Ship Date ait une colonne d’années nommée Ship
Year, et ainsi de suite.
Le cas échéant, vérifiez que les descriptions de table fournissent des commentaires
aux auteurs de rapports (par le biais des info-bulles du volet Champs) sur la façon
dont la propagation de filtre est configurée. Cette clarté est importante quand le
modèle contient une table nommée de façon générique, comme Date, qui est
utilisée pour filtrer de nombreuses tables de type fait. Dans le cas où cette table a,
par exemple, une relation active avec la colonne des dates de commandes client
des revendeurs, envisagez de fournir une description de table telle que « Filtre les
ventes des revendeurs par date de commande ».
Dimensions fourre-tout
Une dimension fourre-tout est utile quand il existe de nombreuses dimensions, en
particulier composées de quelques attributs (peut-être un seul) ayant peu de valeurs.
Les colonnes d’état des commandes ou les colonnes de données démographiques sur
les clients (sexe, tranche d’âge, etc.) sont de bons candidats.
Une table de dimension fourre-tout est généralement le produit cartésien de tous les
membres d’attribut de dimension, avec une colonne de clé de substitution. La clé de
substitution fournit une référence unique à chaque ligne de la table. Vous pouvez
générer la dimension dans un entrepôt de données, ou en utilisant Power Query pour
créer une requête qui effectue des jointures de requêtes externes entières, puis ajoute
une clé de substitution (colonne d’index).
Vous chargez cette requête dans le modèle en tant que table de type dimension. Vous
devez également fusionner cette requête avec la requête de faits, afin que la colonne
d’index soit chargée dans le modèle pour prendre en charge la création d’une relation
de modèle « un-à-plusieurs ».
Dimensions de fait
Une dimension de fait désigne un attribut de la table de faits requis pour le filtrage.
Dans Adventure Works, le numéro de commande client des revendeurs est un bon
exemple. Dans ce cas, cela n’a pas de sens pour la conception du modèle de créer une
table indépendante composée uniquement de cette colonne, car il en résulterait une
augmentation de la taille de stockage du modèle et un encombrement du volet
Champs.
Dans le modèle Power BI, il peut être approprié d’ajouter la colonne des numéros de
commande client à la table de type fait pour autoriser le filtrage ou le regroupement par
numéro de commande client. Il s’agit d’une exception à la règle introduite
précédemment, selon laquelle vous ne devez pas combiner des types de tables (en
général, les tables de modèle doivent être de type dimension ou fait).
Toutefois, si la table des ventes des revendeurs Adventure Works contient des colonnes
de numéro de commande et de numéro de ligne de commande qui sont requises pour
le filtrage, une table de dimension de fait constitue un bon choix. Pour plus
d’informations, consultez l’Aide sur les relations un-à-un (dégénérer les dimensions).
Une table de faits sans faits peut stocker les observations définies par les clés de
dimension. Par exemple, à une date et une heure particulières, un client particulier s’est
connecté à votre site web. Vous pouvez définir une mesure pour compter les lignes de la
table de faits sans faits afin d’analyser à quel moment les clients se sont connectés et
leur nombre.
Une utilisation plus attrayante d’une table de faits sans faits consiste à stocker les
relations entre les dimensions, approche de conception de modèle Power BI que nous
vous recommandons pour définir les relations plusieurs-à-plusieurs. Dans une
conception de relation de dimension plusieurs-à-plusieurs, la table de faits sans faits est
appelée table de pontage.
Par exemple, considérez que les vendeurs peuvent être attribués à une ou plusieurs
régions de vente. La table de pontage est conçue comme une table de faits sans faits
composée de deux colonnes : clé de vendeur et clé de région. Les valeurs dupliquées
peuvent être stockées dans les deux colonnes.
Contenu connexe
Pour plus d’informations sur la conception du schéma en étoile ou sur la conception de
modèles Power BI, consultez les articles suivants :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse aux modélisateurs de données Power BI Desktop développant des
modèles d’importation. Il décrit différentes techniques permettant de réduire les
données chargées dans les modèles d’importation.
Les modèles d’importation sont chargés avec des données qui sont compressées et
optimisées, puis stockées sur disque par le moteur de stockage VertiPaq. Lorsque les
données sources sont chargées en mémoire, il est possible d'observer une compression
10x. Il est donc raisonnable de s'attendre à ce que 10 Go de données sources puissent
être compressées jusqu'à une taille d'environ 1 Go. De plus, en cas de persistance sur le
disque, une réduction supplémentaire de 20 % peut être obtenue.
Malgré l'efficacité obtenue par le moteur de stockage VertiPaq, il est important que vous
vous efforciez de minimiser les données à charger dans vos modèles. C’est
particulièrement vrai pour les modèles volumineux ou qui sont amenés à croître au fil
du temps. Voici quatre raisons intéressantes :
Les tailles de modèle supérieures peuvent ne pas être prises en charge par votre
capacité. La capacité partagée peut héberger des modèles avec une taille
maximale de 1 Go, tandis que les capacités Premium peuvent héberger de plus
grands modèles en fonction du niveau tarifaire. Pour plus d’informations, lisez
l’article Prise en charge de Power BI Premium pour les grands modèles
sémantiques. (Les modèles sémantiques étaient auparavant appelés ensembles de
données.)
Les tailles de modèle plus petites réduisent la contention des ressources de
capacité, en particulier la mémoire. Cela permet de charger simultanément un plus
grand nombre de modèles pendant des périodes plus longues, ce qui réduit les
taux d’éviction.
Les modèles plus petits permettent une actualisation des données plus rapide, ce
qui se traduit par des rapports de latence plus faibles, un débit d'actualisation du
modèle sémantique plus élevé et une pression moindre sur le système source et
les ressources de capacité.
La réduction du nombre de lignes de table peut entraîner une accélération des
évaluations de calcul, ce qui peut améliorer les performances globales des
requêtes.
) Important
Cet article fait parfois référence à Power BI Premium ou à ses abonnements de
capacité (références SKU P). Sachez que Microsoft regroupe actuellement des
options d’achat et met hors service les références SKU Power BI Premium par
capacité. Les clients nouveaux et existants doivent plutôt envisager l’achat
d’abonnements de capacité Fabric (références SKU F).
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Cet article aborde huit techniques de réduction des données. Ces techniques sont les
suivantes :
Les colonnes qui ne sont pas utilisées à ces fins peuvent probablement être supprimées.
La suppression de colonnes est appelée filtrage vertical.
Le filtrage basé sur le temps implique de limiter la quantité d’historique des données
chargée dans les tables de type fait (et de limiter les lignes de date chargées dans les
tables de dates de modèle). Nous vous suggérons de ne pas charger automatiquement
tout l'historique disponible, sauf s'il s'agit d'une exigence de création de rapports
connue. Il est utile de comprendre que les filtres Power Query basés sur le temps
peuvent être paramétrés, et même configurés pour utiliser des périodes de temps
relatives (par rapport à la date d’actualisation, par exemple les cinq dernières années).
Gardez également à l’esprit que les modifications rétrospectives apportées aux filtres
temporels n’interrompront pas les rapports ; cela entraînera simplement moins (ou plus)
d'historique de données disponible dans les rapports.
Par exemple, une table de faits de ventes source stocke une ligne par ligne de
commande. Vous pouvez réduire significativement les données en totalisant toutes les
métriques de ventes, en regroupant par date, client et produit. Considérez alors qu'une
réduction encore plus significative des données pourrait être obtenue en regroupant par
date au niveau du mois. Cela peut représenter une réduction de 99 % de la taille du
modèle, mais la création de rapports au niveau du jour ou d’une commande spécifique
n’est plus possible. La décision de totaliser des données de types de fait implique
toujours un compromis. Ce compromis peut être atténué par une conception de modèle
mixte, dont vous trouverez la description dans l’article Basculer vers le mode mixte.
Dans certains cas spécifiques, vous pouvez convertir des données de texte source en
valeurs numériques. Par exemple, un numéro de commande client peut être
systématiquement préfixé par une valeur textuelle (par exemple « SO123456 »). Le
préfixe peut être supprimé et la valeur du numéro de commande convertie en nombre
entier. Pour les grandes tables, cela peut entraîner une réduction significative des
données, en particulier quand la colonne contient des valeurs de cardinalité uniques ou
élevées.
Dans cet exemple, nous vous recommandons de définir la propriété Total par défaut de
la colonne sur « Ne pas totaliser ». Cela permet de minimiser le résumé inapproprié des
valeurs des numéros de commande.
Contenu connexe
Pour plus d’informations sur la conception de modèles d’importation Power BI,
consultez les articles suivants :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit les bonnes pratiques de conception pour créer des tables de dates
dans vos modèles de données lorsque vous utilisez Power BI Desktop.
Pour utiliser les fonctions Time Intelligence DAX (Data Analysis Expressions), vous devez
respecter un prérequis : votre modèle doit comporter au moins une table de dates. Une
table de dates est une table qui répond aux exigences suivantes :
" Elle doit avoir une colonne dont le type de données est date (ou date/heure),
appelée colonne de dates.
" La colonne de dates doit contenir des valeurs uniques.
" La colonne de dates ne doit pas contenir de valeurs vides.
" Il ne doit pas y avoir de dates manquantes dans la colonne de dates.
" La colonne de dates doit couvrir des années entières. Une année n’est pas
nécessairement une année civile (janvier-décembre).
" La table de dates doit être marquée comme table de dates.
Vous pouvez utiliser l’une des techniques suivantes pour ajouter une table de dates à
votre modèle :
Conseil
Si vous développez un modèle DirectQuery et que votre source de données n’inclut pas
de table de dates, nous vous recommandons vivement d’en ajouter une à la source de
données. Elle doit remplir toutes les exigences de modélisation d’une table de dates.
Vous pouvez ensuite utiliser Power Query pour vous y connecter. Vos calculs de modèle
pourront ainsi tirer parti des capacités Time Intelligence de DAX.
Conseil
Si vous devez générer une table de dates, envisagez de le faire avec DAX. Vous
trouverez peut-être cette solution plus facile. Elle se révèlera par ailleurs probablement
plus pratique, car DAX comprend des fonctionnalités intelligentes intégrées qui
simplifient la création et la gestion des tables de dates.
Utilisez la fonction CALENDAR lorsque vous souhaitez définir une plage de dates.
Vous lui transmettez deux valeurs : la date de début et la date de fin. Ces valeurs
peuvent être définies par d’autres fonctions DAX, comme MIN(Sales[OrderDate])
ou MAX(Sales[OrderDate]) .
Utilisez la fonction CALENDARAUTO si vous souhaitez que la plage de dates
englobe automatiquement toutes les dates stockées dans le modèle. Vous pouvez
transmettre un seul paramètre facultatif correspondant au dernier mois de l’année
(ce n’est pas nécessaire si votre année est une année civile, qui se termine en
décembre). Il s’agit d’une fonction utile, car elle garantit que des années entières
de dates sont retournées, ce qui fait partie des exigences des table de dates
marquées. De plus, vous n’avez pas besoin de gérer l’extension de la table pour les
années à venir : à la fin de chaque actualisation des données, le recalcul de la table
est déclenché, ce qui permet d’étendre automatiquement la plage de dates de la
table lorsque les dates d’une nouvelle année sont chargées dans le modèle.
Conseil
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Considérations
La liste à puces suivante décrit les considérations, et les éventuelles limites, liées à
l'option Date/heure automatique.
Filtrage par année : Les valeurs des colonnes Trimestre, Mois et Jour n'incluent
pas la valeur année. Par exemple, la colonne Mois contient uniquement les noms
des mois (c'est-à-dire janvier, février, etc.). Les valeurs ne sont pas totalement
auto-descriptives et, dans certains rapports, les conceptions de rapports peuvent
ne pas communiquer le contexte du filtre d'année.
C'est pourquoi il est important d’appliquer les filtres ou le regroupement à la
colonne Année. En cas de descente dans la hiérarchie, les données seront filtrées
par année, sauf si le niveau Année a été intentionnellement supprimé. S'il n'y a
aucun filtre ou regroupement par année, un regroupement par mois, par exemple,
peut résumer les valeurs de toutes les années pour ce mois.
Filtrage de la date dans une seule table : Comme chaque colonne de date produit
sa propre table de date/heure automatique (masquée), il n'est pas possible
d'appliquer un filtre horaire à une table et de le propager à plusieurs tables de
modèles. Le filtrage de cette façon est une exigence commune de modélisation
lorsqu'il s'agit d'établir des rapports sur plusieurs sujets (tableaux de type fait)
comme des ventes et un budget des ventes. Lors de l'utilisation de la
fonctionnalité de date/heure automatique, l'auteur du rapport devra appliquer des
filtres à chacune des différentes colonnes de date.
Taille du modèle : Chaque colonne de date qui génère une table de date/heure
automatique masquée entraîne une augmentation de la taille du modèle et un
allongement du délai d’actualisation des données.
Autres outils de création de rapports : Il n’est pas possible d’utiliser des tables de
date/heure automatiques dans les cas suivants :
Utilisation de Analyser dans Excel.
Utilisation des concepteurs de requêtes Analysis Services pour des rapports
paginés Power BI.
Connexion au modèle avec des concepteurs de rapports non-Power BI.
Recommandations
Nous vous recommandons de garder l'option Date/heure automatique activée
uniquement lorsque vous utilisez des périodes calendaires et lorsque vous avez des
exigences de modèle simplistes par rapport au temps. L'utilisation de cette option peut
également être pratique lors de la création de modèles ad hoc ou de l'exploration ou du
profilage de données.
Si votre source de données définit déjà une table de dimensions de date, cette table
doit être utilisée pour définir de façon cohérente le temps au sein de votre organisation.
Ce sera certainement le cas si votre source de données est un entrepôt de données.
Sinon, vous pouvez générer des tables de dates dans votre modèle en utilisant les
fonctions DAX CALENDAR ou CALENDARAUTO. Vous pouvez ensuite ajouter des
colonnes calculées pour prendre en charge les exigences connues en matière de filtrage
et de regroupement du temps. Cette approche de conception vous permet de créer une
table de dates unique qui se propage à toutes les tables de type fait, générant ainsi une
seule table pour appliquer des filtres temporels. Pour plus d'informations sur la création
de tables de date, lisez l'article Définir et utiliser des tables de dates dans Power BI
Desktop.
Conseil
Si l'option Date/heure automatique n'est pas adaptée à vos projets, nous vous
recommandons de désactiver l'option globale Date/heure automatique. Vous aurez ainsi
la garantie que tous les nouveaux fichiers Power BI Desktop que vous créerez
n'activeront pas l'option Date/heure automatique.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il vous fournit une aide pour l’utilisation des relations de modèle un-à-un. Une
relation un-à-un peut être créée lorsque les deux tables contiennent chacune une
colonne de valeurs communes et uniques.
7 Notes
La présentation des relations de modèle n’est pas abordée dans cet article. Si vous
ne connaissez pas bien les relations, leurs propriétés ni la façon de les configurer,
nous vous recommandons de lire d’abord l’article Relations de modèle dans Power
BI Desktop.
Dégénérer les dimensions : Vous pouvez dériver une dimension dégénérée d’une
table de type de fait.
Les données de ligne s’étendent sur les tables : Une entité ou un objet métier
unique est chargé comme deux tables de modèle (ou plus), peut-être parce que
leurs données proviennent de magasins de données différents. Ce scénario peut
concerner les tables de type dimension. Par exemple, les détails du produit maître
sont stockés dans un système de vente opérationnel et les détails supplémentaires
du produit dans une autre source.
Toutefois, il est rare que vous mettiez en relation deux tables de type fait avec une
relation un-à-un. Cela est dû au fait que les deux tables de type fait doivent avoir
la même dimensionnalité et la même granularité. En outre, chaque table de type
fait aurait besoin de colonnes uniques pour permettre de créer la relation de
modèle.
Dimensions de fait
Lorsque les colonnes d’une table de type fait sont utilisées pour le filtrage ou le
regroupement, vous pouvez envisager de les rendre disponibles dans une table
distincte. De cette façon, vous séparez les colonnes utilisées pour le filtrage ou le
regroupement des colonnes utilisées pour résumer les lignes de faits. Grâce a cette
séparation, vous pouvez effectuer les opérations suivantes :
Prenons l’exemple d’une table des ventes source qui stocke les détails des commandes
clients dans deux colonnes.
Dans le diagramme de modèle suivant, notez que les colonnes Numéro de commande
et Numéro de ligne de commande n’ont pas été chargées dans la table Ventes. Au lieu
de cela, leurs valeurs ont été utilisées pour créer une colonne de clés de substitution
nommée SalesOrderLineID. (La valeur de clé est calculée en multipliant le numéro de
commande par 1 000, puis en ajoutant le numéro de la ligne de commande.)
La table Commande client fournit une expérience riche pour les auteurs de rapports
avec trois colonnes : Commande client, Ligne de commande client et Numéro de ligne.
Elle comprend également une hiérarchie. Ces ressources de table prennent en charge les
conceptions de rapports qui doivent filtrer, regrouper ou parcourir les commandes et les
lignes de commande.
Comme la table Commande client est dérivée des données de ventes, il devrait y avoir
exactement le même nombre de lignes dans chaque table. De plus, il devrait y avoir des
valeurs correspondantes entre chaque colonne SalesOrderLineID.
La première table est nommée Produit et contient trois colonnes : Couleur, Produit et
SKU. La deuxième table est nommée Catégorie de produit et contient deux colonnes :
Catégorie et SKU. Une relation un-à-un lie les deux colonnes SKU. La relation filtre dans
les deux directions, comme toujours pour les relations un-à-un.
7 Notes
Il n’est pas possible d’afficher les lignes de la table dans le diagramme de modèle
Power BI Desktop. Cette opération est effectuée dans cet article pour étayer la
discussion avec des exemples clairs.
Les détails des lignes pour les deux tables sont décrits dans la liste à puces suivante :
Notez que la table Catégorie de produit n’inclut pas de ligne pour le produit SKU CL-02.
Nous évoquerons les conséquences de cette ligne manquante plus loin dans cet article.
Dans le volet Champs, les auteurs des rapports trouveront des champs liés aux produits
dans deux tables : Produit et Catégorie de produit.
Voyons ce qui se passe lorsque des champs des deux tables sont ajoutés à un visuel de
table. Dans cet exemple, la colonne SKU provient de la table Produit.
Notez que la valeur Catégorie pour le produit SKU CL-02 est VIDE. La raison en est qu’il
n’y a pas de ligne dans la table Catégorie de produit pour ce produit.
Recommandations
Si cela est possible, nous vous recommandons d’éviter de créer des relations de modèle
un-à-un lorsque des données de lignes s’étendent sur des tables de modèles. En effet,
cette conception peut avoir les effets suivants :
Les recommandations varient selon que la relation un-à-un est de type groupe
intrasource ou groupe intersource. Pour plus d’informations sur l’évaluation des relations,
consultez Relations de modèle dans Power BI Desktop (évaluation de la relation).
Les étapes suivantes présentent une méthodologie pour consolider et modéliser les
données relationnelles un-à-un :
1. Fusionner des requêtes : Lorsque les deux requêtes sont combinées, veillez à ce
que les données de chaque requête soient complètes. Si une requête contient un
ensemble complet de lignes (comme une liste maître), fusionnez l’autre requête
avec elle. Configurez la transformation de fusion pour utiliser une jointure externe
gauche, qui est le type de jointure par défaut. Ce type de jointure garantit que vous
conservez toutes les lignes de la première requête et les complétez avec toutes les
lignes correspondantes de la deuxième requête. Développez toutes les colonnes
requises de la deuxième requête dans la première requête.
Dans notre exemple, les auteurs de rapports trouvent maintenant une seule table
nommée Produit dans le volet Champs. Elle contient tous les champs liés aux
produits.
Dans notre exemple, les auteurs de rapports peuvent maintenant utiliser une
hiérarchie à deux niveaux : Catégorie et Produit.
Si vous souhaitez savoir comment séparer des tables vous aide à organiser vos champs,
nous recommandons également la consolidation dans une seule table. Vous pouvez
toujours organiser vos champs, mais en utilisant l’affichage des dossiers à la place.
Dans notre exemple, les auteurs des rapports peuvent trouver le champ Catégorie dans
le dossier d’affichage Marketing.
Si vous souhaitez quand même définir des relations de groupe intrasource un-à-un dans
votre modèle, vérifiez si possible qu’il y a des lignes correspondantes dans les tables
liées. Une relation de groupe intrasource un-à-un étant évaluée comme étant une
relation régulière, les problèmes d’intégrité des données peuvent se traduire par des
VIDES dans vos visuels de rapports. (Vous pouvez voir un exemple de regroupement
VIDE dans le premier visuel de table présenté dans cet article.)
Voyons ce qui se passe lorsque des champs des deux tables sont ajoutés à un visuel de
table et qu’il existe une relation limitée entre ces tables.
La table n’affiche que deux lignes. La référence SKU de produit CL-02 est manquante,
car il n’y a aucune ligne correspondante dans la table Catégorie de produit.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il décrit trois scénarios de modélisation plusieurs à plusieurs différents. Il vous
fournit également des conseils sur la façon de les concevoir correctement dans vos
modèles.
7 Notes
La présentation des relations de modèle n’est pas abordée dans cet article. Si vous
ne connaissez pas bien les relations, leurs propriétés ni la façon de les configurer,
nous vous recommandons de lire d’abord l’article Relations de modèle dans Power
BI Desktop.
Il existe, en fait, trois scénarios plusieurs à plusieurs. Ils peuvent se dérouler quand vous
devez :
7 Notes
La modélisation de ces entités est simple. Une table de type dimension stocke les
comptes, et une autre table de type dimension stocke les clients. Particularité des tables
de type dimension, il existe une colonne ID dans chaque table. Pour modéliser la
relation entre les deux tables, une troisième table est requise. Cette table est
généralement appelée table de pontage. Dans cet exemple, son objectif est de stocker
une ligne pour chaque association client/compte. Il est intéressant de noter que, quand
cette table contient uniquement des colonnes ID, elle est appelée table de faits sans
faits.
Deux relations de type un à plusieurs sont ajoutées pour associer les tables. Voici un
diagramme de modèle des tables associées mis à jour. Une table de type fait nommée
Transaction a été ajoutée. Elle enregistre les transactions de compte. La table de
pontage et toutes les colonnes ID ont été masquées.
Pour mieux décrire le fonctionnement de la propagation de filtres de relation, le
diagramme de modèle a été modifié afin d’afficher les lignes de la table.
7 Notes
Il n’est pas possible d’afficher les lignes de la table dans le diagramme de modèle
Power BI Desktop. Cette opération est effectuée dans cet article pour étayer la
discussion avec des exemples clairs.
Les détails des lignes pour les quatre tables sont décrits dans la liste à puces suivante :
Vous trouverez ci-dessous deux visuels qui récapitulent la colonne Amount à partir de la
table Transaction. Le premier visuel effectuant un regroupement par compte, la somme
des colonnes Amount représente le solde du compte. Le second visuel effectuant un
regroupement par client, la somme des colonnes Amount représente le solde du client.
Le premier visuel est intitulé Solde du compte et il comporte deux colonnes : Account
et Amount. Il affiche le résultat suivant :
Le second visuel est intitulé Solde du client et il comporte deux colonnes : Customer et
Amount. Il affiche le résultat suivant :
Un coup d’œil rapide aux lignes de la table et au visuel Solde du compte montre que le
résultat est correct, pour chaque compte et le montant total. Cela est dû au fait que
chaque regroupement de comptes entraîne une propagation de filtres vers la table
Transaction pour ce compte.
Toutefois, un problème semble se poser avec le visuel Solde du client. Chaque client du
visuel Solde du client présente le même solde que le solde total. Ce résultat pourrait
être correct uniquement si chaque client était un cotitulaire de chaque compte. Ce n’est
pas le cas dans cet exemple. Le problème est lié à la propagation de filtres. Elle ne
s’étend pas entièrement jusqu’à la table Transaction.
Comme prévu, aucune modification n’a été apportée au visuel Solde du compte.
Le visuel Solde du client affiche maintenant un résultat correct. Suivez les directions du
filtre de votre côté et découvrez comment les soldes des clients ont été calculés. En
outre, sachez que la valeur totale affichée englobe tous les clients.
Une personne qui ne connaît pas les relations de modèle peut conclure que le résultat
est incorrect. Elle pourrait demander : Pourquoi le solde total de Customer-91 et
Customer-92 n’est-il pas égal à 350 (75 + 275) ?
La réponse à la question réside dans la compréhension de la relation plusieurs à
plusieurs. Chaque solde de client peut représenter l’ajout de plusieurs soldes de
comptes, de sorte que les soldes des clients sont non additifs.
Ajoutez chaque entité avec une relation plusieurs à plusieurs en tant que table de
modèle, en veillant à ce qu’elle possède une colonne d’identificateur unique (ID).
Ajoutez une table de pontage pour stocker les entités associées
Créez des relations de type un à plusieurs entre les trois tables
Configurez une relation bidirectionnelle pour permettre à la propagation de filtres
de continuer jusqu’aux tables de type fait
Lorsqu’il n’est pas approprié d’avoir des valeurs ID manquantes, affectez la valeur
FALSE à la propriété Est nullable des colonnes ID : l’actualisation des données
échoue si des valeurs manquantes sont provisionnées
Masquez la table de pontage (à moins qu’elle ne contienne des colonnes ou des
mesures supplémentaires requises pour la création de rapports)
Masquez les colonnes ID qui ne conviennent pas pour la création de rapports (par
exemple, lorsque les ID sont des clés de substitution)
S’il est judicieux de conserver une colonne ID visible, vérifiez qu’elle se trouve sur
le côté « un » de la relation, et masquez toujours la colonne côté « plusieurs ». Il en
résulte des performances de filtre optimales.
Pour éviter toute confusion ou mauvaise interprétation, communiquez les
explications aux utilisateurs de votre rapport : vous pouvez ajouter des
descriptions avec des zones de texte ou des info-bulles d’en-tête de visuel
Nous vous déconseillons d’associer directement les tables de type dimension plusieurs à
plusieurs. Cette approche de conception nécessite la configuration d’une relation avec
une cardinalité plusieurs à plusieurs. Conceptuellement, cela peut être obtenu, mais
implique que les colonnes associées contiendront des valeurs en double. Le fait que les
tables de type dimension aient une colonne ID constitue toutefois une pratique de
conception bien acceptée. Les tables de type dimension doivent toujours utiliser la
colonne ID comme le côté « un » d’une relation.
Prenons un exemple qui implique deux tables de type fait : Order et Fulfillment. La table
Order contient une ligne par ligne de commande et la table Fulfillment peut contenir
zéro ou plusieurs lignes par ligne de commande. Les lignes de la table Order
représentent les commandes client. Les lignes de la table Fulfillment représentent les
articles commandés qui ont été expédiés. Une relation plusieurs à plusieurs associe les
deux colonnes OrderID, avec la propagation de filtres uniquement à partir de la table
Order (Order filtre Fulfillment).
La cardinalité de relation est définie sur plusieurs à plusieurs pour prendre en charge le
stockage des valeurs OrderID en double dans les deux tables. Dans la table Order, il
peut exister des valeurs OrderID en double, car une commande peut avoir plusieurs
lignes. Dans la table Fulfillment, il peut exister des valeurs OrderID en double, car les
commandes peuvent avoir plusieurs lignes et les lignes de commande peuvent être
remplies par de nombreuses expéditions.
Examinons maintenant les lignes de la table. Dans la table Fulfillment, notez que les
lignes de commande peuvent être remplies par plusieurs expéditions. (L’absence d’une
ligne de commande signifie que la commande doit encore être remplie.)
Les détails des lignes pour les deux tables sont décrits dans la liste à puces suivante :
Voyons ce qui se passe lorsque le modèle est interrogé. Voici un visuel de table qui
compare les quantités commandées et traitées selon la colonne OrderID de la table
Order.
Le visuel présente un résultat précis. Toutefois, l’utilité du modèle est limitée : vous
pouvez uniquement filtrer ou regrouper selon la colonne OrderID de la table Order.
Au lieu d’associer directement les tables de type fait, nous vous recommandons
d’adopter les principes de conception de schémas en étoile. Pour ce faire, vous devez
ajouter des tables de type dimension. Les tables de type dimension sont ensuite
associées aux tables de type fait à l’aide de relations de type un à plusieurs. Cette
approche de conception est fiable, car elle offre des options de création de rapports
flexibles. Elle vous permet de filtrer ou de regrouper en utilisant n’importe quelle
colonne de type dimension et de récapituler toute table de type fait associée.
Vos visuels de rapport peuvent filtrer ou regrouper selon n’importe quelle colonne
visible à partir des tables de type dimension
Vos visuels de rapport peuvent récapituler toute colonne visible à partir des tables
de type fait
Les filtres appliqués aux tables OrderLine, OrderDate ou Product sont propagés
aux deux tables de type fait
Toutes les relations sont de type un à plusieurs, et chaque relation est une relation
normale. Les problèmes d’intégrité des données ne sont pas masqués. Pour plus
d’informations, consultez Relations de modèle dans Power BI Desktop (évaluation
de la relation).
Prenons un exemple impliquant quatre tables : Date, Sales, Product et Target. Date et
Product sont des tables de type dimension, et les relations de type un à plusieurs
associent chacune à la table de type fait Sales. Jusqu’à présent, il s’agit d’une bonne
conception de schéma en étoile. Toutefois, la table Target n’est pas encore liée aux
autres tables.
Conseil
Lorsque vous stockez des faits à un niveau de précision temporelle supérieur à celui
du jour, définissez le type de données de la colonne sur Date (ou Nombre entier si
vous utilisez des dates clés). Dans la colonne, stockez une valeur représentant le
premier jour de la période. Par exemple, une période d’un an est enregistrée en
tant que 1er janvier de l’année, et une période d’un mois est enregistrée en tant
que premier jour de ce mois.
Toutefois, il convient de veiller à ce que les filtres de niveau mois ou date produisent un
résultat significatif. Sans logique de calcul spéciale, les visuels de rapport peuvent
signaler que les dates cibles sont littéralement le premier jour de chaque année. Tous les
autres jours, et tous les mois sauf janvier, récapitulent la quantité cible comme VIDE.
Considérez la définition de mesure suivante qui utilise la fonction DAX ISFILTERED. Elle
retourne uniquement une valeur lorsque les colonnes Date ou Month ne sont pas
filtrées.
DAX
Target Quantity =
IF(
NOT ISFILTERED('Date'[Date])
&& NOT ISFILTERED('Date'[Month]),
SUM(Target[TargetQuantity])
)
Le visuel de matrice suivant utilise désormais la mesure TargetQuantity. Elle indique que
toutes les quantités cibles mensuelles sont VIDES.
Associer à un niveau plus général (non-date)
Une autre approche de conception est nécessaire lors de l’association d’une colonne
non-date d’une table de type dimension à une table de type fait (et à un niveau plus
général que la table de type dimension).
Les colonnes Category (des tables Product et Target) contiennent des valeurs en
double. Il n’y a donc pas de « un » pour une relation de type un à plusieurs. Dans ce cas,
vous devez créer une relation plusieurs à plusieurs. La relation doit propager les filtres
dans une seule direction, de la table de type dimension à la table de type fait.
Dans la table Target, il y a quatre lignes : deux lignes pour chaque année cible (2019 et
2020) et deux catégories (Vêtements et Accessoires). Dans la table Product, il existe trois
produits. Deux appartiennent à la catégorie Vêtements et l’autre à la catégorie
Accessoires. L’une des couleurs de la catégorie Vêtements est Vert et les deux autres
sont Bleu.
Un regroupement visuel de table selon la colonne Category de la table Product génère
le résultat suivant.
Le visuel produit une représentation incorrecte des données. Que se passe-t-il ici ?
Un filtre sur la colonne Color de la table Product génère deux lignes. L’une des lignes
concerne la catégorie Vêtements, tandis que l’autre concerne la catégorie Accessoires.
Ces deux valeurs de catégorie sont propagées en tant que filtres à la table Target. En
d’autres termes, étant donné que la couleur bleue est utilisée par les produits de deux
catégories, ces catégories sont utilisées pour filtrer les cibles.
Considérez la définition de mesure suivante. Notez que toutes les colonnes de la table
Product qui se trouvent sous le niveau de catégorie sont testées pour les filtres.
DAX
Target Quantity =
IF(
NOT ISFILTERED('Product'[ProductID])
&& NOT ISFILTERED('Product'[Product])
&& NOT ISFILTERED('Product'[Color]),
SUM(Target[TargetQuantity])
)
Le visuel de table suivant utilise désormais la mesure TargetQuantity. Elle indique que
toutes les quantités cibles de couleur sont VIDES.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il vous fournit une aide pour créer des relations de modèle actives ou inactives
au bon moment. Par défaut, les relations actives propagent les filtres vers d’autres
tables. Toutefois, la relation inactive ne propage les filtres que lorsqu’une expression
DAX active (utilise) la relation.
7 Notes
La présentation des relations de modèle n’est pas abordée dans cet article. Si vous
ne connaissez pas bien les relations, leurs propriétés ni la façon de les configurer,
nous vous recommandons de lire d’abord l’article Relations de modèle dans Power
BI Desktop.
Relations actives
Généralement, nous vous recommandons de définir des relations actives chaque fois
que cela est possible. Elles élargissent l’étendue et le potentiel de la manière dont votre
modèle peut être utilisé par les auteurs de rapports et les utilisateurs qui travaillent avec
les Q/R.
Prenons l’exemple d’un modèle d’importation conçu pour analyser les performances de
ponctualité des liaisons aériennes (OTP). Le modèle a une table Flight, qui est une table
de type fait stockant une ligne par vol. Chaque ligne enregistre la date du vol, le numéro
de vol, les aéroports de départ et d’arrivée ainsi que le retard (en minutes). Il y a
également une table Aéroport, qui est une table de type dimension stockant une ligne
par aéroport. Chaque ligne décrit le code de l’aéroport, le nom de l’aéroport, ainsi que
le pays ou la région.
Bien que cette conception fonctionne bien pour les conceptions de schémas en étoile
relationnels, elle ne s’applique pas aux modèles Power BI. Cela est dû au fait que les
relations de modèle sont des chemins de propagation des filtre et que ces chemins
doivent être déterministes. Pour plus d’informations sur la manière de s’assurer que les
chemins de propagation des filtres sont déterministes, consultez Résoudre l’ambiguïté
du chemin de relation. Par conséquent, comme décrit dans cet exemple, une relation est
active tandis que l’autre est inactive (représentée par la ligne en pointillés). Plus
précisément, c’est la relation avec la colonne ArrivalAirport qui est active. Cela signifie
que les filtres appliqués à la table Airport sont automatiquement propagés à la colonne
ArrivalAirport de la table Flight.
Cette conception de modèle impose des restrictions sévères concernant la façon dont
les données peuvent être signalées. Plus précisément, il n’est pas possible de filtrer la
table Airport pour isoler automatiquement les détails de vol d’un aéroport de départ.
Comme les exigences de création de rapports impliquent le filtrage (ou le
regroupement) simultané par aéroports de départ et d’arrivée, deux relations actives
sont nécessaires. La traduction de cette exigence dans une conception de modèle Power
BI signifie que le modèle doit avoir deux tables d’aéroports.
La page de rapport filtre par Melbourne comme aéroport de départ, et les groupes de
visuels de table filtrent par aéroports d’arrivée.
7 Notes
De plus, il est courant que les tables de type dimension contiennent des nombres
de lignes faibles par rapport aux nombres de lignes de tables de type fait. Ainsi,
l’augmentation de la taille du modèle et des temps d’actualisation n’est pas
susceptible d’être excessivement importante.
Méthodologie de refactorisation
Voici une méthodologie permettant de refactoriser un modèle à partir d’une table de
type dimension à rôle actif unique en conception avec une table par rôle.
2. Envisagez de renommer la table de type dimension à rôle actif pour mieux décrire
son rôle. Dans l’exemple, la table Aéroport est associée à la colonne ArrivalAirport
de la table Flight, qui est donc renommée Aéroport d’arrivée.
3. Créez une copie de la table de rôle actif en lui attribuant un nom qui reflète son
rôle. S’il s’agit d’une table d’importation, nous vous recommandons de définir une
table calculée. S’il s’agit d’une table DirectQuery, vous pouvez dupliquer la requête
Power Query.
DAX
5. Envisagez de renommer les colonnes dans les tables afin qu’elles reflètent
précisément leur rôle. Dans l’exemple, toutes les colonnes sont précédées du mot
Départ ou Arrivée. Ces noms garantissent que les visuels des rapports auront des
étiquettes autodescriptives et non ambiguës. L’expérience Q/R est également
améliorée, ce qui permet aux utilisateurs d’écrire facilement leurs questions.
6. Envisagez d’ajouter des descriptions aux tables de rôle actif. (Dans le volet
Champs, une description s’affiche dans une info-bulle lorsqu’un auteur de rapport
pointe sur la table.) De cette façon, vous pouvez communiquer les détails
supplémentaires de la propagation de filtre à vos auteurs de rapports.
Relations inactives
Dans certains cas, les relations inactives peuvent répondre à des besoins spécifiques en
matière de création de rapports.
Un modèle de vente contient une table Ventes qui comporte deux colonnes de
date : OrderDate et ShipDate
Chaque ligne de la table Ventes enregistre une seule commande.
Les filtres de date sont presque toujours appliqués à la colonne OrderDate, qui
stocke toujours une date valide.
Une seule mesure nécessite une propagation de filtre de date vers la colonne
ShipDate, qui peut contenir des VIDES (jusqu’à ce que la commande soit expédiée)
Il n’est pas obligatoire de filtrer (ou de regrouper) simultanément par périodes de
dates de commande et de date d’expédition
Il existe deux relations de modèle entre les tables Ventes et Date. Dans la table Ventes,
les colonnes OrderDate et ShipDate sont liées à la colonne Date de la table Date. Dans
ce modèle, les deux rôles de la table Date sont Date de commande et Date d’expédition.
C’est la relation avec la colonne OrderDate qui est active.
Les six mesures, à l’exception d’une, doivent filtrer par la colonne OrderDate. Toutefois,
la mesure Commandes expédiées doit être filtrée par la colonne ShipDate.
Voici la définition de mesure Commandes. Elle compte simplement les lignes de la table
Ventes dans le contexte de filtre. Tous les filtres appliqués à la table Date sont propagés
à la colonne OrderDate.
DAX
Orders = COUNTROWS(Sales)
DAX
Orders Shipped =
CALCULATE(
COUNTROWS(Sales)
,USERELATIONSHIP('Date'[Date], Sales[ShipDate])
)
Les filtres de page de rapport par trimestre 2019 Q4. Les visuels de table sont regroupés
par mois et affichent différentes statistiques de ventes. Les mesures Commandes et
Commandes expédiées donnent des résultats différents. Elles utilisent chacune la même
logique de résumé (nombre de lignes de la table Ventes), mais une propagation
différente du filtre de table Date.
Notez que le segment trimestre comprend un élément VIDE. Cet élément de segment
s’affiche à la suite de l'expansion de table. Alors que chaque ligne de table Ventes a une
date de commande, certaines lignes ont une date d’expédition VIDE. Ces commandes ne
sont pas encore expédiées. L’expansion de table prend également en compte les
relations inactives. Des VIDES peuvent donc apparaître en raison des VIDES du côté
« plusieurs » de la relation, ou en raison de problèmes d’intégrité des données.
7 Notes
Recommandations
En résumé, nous vous recommandons de définir des relations actives chaque fois que
cela est possible, spécialement lors de la définition des rôles de sécurité au niveau des
lignes pour votre modèle de données. Elles élargissent l’étendue et le potentiel de la
manière dont votre modèle peut être utilisé par les auteurs de rapports et les utilisateurs
qui travaillent avec les Q/R. Cela signifie que les tables de type dimension à rôle actif
doivent être dupliquées dans votre modèle.
Dans certains cas, toutefois, vous pouvez définir une ou plusieurs relations inactives
pour une table de type dimension à rôle actif. Vous pouvez envisager cette conception
dans les cas suivants :
Il n’est pas obligatoire que les visuels du rapport filtrent simultanément par rôles
différents
Vous utilisez la fonction DAX USERELATIONSHIP pour activer une relation
spécifique pour les calculs de modèle pertinents
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Indiquer des commentaires sur le produit | Demander à la communauté
Aide pour la relation bidirectionnelle
Article • 10/11/2023
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il vous fournit une aide pour créer des relations de modèle bidirectionnelles au
bon moment. Une relation bidirectionnelle est une relation qui filtre dans les deux
directions.
7 Notes
La présentation des relations de modèle n’est pas abordée dans cet article. Si vous
ne connaissez pas bien les relations, leurs propriétés ni la façon de les configurer,
nous vous recommandons de lire d’abord l’article Relations de modèle dans Power
BI Desktop.
Il existe trois scénarios dans lesquels le filtrage bidirectionnel peut répondre à des
exigences spécifiques :
Un-à-un : toutes les relations un-à-un doivent être bidirectionnelles : il n’est pas
possible de les configurer autrement. En règle générale, nous vous déconseillons
de créer ces types de relations. Pour une présentation complète et des conceptions
alternatives, consultez Aide pour les relations un-à-un.
Plusieurs-à-plusieurs : Lors de la mise en relation de deux tables de type
dimension, une table de pontage est requise. Un filtre bidirectionnel est requis
pour garantir la propagation des filtres dans la table de pontage. Pour plus
d’informations, consultez l’aide sur les relations plusieurs-à-plusieurs (associer des
dimensions plusieurs-à-plusieurs).
La première table est nommée Client et contient trois colonnes : Pays-Région, Client et
CustomerCode. La deuxième table est nommée Produit et contient trois colonnes :
Couleur, Produit et SKU. La troisième table est nommée Ventes et contient quatre
colonnes : CustomerCode, OrderDate, Quantité et SKU. Les tables Client et Produit
sont des tables de type dimension, chacune ayant une relation un-à-plusieurs avec la
table Ventes. Chaque relation filtre dans une seule direction.
7 Notes
Il n’est pas possible d’afficher les lignes de la table dans le diagramme de modèle
Power BI Desktop. Cette opération est effectuée dans cet article pour étayer la
discussion avec des exemples clairs.
Les détails des lignes pour les trois tables sont décrits dans la liste à puces suivante :
Le segment Produit affiche désormais un seul élément : T-shirt. Cet élément représente
le seul produit vendu à des clients australiens.
Nous suggérons de vérifier avec soin si cette conception fonctionne pour les utilisateurs
de votre rapport. Elle peut être à l’origine d’une confusion pour certains d’entre eux. Ils
ne comprennent pas pourquoi des éléments de segments apparaissent ou disparaissent
de façon dynamique lorsqu’ils interagissent avec d’autres segments.
Si vous décidez de montrer des éléments de segments « avec des données », nous vous
déconseillons de configurer des relations bidirectionnelles. Les relations
bidirectionnelles requièrent plus de traitements et peuvent donc avoir un impact négatif
sur les performances des requêtes – en particulier à mesure que le nombre de relations
bidirectionnelles dans votre modèle augmente.
Il y a une meilleure manière d’obtenir le même résultat : Au lieu d’utiliser des filtres
bidirectionnels, vous pouvez appliquer un filtre au niveau du visuel au segment Produit
proprement dit.
Supposons maintenant que la relation entre les tables Produit et Ventes ne filtre plus
dans les deux directions. Et que la définition de mesure suivante a été ajoutée à la table
Ventes.
DAX
Pour afficher les éléments de segments Produit « avec des données », il suffit de filtrer
avec la mesure Quantité totale à l’aide de la condition « n’est pas vide».
Il est possible de répondre à ces deux questions sans faire un résumé des données dans
la table de type de fait de pontage. Toutefois, il est indispensable que les filtres se
propagent d’une table de type dimension à l’autre. Une fois que les filtres sont propagés
par le biais de la table de type fait, le résumé des colonnes de la table de type
dimension peut être obtenu à l’aide de la fonction DISTINCTCOUNT DAX, et
éventuellement des fonctions MIN et MAX.
Comme la table de type fait se comporte comme une table de pontage, vous pouvez
suivre les instructions d’aide pour les relation plusieurs-à-plusieurs pour associer deux
tables de type dimension. Vous devrez configurer au moins une relation pour filtrer les
deux directions. Pour plus d’informations, consultez l’aide sur les relations plusieurs-à-
plusieurs (associer des dimensions plusieurs-à-plusieurs).
Toutefois, comme décrit dans cet article, cette conception aura probablement un impact
négatif sur les performances et sur l’expérience utilisateur concernant les éléments de
segments « avec des données ». Par conséquent, à la place, nous vous recommandons
d’activer le filtrage bidirectionnel dans une définition de mesure à l’aide de la fonction
DAX CROSSFILTER. La fonction CROSSFILTER peut être utilisée pour modifier des
directions de filtrage, voire pour désactiver la relation pendant l’évaluation d’une
expression.
Supposez que la définition de mesure suivante a été ajoutée à la table Ventes. Dans cet
exemple, la relation de modèle entre les tables Client et Ventes a été configurée pour
filtrer dans une seule direction.
DAX
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Ils vous permettent de résoudre des problèmes spécifiques que vous pouvez
rencontrer lors du développement de modèles et de rapports.
7 Notes
La présentation des relations de modèle n’est pas abordée dans cet article. Si vous
ne connaissez pas bien les relations, leurs propriétés ni la façon de les configurer,
nous vous recommandons de lire d’abord l’article Relations de modèle dans Power
BI Desktop.
Dans ce cas, voici une liste de contrôle de dépannage générale à suivre. Vous pouvez
parcourir progressivement la liste de contrôle jusqu’à ce que vous ayez identifié le ou les
problèmes.
1. Basculez le visuel vers une table ou une matrice, ou ouvrez le volet Afficher les
données : il est plus facile de résoudre des problèmes lorsque vous pouvez voir le
résultat de la requête.
2. Si le résultat de la requête est vide, basculez vers la vue Données : vérifiez que les
tables ont été chargées avec des lignes de données.
3. Basculez vers la vue Modèle : il est facile de voir les relations et de déterminer
rapidement leurs propriétés.
4. Vérifiez l’existence de relations entre les tables.
5. Vérifiez que les propriétés de cardinalité sont correctement configurées. Elles
peuvent être incorrectes si une colonne du côté « plusieurs » contient actuellement
des valeurs uniques et si elle a été configurée de manière incorrecte en tant que
côté « un ».
6. Vérifiez que les relations sont actives (ligne pleine).
7. Vérifiez que les directions du filtre prennent en charge la propagation (interpréter
les pointes de flèches).
8. Vérifiez que les colonnes appropriées sont associées : sélectionnez la relation ou
placez le curseur au-dessus pour afficher les colonnes associées.
9. Vérifiez que les types de données de colonne associés sont identiques ou au moins
compatibles : il est possible d’associer une colonne de texte à une colonne de
nombres entiers, mais les filtres ne trouveront pas de correspondances pour
propager des filtres.
10. Basculez vers la vue Données et vérifiez que les valeurs correspondantes se
trouvent dans des colonnes associées.
ノ Agrandir le tableau
Le visuel n’affiche aucun résultat • Le modèle n’est pas encore chargé avec des données.
• Aucune donnée n’existe dans le contexte de filtre.
• La sécurité au niveau des lignes (RLS) est appliquée.
• Les relations ne se propagent pas entre les tables :
suivez la liste de contrôle ci-dessus.
• La sécurité au niveau des lignes est appliquée, mais une
relation bidirectionnelle n’est pas activée pour la
propagation : consultez Sécurité au niveau des lignes
avec Power BI Desktop.
Le visuel affiche des résultats, mais ils • Le visuel est configuré de manière incorrecte.
ne sont pas corrects • La logique du calcul de mesure est incorrecte.
• Les données du modèle doivent être actualisées.
• Les données sources sont incorrectes.
• Les colonnes de relation ne sont pas liées correctement
(par exemple, la colonne ProductID est mappée à
CustomerID).
• Il s’agit d’une relation entre deux tables DirectQuery et
Problème Raison(s) possible(s)
Des regroupements VIDES ou des • Il s’agit d’une relation régulière et la colonne côté
éléments de segment/filtre « plusieurs » contient des valeurs non stockées dans la
apparaissent, et les colonnes sources colonne côté « un » : consultez Relations de modèle dans
ne contiennent pas de valeurs VIDES Power BI Desktop (relations régulières).
• Il s’agit d’une relation un-à-un régulière et les colonnes
associées contiennent des VIDES, consultez Relations de
modèle dans Power BI Desktop (relations régulières).
• Une colonne de relation inactive côté « plusieurs »
stocke des VIDES ou contient des valeurs non stockées du
côté « un ».
La RLS n’est pas appliquée • Les relations ne se propagent pas entre les tables :
correctement suivez la liste de contrôle ci-dessus.
• La sécurité au niveau des lignes est appliquée, mais une
relation bidirectionnelle n’est pas activée pour la
propagation : consultez Sécurité au niveau des lignes
avec Power BI Desktop.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article cible les modélisateurs de données qui développent des modèles DirectQuery
Power BI à l’aide de Power BI Desktop ou du service Power BI. Il décrit des cas
d’utilisation de DirectQuery, ses limitations et les conseils le concernant. Plus
précisément, le guide est conçu pour vous aider à déterminer si DirectQuery est le mode
approprié pour votre modèle et pour améliorer les performances de vos rapports en
fonction des modèles DirectQuery. Cet article s’applique aux modèles DirectQuery
hébergés dans le service Power BI ou Power BI Report Server.
Cet article n’a pas pour but d’aborder par le menu la conception de modèles
DirectQuery. Pour une présentation, reportez-vous à l’article Modèles DirectQuery dans
Power BI Desktop. Pour une discussion plus approfondie, reportez-vous directement au
livre blanc DirectQuery dans SQL Server 2016 Analysis Services . N’oubliez pas que le
livre blanc décrit l’utilisation de DirectQuery dans SQL Server Analysis Services. Une
grande partie du contenu, toutefois, est toujours applicable aux modèles DirectQuery
Power BI.
7 Notes
Cet article ne couvre pas directement les modèles composites. Un modèle composite se
compose d’au moins une source DirectQuery, voire de plusieurs. L’aide décrite dans cet
article est toujours pertinente, du moins en partie, pour la conception de modèles
composites. Toutefois, les implications liées à la combinaison de tables d’importation
avec des tables DirectQuery n’entrent pas dans le cadre de cet article. Pour plus
d’informations, consultez Utiliser des modèles composites dans Power BI Desktop.
Il est important de comprendre que les modèles DirectQuery imposent une charge de
travail différente sur l’environnement de Power BI (service Power BI ou Power BI Report
Server) et également sur les sources de données sous-jacente. Si vous déterminez que
DirectQuery est l’approche de conception appropriée, nous vous recommandons
d’impliquer les bonnes personnes dans le projet. Nous voyons souvent que la réussite
d’un déploiement de modèles DirectQuery est le résultat de la collaboration étroite
d’une équipe de professionnels de l’informatique. L’équipe se compose généralement
de développeurs de modèles et d’administrateurs de base de données source. Elle peut
également impliquer des architectes de données ainsi que des développeurs
d’entrepôts de données et de processus ETL. Souvent, des optimisations doivent être
appliquées directement à la source de données pour obtenir de bons résultats en
matière de performances.
7 Notes
Nous savons que tous les modélisateurs n’ont pas les autorisations ou les
compétences nécessaires pour optimiser une base de données relationnelle. Bien
qu’il s’agisse de la couche préférée pour préparer les données pour un modèle
DirectQuery, certaines optimisations peuvent également être réalisées dans la
conception du modèle, sans modifier la base de données source. Toutefois, les
meilleurs résultats d’optimisation sont souvent le fruit de l’application
d’optimisations à la base de données source.
Ajouter des index : définissez des index appropriés (sur des tables ou des vues)
afin de prendre en charge la récupération efficace des données pour le filtrage et
le regroupement visuels de rapports attendus. Pour les sources SQL Server, Azure
SQL Database ou Azure Synapse Analytics (anciennement SQL Data Warehouse),
consultez Guide de conception et d’architecture d’index SQL Server pour des
informations utiles sur la conception d’index. Concernant les sources volatiles SQL
Server ou Azure SQL Database, consultez Bien commencer avec columnstore pour
l’analytique opérationnelle en temps réel.
Concevoir des tables distribuées : pour les sources Azure Synapse Analytics
(anciennement SQL Data Warehouse), qui tirent parti de l’architecture MPP
(Massively Parallel Processing), envisagez de configurer les grandes tables de type
fait en tant que tables de type dimension et distribuées par hachage à répliquer
sur tous les nœuds de calcul. Pour plus d’informations, consultez Guide de
conception des tables distribuées dans Azure Synapse Analytics (anciennement
SQL Data Warehouse).
Vérifier que les transformations de données requises sont matérialisées : pour les
sources de bases de données relationnelles SQL Server (et d’autres sources de
bases de données relationnelles), des colonnes calculées peuvent être ajoutées aux
tables. Ces colonnes sont basées sur une expression, comme Quantity multipliée
par UnitPrice. Les colonnes calculées peuvent être rendues persistantes
(matérialisées) et, comme les colonnes ordinaires, elles peuvent parfois être
indexées. Pour plus d’informations, consultez Index sur des colonnes calculées.
Envisagez également des vues indexées pouvant pré-agréger les données de table
de faits à un niveau plus général. Par exemple, si la table Sales stocke des données
au niveau de la ligne de commande, vous pouvez créer une vue pour totaliser ces
données. La vue peut être basée sur une instruction SELECT qui regroupe les
données de la table Sales par date (au niveau du mois), client et produit, et totalise
les valeurs de mesure comme les ventes, la quantité, etc. La vue peut ensuite être
indexée. Pour les sources SQL Server ou Azure SQL Database, consultez Créer des
vues indexées.
Ne pas utiliser le filtrage de date relative Power Query : il est possible de définir
un filtrage de date relative dans une requête Power Query. Supposons que vous
souhaitiez récupérer les commandes qui ont été créées au cours de l’année
précédente (par rapport à la date du jour). Ce type de filtre aboutit à une requête
native inefficace, comme suit :
SQL
…
from [dbo].[Sales] as [_]
where [_].[OrderDate] >= convert(datetime2, '2018-01-01 00:00:00') and
[_].[OrderDate] < convert(datetime2, '2019-01-01 00:00:00'))
Veiller à utiliser des mesures simples : au départ, il est recommandé de limiter les
mesures à des agrégats simples. Les fonctions d’agrégation incluent SUM, COUNT,
MIN, MAX et AVERAGE. Ensuite, si les mesures sont suffisamment réactives, vous
pouvez faire des essais avec des mesures plus complexes, tout en faisant attention
aux performances de chacune d’elles. Même si la fonction DAX CALCULATE peut
être utilisée pour produire des expressions de mesure sophistiquées qui
manipulent le contexte de filtre, elle peut générer des requêtes natives onéreuses
qui ne fonctionnent pas correctement.
Éviter les relations sur des colonnes calculées : les relations de modèle ne
peuvent associer qu’une seule colonne d’une table à une seule colonne dans une
autre table. Toutefois, il est parfois nécessaire de lier des tables à l’aide de plusieurs
colonnes. Par exemple, les tables Sales et Geography sont liées par deux
colonnes : CountryRegion et City. Pour créer une relation entre les tables, une
seule colonne est requise et, dans la table Geography, la colonne doit contenir des
valeurs uniques. La concaténation du pays/de la région et de la ville avec un
séparateur de trait d’union permet d’obtenir ce résultat.
La colonne combinée peut être créée avec une colonne personnalisée Power Query
ou dans le modèle en tant que colonne calculée. Toutefois, cette approche doit
être évitée, car l’expression de calcul est incorporée dans les requêtes sources. Non
seulement elle est inefficace, mais elle empêche généralement l’utilisation d’index.
Au lieu de cela, ajoutez des colonnes matérialisées dans la source de base de
données relationnelle et envisagez de les indexer. Vous pouvez également
envisager d’ajouter des colonnes clés de substitution à des tables de type
dimension, pratique courante dans les conceptions d’entrepôts de données
relationnelles.
Éviter les relations sur des colonnes d’identificateur unique : Power BI ne prend
pas en charge en mode natif le type de données d’identificateur unique (GUID).
Lors de la définition d’une relation entre des colonnes de ce type, Power BI génère
une requête source avec une jointure impliquant un cast. Cette conversion de
données au moment de la requête engendre généralement des performances
médiocres. Tant que ce cas n’est pas optimisé, la seule solution de contournement
consiste à matérialiser des colonnes d’un autre type de données dans la base de
données sous-jacente.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Cela fonctionne généralement bien s’il existe des centaines, voire des milliers de
catégories, comme dans cet exemple. Les performances peuvent toutefois se
dégrader si le nombre de catégories est beaucoup plus élevé (en effet, la requête
échoue s’il y a plus de 1 million de catégories remplissant la condition, en raison
de la limite de 1 million de lignes évoquée plus haut).
Filtres TopN : vous pouvez définir des filtres avancés pour filtrer uniquement les N
premières (ou dernières) valeurs classées par une mesure. Vous pouvez, par
exemple, afficher uniquement les cinq premières catégories dans le visuel ci-
dessus. Comme les filtres de mesures, cela entraîne l’envoi de deux requêtes à la
source de données sous-jacente. Toutefois, la première requête retourne toutes les
catégories de la source sous-jacente, puis les N premières catégories sont
déterminées sur la base des résultats retournés. Selon la cardinalité de la colonne
impliquée, cela peut entraîner des problèmes de performances (ou des échecs de
requête en raison de la limite de 1 million de lignes).
Médiane : en règle générale, toute agrégation (Sum, Count Distinct, etc.) est
envoyée à la source sous-jacente. Toutefois, ce n’est pas vrai pour la valeur
Médiane, car cet agrégat n’est pas pris en charge par la source sous-jacente. Dans
ce cas, des données détaillées sont extraites de la source sous-jacente, et Power BI
évalue la valeur médiane à partir des résultats retournés. C’est convenable quand
la valeur médiane doit être calculée sur la base d’un nombre relativement restreint
de résultats, mais des problèmes de performances (ou des échecs de requêtes en
raison de la limite de 1 million de lignes) se produisent si la cardinalité est
importante. Par exemple, une valeur médiane de population d’un pays/d’une
région pourrait être raisonnable, tandis qu’une valeur médiane de prix de vente
pourrait ne pas l’être.
Valeurs totales affichées : par défaut, les tables et les matrices affichent les totaux
et les sous-totaux. Dans de nombreux cas, il faut envoyer des requêtes
supplémentaires à la source sous-jacente pour obtenir les valeurs des totaux. Il en
est ainsi à chaque utilisation d’agrégats Count Distinct ou Median, et dans tous les
cas lors de l’utilisation de DirectQuery sur SAP HANA ou SAP Business Warehouse.
Ces totaux doivent être désactivés (à l’aide du volet Format) s’ils ne sont pas
nécessaires.
Nous vous recommandons de former les consommateurs aux rapports basés sur des
modèles sémantiques DirectQuery. Il peut être utile pour eux de comprendre
l’architecture générale des données, y compris les limitations pertinentes décrites dans
cet article. Informez-les que les réponses d’actualisation et le filtrage interactif peuvent
parfois s’avérer lents. Quand les utilisateurs des rapports comprennent la raison pour
laquelle une dégradation des performances se produit, ils sont moins susceptibles de se
méfier des rapports et des données.
Quand vous distribuez des rapports sur des sources de données volatiles, veillez à
former les utilisateurs des rapports à l’utilisation du bouton Actualiser. Informez-les qu’il
peut être possible de voir des résultats incohérents et qu’une actualisation du rapport
peut résoudre toutes les incohérences sur la page de rapport.
Contenu connexe
Pour plus d’informations sur DirectQuery, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse aux modélisateurs de données qui développent des modèles
composites Power BI Desktop. Il décrit les cas d’utilisation des modèles composites et
donne des conseils de conception. Plus précisément, il vous permet de déterminer si un
modèle composite est adapté à votre solution. Si c’est le cas, cet article vous aidera
également à concevoir des modèles et des rapports composites optimaux.
7 Notes
L’introduction aux modèles composites n’est pas abordée dans cet article. Si vous
ne connaissez pas les modèles composites, nous vous recommandons de lire
d’abord l’article Utiliser des modèles composites dans Power BI Desktop.
Étant donné que les modèles composites se composent d’au moins une source
DirectQuery, il est également important de bien comprendre les relations entre les
modèles, les modèles DirectQuery et l’aide à la conception de modèles
DirectQuery.
7 Notes
Lorsqu’un modèle se connecte à un modèle tabulaire mais ne l’étend pas avec des
données supplémentaires, il ne s’agit pas d’un modèle composite. Dans ce cas, il
s’agit d’un modèle DirectQuery qui se connecte à un modèle distant - il ne
comprend donc qu’un groupe source. Vous pouvez créer ce type de modèle pour
modifier les propriétés des objets du modèle source, comme le nom d’une table,
l’ordre de tri des colonnes ou une chaîne de format.
Votre modèle pourrait être un modèle DirectQuery et vous souhaitez améliorer les
performances. Dans un modèle composite, vous pouvez améliorer les
performances en configurant un stockage approprié pour chaque table. Vous
pouvez également ajouter des agrégations définies par l’utilisateur. Ces deux
optimisations sont décrites plus loin dans cet article.
Vous souhaitez combiner un modèle DirectQuery avec des données
supplémentaires, qui doivent être importées dans le modèle. Vous pouvez charger
des données importées à partir d’une autre source de données ou à partir de
tables calculées.
Vous souhaitez combiner plusieurs sources de données DirectQuery dans un
modèle unique. Ces sources peuvent être des bases de données relationnelles ou
d’autres modèles tabulaires.
7 Notes
Toutefois, les modèles d’importation ne peuvent pas toujours résoudre les problèmes
liés aux gros volumes de données ou aux rapports basés sur des données en quasi
temps réel. Dans ces deux cas, vous pouvez envisager un modèle DirectQuery, à
condition que vos données soient stockées dans une source de données unique prise en
charge par le mode DirectQuery. Pour plus d’informations, consultez Modèles
DirectQuery dans Power BI Desktop.
Conseil
DirectQuery : nous vous recommandons de définir ce mode pour les tables qui
représentent de gros volumes de données ou qui doivent fournir des résultats en
quasi temps réel. Les données ne seront jamais importées dans ces tables. En règle
générale, ces tables sont des tables de type fait, qui sont des tables résumées.
Importation : nous vous recommandons de définir ce mode pour les tables qui ne
sont pas utilisées pour le filtrage et le regroupement des tables de faits en mode
DirectQuery ou Hybrid. Il s’agit également de la seule option pour les tables
basées sur des sources non prises en charge par le mode DirectQuery. Les tables
calculées sont toujours des tables d’importation.
Double : nous vous recommandons de définir ce mode pour les tables de type
dimension si elles sont potentiellement interrogées avec des tables de type fait
DirectQuery à partir de la même source.
Hybride : nous vous recommandons de définir ce mode en ajoutant des partitions
d’importation, et une partition DirectQuery à une table de faits lorsque vous
souhaitez inclure les dernières modifications de données en temps réel, ou lorsque
vous souhaitez fournir un accès rapide aux données les plus fréquemment utilisées
par le biais des partitions d’importation tout en laissant l’essentiel de données plus
rarement utilisées dans l’entrepôt de données.
Lorsque les agrégations sont mises en cache dans le modèle, elles se comportent
comme des tables d’importation (bien qu’elles ne soient pas utilisables comme une
table de modèle). L’ajout d’agrégations d’importation à un modèle DirectQuery donne
lieu à un modèle composite.
7 Notes
Les tables hybrides ne prennent pas en charge les agrégations, car certaines des
partitions fonctionnent en mode d’importation. Il n’est pas possible d’ajouter des
agrégations au niveau d’une partition DirectQuery individuelle.
Nous vous recommandons de suivre une règle de base pour l’agrégation : son nombre
de lignes doit être au moins 10 fois plus petit que la table sous-jacente. Par exemple, si
la table sous-jacente stocke un milliard de lignes, la table d’agrégation ne doit pas
dépasser 100 millions de lignes. Cette règle garantit un gain de performances adapté au
coût de création et de maintenance de l’agrégation.
7 Notes
Dans certains cas, vous pouvez éviter de créer une relation de groupes de sources
croisées. Consultez la rubrique Utiliser les segments de synchronisation plus loin
dans cet article.
Lorsque vous définissez des relations entre les groupes de sources croisées, tenez
compte des recommandations suivantes.
2 Avertissement
Dans ce scénario, la table Region du groupe source A possède une relation avec la table
Date et la table Sales du groupe source B. La relation entre la table Region et la table
Date est active, tandis que la relation entre la table Region et la table Sales est inactive.
Il existe également une relation active entre la table Region et la table Sales, qui font
toutes deux partie du groupe source B. La table Sales comprend une mesure appelée
TotalSales, et la table Region comprend deux mesures appelées RegionalSales et
RegionalSalesDirect.
DAX
TotalSales = SUM(Sales[Sales])
RegionalSales = CALCULATE([TotalSales], USERELATIONSHIP(Region[RegionID],
Sales[RegionID]))
RegionalSalesDirect = CALCULATE(SUM(Sales[Sales]),
USERELATIONSHIP(Region[RegionID], Sales[RegionID]))
Notez comment la mesure RegionalSales fait référence à la mesure TotalSales, à la
différence de la mesure RegionalSalesDirect. Au lieu de cela, la mesure
RegionalSalesDirect utilise l’expression SUM(Sales[Sales]) , qui est l’expression de la
mesure TotalSales.
) Important
Chaque fois que vous utilisez la fonction CALCULATE avec une expression qui est une
mesure dans un groupe source distant, testez minutieusement les résultats du
calcul.
Dans ce scénario, la table Date est liée à la table Sales sur les colonnes DateKey. Le type
de données des colonnes DateKey est un nombre entier, stockant des nombres entiers
qui utilisent le format aaaammjj. Les tables appartiennent à des groupes de sources
différents. En outre, il s’agit d’une relation à cardinalité élevée car la première date de la
table Date est le 1er janvier 1900 et la dernière date le 31 décembre 2100. La table
contient donc un total de 73 414 lignes (une ligne pour chaque date de la période 1900-
2100).
Deux cas nous intéressent.
Tout d’abord, lorsque vous utilisez les colonnes de la table Date comme filtres, la
propagation des filtres filtre la colonne DateKey de la table Sales pour évaluer les
mesures. Lors d’un filtrage d’une seule année, par exemple 2022, la requête DAX inclut
une expression de filtre telle que Sales[DateKey] IN { 20220101, 20220102, …20221231
} . La taille du texte de la requête peut devenir extrêmement importante lorsque le
nombre de valeurs dans l’expression du filtre est élevé, ou lorsque les valeurs du filtre
sont de longues chaînes de caractères. Il est coûteux pour Power BI de générer la longue
requête et pour la source de données d’exécuter la requête.
Deuxièmement, lorsque vous utilisez des colonnes de table Date, comme Année,
Trimestre ou Mois, en tant que colonnes de regroupement, il en résulte des filtres qui
incluent toutes les combinaisons uniques d’année, de trimestre ou de mois et les valeurs
de la colonne DateKey . La taille de la chaîne de la requête, qui contient des filtres sur
les colonnes de regroupement et la colonne de relation, peut devenir extrêmement
importante. Cela est particulièrement vrai lorsque le nombre de colonnes de
regroupement et/ou la cardinalité de la colonne de jointure (colonne DateKey) est élevé.
Dans ce scénario, la table Date du groupe source B a une relation avec la table Ventes
de ce groupe source, ainsi qu’avec la table Cible du groupe source A. Toutes les
relations sont de type un-à-plusieurs à partir de la table Date qui relie les colonnes
Année. La table Sales comprend une colonne SalesAmount qui enregistre les montants
des ventes, tandis que la table Target comprend une colonne TargetAmount qui
enregistre les montants cibles.
La table Date stocke les années 2021 et 2022. La table Ventes stocke les montants des
ventes pour les années 2021 (100) et 2022 (200), tandis que la table Cible stocke les
montants cibles pour 2021 (100), 2022 (200) et 2023 (300), une année dans le futur.
Si la relation entre la table Date et la table Cible est une relation intragroupe source (en
supposant que la table Cible appartient au groupe source B), le visuel comprendra une
année vide (Blank) pour indiquer le montant cible de 2023 (et de toute autre année non
appariée).
) Important
Pour éviter les erreurs de rapport, assurez-vous que les colonnes de relation
comportent des valeurs correspondantes lorsque les tables de dimensions et de
faits résident dans des groupes sources différents.
Pour plus d’informations sur les relations limitées, voir Évaluation des relations.
Calculs
Vous devez tenir compte des limitations spécifiques lorsque vous ajoutez des colonnes
calculées et des groupes de calcul à un modèle composite.
Colonnes calculées
Les colonnes calculées ajoutées à une table DirectQuery avec leurs données provenant
d’une base de données relationnelle, comme Microsoft SQL Server, sont limitées aux
expressions qui opèrent sur une seule ligne à la fois. Ces expressions ne peuvent pas
utiliser les fonctions d’itérateur DAX, comme SUMX , ou les fonctions de modification du
contexte de filtrage, comme CALCULATE .
7 Notes
Il n’est pas possible d’ajouter des colonnes calculées ou des tableaux calculés qui
dépendent de modèles tabulaires chaînés.
Une expression de colonne calculée sur une table DirectQuery distante est limitée à
l’évaluation intra-ligne uniquement. Bien que vous puissiez créer une telle expression,
celle-ci entraîne une erreur lorsqu’elle est utilisée dans un visuel. Par exemple, si vous
ajoutez une colonne calculée à une table DirectQuery distante nommée DimProduct en
utilisant l’expression [Product Sales] / SUM (DimProduct[ProductSales]) , vous pourrez
enregistrer l’expression dans le modèle. Cependant, elle entraînera une erreur lorsqu’elle
sera utilisée dans un visuel car elle viole la restriction d’évaluation intra-rangée.
En revanche, les colonnes calculées ajoutées à une table DirectQuery distante qui est un
modèle tabulaire, qui est soit un modèle sémantique Power BI, soit un modèle Analysis
Services, sont plus flexibles. Dans ce cas, toutes les fonctions DAX sont autorisées car
l’expression sera évaluée dans le modèle tabulaire source.
De nombreuses expressions nécessitent Power BI pour matérialiser la colonne calculée
avant de l’utiliser en tant que groupe ou filtre, ou de l’agréger. Lorsqu’une colonne
calculée est matérialisée sur une grande table, elle peut être coûteuse en termes de
processeur et de mémoire, en fonction de la cardinalité des colonnes dont dépend la
colonne calculée. Dans ce cas, nous vous recommandons d’ajouter ces colonnes
calculées au modèle source.
7 Notes
Groupes de calcul
Si des groupes de calcul existent dans un groupe source qui se connecte à un modèle
sémantique Power BI ou à un modèle Analysis Services, Power BI peut renvoyer des
résultats inattendus. Pour plus d’informations, consultez Groupes de calcul, évaluation
des requêtes et des mesures.
Conception de modèle
Pour optimiser un modèle Power BI, vous devez adopter une conception de schéma en
étoile.
Conseil
Veillez à créer des tables de dimensions distinctes des tables de faits afin que Power BI
puisse interpréter correctement les jointures et produire des plans de requête efficaces.
Bien que s’appliquant à tous les modèles Power BI, ces conseils sont essentiels pour les
modèles qui deviendront le groupe source d’un modèle composite. Celui-ci permettra
une intégration plus simple et plus efficace d’autres tables dans les modèles en aval.
Dans la mesure du possible, évitez d’avoir des tables de dimension dans un groupe
source qui se rapportent à une table de faits dans un groupe source différent. En effet, il
est préférable d’avoir des relations intra groupe source que de groupes de sources
croisées, en particulier pour les colonnes de relations à forte cardinalité. Comme décrit
précédemment, les relations de groupes de sources croisées dépendent de l’existence
de valeurs correspondantes dans les colonnes de relation, sinon des résultats inattendus
peuvent apparaître dans les visuels du rapport.
Conception de rapports
Dans certaines situations, vous pouvez améliorer les performances d’un modèle
composite en concevant une mise en page de rapport optimisée.
Considérons un scénario dans lequel votre modèle comporte deux groupes sources.
Chaque groupe de sources dispose d’une table de dimension de produit utilisée pour
filtrer les ventes des revendeurs et d’Internet.
Dans ce scénario, le groupe source A contient la table Product qui est liée à la table
ResellerSales. Le groupe source B contient la table Product2 qui est liée à la table
InternetSales. Il n’y a pas de relations entre les groupes de sources croisées.
Dans le rapport, vous ajoutez un segment qui filtre la page en utilisant la colonne Color
de la table Product. Par défaut, le segment filtre la table ResellerSales, mais pas la table
InternetSales. Vous ajoutez ensuite un segment masqué à l’aide de la colonne Color de
la table Product2. En définissant un nom de groupe identique (trouvé dans les Options
avancées des segments de synchronisation), les filtres appliqués au segment visible se
propagent automatiquement au segment masqué.
7 Notes
Autres conseils
Voici d’autres conseils pour vous aider à concevoir et à maintenir des modèles
composites.
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse principalement aux modélisateurs de données qui utilisent Power BI
Desktop. Il décrit les bonnes pratiques de conception pour l’application de la sécurité au
niveau des lignes (RLS) dans vos modèles de données.
Il est important de comprendre les filtres RLS de lignes de table. Ils ne peuvent pas être
configurés pour restreindre l’accès aux objets de modèle, y compris les tables, les
colonnes et les mesures.
7 Notes
Cet article ne décrit pas ce qu’est la sécurité au niveau des lignes ou la façon de le
configurer. Pour plus d’informations à ce sujet, consultez Restreindre l’accès aux
données avec la sécurité au niveau des lignes (RLS) pour Power BI Desktop.
En outre, il ne couvre pas l’application de la sécurité au niveau des lignes pour les
connexions actives à des modèles hébergés en externe avec Azure Analysis Services
ou SQL Server Analysis Services. Dans ces cas, la sécurité au niveau des lignes est
appliquée par Analysis Services. Lorsque Power BI se connecte à l’aide de
l’authentification unique (SSO), Analysis Services applique la sécurité au niveau des
lignes (à moins que le compte dispose de privilèges d’administrateur).
Lorsqu’un utilisateur de rapport est affecté à plusieurs rôles, les filtres RLS deviennent
additifs. Cela signifie que les utilisateurs de rapports peuvent voir les lignes de table qui
représentent l’union de ces filtres. De plus, dans certains scénarios, il n’est pas possible
de garantir qu’un utilisateur de rapport ne voit pas de lignes dans une table. Par
conséquent, contrairement aux autorisations appliquées aux objets de base de données
SQL Server (et aux autres modèles d’autorisation), le principe de « ce qui est refusé une
fois est toujours refusé » ne s’applique pas.
Prenons l’exemple d’un modèle avec deux rôles : Le premier rôle, nommé Workers,
limite l’accès à toutes les lignes de la table Payroll à l’aide de l’expression de règle
suivante :
DAX
FALSE()
7 Notes
Une règle ne retourne pas de lignes de table lorsque son expression prend la valeur
FALSE .
Pourtant, un deuxième rôle, nommé Managers, autorise l’accès à toutes les lignes de la
table Payroll à l’aide de l’expression de règle suivante :
DAX
TRUE()
Attention : Si un utilisateur de rapport est associé aux deux rôles, il voit toutes les lignes
de la table Payroll.
En général, il est souvent plus efficace d’appliquer des filtres RLS sur des tables de type
de dimension que sur des tables de type fait. Il convient aussi de se reposer sur des
relations bien conçues pour garantir la propagation des filtres RLS aux autres tables de
modèle. Les filtres RLS se propagent uniquement au travers de relations actives. Par
conséquent, évitez d’utiliser la fonction DAX LOOKUPVALUE lorsque les relations de
modèle peuvent atteindre le même résultat.
Chaque fois que des filtres RLS sont appliqués sur les tables DirectQuery et qu’il y a des
relations avec d’autres tables DirectQuery, veillez à optimiser la base de données source.
Cela peut impliquer la conception d’index appropriés ou l’utilisation de colonnes
calculées persistantes. Pour plus d’informations, consultez l’Aide sur le modèle
DirectQuery dans Power BI Desktop.
Les membres peuvent être des comptes d’utilisateur, des groupes de sécurité, des
groupes de distribution ou des groupes à extension messagerie. Dans la mesure du
possible, nous vous recommandons de mapper des groupes de sécurité aux rôles de
modèle sémantique. Cela implique une gestion des appartenances aux groupes de
sécurité dans Microsoft Entra ID (précédemment Azure Active Directory). Cela peut
éventuellement déléguer la tâche à vos administrateurs réseau.
DAX
IF(
USERNAME() = "Worker",
[Type] = "Internal",
TRUE()
)
Le problème avec cette expression de règle est que toutes les valeurs, à l’exception de
« Worker », retournent toutes les lignes de la table. Ainsi, une valeur accidentelle, telle
que « Wrker », retourne par inadvertance toutes les lignes de la table. Par conséquent, il
est plus sûr d’écrire une expression qui teste chaque valeur attendue. Dans l’expression
de règle améliorée suivante, une valeur inattendue fait que la table ne retourne aucune
ligne.
DAX
IF(
USERNAME() = "Worker",
[Type] = "Internal",
IF(
USERNAME() = "Manager",
TRUE(),
FALSE()
)
)
Bien qu’il ne soit pas possible pour une expression DAX de remplacer la RLS (en fait, elle
ne peut même pas déterminer que la sécurité au niveau des lignes est appliquée), vous
pouvez utiliser une table de modèle de synthèse. La table de modèle de synthèse est
interrogée pour récupérer le chiffre d’affaires pour « toutes les régions » et n’est pas
limitée par des filtres de la RLS.
La table Salesperson stocke une ligne par vendeur. Elle comprend la colonne
EmailAddress, qui stocke l’adresse e-mail de chaque commercial. Cette table est
masquée.
La table Sales stocke une ligne par commande. Elle comprend la mesure Revenue
% All Region, qui est conçue pour renvoyer la proportion du chiffre d’affaires
obtenu par la région de l’utilisateur du rapport par rapport au chiffre d’affaires
réalisé par toutes les régions.
La table Date stocke une ligne par date et permet de filtrer et de regrouper par
année et par mois.
SalesRevenueSummary est une table calculée. Elle stocke le chiffre d’affaires total
pour chaque date de commande. Cette table est masquée.
DAX
SalesRevenueSummary =
SUMMARIZECOLUMNS(
Sales[OrderDate],
"RevenueAllRegion", SUM(Sales[Revenue])
)
7 Notes
DAX
[EmailAddress] = USERNAME()
Chacune des trois relations de modèle est décrite dans le tableau suivant :
ノ Agrandir le tableau
Relation Description
DAX
Revenue % All Region =
DIVIDE(
SUM(Sales[Revenue]),
SUM(SalesRevenueSummary[RevenueAllRegion])
)
7 Notes
Veillez à éviter de divulguer des faits sensibles. S’il n’y a que deux régions dans cet
exemple, il est possible pour un utilisateur de rapport de calculer le chiffre d’affaires
de l’autre région.
Par exemple, une société qui a seulement deux régions de vente décide de publier un
modèle sémantique pour chaque région de vente dans différents espaces de travail. Les
modèles sémantiques n’appliquent pas la sécurité au niveau des lignes (SNL). Toutefois,
ils utilisent des paramètres de requête pour filtrer les données sources. De cette façon,
le même modèle est publié dans chaque espace de travail, mais avec des valeurs de
paramètre de modèle sémantique différentes. Les commerciaux se voient attribuer
l’accès à un seul des espaces de travail (ou une seule des applications publiées).
Lorsqu’un utilisateur spécifique ne peut pas voir de données, cela peut être dû au fait
que son UPN n’est pas stocké ou qu’il n’est pas entré correctement. Cela peut se
produire brusquement si leur compte d’utilisateur a changé suite à un changement de
nom.
Conseil
À des fins de test, ajoutez une mesure qui retourne la fonction DAX USERNAME.
Vous pouvez la nommer « Qui suis-je », par exemple. Ajoutez ensuite la mesure à
un objet visuel de carte dans un rapport et publiez ce dernier sur Power BI.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article fournit des conseils sur la création d’un modèle de données Power BI qui se
connecte à Dataverse. Il décrit les différences entre un schéma Dataverse et un schéma
Power BI optimisé, et fournit des conseils pour étendre la visibilité de vos données
d’application métier dans Power BI.
Établir des rapports sur toutes les données Dataverse au-delà des contraintes des
graphiques intégrés.
Proposer un accès facile à des rapports pertinents et filtrés en fonction du contexte
au sein d’un enregistrement spécifique.
Améliorer la valeur des données Dataverse en les intégrant à des données
externes.
Tirer parti de l’intelligence artificielle (IA) intégrée de Power BI sans avoir à écrire
du code complexe.
Accroître l’adoption de solutions Power Platform en accentuant leur utilité et leur
valeur.
Fournir la valeur des données de votre application aux décideurs d’entreprises.
) Important
S’il s’avère qu’un modèle DirectQuery peut être une bonne alternative en cas de
nécessité de rapports en quasi-temps réel ou de l’application de la sécurité
Dataverse dans un rapport, il peut ralentir les performances pour ces rapports.
Pour déterminer la méthode adaptée à votre modèle Power BI, vous devez tenir compte
des éléments suivants :
Conseil
Pour un exposé détaillé sur les infrastructures de modèles (importation,
DirectQuery ou composite), leurs avantages et leur limitations, ainsi que les
fonctionnalités permettant d’optimiser les modèles de données Power BI, consultez
Choisir une infrastructure de modèles Power BI.
Volume de données
Quand vous développez un modèle d’importation, vous devez vous efforcer de réduire
au minimum les données qui sont chargées dans le modèle. C’est particulièrement vrai
pour les modèles volumineux ou qui sont amenés à croître au fil du temps. Pour plus
d’informations, consultez Techniques de réduction des données pour la modélisation
des importations.
Une connexion DirectQuery à Dataverse est un bon choix quand le résultat de la requête
du rapport n’est pas volumineux. Un résultat de requête volumineux présente plus de
20 000 lignes dans les tables sources du rapport, ou le résultat retourné au rapport
après application des filtres compte plus de 20 000 lignes. Dans ce cas, vous pouvez
créer un rapport Power BI à l’aide du connecteur Dataverse.
7 Notes
La taille de 20 000 lignes n’est pas une limite absolue. Cependant, chaque requête
de source de données doit retourner un résultat dans un délai de 10 minutes. Plus
loin dans cet article, vous verrez comment respecter ces limitations et découvrirez
d’autres éléments à prendre en considération pour la conception DirectQuery avec
Dataverse.
Vous pouvez améliorer le niveau de performance des modèles sémantiques plus
volumineux (précédemment appelés jeux de données) en utilisant le Connecteur
Dataverse pour importer les données dans le modèle de données.
Conseil
Vous pouvez créer un rapport Power BI qui utilise l’actualisation automatique des
pages pour afficher les mises à jour en temps réel, mais uniquement lorsque le
rapport se connecte à un modèle DirectQuery.
Les modèles de données d’importation doivent effectuer une actualisation des données
pour permettre la création de rapports sur les modifications de données récentes.
Gardez à l’esprit qu’il existe des limitations quant au nombre d’opérations
d’actualisation de données planifiées quotidiennes. Vous pouvez planifier jusqu’à huit
actualisations par jour au niveau d’une capacité partagée. Sur une capacité Premium ou
capacité Microsoft Fabric, vous pouvez planifier jusqu’à 48 actualisations par jour, ce qui
peut atteindre une fréquence d’actualisation de 15 minutes.
) Important
Dataverse peut appliquer une sécurité basée sur les rôles complexe pour contrôler
l’accès d’enregistrements spécifiques à des utilisateurs spécifiques. Par exemple, un
vendeur peut être autorisé à voir uniquement ses opportunités de vente, tandis que le
responsable des ventes peut voir toutes les opportunités de vente de tous les vendeurs.
Vous pouvez adapter le niveau de complexité en fonction des besoins de votre
organisation.
7 Notes
Il peut être difficile de répliquer une sécurité basée sur les rôles Dataverse en tant
que SNL Power BI, en particulier lorsque Dataverse applique des autorisations
complexes. En outre, cela peut demander une gestion continue pour que les
autorisations Power BI restent synchronisées avec les autorisations Dataverse.
Pour plus d’informations sur la SNL Power BI, consultez Aide sur la sécurité au niveau
des lignes (SNL) dans Power BI Desktop.
Complexité de l’installation
L’utilisation du connecteur Dataverse dans Power BI, que ce soit pour les modèles
d’importation ou DirectQuery, est simple et ne nécessite pas de logiciels spéciaux ou
d’autorisations Dataverse élevées. Il s’agit d’un avantage pour les organisations ou les
services qui débutent.
Pratiques recommandées
Cette section décrit les modèles de conception (et les anti-modèles) que vous devez
prendre en compte au moment de créer un modèle Power BI qui se connecte à
Dataverse. Seuls quelques-uns de ces modèles sont propres à Dataverse, mais ils ont
tendance à poser des problèmes aux créateurs Dataverse quand il s’agit de créer des
rapports Power BI.
Pour être certain de bien comprendre l’objectif du modèle, posez-vous les questions
suivantes.
En tant que modèle relationnel, Dataverse est bien adapté à son objectif. Cependant, il
n’est pas conçu en tant que modèle analytique optimisé pour les rapports analytiques.
Le modèle le plus répandu pour la modélisation de données d’analyse est une
conception de schéma en étoile. Le schéma en étoile est une approche de modélisation
mature largement adoptée par les entrepôts de données relationnels. Les modélisateurs
doivent classer leurs tables de modèle en tant que table de dimension ou table de faits.
Les rapports peuvent filtrer ou regrouper à partir de colonnes de table de dimension et
synthétiser des colonnes de table de faits.
Pour plus d’informations sur la façon de mener à bien le Query Folding, consultez Pliage
des requêtes Power Query.
7 Notes
L’optimisation de Power Query est un large sujet. Pour mieux comprendre ce que
fait Power Query au moment de la création et de l’actualisation de modèle dans
Power BI Desktop, consultez Diagnostics de requête.
Tenter de récupérer les données de toutes les colonnes est un anti-modèle. Cela donne
souvent lieu à des opérations d’actualisation des données étendues et provoque l’échec
de la requête quand le temps nécessaire pour retourner les données dépasse
10 minutes.
Par ailleurs, veillez à introduire l’étape Power Query Supprimer les colonnes à un stade
précoce pour permettre un pliage dans la source. Power Query peut ainsi éviter le travail
inutile d’extraction de données sources uniquement pour les ignorer par la suite (dans
une étape qui s’est déroulée).
Quand vous disposez d’une table contenant un grand nombre colonnes, il n’est pas
nécessaire commode d’utiliser le générateur de requêtes interactif Power Query. Dans ce
cas, vous pouvez commencer par créer une requête vide. Vous pouvez ensuite utiliser
l’Éditeur avancé pour coller une requête minimale qui crée un point de départ.
Examinez la requête suivante qui récupère les données de seulement deux colonnes de
la table account.
Power Query M
let
Source = CommonDataService.Database("demo.crm.dynamics.com",
[CreateNavigationProperties=false]),
dbo_account = Source{[Schema="dbo", Item="account"]}[Data],
#"Removed Other Columns" = Table.SelectColumns(dbo_account,
{"accountid", "name"})
in
#"Removed Other Columns"
Une requête native ne se plie que si cette option est ajoutée. L’activation de cette option
peut entraîner des améliorations significatives en termes de performances, avec jusqu’à
97 % de rapidité en plus dans certains cas.
Examinez la requête suivante qui utilise une requête native pour sourcer les colonnes
sélectionnées dans la table account. La requête native est pliée, car l’option
EnableFolding=true est définie.
Power Query M
let
Source = CommonDataService.Database("demo.crm.dynamics.com"),
dbo_account = Value.NativeQuery(
Source,
"SELECT A.accountid, A.name FROM account A"
,null
,[EnableFolding=true]
)
in
dbo_account
Conseil
7 Notes
Prenons un exemple qui récupère des données de la table account. Elle contient trois
colonnes en rapport avec le territoire : territory, territoryid et territoryidname.
Power Query M
let
Source = CommonDataService.Database("demo.crm.dynamics.com"
,[CreateNavigationProperties=false]),
dbo_account = Source{[Schema="dbo", Item="account"]}[Data],
#"Removed Other Columns" = Table.SelectColumns(dbo_account,
{"accountid", "name", "address1_stateorprovince", "address1_country",
"industrycodename", "territoryidname"}),
#"Renamed Columns" = Table.RenameColumns(#"Removed Other Columns",
{{"name", "Account Name"}, {"address1_country", "Country"},
{"address1_stateorprovince", "State or Province"}, {"territoryidname",
"Territory"}, {"industrycodename", "Industry"}})
in
#"Renamed Columns"
Quand vous utilisez cette option, il y a des chances que vous constatiez une
amélioration significative des performances quand une table Dataverse présente de
nombreuses relations avec d’autres tables. Par exemple, la table SystemUser étant liée à
toutes les autres tables de la base de données, la définition de l’option
CreateNavigationProperties=false profiterait aux performances d’actualisation de cette
table.
7 Notes
Cette option peut améliorer les performances d’actualisation des données des
tables d’importation ou des tables en mode de stockage double, y compris le
processus d’application des modifications de la fenêtre de l’Éditeur Power Query.
Elle n’améliore pas le niveau de performance du filtrage croisé interactif des tables
en mode de stockage DirectQuery.
Dans ce cas, ouvrez le portail Dataverse Maker, accédez à la zone Solutions, puis
sélectionnez Publier toutes les personnalisations. Le processus de publication met alors
à jour le point de terminaison TDS avec les dernières métadonnées, ce qui permet à
Power BI d’accéder aux étiquettes d’option.
Azure Synapse Link permet une réplication continue des données et des métadonnées
de Dataverse dans le lac de données. Il fournit également un pool SQL serverless intégré
faisant office de source de données pratique pour les requêtes Power BI.
Les points forts de cette approche sont notables. Les clients ont la possibilité d’exécuter
des charges de travail d’analytique, de décisionnel et de Machine Learning sur des
données Dataverse en utilisant divers services avancés. Il s’agit notamment des services
Apache Spark, Power BI, Azure Data Factory, Azure Databricks et Azure Machine
Learning.
Vous pouvez créer une base de données SQL serverless dans l’espace de travail Azure
Synapse à l’aide d’Azure Synapse Studio. Sélectionnez Serverless comme type de base
de données SQL et entrez un nom de base de données. Power Query peut se connecter
à cette base de données en se connectant au point de terminaison SQL de l’espace de
travail.
SQL
Notez que la vue comprend seulement quatre colonnes, chacune disposant d’un alias
sous la forme d’un nom convivial. Il existe également une clause WHERE pour retourner
uniquement les lignes nécessaires, dans ce cas les campagnes actives. De même, la vue
interroge la table de campagne jointe aux tables OptionsetMetadata et
StatusMetadata, qui récupèrent les étiquettes de choix.
Conseil
Pour plus d’informations, consultez Accéder aux données en quasi-temps réel et aux
données d’instantané en lecture seule.
Dans Power BI Desktop, vous pouvez vous connecter à Azure Synapse à l’aide du
connecteur SQL Azure Synapse Analytics. Quand vous êtes invité à entrer le serveur,
entrez le point de terminaison SQL de l’espace de travail.
Éléments à prendre en considération pour
DirectQuery
Il existe un grand nombre de cas d’usage où le mode de stockage DirectQuery peut
répondre à vos besoins. Cependant, l’utilisation de DirectQuery peut influer
négativement sur les performances des rapports Power BI. Un rapport qui utilise une
connexion DirectQuery à Dataverse ne sera pas aussi rapide qu’un rapport qui utilise un
modèle d’importation. En règle générale, vous avez tout intérêt à importer les données
dans Power BI dans la mesure du possible.
Pour mieux savoir dans quels cas utiliser le mode de stockage DirectQuery, consultez
Choisir une infrastructure de modèles Power BI.
Les tables de faits, qui stockent généralement de gros volumes de données, doivent
rester des tables en mode de stockage DirectQuery. Elles seront filtrées par les tables de
dimension en mode de stockage double associées, qui peuvent être jointes à la table de
faits pour parvenir à un filtrage et un regroupement efficaces.
Pour plus d’informations sur les modes de stockage de table, notamment le stockage
double, consultez Gérer le mode de stockage dans Power BI Desktop.
Pour plus d’informations, consultez Authentification unique (SSO) pour les sources
DirectQuery.
Prenons un exemple de la façon dont la vue Dynamics 365 Mes comptes actifs inclut le
filtre Propriétaire est égal à l’utilisateur actuel.
Vous pouvez reproduire ce résultat dans Power Query à l’aide d’une requête native qui
incorpore le jeton CURRENT_USER .
Prenons l’exemple suivant qui montre une requête native qui retourne les comptes de
l’utilisateur actuel. Dans la clause WHERE , notez que la colonne ownerid est filtrée par le
jeton CURRENT_USER .
Power Query M
let
Source = CommonDataService.Database("demo.crm.dynamics.com",
[CreateNavigationProperties=false],
dbo_account = Value.NativeQuery(Source, "
SELECT
accountid, accountnumber, ownerid, address1_city,
address1_stateorprovince, address1_country
FROM account
WHERE statecode = 0
AND ownerid = CURRENT_USER
", null, [EnableFolding]=true])
in
dbo_account
Quand vous publiez le modèle sur le service Power BI, vous devez activer
l’authentification unique (SSO) de sorte que Power BI envoie les informations
d’identification Microsoft Entra authentifiées de l’utilisateur de rapport au Dataverse.
Autre exemple : quand Dataverse applique des autorisations basées sur les rôles par
région commerciale, vous pourriez créer un modèle d’importation et répliquer ces
autorisations en utilisant la SNL. Vous pourriez également créer un modèle pour chaque
région commerciale. Vous pouvez ensuite accorder une autorisation en lecture de ces
modèles (modèles sémantiques) aux vendeurs de chaque région. Pour faciliter la
création de ces modèles régionaux, vous pouvez utiliser des paramètres et des modèles
de rapport. Pour plus d’informations, consultez Créer et utiliser des modèles de rapport
dans Power BI Desktop.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes.
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article cible les modélisateurs et les administrateurs de données Azure Analysis
Services (AAS). Il fournit un raisonnement et des instructions qui vous aideront à
effectuer la migration de vos bases de données AAS vers Power BI Premium ou Power BI
Embedded.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Background
Power BI est devenu la plateforme de référence pour le décisionnel (BI) libre-service et le
décisionnel d’entreprise géré par le service informatique. Avec la croissance
exponentielle des volumes et de la complexité des données, les clients Power BI exigent
des solutions de décisionnel d’entreprise qui soient capables de gérer des pétaoctets, et
qui soient sécurisées, faciles à gérer et accessibles à tous les utilisateurs des plus
grandes entreprises.
Depuis plus de deux décennies, Microsoft investit massivement dans les systèmes de
décisionnel d’entreprise. AAS et SQL Server Analysis Services (SSAS) sont basés sur la
technologie mature de modélisation des données BI qu’utilisent d’innombrables
entreprises. Aujourd'hui, cette même technologie est également au cœur des modèles
sémantiques Power BI (anciennement appelés jeux de données).
7 Notes
Dans cet article, les termes modèle de données, modèle BI, modèle tabulaire, base
de données et modèle sémantique Power BI ont la même signification. Cet article
utilise couramment les termes modèle de données pour le modèle AAS et modèle
sémantique pour le modèle Power BI.
De plus, bien que cet article décrive le processus de migration vers Power BI
Premium, il s'applique également à Power BI Embedded.
Ces dernières années, Microsoft a fait une grande avancée en ajoutant des
fonctionnalités AAS à Power BI Premium . De cette façon, Power BI hérite
instantanément d’un vaste écosystème de développeurs, de partenaires, d’outils
décisionnels et de solutions qui s’est agrandi au fil des décennies. Aujourd’hui,
l’ensemble complet des charges de travail et des fonctionnalités Power BI Premium est
devenu une plateforme BI cloud moderne qui va bien plus loin que les fonctionnalités
similaires actuellement disponibles dans AAS ou SSAS.
7 Notes
La migration vers Power BI Premium dépend des exigences de chaque client. Les
clients doivent bien évaluer les avantages supplémentaires afin de prendre une
décision informée. Nous nous attendons à ce que la migration vers Power BI
Premium se fasse naturellement avec le temps, et notre intention est qu’elle se
fasse dans des conditions avec lesquelles les clients soient à l’aise.
Pour être clair, la dépréciation d’AAS n’est pas prévue pour le moment. La priorité
est de concentrer les investissements sur Power BI Premium pour la modélisation
des données d’entreprise, de sorte que la valeur ajoutée fournie par Power BI
Premium augmentera au fil du temps. Les clients qui choisissent Power BI Premium
peuvent s’attendre à bénéficier de l’alignement sur la feuille de route des produits
Microsoft BI.
Power BI Premium
Grâce à son architecture distribuée, Power BI Premium est moins sensible à la charge
globale, aux pics temporels et à la concurrence élevée. En regroupant les fonctionnalités
dans des références SKU Power BI Premium plus grandes, les clients peuvent obtenir des
performances et un débit accrus.
Les avantages de la scalabilité associés à Power BI Premium sont décrits plus loin dans
cet article.
Rapports paginés, qui sont parfaitement adaptés aux rapports conçus pour Non Oui
être imprimés, en particulier lorsque les données de table s’étendent sur
plusieurs pages
Flux de données, qui stockent des fragments de données destinés à être Non Oui
utilisés dans un modèle sémantique Power BI
IA avec flux de données, qui utilise l’intelligence artificielle (IA) avec Non Oui
Cognitive Services, le machine learning automatisé et l’intégration Azure
Machine Learning (AML)
Métriques, qui organisent les mesures métier clés et permettent de les Non Oui
suivre par rapport aux objectifs
Business Enablement
Distribution des rapports illimitée (à tout le monde, même en dehors de Non Oui
l’organisation)
Rapports interactifs, espaces de travail et applications basés sur l’entreprise Non Oui
Architecture Power BI Premium, qui prend en charge une mise à l’échelle et Non Oui
des performances accrues
Limites d’échelle par modèle de données et non par serveur Non Oui
Continuité d’activité et reprise d’activité (BCDR) avec des régions Azure et Non Oui
des zones de disponibilité
Tables hybrides, qui comprennent des partitions en mémoire et des Non Oui
partitions DirectQuery qui peuvent fournir des résultats en quasi-temps réel
sur de grandes tables
Fonctionnalité AAS Power BI
Premium
Agrégations automatiques, qui utilisent un machine learning de pointe pour Non Oui
optimiser en continu les performances DirectQuery
Agrégations définies par l’utilisateur, qui peuvent améliorer les Non Oui
performances des requêtes sur des tables DirectQuery très volumineuses
Scale-out des requêtes, qui distribue les requêtes clientes entre les serveurs Oui Oui
répliqués
Sécurité
BYOK (Bring Your Own Key), qui permet aux clients d’utiliser leur propre clé Non Oui
de chiffrement pour chiffrer les données stockées dans le cloud Microsoft
Azure Private Link, qui fournit un accès sécurisé au trafic de données dans Non Oui
Power BI
Authentification unique (SSO) pour les sources DirectQuery, qui permet de Non Oui
se connecter à des sources de données à l’aide de l’identité de l’utilisateur
de rapport
Sécurité au niveau des lignes (RLS), qui limite l’accès à certaines lignes de Oui Oui
données pour certains utilisateurs
Sécurité au niveau de l’objet (OLS) qui restreint l’accès à certaines tables ou Oui Oui
colonnes spécifiques pour certains utilisateurs
Pare-feu, qui, lorsqu’il est activé, autorise la définition de plages Oui Non 1
d’adresses IP autorisées
Gouvernance
Intégration de Microsoft Purview, qui permet aux clients de gérer et de régir Non Oui
les éléments Power BI
Modélisation sémantique
Traductions pour les versions de modèles multilingues observées par le Non Oui
service Power BI
Actualisation incrémentielle, qui utilise des stratégies pour automatiser la Non Oui
gestion des partitions et peut aider à fournir des rapports en quasi-temps
réel (voir Tables hybrides)
Pipelines de déploiement, qui gèrent le cycle de vie du contenu Power BI Non Oui
Actualisation programmée, qui maintient à jour les données du modèle Non Oui
sémantique mises en cache
Paramètres de charge de travail du modèle sémantique, qui contrôlent les Non Oui
charges de travail de capacité Premium
Propriétés du serveur, qui contrôlent les propriétés de l’instance de serveur Oui Oui
Analysis Services
Noms de serveur alias, qui permettent de se connecter à une instance de Oui Non
serveur Analysis Services à l’aide d’un alias plus court
API compatibles avec le point de terminaison XMLA pour l’écriture de Oui Oui
scripts et la compatibilité avec les services d’automatisation et ALM,
notamment Azure Functions, Azure Automation et Azure DevOps
Connectivité
Point de terminaison XMLA, qui permet une connectivité open platform Oui Oui
pour la consommation des modèles de données et les outils de
visualisation, y compris les outils tiers
Découvrabilité
Intégration du hub de données, qui aide les utilisateurs à découvrir, explorer Non Oui
et utiliser les modèles sémantiques Power BI
Vue du lignage des données et analyse de l'impact du modèle sémantique, Non Oui
qui aident les utilisateurs à comprendre et à évaluer les dépendances des
éléments Power BI
Application Métriques de capacité Microsoft Fabric qui fournit des Non Oui
fonctionnalités de surveillance pour les capacités Power BI
Journal d’audit, qui effectue le suivi des activités des utilisateurs dans Non Oui
Power BI et Microsoft 365
Intégration d’Azure Log Analytics, qui permet aux administrateurs de Oui Oui
configurer une connexion Log Analytics pour un espace de travail Power BI
Alertes de métriques dans Azure Monitor, qui avertissent quand l’une de vos Oui Non
métriques dépasse un certain seuil
Point de terminaison XMLA, qui autorise les connexions de l’outil de Oui Oui
journalisation des diagnostics, notamment SQL Server Profiler
Événements étendus SQL Server (xEvents), qui est un système de suivi léger Oui Non
et de monitoring des performances utile pour diagnostiquer les problèmes
1
Utiliser la connectivité de réseau virtuel et Azure Private Link à la place
En outre, si vous utilisez déjà Power BI dans votre organisation, calculez les coûts en
fonction du profil existant qui combine AAS et Power BI. Comparez le profil existant au
profil cible sur Power BI Premium. Pour déterminer le profil cible, veillez à prendre en
compte les points suivants :
Exigences de région.
La plus grande taille de modèle de données AAS dans chaque région.
Le nombre d’utilisateurs dans chaque région.
Le nombre d’utilisateurs nécessaires pour développer et gérer le contenu.
Consommation du processeur sur AAS et Power BI Premium.
) Important
Conseil
Pour déterminer le type et le nombre de licences qui sont adaptés aux besoins et
aux circonstances de votre entreprise, consultez cet article.
Opportunité de regroupement
De nombreux clients AAS disposent déjà de rapports Power BI qui se connectent à AAS.
Par conséquent, la migration vers Power BI peut représenter une opportunité de
regrouper les éléments de décisionnel dans Power BI Premium. Le regroupement rend
les références SKU Premium de plus grande taille plus viables sur le plan économique et
peut aider à fournir des niveaux de débit et de scalabilité plus élevés.
Conseil
Il est possible de mettre à niveau les licences Power BI Pro vers des licences
Premium par utilisateur de manière incrémentielle.
et Pro
Une licence Pro (ou Premium par utilisateur) est nécessaire pour publier et gérer du
contenu Power BI. Les licences Pro sont généralement attribuées aux développeurs et
aux administrateurs, et non aux utilisateurs finaux.
Tarification de Power BI
Tarification d’Azure Analysis Services
Acheter des références SKU A pour les tests et d’autres scénarios
Avantages de la scalabilité
Power BI Premium offre des avantages de scalabilité, de performances et de coût de
possession qui ne sont pas disponibles dans AAS.
Power BI Premium fournit des fonctionnalités qui permettent une analyse interactive
rapide du Big Data. Ces fonctionnalités incluent les agrégations, les modèles composites
et les tables hybrides. Chaque fonctionnalité offre un moyen différent de combiner de
manière optimale les modes d’importation et de stockage DirectQuery, ce qui réduit
l’utilisation de la mémoire. En outre, AAS ne prend pas en charge ces fonctionnalités.
L’intégralité du modèle de données utilise le mode de stockage Import ou DirectQuery.
Power BI Premium limite la mémoire par modèle sémantique, et non par capacité ou
serveur. À l’inverse, AAS nécessite que tous les modèles de données rentrent dans la
mémoire d’un serveur unique. Cette exigence peut obliger les clients disposant de
modèles de données volumineux à acheter des références SKU de taille plus importante.
Grâce à la nature distribuée de l'architecture Premium, davantage de modèles
sémantiques peuvent être actualisés en parallèle. L’exécution d’actualisations
simultanées sur un même serveur AAS peut entraîner des erreurs d’actualisation en
raison du dépassement des limites de mémoire du serveur.
Enfin, Power BI Premium est capable de mieux utiliser les déploiements matériels de
nouvelle génération pour tirer parti des améliorations de la scalabilité et des
performances.
Observations et limitations
Il existe des considérations et des limitations à prendre en compte dans votre
planification avant d’effectuer une migration vers Power BI Premium.
Autorisations
AAS et SSAS utilisent des rôles pour gérer l’accès au modèle de données. Il existe deux
types de rôles : le rôle serveur et les rôles de base de données. Le rôle serveur est un rôle
fixe qui accorde à l’administrateur l’accès à l’instance de serveur Analysis Services. Les
rôles de base de données, définis par les modélisateurs et les administrateurs de
données, contrôlent l’accès à la base de données et aux données pour les utilisateurs
non administrateurs.
Contrairement à AAS, avec Power BI, vous utilisez uniquement des rôles pour appliquer
la sécurité au niveau des lignes ou la sécurité au niveau des objets. Pour accorder des
autorisations au-delà de RLS et OLS, utilisez le modèle de sécurité Power BI (rôles
d'espace de travail et autorisations du modèle sémantique). Pour plus d'informations,
consultez Autorisations du modèle sémantique.
Pour plus d'informations sur les rôles de modèle Power BI, consultez Connectivité du
modèle sémantique avec le point de terminaison XMLA (rôles de modèle).
Lorsque vous effectuez la migration d’un modèle de données d’AAS vers Power BI
Premium, vous devez prendre en compte les points suivants :
Les utilisateurs qui ont obtenu l’autorisation de lecture sur un modèle dans AAS
doivent disposer de l’autorisation Build sur le modèle sémantique Power BI migré.
Les utilisateurs bénéficiant de l’autorisation Administrateur sur un modèle dans
AAS doivent disposer de l’autorisation d’écriture sur le modèle sémantique Power
BI migré.
Actualiser l’automatisation
Power BI Premium prend en charge les API avec point de terminaison XMLA pour les
scripts, tels que Tabular Model Scripting Language (TMSL), Tabular Object Model (TOM)
ou le module PowerShell SqlServer . Ces API ont des interfaces presque symétriques à
AAS. Pour plus d'informations, consultez Connectivité du modèle sémantique avec le
point de terminaison XMLA (applications et outils clients).
Sécurité personnalisée
Comme pour AAS, les applications peuvent utiliser un principal de service pour
interroger un modèle sémantique Power BI Premium par capacité ou Power BI
Embedded à l’aide de la fonctionnalité CustomData.
Toutefois, vous ne pouvez pas affecter un principal de service à un rôle de modèle dans
Power BI Premium. En effet, un principal de service obtient l’accès par attribution du rôle
Administrateur ou Membre de l’espace de travail.
7 Notes
Sécurité du réseau
La configuration de la sécurité réseau dans AAS nécessite l’activation du pare-feu et la
configuration de plages d’adresses IP uniquement pour les ordinateurs qui accèdent au
serveur.
Sauvegarde et restauration
La sauvegarde et la restauration dans AAS nécessitent le stockage Blob Azure, tandis
que dans Power BI Premium, elles nécessitent un compte Azure Data Lake Storage Gen2
(ADLS Gen2). Outre cette différence concernant le compte de stockage, la sauvegarde et
la restauration fonctionnent de la même façon dans les deux produits.
Pour plus d’informations sur la configuration des sources de données de type passerelle
pour Power BI Premium, consultez Ajouter ou supprimer une source de données de type
passerelle.
Propriétés du serveur
Contrairement à AAS, Power BI Premium ne prend pas en charge les propriétés de
serveur. Il vous revient de les gérer dans les paramètres de capacité Premium.
PowerShell
Vous pouvez utiliser les applets de commande AAS du module SqlServer PowerShell
pour automatiser les tâches de gestion de modèles sémantiques, y compris les
opérations d'actualisation. Pour plus d’informations, consultez Référence Analysis
Services PowerShell.
Power BI offre une autre fonctionnalité de journalisation des diagnostics qui n’est pas
proposée dans AAS. Pour plus d’informations, consultez Utiliser l’application Métriques
de capacité Microsoft Fabric.
Les événements étendus (xEvents) SQL Server sont pris en charge dans AAS, mais pas
dans Power BI Premium. Pour plus d’informations, consultez Surveiller Analysis Services
avec des événements étendus SQL Server.
B2B (business-to-business)
AAS et Power BI prennent en charge Microsoft Entra B2B Collaboration qui permet et
régit le partage avec les utilisateurs externes. Notez que le format UPN exigé par AAS
est différent de Power BI.
Pour identifier l’utilisateur, Power BI utilise une revendication de nom unique dans
Microsoft Entra ID (précédemment appelé Azure Active Directory), tandis qu’AAS utilise
une revendication de messagerie. Même s’il existe de nombreux cas où ces deux
identificateurs s’alignent, le format de nom unique est plus strict. Si vous utilisez la
sécurité dynamique au niveau des lignes dans Power BI, vérifiez que la valeur de la table
d’identité utilisateur correspond bien au compte utilisé pour se connecter à Power BI.
Montée en charge
Le scale-out Azure Analysis Services n’est pas pris en charge par Power BI Premium. Pour
plus d’informations, consultez Mise à l’échelle du modèle sémantique Power BI.
Fonctionnalité de migration
La fonctionnalité de migration de Microsoft Azure Analysis Services vers Microsoft
Power BI Premium dans Power BI migre en tant que base de données AAS vers un
modèle sémantique dans Power BI Premium, Power BI Premium par utilisateur ou
l'espace de travail Power BI Embedded. Pour plus d’informations, consultez Migrer Azure
Analysis Services vers Power BI.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Les partenaires Power BI sont là pour aider votre organisation dans son processus de
migration. Pour contacter un partenaire Power BI, accédez au portail des partenaires
Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article compare six scénarios hypothétiques lors de la migration d’Azure Analysis
Services (AAS) vers Power BI Premium. Ces scénarios peuvent vous aider à déterminer le
type et le nombre de licences adaptés aux besoins et aux circonstances de votre
entreprise.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
7 Notes
Une tentative a été effectuée pour s’assurer que ces scénarios sont représentatifs
des migrations réelles des clients, mais les scénarios clients individuels diffèrent
bien sûr. En outre, cet article n’inclut pas les détails de tarification. Vous pouvez
trouver les prix actuels ici :
Tarification de Power BI
Tarification d’Azure Analysis Services
Lorsque vous comparez les coûts de Power BI Premium à ceux d’AAS, veillez à prendre
en compte des facteurs autres que le prix par cœur. Power BI permet de réduire le coût
de possession et la valeur commerciale, et offre de nombreuses fonctionnalités qui ne
sont disponibles que pour les modèles de données Power BI.
En outre, si vous utilisez déjà Power BI dans votre organisation, calculez les coûts en
fonction du profil existant qui combine AAS et Power BI. Comparez le profil existant au
profil cible sur Power BI Premium. Pour déterminer le profil cible, veillez à prendre en
compte les points suivants :
Exigences de région.
La plus grande taille de modèle de données AAS dans chaque région.
Le nombre d’utilisateurs dans chaque région.
Le nombre d’utilisateurs nécessaires pour développer et gérer le contenu.
Consommation du processeur sur AAS et Power BI Premium.
) Important
Scénario de migration 1
Dans le premier scénario de migration, le client utilise Power BI Premium pour le front-
end et AAS pour le back-end. Il y a 20 développeurs qui sont chacun responsables des
environnements de développement et de test, et du déploiement vers la production.
ノ Agrandir le tableau
Production 60 Go S4
Production 30 Go S2
Production 15 Go S1
Test 5 Go B1
Développement 1 Go D1
ノ Agrandir le tableau
Environment Licence Power BI Utilisateurs
Test/développement Premium P1 20
Production/test/développement Pro 20
Les trois modèles AAS de production existants peuvent être consolidés pour
fonctionner dans une capacité Premium P3.
Les 20 développeurs auront besoin de licences Premium par utilisateur (PPU) pour
accéder aux modèles de test d’une taille supérieure à 1 Go.
ノ Agrandir le tableau
Production/test/développement PPU 20 5 Go
Scénario de migration 2
Dans ce scénario de migration, le client utilise Power BI Premium pour le front-end et
AAS pour le back-end. Les environnements de production s’exécutent dans différentes
régions. Il y a 20 développeurs qui sont chacun responsables des environnements de
développement et de test, et du déploiement vers la production.
ノ Agrandir le tableau
ノ Agrandir le tableau
Le client a besoin d’une capacité Premium dans chacune des trois régions (car les
trois modèles AAS de production existants s’exécutent dans des régions
différentes). Chaque taille de capacité est basée sur le modèle le plus grand.
Les 20 développeurs auront besoin de licences PPU pour accéder aux modèles de
test d’une taille supérieure à 1 Go.
ノ Agrandir le tableau
Scénario de migration 3
Dans ce scénario de migration, le client dispose de licences Power BI Pro pour tous les
utilisateurs dans le cadre de son abonnement Office 365 E5, et il utilise AAS pour le
back-end. Il y a 15 développeurs qui sont chacun responsables des environnements de
développement et de test, et du déploiement vers la production.
ノ Agrandir le tableau
Production 35 Go S2
Production 30 Go S2
Test 5 Go B1
Développement 1 Go D1
ノ Agrandir le tableau
Les deux modèles AAS de production existants peuvent être consolidés pour
fonctionner dans une capacité Premium P2.
Les 15 développeurs auront besoin de licences PPU pour accéder aux modèles de
test d’une taille supérieure à 1 Go. (Un module complémentaire est disponible
pour passer de Pro à PPU.)
ノ Agrandir le tableau
Production/test/développement PPU 15 5 Go
Scénario de migration 4
Dans ce scénario de migration, le client dispose de licences Power BI Pro pour tous les
utilisateurs, et il utilise AAS pour le back-end. Il y a cinq développeurs qui sont chacun
responsables des environnements de développement et de test, et du déploiement vers
la production.
ノ Agrandir le tableau
Production 35 Go S2
Production 10 Go S1
Test 5 Go B1
Développement 1 Go D1
ノ Agrandir le tableau
Production/test/développement Pro 5
Les deux modèles AAS de production existants peuvent fonctionner dans des
espaces de travail PPU.
Tous les utilisateurs finaux et les développeurs auront besoin de licences PPU.
ノ Agrandir le tableau
Production/test/développement PPU 5 5 Go
Scénario de migration 5
Dans ce scénario de migration, le client utilise Power BI Premium pour le front-end et
AAS pour le back-end. Il y a 25 développeurs qui sont chacun responsables des
environnements de développement et de test, et du déploiement vers la production.
ノ Agrandir le tableau
Production 220 Go S9
Production 150 Go S8
Production 60 Go S4
Test 5 Go B1
Développement 1 Go D1
ノ Agrandir le tableau
Test/développement Premium P1 25
Production/test/développement Pro 25
Les trois modèles AAS de production existants peuvent être consolidés pour
fonctionner dans une capacité Premium P5.
Les 20 développeurs auront besoin de licences PPU pour accéder aux modèles de
test d’une taille supérieure à 1 Go.
ノ Agrandir le tableau
Environment Licence Power BI Utilisateurs Le plus grand modèle
Production/test/développement PPU 25 5 Go
Scénario de migration 6
Dans ce scénario de migration, un éditeur de logiciels indépendant compte 400 clients.
Chaque client a son propre modèle multidimensionnel SSAS (SQL Server Analysis
Services), également appelé cube. L’analyse ci-dessous compare Azure Analysis Services
à l’alternative Power BI Embedded.
ノ Agrandir le tableau
Production 8 Go S4
Test 8 Go B1
Développement 1 Go D1
ノ Agrandir le tableau
Analystes Pro 50
Développeurs Pro 20
La référence SKU A1/P4 a été choisie pour prendre en charge la croissance future
de la taille du modèle (la référence SKU EM3/A3 peut également fonctionner).
Les 50 analystes auront besoin de licences PPU pour accéder aux modèles de test
d’une taille supérieure à 1 Go.
La taille totale des 400 modèles n’est pas pertinente pour la tarification ; seule la
plus grande taille de modèle est importante.
ノ Agrandir le tableau
Les clients peuvent se regrouper sur une seule plateforme, ce qui réduit la
duplication des coûts liée au paiement à la fois d’AAS et de Power BI Premium.
En utilisant Premium pour l’ensemble de leur pile décisionnelle, les clients peuvent
bénéficier de performances et de fonctionnalités accrues. Ils n’ont besoin de
licences Pro que pour les développeurs et les administrateurs, mais pas pour les
utilisateurs finaux.
Les clients peuvent utiliser la scalabilité de Power BI Premium pour réduire leurs
besoins en capacité, car la mémoire est limitée par modèle sémantique
(antérieurement appelé « jeu de données ») et elle n’est pas comparée au total sur
le serveur comme c’est le cas dans AAS. Pour plus d’informations, consultez
Allocation de mémoire.
Pour les environnements de développement et de test, les clients peuvent profiter
des licences PPU au lieu de se procurer des capacités Premium. Les licences PPU
permettent aux utilisateurs d’accéder aux fonctionnalités Premium telles que le
point de terminaison XMLA, les pipelines de déploiement, et les fonctionnalités de
flux de données Premium. En outre, ils peuvent travailler avec des modèles dont la
taille est supérieure à 1 Go.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Les partenaires Power BI sont là pour aider votre organisation dans son processus de
migration. Pour contacter un partenaire Power BI, accédez au portail des partenaires
Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
En tant que modeleur de données, quand vous écrivez une expression DAX qui pourrait
entraîner une erreur de temps d’évaluation, vous pouvez utiliser deux fonctions DAX
pratiques.
La fonction ISERROR, qui prend une seule expression et retourne la valeur TRUE si
cette expression entraîne une erreur.
La fonction IFERROR, qui prend deux expressions. Si la première expression
entraîne une erreur, la valeur de la seconde expression est retournée. Il s’agit en
fait d’une meilleure implémentation de l'imbrication de la fonction ISERROR dans
une fonction IF.
Cependant, même si ces fonctions peuvent être utiles et faciliter la compréhension des
expressions, elles peuvent aussi dégrader considérablement les performances des
calculs. Cela peut arriver parce que ces fonctions augmentent le nombre d'analyses
requises par le moteur de stockage.
La plupart des erreurs de temps d’évaluation sont dues à des valeurs vides (BLANK)
inattendues ou à des valeurs nulles, ou à une conversion de type de données non valide.
Recommandations
Il vaut mieux éviter d'utiliser les fonctions ISERROR et IFERROR. Appliquez plutôt des
stratégies défensives lors de la conception du modèle et de l'écriture des expressions.
Les stratégies peuvent inclure :
S'assurer que des données de qualité sont chargées dans le modèle : Utilisez les
transformations Power Query pour supprimer ou substituer des valeurs non valides
ou manquantes, et pour définir des types de données corrects. Une transformation
Power Query peut également être utilisée pour filtrer les lignes lorsque des erreurs,
notamment une conversion de données non valide, surviennent.
Exemple
L'expression de mesure suivante teste si une erreur s’affichera. Elle retourne une valeur
BLANK dans ce cas (ce qui est le cas lorsque vous ne fournissez pas à la fonction IF une
expression value-if-false).
DAX
Profit Margin
= IF(ISERROR([Profit] / [Sales]))
DAX
Profit Margin
= IFERROR([Profit] / [Sales], BLANK())
Mais cette version finale de l’expression de mesure aboutit au même résultat, mais de
façon plus efficace et fluide.
DAX
Profit Margin
= DIVIDE([Profit], [Sales])
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Éviter de convertir des blancs (BLANK)
en valeurs
Article • 06/04/2023
En tant que modeleur de données, quand vous écrivez des expressions de mesure, vous
pouvez rencontrer des cas où une valeur significative ne peut pas être retournée. Dès
lors, vous pouvez être tenté de retourner une valeur (comme zéro) à la place. Nous vous
suggérons de déterminer soigneusement si cette conception est efficace et pratique.
DAX
Prenons une autre définition de mesure qui convertit également les résultats BLANK en
zéro.
DAX
Profit Margin =
DIVIDE([Profit], [Sales], 0)
La fonction DIVIDE divise la mesure Profit par la mesure Sales. Si le résultat est zéro ou
BLANK, le troisième argument (le résultat alternatif facultatif) est retourné. Dans cet
exemple, étant donné que zéro est passé comme résultat alternatif, la mesure est
certaine de toujours retourner une valeur.
Quand elles sont ajoutées à un visuel de rapport, Power BI tente de récupérer tous les
regroupements dans le contexte de filtre. L’évaluation et la récupération de résultats de
requête volumineux entraînent souvent un ralentissement du rendu des rapports.
Chaque exemple de mesure convertit efficacement un calcul fragmenté en calcul dense,
ce qui oblige Power BI à utiliser plus de mémoire que nécessaire.
De plus, un trop grand nombre de regroupements accable souvent les utilisateurs de
vos rapports.
Voyons ce qui se passe lorsque la mesure Profit Margin est ajoutée à un visuel de table,
avec un regroupement par client.
7 Notes
Voyons ce qui se passe lorsque la mesure Profit Margin est améliorée. Elle retourne
désormais une seule valeur quand la mesure Sales n’est pas BLANK (ou zéro).
DAX
Profit Margin =
DIVIDE([Profit], [Sales])
Le visuel de table présente maintenant uniquement les clients qui ont effectué des
ventes dans le contexte de filtre actuel. La mesure ainsi améliorée engendre une
expérience plus efficace et plus pratique pour les utilisateurs de vos rapports.
Conseil
Si nécessaire, vous pouvez configurer un visuel pour afficher tous les groupes (qui
retournent des valeurs ou BLANK) dans le contexte de filtre en activant l’option
Afficher les éléments sans données.
Recommandation
Il est recommandé que vos mesures retournent BLANK quand aucune valeur
significative ne peut être retournée.
Cette approche de conception est efficace, car elle permet à Power BI d’afficher les
rapports plus rapidement. De plus, il est préférable de retourner BLANK parce que les
visuels de rapport éliminent par défaut les regroupements quand les totalisations ont la
valeur BLANK.
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Évitez d’utiliser FILTER comme argument
de filtre
Article • 06/04/2023
En tant que modeleur de données, vous êtes fréquemment amené à écrire des
expressions DAX qui doivent être évaluées dans un contexte de filtre modifié. Par
exemple, vous pouvez écrire une définition de mesure pour calculer les ventes de
« produits à marge élevée ». Nous décrirons ce calcul plus loin dans cet article.
7 Notes
Cet article est particulièrement utile pour les calculs de modèle qui appliquent des
filtres aux tables d’importation.
DAX
Red Sales =
CALCULATE(
[Sales],
FILTER('Product', 'Product'[Color] = "Red")
)
La fonction CALCULATE accepte une expression de table retournée par la fonction DAX
FILTER, qui évalue son expression de filtre pour chaque ligne de la table Product. Elle
obtient le bon résultat, c’est-à-dire le résultat des ventes des produits de couleur rouge.
Toutefois, le résultat peut être obtenu plus efficacement à l’aide d’une expression
booléenne.
Voici une définition de mesure améliorée, qui utilise une expression booléenne au lieu
d’une expression de table. La fonction DAX KEEPFILTERS garantit que tous les filtres
existants appliqués à la colonne Couleur sont conservés et ne sont pas remplacés.
DAX
Red Sales =
CALCULATE(
[Sales],
KEEPFILTERS('Product'[Color] = "Red")
)
Cela signifie que vous devez utiliser des expressions de table lorsque les exigences de
filtre sont complexes.
Voyons maintenant une autre définition de mesure. L’exigence consiste à calculer les
ventes, mais uniquement pour les mois où l’entreprise a réalisé des bénéfices.
DAX
Dans cet exemple, vous pouvez utiliser une fonction FILTER. Ceci est dû au fait qu’il est
nécessaire d’évaluer la mesure Profit pour éliminer les mois où aucun bénéfice n’est
réalisé. Vous ne pouvez pas utiliser de mesure dans une expression booléenne quand
celle-ci est utilisée comme un argument de filtre.
Recommandations
Pour des performances optimales, il est recommandé d’utiliser des expressions
booléennes comme arguments de filtre chaque fois que cela vous est possible.
Par conséquent, vous ne devez utiliser les fonctions de filtre que lorsque cela est
nécessaire. Vous pouvez les utiliser pour effectuer des comparaisons de colonnes à filtre
complexe. Ces comparaisons de colonnes peuvent impliquer :
Mesures
D’autres colonnes
L’utilisation de la fonction DAX ou , ou de l’opérateur logique OR (||)
Contenu connexe
Fonctions de filtrage (DAX)
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Références de colonne et de mesure
Article • 06/04/2023
Parce qu’elles modélisent les données, vos expressions DAX référencent des colonnes et
des mesures de modèle. Les colonnes et les mesures sont toujours associées à des
tables de modèle, mais ces associations sont différentes. Nous avons donc des
recommandations différentes sur la façon de les référencer dans vos expressions.
Colonnes
Une colonne est un objet de niveau table et son nom doit être unique dans une table.
Vous pouvez donc avoir le même nom de colonne plusieurs fois dans votre modèle, à
condition que ces colonnes appartiennent à des tables différentes. Il existe une autre
règle : un nom de colonne ne peut pas être identique à un nom de mesure ou un nom
de hiérarchie qui existe dans la même table.
En général, DAX n’impose pas de référence complète à une colonne. Une référence
complète signifie que le nom de table précède le nom de colonne.
DAX
La même définition peut être réécrite avec des références de colonne complètes.
DAX
Vous devez parfois utiliser des références de colonne complètes quand Power BI détecte
une ambiguïté. Quand vous entrez une formule, un message d’erreur et un trait ondulé
rouge vous avertissent. Par ailleurs, certaines fonctions DAX, comme LOOKUPVALUE,
nécessitent l’utilisation de références de colonne complètes.
Il est recommandé de toujours utiliser des références de colonne complètes. Les raisons
sont fournies dans la section Recommandations.
Mesures
Une mesure est un objet de niveau modèle. Pour cette raison, les noms de mesure
doivent être uniques dans le modèle. Toutefois, dans le volet Champs, les auteurs de
rapports voient chaque mesure associée à une seule table de modèle. Cette association
est définie pour des raisons esthétiques, et vous pouvez la configurer en définissant la
propriété Table principale de la mesure. Pour plus d’informations, consultez Mesures
dans Power BI Desktop (Organisation de vos mesures).
Vous pouvez utiliser une référence de mesure complète dans vos expressions. La
fonctionnalité IntelliSense de DAX vous offre même la suggestion. Toutefois, ce n’est pas
nécessaire et ce n’est pas une pratique recommandée. Si vous changez la table
principale d’une mesure, toute expression qui utilise une référence de mesure complète
s’arrête. Vous devez ensuite modifier chaque formule rompue pour supprimer (ou
mettre à jour) la référence de mesure.
Recommandations
Nos recommandations sont simples et faciles à mémoriser :
Voici pourquoi :
Entrée de formule : Les expressions sont acceptées, car il n’y a pas de référence
ambiguë à résoudre. Par ailleurs, vous respectez les exigences de ces fonctions
DAX qui demandent des références de colonne complètes.
Robustesse : Les expressions continuent de fonctionner, même quand vous
changez la propriété de table principale d’une mesure.
Lisibilité : Les expressions sont rapides et faciles à comprendre : vous déterminez
rapidement s’il s’agit d’une colonne ou d’une mesure, selon que sa référence est
complète ou non.
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Fonction DIVIDE ou opérateur de
division (/)
Article • 06/04/2023
En tant que modeleur de données, quand vous écrivez une expression DAX pour diviser
un numérateur par un dénominateur, vous pouvez choisir d’utiliser la fonction DIVIDE
ou l’opérateur de division (/, barre oblique).
Lorsque vous utilisez la fonction DIVIDE, vous devez passer les expressions de
numérateur et dénominateur. Si vous le souhaitez, vous pouvez passer une valeur qui
représente un autre résultat.
DAX
La fonction DIVIDE a été conçue pour gérer automatiquement les cas de division par
zéro. Si aucun autre résultat n’est passé et que le dénominateur a la valeur zéro ou
BLANK, la fonction retourne BLANK. Quand un autre résultat est passé, il est retourné à
la place de BLANK.
La fonction DIVIDE est pratique, car elle évite à votre expression d’avoir à commencer
par tester la valeur du dénominateur. La fonction est également mieux optimisée pour
tester la valeur de dénominateur que la fonction IF. Le gain de performance est
significatif, car la vérification de division par zéro est coûteuse. L’utilisation poussée de
DIVIDE produit une expression plus concise et plus fluide.
Exemple
L’expression de mesure suivante produit une division sans risque, mais elle implique
l’utilisation de quatre fonctions DAX.
DAX
Profit Margin =
IF(
OR(
ISBLANK([Sales]),
[Sales] == 0
),
BLANK(),
[Profit] / [Sales]
)
Cette expression de mesure aboutit au même résultat, mais de façon plus efficace et
fluide.
DAX
Profit Margin =
DIVIDE([Profit], [Sales])
Recommandations
Il est recommandé d’utiliser la fonction DIVIDE chaque fois que le dénominateur est une
expression qui peut retourner zéro ou BLANK.
Dans le cas où le dénominateur est une valeur constante, nous vous recommandons
d’utiliser l’opérateur de division. Dans ce cas, la réussite de la division est garantie et
votre expression est plus performante, car elle évite les tests inutiles.
Déterminez avec soin si la fonction DIVIDE doit retourner une autre valeur. Pour les
mesures, il est généralement préférable qu’elle retourne BLANK. Il est préférable de
retourner BLANK parce que les visuels de rapport éliminent par défaut les
regroupements quand les totalisations ont la valeur BLANK. Cela permet au visuel de
fixer son attention sur les groupes où il existe des données. Si nécessaire, dans Power BI,
vous pouvez configurer le visuel pour afficher tous les groupes (qui retournent des
valeurs ou BLANK) dans le contexte de filtre en activant l’option Afficher les éléments
sans données.
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Utiliser COUNTROWS à la place de
COUNT
Article • 06/04/2023
En tant que modeleur de données, vous pouvez parfois avoir besoin d’écrire une
expression DAX qui compte les lignes de la table. La table peut être une table de
modèle ou une expression qui retourne une table.
Cette condition peut être remplie de deux manières. Vous pouvez utiliser la fonction
COUNT pour compter les valeurs de colonne ou vous pouvez utiliser la fonction
COUNTROWS pour compter les lignes de la table. Les deux fonctions aboutissent au
même résultat, dans la mesure où la colonne comptée ne contient pas de valeurs
BLANK.
DAX
Sales Orders =
COUNT(Sales[OrderDate])
Si la précision de la table Sales correspond à une seule ligne par commande et que la
colonne OrderDate ne contient pas de valeurs BLANK, alors la mesure retourne un
résultat correct.
DAX
Sales Orders =
COUNTROWS(Sales)
Il existe trois raisons pour lesquelles la deuxième définition de mesure est meilleure :
Recommandation
Lorsque vous avez l’intention de compter les lignes de la table, il est recommandé de
toujours utiliser la fonction COUNTROWS.
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Utiliser SELECTEDVALUE à la place de
VALUES
Article • 14/12/2023
En tant que modeleur de données, vous pouvez parfois avoir besoin d’écrire une
expression DAX qui teste si une colonne est filtrée par une valeur spécifique.
Dans les versions antérieures de DAX, cette condition a été remplie sans problème avec
un modèle impliquant trois fonctions DAX ; IF, HASONEVALUE et VALUES. La définition
de mesure suivante présente un exemple. Elle calcule le montant des taxes de vente,
mais uniquement pour les ventes effectuées auprès de clients australiens.
DAX
L’utilisation de HASONEVALUE est une technique défensive. Elle est nécessaire parce
qu’il est possible que plusieurs valeurs filtrent la colonne Country-Region. Dans ce cas,
la fonction VALUES retourne une table de plusieurs lignes. La comparaison d’une table
de plusieurs lignes à une valeur scalaire génère une erreur.
Recommandation
Il est recommandé d’utiliser la fonction SELECTEDVALUE. Elle permet d’obtenir le même
résultat que le modèle décrit dans cet article, mais de manière plus efficace et plus
élégante.
En utilisant la fonction SELECTEDVALUE, l’exemple de définition de mesure est
maintenant réécrit.
DAX
Conseil
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Utiliser des variables pour améliorer vos
formules DAX
Article • 06/04/2023
L’utilisation de variables dans vos formules DAX peut vous aider à écrire des calculs plus
complexes et efficaces. Les variables peuvent améliorer les performances, la fiabilité et la
lisibilité, et réduire la complexité.
Dans cet article, nous allons démontrer les trois premiers avantages en utilisant un
exemple de mesure de la croissance des ventes année par année. (La formule de
croissance des ventes année par année est la période de vente moins les ventes de la
même période de l’année précédente, divisée par les ventes de la même période de
l’année précédente.)
DAX
DAX
La mesure continue à produire le résultat correct et le fait environ deux fois plus vite.
Améliorer la lisibilité
Dans la définition de mesure précédente, remarquez comme le choix du nom de la
variable rend l’expression RETURN plus simple à comprendre. L’expression est courte et
auto-descriptive.
Simplifier le débogage
Les variables peuvent également vous aider à déboguer une formule. Pour tester une
expression affectée à une variable, vous réécrivez provisoirement l’expression RETURN
pour générer la variable.
DAX
Réduire la complexité
Dans les versions antérieures de DAX, les variables n’étaient pas encore prises en charge.
Les expressions complexes qui ont introduit de nouveaux contextes de filtre devaient
utiliser les fonctions DAX EARLIER ou EARLIEST pour faire référence à des contextes de
filtre externes. Malheureusement, les modeleurs de données ont trouvé ces fonctions
difficiles à comprendre et à utiliser.
Les variables sont toujours évaluées en dehors des filtres que votre expression RETURN
applique. C’est pourquoi, lorsque vous utilisez une variable dans un contexte de filtre
modifié, elle obtient le même résultat que la fonction EARLIEST. L’utilisation des
fonctions EARLIER ou EARLIEST peut donc être évitée. Cela signifie que vous pouvez
désormais écrire des formules qui sont moins complexes et plus faciles à comprendre.
DAX
La définition de colonne calculée peut être améliorée à l’aide d’une variable au lieu de la
fonction EARLIER. La variable CurrentSubcategorySales stocke la valeur de la colonne
Subcategory Salesdans le contexte de ligne actuel, puis l’expression RETURN l’utilise
dans un contexte de filtre modifié.
DAX
Commentaires
Cette page a-t-elle été utile ? Yes No
Exemple de modèle DAX
Article • 20/10/2023
L’exemple de modèle Adventure Works DW 2020 Power BI Desktop est conçu pour
prendre en charge votre apprentissage DAX. Le modèle est basé sur l’exemple
d’entrepôt de données Adventure Works pour AdventureWorksDW2017. Toutefois, les
données ont été modifiées pour s’adapter aux objectifs de l’exemple de modèle.
L’exemple de modèle ne contient aucune formule DAX. Toutefois, il prend en charge des
centaines voire des milliers de formules et de requêtes de calcul potentielles. Certains
exemples de fonctions, comme ceux de CALCULATE, DATESBETWEEN, DATESIN PERIOD,
IF et LOOKUPVALUE, peuvent être ajoutés à l’exemple de modèle sans modification.
Nous prévoyons d’inclure davantage d’exemples dans d’autres articles de référence sur
les fonctions compatibles avec cet exemple de modèle.
Scénario
La société Adventure Works représente un fabricant de vélos qui vend des vélos et des
accessoires à l’échelle internationale. Les données de l’entrepôt de données de la
société sont stockées dans Azure SQL Database.
Structure du modèle
Le modèle comporte sept tables :
ノ Agrandir le tableau
Table Description
Client Décrit les clients et leur emplacement géographique. Les clients achètent des
produits en ligne (Internet Sales, Ventes sur Internet).
Date Il existe trois relations entre les tables Date et Sales (Ventes), pour la date de
commande, la date d’expédition et la date d’échéance. La relation de la date de
Table Description
commande est active. La société génère des rapports sur les ventes à l’aide
d’un exercice qui commence le 1er juillet de chaque année. La table est
marquée en tant que table de dates à l’aide de la colonne Date.
Sales Stocke les lignes sur le grain de la ligne de commande client. Toutes les valeurs
financières sont en dollars américains (USD). La première date de commande
est le 1er juillet 2017 et la dernière date de commande est le 15 juin 2020.
Sales Order Décrit les numéros de commande client et de ligne de commande, ainsi que le
(Commande canal de vente, Reseller (Revendeur) ou Internet. Cette table a une relation un-
client) à-un avec la table Sales (Ventes).
Sales Territory Les secteurs de vente sont organisés en groupes (Amérique du Nord, Europe et
(Secteur de Pacifique), pays et régions. Seuls les États-Unis vendent des produits au niveau
vente) de la région.
Charger l’exemple
Téléchargez le fichier de l’exemple de modèle Power BI Desktop ici .
Contenu connexe
Parcours d’apprentissage : Utiliser DAX dans Power BI Desktop
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Séparer les rapports des modèles dans
Power BI Desktop
Article • 24/11/2023
Lors de la création d’une solution Power BI Desktop, l’une des premières tâches à
effectuer consiste à « obtenir des données ». L’obtention de données peut aboutir à
deux résultats distincts. Cette opération peut :
Créer une connexion active vers un modèle déjà publié, par exemple un modèle
sémantique (précédemment appelés jeu de données) Power BI ou un modèle
Analysis Services hébergé à distance.
Initier le développement d’un nouveau modèle, par exemple un modèle
d’importation, DirectQuery ou composite.
Cet article s’intéresse au deuxième scénario. Il fournit des conseils sur la combinaison
d’un rapport et d’un modèle dans un fichier Power BI Desktop unique.
Les modélisateurs des données et les auteurs des rapports sont des personnes
différentes.
Il est entendu qu’un modèle sera la source de plusieurs rapports, maintenant ou
ultérieurement.
Par conséquent, gérez avec précaution les modifications de modèle. Évitez si possible les
modifications suivantes :
Renommer des tables, des colonnes, des hiérarchies, des niveaux de hiérarchie ou
des mesures.
Modification des types de données de colonnes.
Modification d’expressions de mesure afin qu’elles retournent un type de données
différent.
Déplacement de mesures vers une autre table principale. Cela est dû au fait que le
déplacement d’une mesure risque de rompre les mesures basées sur un rapport
qui qualifient entièrement des mesures avec le nom de leur table principale. Nous
vous déconseillons d’écrire des expressions DAX à l’aide de noms de mesures
qualifiés complets. Pour plus d’informations, consultez DAX : Informations de
référence sur les colonnes et les mesures.
Si vous devez apporter des modifications importantes à vos modèles, nous vous
recommandons d’effectuer l’une des opérations suivantes :
Contenu en lien avec l’affichage pour le modèle sémantique dans le service Power
BI.
Explorez la vue Traçabilité des données dans le service Power BI.
Ces deux options vous permettent d’identifier rapidement tous les rapports et tableaux
de bord associés. La vue Traçabilité des données est probablement la meilleure option
car elle permet d’identifier facilement le contact pour chaque élément associé. En fait, il
s’agit d’un lien hypertexte qui ouvre un message électronique adressé au contact.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Se connecter à un modèle sémantique dans le service Power BI à partir de Power BI
Desktop
Afficher un contenu associé dans le service Power BI
Lignage des données
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports Power BI. Il fournit des
suggestions et des recommandations pour créer des info-bulles de page de rapport.
Suggestions
Les info-bulles de page de rapport peuvent améliorer l’expérience des utilisateurs de
vos rapports. Les info-bulles de page permettent aux utilisateurs de rapports d’obtenir
rapidement et efficacement des insights plus approfondis à partir d’un visuel. Il est
possible de les associer à différents objets de rapport :
Visuels : Vous pouvez configurer individuellement quels visuels vont révéler l’info-
bulle de votre page. Chaque visuel peut ne révéler aucune info-bulle, révéler les
info-bulles visuelles par défaut (configurées dans le volet des champs visuels) ou
utiliser une info-bulle de page spécifique.
En-têtes de visuel : vous pouvez configurer des visuels spécifiques pour qu’ils
affichent l’info-bulle d’une page. Les utilisateurs de vos rapports peuvent alors
révéler l’info-bulle de page quand ils passent leur curseur au-dessus de l’icône
d’en-tête d’un visuel. Veillez à informer vos utilisateurs sur cette icône.
7 Notes
Un visuel de rapport peut uniquement révéler une info-bulle de page quand des
filtres sont compatibles avec la conception du visuel. Par exemple, un visuel qui
regroupe par produit est compatible avec une page d’info-bulle qui filtre par
produit.
Perspective différente
Ajouter un détail
Ajouter de l’aide
Perspective différente
Une info-bulle de page permet de visualiser les mêmes données que le visuel source.
Elle utilise soit le même visuel et les mêmes groupes de tableaux croisés dynamiques,
soit des types de visuels différents. Les info-bulles de page peuvent également
appliquer des filtres différents de ceux appliqués au visuel source.
L’exemple suivant montre ce qui se produit lorsque l’utilisateur du rapport passe son
curseur au-dessus de la valeur EnabledUsers. Le contexte du filtre de la valeur est
Yammer en novembre 2018.
Une info-bulle de page est révélée. Elle présente un visuel de données différent
(graphique en courbes et histogramme groupé) et applique un filtre temporel contrasté.
Notez que le contexte du filtre du point de données est novembre 2018. Pourtant, l’info-
bulle de page présente la tendance sur une année complète.
Ajouter un détail
Une info-bulle de page peut présenter des détails supplémentaires et ajouter un
contexte.
L’exemple suivant montre ce qui se produit lorsque l’utilisateur du rapport pointe son
curseur sur la valeur Moyenne des points de violation, pour le code postal 98022.
Une info-bulle de page est révélée. Elle présente des statistiques et attributs spécifiques
pour le code postal 98022.
Ajouter de l’aide
Les en-têtes de visuel peuvent être configurés pour révéler des info-bulles de page.
Vous pouvez ajouter une documentation d’aide à une info-bulle de page en utilisant des
zones de texte parfaitement mises en forme. Il est également possible d’ajouter des
images et des formes.
Il est intéressant de noter que les boutons, les images, les zones de texte et les formes
peuvent également révéler une info-bulle de page d’en-tête de visuel.
L’exemple suivant montre ce qui se produit quand l’utilisateur du rapport passe son
curseur au-dessus de l’icône d’en-tête de visuel.
Une info-bulle de page est révélée. Elle présente du texte parfaitement mis en forme
dans quatre zones de texte ainsi qu’une forme (ligne). L’info-bulle de page apporte de
l’aide en décrivant chaque acronyme affiché dans le visuel.
Recommandations
Au moment de la conception du rapport, nous vous recommandons d’adopter les
pratiques suivantes :
Taille de page : configurez l’info-bulle de votre page pour qu’elle soit de petite
taille. Vous pouvez utiliser l’option Info-bulle intégrée (320 pixels de large,
240 pixels de haut). Ou vous pouvez définir des dimensions personnalisées. Veillez
à ne pas utiliser un format de page trop grand, car il risque de masquer les visuels
dans la page source.
Vue Page : dans le concepteur de rapports, définissez la vue Page sur Taille réelle
(la valeur par défaut de la vue Page est Ajuster à la page). De cette façon, vous
pouvez voir la vraie taille de l’info-bulle de page pendant sa conception.
Style : Envisagez de concevoir l’info-bulle de votre page pour qu’elle utilise le
même thème et le même style que le rapport. Ainsi, les utilisateurs ont l’impression
d’être dans le même rapport. Vous pouvez également concevoir un style
complémentaire pour vos info-bulles et veiller à l’appliquer à toutes les info-bulles
de page.
Filtres d’info-bulle : affectez des filtres à l’info-bulle de votre page afin de pouvoir
afficher un aperçu réaliste du résultat pendant la conception. Veillez à supprimer
ces filtres avant de publier votre rapport.
Visibilité de la page : masquez toujours les pages d’info-bulle ; les utilisateurs ne
doivent pas y accéder directement.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Créer des info-bulles basées sur des pages de rapport dans Power BI Desktop
Personnalisation des info-bulles dans Power BI Desktop
Utiliser des visuels pour améliorer des rapports Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ?
Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports Power BI. Il fournit des
suggestions et des recommandations pour créer une extraction de page de rapport.
Suggestions
Nous vous suggérons de considérer deux types de scénarios d’extraction :
Profondeur supplémentaire
Perspective plus large
Profondeur supplémentaire
Quand votre page de rapport présente des résultats synthétisés, une page d’extraction
peut orienter les utilisateurs vers des détails au niveau de la transaction. Cette approche
de conception leur permet de voir les transactions connexes et ce, uniquement lorsque
cela est nécessaire.
L’exemple suivant montre ce qui se produit lorsqu’un utilisateur de rapport réalise une
extraction à partir d’un récapitulatif des ventes mensuelles. La page d’extraction contient
la liste détaillée des commandes pendant un mois spécifique.
Perspective plus large
Une page d’extraction permet d’obtenir l’effet inverse de la profondeur supplémentaire.
Ce scénario est idéal pour extraire une vue globale.
L’exemple suivant montre ce qui se produit lorsqu’un utilisateur de rapport réalise une
extraction à partir d’un code postal. La page d’extraction présente des informations
générales sur ce code postal.
Recommandations
Au moment de la conception du rapport, nous vous recommandons d’adopter les
pratiques suivantes :
Style : Envisagez de concevoir votre page d’extraction pour qu’elle utilise le même
thème et le même style que le rapport. Ainsi, les utilisateurs ont l’impression d’être
dans le même rapport.
Filtres d’extraction : Définissez des filtres d’extraction afin de pouvoir voir un
aperçu réaliste du résultat pendant la conception même de la page d’extraction.
Veillez à supprimer ces filtres avant de publier le rapport.
Fonctionnalités supplémentaires: Une page d’extraction ressemble à n’importe
quelle page de rapport. Vous pouvez même l’améliorer avec des fonctionnalités
interactives supplémentaires, notamment des segments ou des filtres.
Vides : Évitez d’ajouter des visuels susceptibles d’afficher BLANK ou de produire
des erreurs quand des filtres d’extraction sont appliqués.
Visibilité de la page : Envisagez de masquer les pages d’extraction. Si vous décidez
de conserver une page d’extraction visible, veillez à ajouter un bouton qui permet
aux utilisateurs de supprimer tous les filtres d’extraction précédemment définis.
Affectez un signet au bouton. Le signet doit être configuré pour supprimer tous les
filtres.
Bouton Précédent : Un bouton Précédent est ajouté automatiquement quand vous
affectez un filtre d’extraction. Il est judicieux de le conserver. Ainsi, les utilisateurs
de votre rapport peuvent facilement revenir à la page source.
Découverte : Facilitez l’accès à une page d’extraction en utilisant du texte dans une
icône d’en-tête de visuel ou en ajoutant des instructions à une zone de texte. Vous
pouvez également concevoir une superposition, comme décrit dans ce billet de
blog .
Conseil
Il est aussi possible de configurer l’extraction vers vos rapports paginés Power BI.
Pour ce faire, vous pouvez ajouter des liens vers des rapports Power BI. Ces liens
peuvent définir des paramètres d’URL .
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports Power BI. Il a pour but de vous
aider à choisir quand développer des rapports paginés Power BI.
Les rapports Power BI, quant à eux, sont optimisés pour l’exploration et l’interactivité.
En outre, ils vous permettent d’utiliser une gamme complète de visuels ultramodernes
pour la présentation de vos données. Par conséquent, les rapports Power BI sont parfaits
pour les rapports d’analytique, qui permettent aux utilisateurs de vos rapports
d’explorer les données et de découvrir des relations et des modèles.
Nous vous recommandons d’utiliser un rapport paginé Power BI dans les cas suivants :
Lorsque vous savez que le rapport doit être imprimé ou affiché sous la forme d’un
document PDF.
Lorsque les dispositions de grille de données sont susceptibles d’être développées
et de déborder. Notez qu’une table (ou matrice) d’un rapport Power BI ne peut pas
être redimensionnée dynamiquement pour afficher toutes les données. Des barres
de défilement sont donc prévues à cet effet. Toutefois, si vous l’imprimez, vous ne
pourrez pas utiliser le défilement pour afficher les données qui sont en dehors de
la vue.
Les fonctionnalités paginées Power BI vous seront très utiles. De nombreux cas
d’utilisation de ces rapports seront abordés plus loin dans cet article.
Rapports hérités
Si vous disposez déjà de rapports RDL SQL Server Reporting Services (SSRS), vous
pouvez choisir de les redévelopper sous la forme de rapports Power BI ou d’effectuer
leur migration vers Power BI en tant que rapports paginés. Pour plus d’informations,
consultez Effectuer la migration de rapports SQL Server Reporting Services vers
Power BI.
Une fois publiés dans un espace de travail Power BI, les rapports paginés s’affichent en
regard des rapports Power BI. Ils peuvent ensuite être facilement distribués à l’aide
d’applications Power BI.
Si vous le souhaitez, vous pouvez redévelopper des rapports SSRS, plutôt que
d’effectuer leur migration. Ceci est particulièrement vrai pour les rapports à visée
analytique. Dans ce cas, les rapports Power BI offriront probablement la meilleure
expérience utilisateur.
Prêt pour l’impression : Les rapports paginés sont optimisés pour l’impression et
la génération de PDF. Si nécessaire, les régions de données peuvent être
développées en vue de déborder sur plusieurs pages de manière contrôlée. Dans
vos mises en page de rapport, vous pouvez définir des marges, ainsi que des en-
têtes et des pieds de page.
Formats du rendu : Power BI peut afficher des rapports paginés dans différents
formats. Ces formats incluent notamment Microsoft Excel, Microsoft Word,
Microsoft PowerPoint, PDF, CSV, XML et MHTML (le format MHTML est utilisé par
le service Power BI pour afficher les rapports). Les utilisateurs de votre rapport
peuvent décider de l’exporter au format qui leur convient.
Disposition précise : vous pouvez concevoir des dispositions hautement mises en
formes et prêtes à être imprimées, à la taille et à l’emplacement configurés en
fractions de pouce ou de centimètres.
Disposition dynamique : vous pouvez produire des dispositions hautement
réactives en définissant de nombreuses propriétés de rapport qui utilisent des
expressions VB.NET. Les expressions ont accès à un grand nombre de
bibliothèques .NET Framework principales.
Disposition en fonction du rendu : vous pouvez utiliser des expressions pour
modifier la mise en page du rapport en fonction du format de rendu appliqué. Par
exemple, vous pouvez concevoir le rapport de manière à désactiver le basculement
de la visibilité (pour monter ou descendre dans la hiérarchie) quand il est affiché
dans un format non interactif, tel que le format PDF.
Requêtes natives : vous n’avez pas besoin au préalable de publier un modèle
sémantique Power BI (précédemment appelé jeu de données). Il est possible de
créer des requêtes natives (ou d’utiliser des procédures stockées) pour toutes les
sources de données prises en charge. Les requêtes peuvent inclure un
paramétrage.
Concepteurs de requêtes graphiques : Power BI Report Builder proposent des
concepteurs de requêtes graphiques qui peuvent vous aider à écrire et à tester vos
requêtes de jeux de données.
Jeux de données statiques : vous pouvez définir un jeu de données et entrer les
données directement dans la définition de votre rapport. Cette fonctionnalité est
particulièrement utile pour une démonstration ou la fourniture d’une preuve de
concept (POC).
Intégration des données : Vous pouvez combiner des données provenant de
différentes sources de données, ou les combiner avec des jeux de données
statiques. Pour cela, vous devez créer des champs personnalisés à l’aide
d’expressions VB.NET.
Paramétrage : vous pouvez concevoir des expériences de paramétrage hautement
personnalisées, comprenant notamment des paramètres en cascade et des
paramètres basés sur les données. Il est également possible de définir des
paramètres par défaut. Ces expériences peuvent être conçues pour aider les
utilisateurs de vos rapports à appliquer rapidement les filtres nécessaires. En outre,
les paramètres n’ont pas besoin de filtrer les données du rapport. Ils peuvent être
utilisés pour l’évaluation des scénarios, ou pour prendre en charge le filtrage et
l’application de style dynamiques.
Données image : votre rapport peut afficher des images lorsqu’elles sont stockées
au format binaire dans une source de données.
Code personnalisé : vous pouvez développer des blocs de code de
fonctions VB.NET dans votre rapport et les utiliser dans n’importe quelle
expression de rapport.
Sous-rapports : vous pouvez incorporer d’autres rapports paginés Power BI (à
partir du même espace de travail) dans votre rapport.
Grilles de données flexibles : vous disposez d’un contrôle affiné sur les
dispositions de grille grâce à la région de données de tableau matriciel. Celle-ci
prend également en charge les dispositions complexes, notamment celles qui
comprennent des groupes imbriqués et adjacents. Elle peut être configurée pour
répliquer des en-têtes lors d’une impression sur plusieurs pages. En outre, elle peut
incorporer un sous-rapport ou d’autres visualisations, y compris des barres de
données, des graphiques sparkline et des indicateurs.
Types de données spatiales : la région de données de carte permet de visualiser
des types de données spatiales SQL Server. Les types de données GEOGRAPHY et
GEOMETRY peuvent donc être utilisés pour visualiser des points, des lignes ou des
polygones. Vous pouvez aussi visualiser les polygones définis dans des fichiers de
forme ESRI.
Jauges modernes : les jauges radiales et linéaires peuvent être utilisées pour
afficher les valeurs et l’état des indicateurs de performance clés. Elles peuvent
même être incorporées dans les régions de données de grille, ce qui permet leur
réplication au sein des groupes.
Rendu HTML : vous pouvez afficher un texte enrichi au format RTF lorsqu’il est
stocké au format HTML.
Publipostage : vous pouvez utiliser des espaces réservés de zone de texte pour
injecter des valeurs de données dans du texte. De cette façon, vous pouvez créer
un rapport de publipostage.
Fonctionnalités d’interactivité : les fonctionnalités interactives incluent le
basculement de la visibilité (pour descendre et monter dans la hiérarchie), les liens,
le tri interactif et les info-bulles. Vous pouvez également ajouter des liens
permettant d’explorer les données des rapports Power BI ou des rapports paginés
Power BI. Les liens permettent même d’atteindre un autre emplacement du même
rapport.
Abonnements : Power BI peut envoyer, selon un calendrier, des rapports paginés
sous forme d’e-mails comprenant des pièces jointes aux formats pris en charge.
Mise en page par utilisateur : vous pouvez créer des mises en page de rapport qui
changent en fonction de l’utilisateur authentifié qui ouvre le rapport. Vous pouvez
concevoir le rapport de manière à filtrer les données différemment, masquer les
régions de données ou les visualisations, appliquer des formats différents ou
définir des valeurs par défaut pour chaque utilisateur.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports paginés Power BI. Il fournit des
recommandations pour vous aider à concevoir un processus d’extraction de données
efficace.
Si vous pouvez choisir le type de source de données (par exemple dans un nouveau
projet), nous vous recommandons d’utiliser des sources de données cloud. Les rapports
paginés peuvent se connecter avec une latence réseau inférieure, en particulier si les
sources de données résident dans la même région que votre locataire Power BI. Par
ailleurs, il est possible d’utiliser l’authentification unique pour se connecter à ces
sources. L’identité de l’utilisateur d’un rapport peut donc circuler jusqu’à la source de
données, d’où la possibilité d’appliquer des autorisations par utilisateur au niveau des
lignes. Actuellement, l’authentification unique est uniquement prise en charge pour les
sources de données locales SQL Server et Oracle (consultez Sources de données prises
en charge pour les rapports paginés Power BI).
7 Notes
Bien qu’il soit pour le moment impossible de se connecter à des bases de données
locales à l’aide de l’authentification unique, vous pouvez toujours appliquer des
autorisations au niveau des lignes. Pour cela, il suffit de passer le champ intégré
UserID à un paramètre de requête de jeu de données. La source de données doit
stocker les valeurs UPN (nom d’utilisateur principal) de manière à pouvoir filtrer
correctement les résultats de la requête.
Par exemple, imaginez que chaque commercial soit stocké dans une ligne de la
table Salesperson. La table contient des colonnes pour l’UPN et le territoire de
vente du commercial. Au moment de la requête, la table est filtrée par l’UPN de
l’utilisateur de rapport et liée aux faits de vente à l’aide d’une jointure interne. De
cette façon, la requête filtre les lignes de fait de vente pour ne retenir que celles du
territoire de vente de l’utilisateur du rapport.
Paramétrage
Encapsulation de la logique de programmation, permettant une préparation plus
complexe des données (par exemple, tables temporaires, curseurs ou fonctions
scalaires définies par l’utilisateur)
Maintenabilité améliorée, permettant de mettre facilement à jour la logique de la
procédure stockée. Dans certains cas, vous pouvez le faire sans avoir à modifier et
à republier les rapports paginés (les noms des colonnes et les types de données
restent inchangés).
Performances accrues, car leurs plans d’exécution sont mis en cache pour être
réutilisés
Réutilisation des procédures stockées dans plusieurs rapports
Le concepteur de requêtes MDX exige que votre modèle inclue des mesures. Le
concepteur a deux fonctionnalités non prises en charge par le concepteur de requêtes
DAX. Plus précisément, il vous permet d’effectuer les opérations suivantes :
Pour limiter les lignes, vous devez toujours appliquer les filtres les plus restrictifs et
définir des requêtes d’agrégation. Les requêtes d’agrégation regroupent et totalisent les
données sources pour extraire des résultats plus détaillés. Imaginons que vous deviez
créer un rapport totalisant les ventes des représentants. Au lieu d’extraire toutes les
lignes des commandes, créez une requête de jeu de données qui regroupe les
commandes par vendeur et totalise les ventes de chaque groupe.
Créer un champ calculé, qui est un champ de jeu de données basé sur une
expression.
Injecter une expression directement dans la requête de jeu de données (en
utilisant la langue native de votre source de données), ce qui génère un champ de
jeu de données standard.
Il est possible que votre source de données soit optimisée pour évaluer
l’expression plus efficacement que Power BI (ce qui est surtout vrai pour les bases
de données relationnelles).
Les performances des rapports sont améliorées, car Power BI n’a pas besoin de
matérialiser des champs calculés avant de procéder au rendu des rapports. Les
champs calculés peuvent augmenter considérablement le temps de rendu des
rapports quand les jeux de données récupèrent un grand nombre de lignes.
Noms de champs
Quand vous créez un jeu de données, ses champs sont automatiquement nommés en
fonction des colonnes de la requête. Il est possible que ces noms ne soient ni conviviaux
ni intuitifs. Il peut également arriver que les noms des colonnes de la requête source
contiennent des caractères interdits dans les identificateurs d’objet RDL (Report
Definition Language), comme des espaces et des symboles. Dans ce cas, les caractères
interdits sont remplacés par un caractère de soulignement (_).
Nous vous recommandons d’abord de vérifier que tous les noms de champs sont
conviviaux et concis tout en étant significatifs. Si ce n’est pas le cas, nous vous
suggérons de les renommer avant de commencer la mise en page du rapport. En effet,
les champs renommés ne répercutent pas les modifications sur les expressions utilisées
dans la mise en page de votre rapport. Si vous décidez de renommer les champs après
avoir commencé la mise en page du rapport, vous devez rechercher et mettre à jour
toutes les expressions endommagées.
Filtre et paramètre
Vos conceptions de rapports paginés auront probablement des paramètres de rapport.
Les paramètres de rapport sont couramment utilisés pour demander à l’utilisateur du
rapport de filtrer le rapport. En tant qu’auteur de rapport paginé, vous pouvez effectuer
un filtrage de rapport de deux façons. Vous pouvez mapper un paramètre de rapport à :
7 Notes
Tous les jeux de données de rapport sont mis en cache par session pendant
10 minutes maximum au-delà de leur dernière utilisation. Un jeu de données peut
être réutilisé lors de l’envoi de nouvelles valeurs de paramètres (filtrage), du rendu
du rapport dans un format différent ou de l’interaction avec la conception du
rapport (comme le basculement de la visibilité ou le tri).
Nous vous recommandons d’utiliser le paramétrage de jeu de données s’il est peu
probable qu’un sous-ensemble différent de lignes du jeu de données soit demandé ou
si le nombre de lignes du jeu de données à filtrer est susceptible d’être très élevé
(rendant la mise en cache inefficace). Cette approche de conception fonctionne
également bien avec un magasin de données volatile. Dans ce cas, chaque modification
de la valeur du paramètre de rapport entraîne l’extraction de données à jour.
Combiner les jeux de données du rapport : si les sources de données sont prises
en charge en mode natif par les rapports paginés, vous pouvez envisager de créer
des champs calculés qui utilisent les fonctions Lookup ou LookupSet de Report
Builder.
Développer un modèle Power BI Desktop : il est cependant probablement plus
efficace de développer un modèle de données dans Power BI Desktop. Vous
pouvez utiliser Power Query pour combiner des requêtes basées sur n’importe
quelle source de données prise en charge. Au terme de la publication sur le service
Power BI, vous pouvez développer un rapport paginé qui se connecte au modèle
sémantique Power BI.
Latence du réseau
La latence du réseau peut affecter les performances du rapport en augmentant le temps
nécessaire aux demandes pour atteindre le service Power BI et aux réponses pour être
envoyées. Les abonnés de Power BI sont affectés à une région spécifique.
Conseil
Pour déterminer où se trouve votre abonné, consultez Où est situé mon abonné
Power BI ?
Lorsque les utilisateurs d’un client accèdent au service Power BI, leurs requêtes sont
acheminées vers cette région. Lorsque les requêtes atteignent le service Power BI, celui-
ci peut ensuite envoyer des requêtes supplémentaires (par exemple, à la source de
données sous-jacente ou à la passerelle) qui sont également soumises à la latence du
réseau. De manière générale, pour minimiser l’impact de la latence du réseau, essayez
de rapprocher le plus possible les sources de données, les passerelles et votre capacité
Power BI. De préférence, elles se trouvent dans la même région. Si la latence du réseau
pose problème, essayez de rapprocher les passerelles et les sources de données de
votre capacité Power BI en les plaçant sur des machines virtuelles hébergées sur le
cloud.
Il est possible que les données d’image puissent également être extraites de votre
source de données (en cas de stockage préalable dans une table).
Quand les images sont stockées sur un serveur web, vous pouvez utiliser une
expression dynamique pour créer le chemin à l’URL des images.
Pour obtenir plus d’informations et des suggestions, consultez l’aide sur les images pour
les rapports paginés.
Si vous devez supprimer des champs de requête de votre jeu de données, nous vous
recommandons de supprimer les colonnes correspondantes de la requête de jeu de
données. Report Builder supprime automatiquement tous les champs de requête
redondants. Si vous supprimez des champs de requête, veillez à modifier également
l’instruction de requête de jeu de données pour supprimer les colonnes.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports paginés Power BI. Il fournit des
suggestions en rapport avec l’utilisation d’images. En général, les images dans les mises
en page de rapport servent à afficher un graphique comme un logo d’entreprise ou des
photos.
Vous pouvez les utiliser dans bon nombre de scénarios pour vos mises en page de
rapport :
Suggestions
Tenez compte des suggestions suivantes pour fournir des mises en page de rapport
professionnelles, faciliter la maintenance et optimiser les performances des rapports :
Utiliser la plus petite taille possible : Nous vous recommandons de préparer des
petites images, mais précises et nettes. Vous devez trouver le juste équilibre entre
qualité et taille. Envisagez de recourir à un éditeur graphique (comme MS Paint)
pour réduire la taille du fichier image.
Utiliser le stockage du serveur web : Le stockage d’images sur un serveur web est
une bonne option, en particulier pour un logo d’entreprise qui peut provenir du
site web de l’entreprise. Toutefois, faites attention si les utilisateurs accèdent à des
rapports en dehors de votre réseau. Dans ce cas, assurez-vous que les images sont
disponibles sur Internet et ne nécessitent pas d’authentification ou de connexion
supplémentaire pour accéder à l’image. Les images stockées sur un serveur web ne
doivent pas dépasser 4 Mo, sinon, elles ne pourront pas être chargées dans le
service Power BI.
Quand des images se rapportent à vos données (comme les images de vos
commerciaux), nommez les fichiers d’image de manière à ce qu’une expression de
rapport puisse produire dynamiquement le chemin à l’URL de l’image. Par
exemple, vous pouvez nommer les images en utilisant le numéro d’employé de
chaque commercial. Si le jeu de données de rapport extrait le numéro d’employé,
vous pouvez écrire une expression pour produire le chemin complet à l’URL de
l’image.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Cet article s’adresse à vous en tant qu’auteur de rapports paginés Power BI. Il fournit des
scénarios pour la conception de paramètres en cascade. Les paramètres en cascade sont
des paramètres de rapport comportant des dépendances. Lorsqu’un utilisateur de
rapport sélectionne une ou plusieurs valeurs de paramètres, cette option permet de
définir les valeurs disponibles pour un autre paramètre.
7 Notes
Scénarios de conception
Il existe deux scénarios de conception pour l’utilisation des paramètres en cascade. Ils
peuvent être utilisés efficacement pour :
ResellerCode (entier)
ResellerName
Pays-Région
État-Province
Ville
PostalCode
Il existe également une table nommée Sales (Ventes). Elle consigne les enregistrements
de commandes et présente une relation de clé étrangère avec la table Reseller, au
niveau de la colonne ResellerCode.
Exemple d’exigence
Un rapport Profil du revendeur doit être créé. Le rapport doit être conçu pour afficher
des informations concernant un seul revendeur. Il n’est pas recommandé de demander à
l’utilisateur du rapport d’entrer un code revendeur car ce code est rarement mémorisé.
1. Créez les cinq paramètres de rapport, en les classant dans l’ordre approprié.
2. Créez le jeu de données CountryRegion, qui récupère des valeurs de pays-région
distinctes, à l’aide de l’instruction de requête suivante :
SQL
SELECT DISTINCT
[Country-Region]
FROM
[Reseller]
ORDER BY
[Country-Region]
SQL
SELECT DISTINCT
[State-Province]
FROM
[Reseller]
WHERE
[Country-Region] = @CountryRegion
ORDER BY
[State-Province]
4. Créez le jeu de données City qui récupère des valeurs de ville distinctes pour les
valeurs pays-région et état-province sélectionnées, à l’aide de l’instruction de
requête suivante :
SQL
SELECT DISTINCT
[City]
FROM
[Reseller]
WHERE
[Country-Region] = @CountryRegion
AND [State-Province] = @StateProvince
ORDER BY
[City]
6. Créez le jeu de données Reseller afin de récupérer tous les revendeurs pour les
valeurs géographiques sélectionnées, en utilisant l’instruction de requête suivante :
SQL
SELECT
[ResellerCode],
[ResellerName]
FROM
[Reseller]
WHERE
[Country-Region] = @CountryRegion
AND [State-Province] = @StateProvince
AND [City] = @City
AND [PostalCode] = @PostalCode
ORDER BY
[ResellerName]
7 Notes
Enfin, vous devez toujours veiller à ce qu’il existe des index appropriés pour
prendre en charge une récupération efficace des données. Sinon, le traitement des
paramètres de votre rapport risque d’être lent, et la base de données peut devenir
surchargée. Pour plus d’informations sur l’indexation de SQL Server, consultez le
Guide de conception et d’architecture d’index SQL Server.
2. Créez le jeu de données ReportGroup pour récupérer les premières lettres utilisées
par tous les revendeurs, à l’aide de l’instruction de requête suivante :
SQL
SELECT DISTINCT
LEFT([ResellerName], 1) AS [ReportGroup]
FROM
[Reseller]
ORDER BY
[ReportGroup]
3. Créez le jeu de données Reseller pour récupérer tous les revendeurs qui
commencent par la lettre sélectionnée, à l’aide de l’instruction de requête
suivante :
SQL
SELECT
[ResellerCode],
[ResellerName]
FROM
[Reseller]
WHERE
LEFT([ResellerName], 1) = @ReportGroup
ORDER BY
[ResellerName]
SQL
Cette technique peut offrir un potentiel encore plus grand. Considérons le script suivant,
qui ajoute une nouvelle colonne de regroupement afin de filtrer les revendeurs par
bandes de lettres prédéfinies. Ce script crée également un index pour récupérer
efficacement les données requises par les paramètres de rapport.
SQL
2. Créez le jeu de données Reseller pour récupérer tous les revendeurs dont le nom
contient le texte recherché, à l’aide de l’instruction de requête suivante :
SQL
SELECT
[ResellerCode],
[ResellerName]
FROM
[Reseller]
WHERE
[ResellerName] LIKE '%' + @Search + '%'
ORDER BY
[ResellerName]
Conseil
Voici comment permettre aux utilisateurs de rapports de définir leur propre modèle.
SQL
WHERE
[ResellerName] LIKE @Search
SQL
WHERE
[ResellerName] LIKE SUBSTITUTE(@Search, '%', '*')
Dans cet exemple, l’utilisateur du rapport interagit avec trois paramètres de rapport. Les
deux premiers définissent une plage de dates de commandes des clients. Le troisième
paramètre répertorie ensuite les revendeurs pour lesquels des commandes ont été
créées au cours de cette période.
2. Créez le jeu de données Reseller pour récupérer tous les revendeurs qui ont créé
des commandes dans cette plage de dates, à l’aide de l’instruction de requête
suivante :
SQL
SELECT DISTINCT
[r].[ResellerCode],
[r].[ResellerName]
FROM
[Reseller] AS [r]
INNER JOIN [Sales] AS [s]
ON [s].[ResellerCode] = [r].[ResellerCode]
WHERE
[s].[OrderDate] >= @OrderDateStart
AND [s].[OrderDate] < DATEADD(DAY, 1, @OrderDateEnd)
ORDER BY
[r].[ResellerName]
Recommandations
Nous vous recommandons de concevoir vos rapports en utilisant autant que possible
des paramètres en cascade. En effet, ces paramètres en cascade :
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse à vous en tant qu’auteur de rapports paginés Power BI. Il fournit des
recommandations pour vous aider à éviter les pages vierges lorsque votre rapport est
exporté vers un format de page physique (par exemple, PDF ou Microsoft Word) ou
imprimé.
Mise en page
Les propriétés de taille de page de rapport déterminent l’orientation, les dimensions et
les marges de la page. Accédez à ces propriétés de rapport en procédant comme suit :
En utilisant la page des propriétés du rapport : cliquez avec le bouton droit sur la
zone gris foncé à l’extérieur du canevas du rapport, puis sélectionnez Propriétés du
rapport.
En utilisant le volet Propriétés : cliquez sur la zone gris foncé à l’extérieur du
canevas du rapport pour sélectionner l’objet de rapport. Assurez-vous que le volet
Propriétés est affiché.
La page Mise en page de la page des propriétés du rapport fournit une interface
conviviale pour afficher et mettre à jour les propriétés de mise en page.
Vérifiez que toutes les propriétés de taille de page sont correctement configurées :
ノ Agrandir le tableau
Propriété Recommandation
Marges Définissez les valeurs appropriées pour les marges gauche, droite, haut et bas.
Vérifiez que la valeur de largeur ne dépasse pas la largeur de page disponible. Pour vous
aider, retenez le principe suivant :
Report body width <= Report page width - (Left margin + Right margin)
7 Notes
Il n’est pas possible de réduire la largeur du corps du rapport lorsque des objets de
rapport se trouvent déjà dans l’espace que vous souhaitez supprimer. Vous devez
d’abord les repositionner ou les redimensionner avant de réduire la largeur.
Vérifiez que la propriété Insérer un saut de page après n’est pas activée sans raison.
Utiliser l’espace blanc d’un conteneur
Si le problème de page vierge persiste, vous pouvez également essayer de désactiver la
propriété ConsumeContainerWhitespace du rapport. Cette propriété peut uniquement
être définie dans le volet Propriétés.
Par défaut, cette propriété est désactivée. Elle indique si l’espace blanc minimal dans les
conteneurs, par exemple le corps du rapport ou un rectangle, doit être utilisé. Seul
l’espace blanc à droite et en dessous du contenu est affecté.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse aux auteurs de rapports Power BI Report Server et SQL Server
Reporting Services (SSRS), ainsi qu’aux administrateurs Power BI. Il vous fournit des
conseils concernant la migration de vos rapports Report Definition Language (.rdl) vers
Power BI.
Diagramme de flux montrant le chemin de migration des rapports .rdl locaux vers des
rapports paginés dans le service Power BI.
7 Notes
Dans Power BI, les rapports .rdl sont appelés rapports paginés.
Ces conseils sont répartis selon quatre étapes. Nous vous recommandons de lire l’article
dans son intégralité avant d’effectuer la migration de vos rapports.
1. Avant de commencer
2. Étape de prémigration
3. Étape de migration
4. Étape de post-migration
Vous pouvez effectuer la migration sans arrêter vos serveurs de rapports ni perturber les
utilisateurs de vos rapports. Il est important de savoir qu’il n’est pas nécessaire de
supprimer des données ou des rapports. Cela signifie que vous pouvez conserver votre
environnement actuel jusqu’à sa mise hors service.
Avant de commencer
Avant de commencer la migration, vérifiez que votre environnement répond à certains
prérequis. Nous décrivons ces prérequis et vous présentons également un outil de
migration utile.
Préparation à la migration
Lorsque vous vous préparez à migrer vos rapports vers Power BI, vérifiez d’abord que
vous disposez d’une licence Power BI Pro ou Premium par utilisateur pour charger du
contenu dans l’espace de travail cible.
La liste suivante indique les versions de SQL Server Reporting Services qui sont prises en
charge pour la migration vers Power BI :
Vous pouvez également migrer des fichiers .rdl à partir de Power BI Report Server.
L’outil ne modifie pas et ne supprime pas vos rapports existants. À l’issue de l’opération,
il génère un récapitulatif de toutes les actions effectuées, réussies ou non.
Étape de prémigration
Lorsque vous avez vérifié que votre organisation répond bien aux prérequis, vous
pouvez passer à l’étape de prémigration. Cette étape comporte trois phases :
1. Découvrez
2. Évaluer
3. Préparation
Découvrez
L’objectif de la phase de découverte est d’identifier vos instances de serveur de rapports
existantes. Ce processus implique l’analyse du réseau dans le but d’identifier toutes les
instances de serveur de rapports au sein de votre organisation.
Vous pouvez utiliser Microsoft Assessment and Planning Toolkit . Le « MAP Toolkit »
découvre et génère des rapports sur vos instances de serveur de rapports, vos versions
et vos fonctionnalités installées. Il s’agit d’un outil puissant pour l’inventaire, l’évaluation
et la création de rapports, qui peut simplifier la planification de votre migration.
Les organisations peuvent avoir des centaines de rapports SQL Server Reporting
Services (SSRS). Certains de ces rapports peuvent devenir obsolètes en raison d’un
manque d’utilisation. L’article Rechercher et mettre hors service des rapports inutilisés
peut vous aider à découvrir des rapports inutilisés et à instaurer une cadence de
nettoyage.
Évaluer
Après la découverte de vos instances de serveur de rapports, l’objectif de la phase
d’évaluation est de comprendre les rapports .rdl, ou les éléments de serveur, qui ne
peuvent pas faire l’objet d’une migration.
Vos rapports .rdl peuvent faire l’objet d’une migration entre vos serveurs de rapports et
Power BI. Chaque rapport .rdl migré devient un rapport paginé Power BI.
Toutefois, les types d’éléments de serveur de rapports suivants ne peuvent pas faire
l’objet d’une migration vers Power BI :
Si vos rapports .rdl s’appuient sur des fonctionnalités qui ne sont pas encore prises en
charge par les rapports paginés Power BI, vous pouvez envisager de les redévelopper
comme des rapports Power BI, quand cela vous paraît judicieux.
Pour plus d’informations sur les sources de données prises en charge pour les rapports
paginés dans le service Power BI, consultez Sources de données prises en charge pour
les rapports paginés Power BI.
Le référencement de fichiers DLL de code personnalisé dans un rapport n’est pas pris en
charge.
Des différences de sortie PDF se produisent le plus souvent lorsqu’une police qui ne
prend pas en charge les caractères non-latins est utilisée dans un rapport et que ces
caractères non-latins sont ensuite ajoutés au rapport. Testez la sortie de rendu PDF à la
fois sur le serveur de rapports et les ordinateurs clients pour vous assurer que le rendu
du rapport est conforme.
Préparer
L’objectif de la phase de préparation consiste à s’assurer que tout est prêt. Il comprend
la configuration de l’environnement Power BI, la planification de la sécurisation et de la
publication de vos rapports, ainsi que des idées de redéveloppement des éléments de
serveur de rapports qui n’ont pas fait l’objet d’une migration.
Étape de migration
Une fois que vous avez préparé votre environnement et vos rapports Power BI, vous êtes
prêt pour l’étape de migration.
Migration manuelle
Toute personne autorisée à accéder à l’instance de serveur de rapports et à l’espace de
travail Power BI peut procéder manuellement à la migration des rapports vers Power BI.
Voici la procédure à suivre :
1. Ouvrez le portail de serveur de rapports qui contient les rapports devant faire
l’objet d’une migration.
2. Téléchargez chaque définition de rapport, en enregistrant les fichiers .rdl
localement.
3. Ouvrez la dernière version du générateur de rapport Power BI et connectez-vous
au service Power BI à l’aide de vos informations d’identification Microsoft Entra ID
(précédemment Azure Active Directory).
4. Ouvrez chaque rapport dans Power BI Report Builder, puis :
a. Vérifiez que toutes les sources de données et tous les jeux de données sont
incorporés dans la définition du rapport, et qu’il s’agit bien de sources de
données prises en charge.
b. Affichez un aperçu du rapport pour vérifier qu’il s’affiche correctement.
c. Sélectionnez Publier, puis Service Power BI.
d. Sélectionnez l’espace de travail dans lequel vous souhaitez enregistrer le
rapport.
e. Vérifiez que le rapport a bien été enregistré. Si certaines fonctionnalités de votre
rapport ne sont pas encore prises en charge, l’action d’enregistrement échoue.
Vous êtes informé des raisons de cet échec. Vous devrez alors modifier la
conception de votre rapport et retenter l’enregistrement.
Migration automatisée
Il existe trois options pour la migration automatisée. Vous pouvez utiliser :
Pour Power BI Report Server et SQL Server 2022, consultez Publier des fichiers .rdl
sur Power BI.
Pour les versions précédentes de Reporting Services, utilisez l’outil de migration
RDL dans GitHub.
API accessibles publiquement pour Power BI Report Server, Reporting Services et
Power BI
Vous pouvez également utiliser les API Power BI Report Server, Reporting Services et
Power BI disponibles publiquement pour automatiser la migration de votre contenu.
Étant donné que l’outil de migration RDL utilise déjà ces API, vous pouvez développer
un outil personnalisé adapté à vos besoins.
Étape de post-migration
Une fois la migration terminée, vous pouvez passer à l’étape de post-migration. Cette
étape implique l’utilisation d’une série de tâches de post-migration visant à garantir que
tout fonctionne correctement et efficacement.
1. Testez les rapports dans chaque navigateur pris en charge par Power BI pour
vérifier que le rendu du rapport est correct.
2. Exécutez des tests pour comparer les temps de rendu des rapports sur le serveur
de rapports et dans le service Power BI. Vérifiez que les rapports Power BI
s’affichent dans un délai acceptable.
3. Pour les rapports qui sont longs à s’afficher, vous pouvez demander à Power BI de
les envoyer aux utilisateurs de votre rapport sous la forme d’abonnements e-mail
dans lesquels les rapports sont ajoutés en pièces jointes.
4. Pour les rapports Power BI basés sur des modèles sémantiques Power BI, vérifiez
les conceptions des modèles pour être sûr qu’elles sont entièrement optimisées.
Résoudre les problèmes
La phase de post-migration est essentielle pour résoudre les problèmes, notamment au
niveau des performances. L’ajout de la charge de travail Rapports paginés à une
capacité peut contribuer à ralentir les performances des rapports paginés et des autres
types de contenu stockés dans la capacité.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Publier des fichiers .rdl dans Power BI à partir de Power BI Report Server et SQL
Server Reporting Services
Outil de migration RDL pour les versions antérieures de Reporting Services
Générateur de rapports Power BI
Conseils pour extraire des données pour les rapports paginés
Quand utiliser des rapports paginés dans Power BI
Rapports paginés dans Power BI : FORUM AUX QUESTIONS
Cours en ligne : Rapports paginés en une journée
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI sont là pour aider votre organisation dans son processus de
migration. Pour contacter un partenaire Power BI, accédez au portail des partenaires
Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Vous pouvez migrer des rapports sans arrêter vos serveurs de rapports ni perturber les
utilisateurs de vos rapports. Il est important de savoir qu’il n’est pas nécessaire de
supprimer des données ou des rapports. Vous pouvez conserver votre environnement
actuel jusqu’à sa mise hors service.
Prérequis
Cet outil de publication est conçu pour aider les clients à migrer des rapports paginés
SSRS (fichiers .rdl) depuis leurs serveurs locaux vers un espace de travail Power BI dans
leur locataire. Dans le cadre du processus de migration, l’outil :
Vous pouvez uniquement migrer des rapports .rdl depuis vos serveurs SSRS vers Power
BI. Chaque rapport .rdl migré devient un rapport paginé Power BI.
Vous pouvez publier des rapports .rdl individuels ou le contenu de dossiers entiers
depuis le portail web SSRS vers le service Power BI. Lire la suite pour découvrir comment
publier des rapports .rdl sur Power BI.
Sélectionnez Publier pour rechercher les fichiers .rdl que vous souhaitez publier
depuis SSRS vers le service Power BI.
Sélectionnez Publier tous les rapports pour sélectionner tous les fichiers .rdl
du dossier actif et démarrer la migration.
Sélectionnez Sélectionner les rapports à publier pour afficher la liste de tous
les fichiers .rdl du dossier actif. Sélectionnez les rapports et dossiers que vous
souhaitez migrer.
Dans le menu Plus d’informations situé à côté d’un rapport .rdl, sélectionnez
Publier.
Fichiers .rdl
Rapports liés (fichiers .rdl)
Dossiers (tous les rapports .rdl du dossier sont migrés)
Si vous avez choisi Sélectionner les rapports à publier, l’étape suivante consiste à
Sélectionner des rapports à publier sur Power BI.
Étape 2 : Se connecter/s’inscrire
SQL Server Reporting Services
Après avoir sélectionné les rapports que vous souhaitez publier, il est temps de
vous connecter au service Power BI.
Étape 3 : Choisissez un espace de travail
SQL Server Reporting Services
Maintenant que vous êtes connecté, sélectionnez la flèche dans la liste déroulante
pour rechercher et Sélectionner un espace de travail.
Étape 4 : Afficher des rapports
Dans le service Power BI, accédez à l’espace de travail où vous avez enregistré les
rapports.
Sélectionnez un rapport pour l’afficher dans le service Power BI.
Propriétés du site
Si vous souhaitez désactiver le paramètre de migration, vous devez mettre à jour votre
serveur de rapports. Pour plus d’informations sur les propriétés du serveur, consultez
l’article Page des propriétés avancées du serveur – Power BI Report Server et Reporting
Services :
EnablePowerBIReportMigrate
PowerBIMigrateCountLimit
PowerBIMigrateUrl
Pour les clouds souverains, vous pouvez mettre à jour les points de terminaison Power
BI en modifiant les paramètres du site dans le portail web.
Limitations et considérations
Vous pouvez migrer des rapports .rdl depuis vos serveurs de rapports vers le service
Power BI. Chaque rapport .rdl migré devient un rapport paginé Power BI.
Contenu connexe
D’autres questions ? Essayez de poser une question dans le forum Reporting Services
Commentaires
Cette page a-t-elle été utile ? Yes No
Votre entreprise peut traiter des centaines de rapports paginés (fichiers .rdl) dans
Power BI Report Server et SQL Server Reporting Services (SSRS). Il est possible que
certains de ces rapports deviennent obsolètes et doivent être supprimés. En tant
qu’auteur ou administrateur de rapport, vous ne voulez pas migrer des rapports
inutilisés vers le service Power BI . Lorsque vous prévoyez une migration vers le cloud,
nous vous suggérons de vous débarrasser des rapports .rdl inutilisés. Cette bonne
pratique vient en soutien de la gouvernance de la conservation et permet à votre
organisation d’utiliser une planification de la conservation et une stratégie de données.
Il existe deux processus pour rechercher les rapports inutilisés. Nous étendons le
nettoyage aux objets inutilisés ainsi que pour se débarrasser des tables de base de
données inutilisées qui pourraient avoir des données potentiellement obsolètes.
Une fois que vous avez rempli votre journal d’audit avec des tables et des procédures
stockées utilisées pour les rapports, vous pouvez exporter ces objets dans un fichier
Excel et les partager avec les parties prenantes. Informez vos collaborateurs que vous
vous préparez à marquer comme obsolète des objets inutilisés.
7 Notes
Certains rapports importants ne s’exécutent que rarement : veillez donc à
demander un feedback sur les objets de base de données qui sont rarement
utilisés. En dépréciant un objet, vous pouvez modifier le nom de l’objet en plaçant
un zdel devant celui-ci, de sorte que l’objet apparaisse en bas de l’Explorateur
d’objets. De cette façon, si vous décidez ultérieurement que vous avez besoin de
l’objet zdel, vous pouvez modifier à nouveau l’objet en rétablissant son nom
d’origine. Lorsque vous êtes sûr d’être prêt à les supprimer de votre base de
données, vous pouvez mettre en place une fréquence pour la suppression des
objets inutilisés.
Transact-SQL
; with UnusedReportsCte
AS
(
SELECT
Cat.Name,Path,COUNT(ExeLog.TimeStart) AS Cnt
7 Notes
Les sous-rapports et les rapports liés n’apparaissent pas dans le journal d’exécution
si le rapport parent est exécuté.
À partir de là, vous pouvez décider de supprimer immédiatement les rapports inutilisés
ou de remplacer le rapport par un message. Vous pouvez informer vos utilisateurs que
le rapport n’est plus utilisé : ils peuvent alors contacter un administrateur pour obtenir
du support. Vous pouvez ensuite développer une opération périodique pour les
supprimer au fil du temps.
Contenu connexe
Publier les fichiers .rdl sur Power BI à partir de Reporting Services
Effectuer la migration des rapports SQL Server Reporting Services vers Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article explique comment développer une application multilocataire qui incorpore
du contenu Power BI tout en atteignant les plus hauts niveaux de scalabilité, de
performances et de sécurité. En concevant et en implémentant une application avec des
profils de principal de service, vous pouvez créer et gérer une solution multilocataire
comprenant des dizaines de milliers de locataires clients qui peuvent fournir des
rapports à des audiences de plus de 100 000 utilisateurs.
Les profils de principal de service sont une fonctionnalité qui vous permet de gérer plus
facilement le contenu organisationnel dans Power BI et d’utiliser plus efficacement vos
capacités. Toutefois, l’utilisation de profils de principal de service peut compliquer la
conception de votre application. C’est pourquoi vous ne devriez les utiliser que lorsqu’il
est nécessaire d’atteindre une échelle significative. Nous vous recommandons d’utiliser
des profils de principal de service lorsque vous avez un grand nombre d’espaces de
travail et plus de 1 000 utilisateurs d’application.
7 Notes
7 Notes
Pour créer une solution multilocataire scalable, vous devez être en mesure d’automatiser
la création de nouveaux locataires clients. Le provisionnement d'un nouveau client
implique généralement l'écriture de code qui utilise l'API Power BI REST pour créer un
nouvel espace de travail Power BI, créer des modèles sémantiques (anciennement
appelés ensembles de données) en important des fichiers Power BI Desktop (.pbix),
mettre à jour les paramètres de source de données, définir informations d'identification
de la source de données et configurer l'actualisation planifiée du modèle sémantique. Le
diagramme suivant montre comment ajouter des éléments Power BI, tels que des
rapports et des modèles sémantiques, aux espaces de travail pour configurer des
locataires clients.
Lorsque vous développez une application qui utilise le scénario Incorporer pour votre
client, il est possible d’effectuer des appels de l’API REST Power BI à l’aide d’une identité
d’incorporation qui est un compte d’utilisateur maître ou un principal de service. Nous
vous recommandons d’utiliser un principal de service pour les applications de
production. Il fournit la sécurité la plus élevée et c’est pour cette raison l’approche
recommandée par Microsoft Entra. De même, il permet une meilleure automatisation et
une meilleure mise à l’échelle et la surcharge de gestion est moindre. Cependant, il faut
des droits d’administrateur Power BI pour la configuration et la gestion.
En utilisant un principal de service, vous pouvez éviter les problèmes courants associés
aux comptes d’utilisateur maîtres, tels que les erreurs d’authentification dans les
environnements où les utilisateurs doivent se connecter avec une authentification
multifacteur (MFA). L’utilisation d’un principal de service est également cohérente avec
l’idée que le scénario Incorporer pour votre client est basé sur l’incorporation de contenu
Power BI en pensant PaaS et non SaaS.
7 Notes
Voici l’observation clé : le nombre d’espaces de travail créés par un principal de service a
un impact direct sur les performances et la scalabilité. Un principal de service membre
de 100 espaces de travail exécute les appels d’API REST plus rapidement qu’un principal
de service qui est membre de 1 000 espaces de travail. De même, un principal de service
membre de seulement 10 espaces de travail exécute les appels d’API REST plus
rapidement qu’un principal de service qui est membre de 100 espaces de travail.
) Important
Conseil
Dans le service Power BI, vous pouvez déterminer qui est le propriétaire du modèle
sémantique en ouvrant les paramètres du modèle sémantique.
) Important
Il existe une idée fausse courante selon laquelle les informations d’identification de
la source de données du modèle sémantique sont limitées au niveau de l’espace de
travail. Ce n’est pas vrai. Les informations d’identification de la source de données
sont étendues au principal du service (ou compte d’utilisateur), ce qui comprend
tous les espaces de travail Power BI du tenant Microsoft Entra.
Chacune de ces stratégies de conception présente des points forts et des points faibles.
Dans des scénarios moins courants où une application personnalisée a obtenu les
autorisations appropriées, celle-ci peut utiliser l’API Microsoft Graph pour créer des
inscriptions d’applications Microsoft Entre à la demande. Toutefois, le développement et
le déploiement de l’application personnalisée est souvent complexe parce que celle-ci
doit d’une façon ou d’une autre suivre les informations d’identification d’authentification
de chaque inscription d’application Microsoft Entra. Elle doit également accéder à ces
informations d’identification chaque fois qu’elle doit s’authentifier et acquérir des jetons
d’accès pour des principaux de service individuels.
Les profils de principal de service sont des comptes locaux créés dans le contexte de
Power BI. Un principal de service peut utiliser l’opération Profiles de l’API REST pour
créer des profils de principal de service. Un principal de service peut créer et gérer son
propre ensemble de profils de principal de service pour une application personnalisée,
comme illustré dans le schéma suivant.
Il existe toujours une relation parent-enfant entre un principal de service et les profils de
principal de service qu’il crée. Vous ne pouvez pas créer un profil de principal de service
en tant qu’entité autonome. Au lieu de cela, vous créez un profil de principal de service
à l’aide d’un principal de service spécifique, et celui-ci sert de parent du profil. De plus,
un profil de principal de service n’est jamais visible par les comptes d’utilisateur ni par
les autres principaux de service. Un profil de principal de service ne peut être vu et
utilisé que par le principal de service qui l’a créé.
Il y a néanmoins des inconvénients. Étant donné que les profils de principal de service
ne sont pas connus de Microsoft Entra, vous ne pouvez pas ajouter de profil de principal
de service à un groupe Microsoft Entra pour lui accorder implicitement l’accès à un
espace de travail. De plus, les sources de données externes, comme Azure SQL Database
ou Azure Synapse Analytics, ne peuvent pas reconnaître les profils de principal de
service comme identité lors de la connexion à une base de données. Par conséquent, la
stratégie de conception Un principal de service par espace de travail (création d’un
principal de service pour chaque locataire client) est probablement un meilleur choix
lorsqu’il est nécessaire de se connecter à ces sources de données à l’aide d’un principal
de service distinct avec des informations d’identification d’authentification uniques pour
chaque locataire client.
Lorsque vous développez une application du scénario Incorporer pour votre client
en utilisant des profils de principal de service, vous ne devez créer qu’une seule
inscription d’application Microsoft Entra pour fournir un seul principal de service à
votre application. Cette approche diminue considérablement les frais généraux
administratifs par rapport à d’autres stratégies de conception multilocataire, où il
est nécessaire de créer des inscriptions d’applications Microsoft Entra
supplémentaires de manière permanente après le déploiement de l’application en
production.
Nous vous recommandons d’exécuter des appels d’API REST en tant que principal de
service parent lorsque vous créez, affichez ou supprimez des profils de principal de
service. Il est préférable d’utiliser le profil de principal de service pour exécuter tous les
autres appels d’API REST. Ces autres appels peuvent créer des espaces de travail,
importer des fichiers Power BI Desktop, mettre à jour les paramètres du modèle
sémantique et définir les informations d'identification de la source de données. Ils
peuvent également récupérer des métadonnées d’élément d’espace de travail et
générer des jetons intégrés.
Prenons un exemple où vous devez configurer un locataire client pour un client qui
s’appelle Contoso. La première étape consiste à effectuer un appel d’API REST pour créer
un profil de principal de service avec son nom d’affichage défini sur Contoso. Cet appel
est effectué en utilisant l’identité du principal de service. Toutes les étapes de
configuration restantes utilisent le profil de principal de service pour effectuer les tâches
suivantes :
Il est important de comprendre que l’accès à l’espace de travail et à son contenu doit
être effectué en utilisant l’identité du profil de principal de service qui a été utilisé pour
créer le locataire client. Il est également important de comprendre que le principal de
service parent n’a pas besoin d’accéder à l’espace de travail ou à son contenu.
Conseil
À garder en tête : lorsque vous effectuez des appels d’API REST, utilisez le principal
de service pour créer et gérer des profils de principal de service, et utilisez le profil
de principal de service pour créer, configurer et accéder au contenu Power BI.
Create Profile
Delete Profile
Get Profile
Get Profiles
Update Profile
Utilisez l’opération de l’API REST Créer un profil pour créer un profil de principal de
service. Vous devez définir la propriété displayName dans le corps de la requête pour
fournir un nom d’affichage pour le nouveau locataire. La valeur doit être unique entre
tous les profils appartenant au principal de service. L’appel échoue si un autre profil
portant ce nom d’affichage existe déjà pour le principal de service.
Un appel réussi retourne la propriété id , qui est un GUID qui représente le profil.
Lorsque vous développez des applications qui utilisent des profils de principal de
service, nous vous recommandons de stocker les noms d’affichage des profils et leurs
valeurs d’ID dans une base de données personnalisée. De cette façon, il est simple pour
votre application de récupérer les ID.
Si vous programmez avec le SDK .NET Power BI , vous pouvez utiliser la méthode
Profiles.CreateProfile , qui retourne un objet ServicePrincipalProfile représentant le
C#
pbiClient.Groups.AddGroupUser(workspaceId, groupUser);
Dans le service Power BI, dans le volet Accès de l’espace de travail, vous pouvez
déterminer quelles identités, y compris les principaux de sécurité, y ont accès.
Si vous programmez avec le SDK. NET Power BI, vous pouvez utiliser la méthode
Profiles.DeleteProfile .
Si vous programmez avec le SDK .NET Power BI, vous pouvez utiliser la méthode
Profiles.GetProfiles.
Vous devez passer le jeton d’accès du principal de service parent dans l’en-tête
Authorization.
Vous devez inclure un en-tête appelé X-PowerBI-profile-id avec la valeur de l’ID
du profil de principal de service.
Si vous utilisez le SDK .NET Power BI, vous pouvez définir explicitement la valeur de l’en-
tête X-PowerBI-profile-id en passant l’ID du profil de principal de service.
C#
Comme indiqué dans l’exemple ci-dessus, une fois que vous avez ajouté l’en-tête X-
PowerBI-profile-id à l’objet PowerBIClient , il est simple d’appeler des méthodes, telles
que Groups.GetGroups , afin qu’elles soient exécutées en utilisant le profil de principal de
service.
C#
if (profileId.Equals("")) {
pbiClient = GetPowerBIClient();
}
else {
pbiClient = GetPowerBIClientForProfile(new Guid(profileId));
}
}
Lorsque vous avez besoin de créer ou de gérer un profil de principal de service, vous
pouvez appeler la méthode SetCallingContext sans aucun paramètre. De cette façon,
vous pouvez créer et gérer des profils en utilisant l’identité du principal de service.
C#
C#
// Create a workspace
GroupCreationRequest request = new GroupCreationRequest(workspaceName);
Group workspace = pbiClient.Groups.CreateGroup(request);
Après avoir utilisé un profil de principal de service spécifique pour créer et configurer un
espace de travail, vous devrez continuer à utiliser ce même profil pour créer et
configurer le contenu de l’espace de travail. Il n’est pas nécessaire d’appeler la méthode
SetCallingContext pour procéder à la configuration.
Cet exemple d’application a été développé avec .NET 6 et ASP.NET. Il montre comment
appliquer les recommandations et les conseils décrits dans cet article. Vous pouvez
passer en revue le code pour apprendre à développer une application multilocataire qui
implémente le scénario Incorporer pour votre client en utilisant des profils de principal
de service.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Profils des principaux services pour les applications multi-locataire dans Power BI
Embedded
Migrer des applications multi-clients vers le modèle de profils de principal de
service
Groupe d’opérations de l’API REST Power BI Profils
Exemple d’application AppOwnsDataMultiTenant
Des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Lorsqu’il s’agit de localiser des éléments Power BI, tels que des modèles sémantiques
(précédemment appelés jeux de données) et des rapports, il existe trois types de
traductions.
Traduction de métadonnées
Traduction d’étiquettes de rapport
Conversion de données
Traduction de métadonnées
La traduction de métadonnées fournit des valeurs localisées pour les propriétés de l’objet
de modèle sémantique. Les types d’objets qui prennent en charge la traduction de
métadonnées incluent les tables, les colonnes, les mesures, les hiérarchies et les niveaux
de hiérarchie. La traduction de métadonnées fournit rarement une solution complète
par elle-même.
Les traductions de métadonnées sont les plus faciles à créer, gérer et intégrer dans un
rapport Power BI. En appliquant les fonctionnalités du Générateur de traductions pour
générer des traductions automatiques, vous pouvez ajouter les traductions de
métadonnées dont vous avez besoin pour générer et tester un rapport Power BI. L’ajout
de traductions de métadonnées à votre modèle sémantique est une première étape
essentielle. Pour plus d’informations, consultez Créer des rapports multilingues avec le
Générateur de traductions.
En plus de la propriété Caption, qui effectue le suivi du nom d’affichage d’un objet, les
objets de modèle sémantique prennent également en charge l’ajout de traductions de
métadonnées pour deux autres propriétés, qui sont Description et DisplayFolder.
Les traductions d’étiquettes de rapport sont plus difficiles à créer et à gérer que les
traductions de métadonnées, car Power BI ne fournit aucune fonctionnalité intégrée
pour les suivre ou les intégrer. Le Générateur de traductions résout ce problème à l’aide
d’une table Étiquettes localisées, qui est une table masquée dans le modèle sémantique
d’un rapport. Ajoutez des mesures qui effectuent le suivi des traductions requises pour
chaque étiquette de rapport.
Conversion de données
La traduction de données fournit des valeurs traduites pour les colonnes textuelles dans
les données sous-jacentes elles-mêmes. Supposons qu’un rapport Power BI affiche des
noms de produits importés à partir des lignes de la table Products dans une base de
données sous-jacente. La traduction de données permet d’afficher les noms de produits
différemment pour les utilisateurs qui parlent différentes langues. Par exemple, certains
utilisateurs voient les noms de produits en anglais, tandis que d’autres utilisateurs voient
les noms de produits dans d’autres langues.
Les traductions de données apparaissent également dans les axes des visuels cartésiens
et dans les légendes.
La traduction de données est plus difficile à concevoir et à implémenter que les deux
autres types de traduction. Vous devez reconcevoir la source de données sous-jacente
avec des colonnes de texte supplémentaires pour les traductions dans la langue
secondaire. Une fois que la source de données sous-jacente a été étendue avec des
colonnes de texte supplémentaires, vous pouvez utiliser une fonctionnalité puissante
dans Power BI Desktop appelée Paramètres de champ. Cette fonctionnalité utilise des
filtres pour contrôler le chargement des traductions de données pour une langue
spécifique.
Commentaires
Cette page a-t-elle été utile ? Yes No
Chaque rapport qui se charge dans le service Power BI s’initialise avec un contexte
utilisateur qui identifie une langue et une région géographique appelées paramètres
régionaux. Dans la plupart des cas, les paramètres régionaux identifient un pays/une
région. Le service Power BI effectue le suivi de la combinaison de la langue et des
paramètres régionaux de l’utilisateur à l’aide d’un nom de culture.
ノ Agrandir le tableau
7 Notes
Dans certains cas, un nom de culture inclut également d’autres informations. Par
exemple, il existe deux noms de culture pour la langue serbe en Serbie : sr-Cyrl-RS
et sr-Latn-RS . La partie au milieu appelée script (Cyrl et Latn) indique s’il faut
utiliser l’alphabet cyrillique ou latin. Pour plus d'informations, voir RFC 4646 .
Pour obtenir la liste des valeurs de nom de culture, consultez Codes de langue ISO
639 et Plateforme de navigation en ligne .
Organiser le projet pour la traduction de
métadonnées
Au début d’un projet qui implique la création d’un modèle sémantique Power BI
(précédemment appelé jeu de données) avec traduction de métadonnées, listez les
noms de culture que vous envisagez de prendre en charge. Ensuite, étendez le modèle
sémantique en ajoutant les traductions de métadonnées pour chaque nom de culture.
Vous n’avez pas besoin de fournir de traductions de métadonnées pour la langue par
défaut du modèle sémantique. Power BI peut simplement utiliser les noms d’objet de
modèle sémantique directement pour ce nom de culture. Une façon de penser à cela est
que les noms d’objet de modèle sémantique agissent comme un ensemble virtuel de
traductions de métadonnées pour la langue par défaut.
Lorsque le service Power BI charge un rapport, il lit le nom de culture transmis dans l’en-
tête Accept-Language et l’utilise pour initialiser la langue et les paramètres régionaux du
contexte de chargement du rapport. Sur leurs appareils, les utilisateurs peuvent
contrôler le nom de culture transmis dans la valeur d’en-tête Accept-Language en
configurant les paramètres régionaux.
Lorsque vous ouvrez un rapport Power BI dans le service Power BI, vous pouvez
remplacer la valeur d’en-tête Accept-Language en ajoutant le paramètre language à la
fin de l’URL du rapport et en définissant sa valeur sur un nom de culture valide. Par
exemple, vous pouvez tester le chargement d’un rapport pour un utilisateur au Canada
qui parle français en définissant la valeur du paramètre language sur fr-CA .
7 Notes
L’ajout du paramètre language aux URL de rapport offre un moyen pratique de
tester les traductions de métadonnées dans le service Power BI. Cette technique ne
vous oblige pas à reconfigurer les paramètres sur votre ordinateur local ou dans
votre navigateur.
Que se passe-t-il lorsqu’un utilisateur canadien francophone ouvre un rapport avec une
valeur d’en-tête Accept-Language de fr-CA ? Le service Power BI charge-t-il les
traductions pour le français ( fr-FR ) ou se replie-t-il sur les noms d’objet de modèle
sémantique anglais ?
À l’heure actuelle, les mesures agissent différemment des tables et des colonnes dans
Power BI. Avec des mesures, le service Power BI tente de trouver la correspondance la
plus proche. Pour le nom de culture fr-CA , les noms des mesures sont chargés à l’aide
des traductions de métadonnées pour fr-FR .
Avec les tables et les colonnes, le service Power BI nécessite une correspondance exacte
entre le nom de culture dans la requête et les traductions de métadonnées prises en
charge. S’il n’y a pas de correspondance exacte, le service Power BI revient au
chargement des noms d’objet de modèle sémantique. Les noms des tables et des
colonnes dans ce scénario sont chargés à l’aide de noms d’objet de modèle sémantique
en anglais.
7 Notes
Cette utilisation de la langue par défaut pour les noms de tables et de colonnes est
un problème connu pour Power BI.
utilisateurs en France sont différentes des traductions françaises pour les utilisateurs au
Canada.
L’exemple de rapport affiche la valeur de retour USERCULTURE dans le coin supérieur droit
de la bannière de rapport. Vous n’affichez généralement pas un élément de rapport
comme celui-ci dans une application réelle.
Ce code est un exemple simple d’écriture d’une expression DAX pour une mesure qui
implémente des traductions dynamiques. Vous pouvez utiliser une instruction SWITCH
qui appelle USERCULTURE pour former un modèle de base pour implémenter des
traductions dynamiques.
DAX
Pour plus d’informations, consultez Découvrir les principes fondamentaux de DAX dans
Power BI Desktop.
Tout fonctionne comme prévu si vous configurez des colonnes et des mesures à l’aide
de chaînes de format qui prennent en charge la mise en forme régionale. Si vous mettez
en forme une date, nous vous recommandons d’utiliser une chaîne de format telle que
Date courte ou Date longue, car elles prennent en charge la mise en forme régionale.
Voici quelques exemples de la façon dont une valeur de date mise en forme avec Date
courte apparaît lorsqu’elle est chargée sous des paramètres régionaux différents.
ノ Agrandir le tableau
fr-FR 12/31/2022
en-GB 31/12/2022
pt-PT 31-12-2022
de-DE 31.12.2022
ja-JP 2022/12/31
Contenu connexe
Créer des rapports multilingues avec le générateur de traductions
Commentaires
Cette page a-t-elle été utile ? Yes No
Quand il s’agit de localiser des logiciels, il faut garder à l’esprit certains principes
universels. La première consiste à planifier la localisation dès le début d’un projet. Il est
plus difficile d’ajouter la prise en charge de la localisation à un modèle sémantique
(précédemment appelé jeu de données) ou un rapport existant qui a été initialement
créé sans tenir compte de l’internationalisation ou de la localisation.
Cela est particulièrement vrai avec les rapports Power BI, car il existe de nombreuses
techniques de conception populaires qui ne prennent pas en charge la localisation. Une
grande partie du travail pour ajouter la prise en charge de la localisation aux rapports
Power BI existants implique l’annulation de choses qui ne prennent pas en charge la
localisation. Ce n’est qu’après ce travail que vous pouvez poursuivre avec des
techniques de conception qui prennent en charge la localisation.
Pour ajouter la prise en charge de plusieurs langues à une solution Power BI, choisissez
l’une de ces approches.
Pour utiliser l’approche de modèle sémantique partagé, créez un fichier projet .pbix avec
un modèle sémantique et un rapport vide, qui reste inutilisé. Une fois que ce modèle
sémantique a été déployé sur le service Power BI, les générateurs de rapports peuvent
s’y connecter à l’aide de Power BI Desktop pour créer des fichiers .pbix de rapport seul.
Cette approche permet aux équipes qui créent des rapports de générer des fichiers
projet .pbix avec des dispositions de rapport pouvant être déployées et mises à jour
indépendamment du modèle sémantique sous-jacent. Pour plus d’informations,
consultez Connexion aux modèles sémantiques.
L’ajout d’un degré considérable de remplissage aux étiquettes localisées est la norme
lors du développement de logiciels internationalisés. Il est essentiel que vous testiez vos
rapports avec chaque langue que vous envisagez de prendre en charge. Vous devez
vous assurer que les dispositions de vos rapports se présentent comme prévu avec
n’importe quelle langue que vous choisissez de prendre en charge.
Contenu connexe
Créer des rapports multilingues avec le générateur de traductions
Commentaires
Cette page a-t-elle été utile ? Yes No
Les créateurs de contenu peuvent utiliser Translations Builder pour ajouter une prise en
charge multilingue aux fichiers de projet .pbix dans Power BI Desktop. La capture
d'écran suivante montre à quoi ressemble Translations Builder lorsque vous travaillez
avec un projet .pbix simple qui prend en charge quelques langues secondaires.
Translations Builder est un outil externe développé pour Power BI Desktop à l'aide de
C#, .NET 6 et Windows Forms. Translations Builder utilise une API appelée Modèle d’objet
tabulaire (TOM) pour mettre à jour les modèles de données qui sont chargés en
mémoire et exécutés dans une session de Power BI Desktop.
Lorsque vous ouvrez un projet .pbix dans Power BI Desktop, le modèle de données
défini dans le fichier .pbix est chargé en mémoire dans une session locale du moteur
Analysis Services. Translations Builder utilise TOM pour établir une connexion directe au
modèle de données du projet .pbix actuel.
Sur le même ordinateur sur lequel vous exécutez Power BI Desktop, téléchargez et
installez Translations Builder à l'aide du Guide d'installation de Translations Builder .
Après avoir installé Translations Builder, vous pouvez l'ouvrir directement à partir de
Power BI Desktop dans le ruban Outils externes. Le projet Translations Builder utilise le
support d'intégration d'outils externes. Pour plus d'informations, voir Outils externes
dans Power BI Desktop.
Lorsque vous lancez un outil externe tel que Translations Builder, Power BI Desktop
transmet les paramètres de démarrage à l'application, y compris une chaîne de
connexion. Translations Builder utilise la chaîne de connexion pour établir une
connexion avec le modèle de données chargé dans Power BI Desktop.
Contenu connexe
Ajouter une langue à un rapport dans Translations Builder
Commentaires
Cette page a-t-elle été utile ? Yes No
Lorsque vous ouvrez un projet .pbix dans le générateur de traductions pour la première
fois, la grille de traduction affiche une ligne pour chaque table, mesure et colonne non
contenues dans le modèle de données sous-jacent du projet. La grille de traduction
n’affiche pas de lignes pour les objets de modèle de données dans le modèle de
données qui sont masqués dans la vue de rapport. Les objets masqués ne sont pas
affichés dans un rapport et ne nécessitent pas de traductions.
La capture d’écran suivante montre le point de départ d’un modèle de données simple
avant sa modification pour prendre en charge les langues secondaires.
7 Notes
Si vous n'avez pas encore installé le générateur de traductions, consultez Créer des
rapports multilingues avec le générateur de traductions.
Si vous examinez la grille de traduction pour ce projet .pbix, vous pouvez constater que
les trois premières colonnes contiennent des colonnes en lecture seule utilisées pour
identifier chaque traduction de métadonnées. Chaque traduction de métadonnées a un
type d’objet, une propriété et un nom. Les traductions de la propriété Sous-titre sont
toujours utilisées. Vous pouvez ajouter des traductions pour les propriétés Description
et DisplayFolder si nécessaire.
7 Notes
Pour ajouter une ou plusieurs langues secondaires, suivez les étapes suivantes.
1. Sélectionnez Ajouter une langue pour afficher la boîte de dialogue Ajouter une
langue .
2. Sélectionnez une langue dans la liste ou utilisez Ctrl pour sélectionner plusieurs
langues.
) Important
L’ajout d’une nouvelle langue ajoute une nouvelle colonne de cellules modifiables à la
grille des traductions.
Si les créateurs de contenu parlent toutes les langues impliquées, ils peuvent ajouter et
mettre à jour des traductions pour les langues secondaires directement dans la grille de
traduction avec une expérience d’édition similaire à celle d’Excel.
Tester les traductions dans le service Power BI
Vous ne pouvez pas vérifier votre travail multilingue dans Power BI Desktop. Au lieu de
cela, vous devez tester votre travail dans le service Power BI dans un espace de travail
associé à une capacité Premium. Après avoir ajouté la prise en charge de la traduction
avec le générateur de traductions, suivez les étapes suivantes :
3. Dans la boîte de dialogue Publier sur Power BI, choisissez un espace de travail,
puis cliquez sur Sélectionner.
4. Une fois la publication terminée, sélectionnez le lien pour ouvrir le projet dans le
service Power BI.
Une fois le rapport chargé avec sa langue par défaut, sélectionnez la barre d’adresse du
navigateur et ajoutez le paramètre de langue suivant à l’URL du rapport.
HTTP
?language=es-ES
Lorsque vous ajoutez le paramètre de langue à la fin de l’URL du rapport, attribuez une
valeur qui est un nom de culture valide. Après avoir ajouté le paramètre de langue et
appuyé sur Entrée, vous pouvez vérifier que le paramètre a été accepté par le
navigateur lors du rechargement du rapport.
Le rapport affiche également les traductions espagnoles pour les noms des colonnes et
des mesures.
Lorsque vous commencez à utiliser des langues secondaires et des traductions pour
localiser un projet .pbix, suivez le même ensemble d’étapes :
JavaScript
let config = {
type: "report",
id: reportId,
embedUrl: embedUrl,
accessToken: embedToken,
tokenType: models.TokenType.Embed,
localeSettings: { language: "de-DE" }
};
Contenu connexe
Ajouter une table Étiquettes localisées à un rapport Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
La traduction d’étiquettes de rapport fournit des valeurs localisées pour les éléments de
texte d’un rapport qui ne sont pas directement associés à un objet de jeu de données.
Les valeurs de texte des titres de rapport, les titres des sections et les légendes des
boutons sont des exemples d’étiquettes de rapport. Power BI ne fournit aucune
fonctionnalité intégrée pour suivre ou intégrer les étiquettes de rapport. Le générateur
de traductions utilise des tables d’étiquettes localisées pour prendre en charge cette
approche.
7 Notes
Si vous n'avez pas encore installé le générateur de traductions, consultez Créer des
rapports multilingues avec le générateur de traductions.
Toute valeur de texte codée en dur que vous ajoutez à la disposition du rapport ne peut
pas être localisée. Supposons que vous ajoutez un histogramme à votre rapport. Par
défaut, un visuel cartésien tel qu’un histogramme se voit attribuer une valeur dynamique
à sa propriété Title . Cette valeur est basée sur les noms des colonnes et des mesures
qui ont été ajoutées aux rôles de données, tels que Axe, Légende et Valeurs.
La propriété Title par défaut d’un visuel cartésien est analysée dynamiquement de
manière à prendre en charge la localisation. Tant que vous fournissez des traductions de
métadonnées pour les noms des colonnes et des mesures dans la définition de jeu de
données sous-jacente, la propriété Title du visuel utilise les traductions. Par conséquent,
si vous traduisez Sales Revenue, Day et Year, le visuel crée un titre localisé.
Le tableau suivant montre comment la propriété Title par défaut de ce visuel est mise à
jour pour chacune de ces cinq langues.
ノ Agrandir le tableau
Une fois qu’une mesure a été créée pour chaque étiquette de rapport, Power BI peut
stocker et gérer ses traductions de la même manière que pour les traductions de
métadonnées. En fait, la stratégie de table Étiquettes localisées utilise des traductions de
métadonnées pour implémenter des traductions d’étiquettes de rapport.
1. Dans le menu Générer des tables traduites, sélectionnez Créer une table
d’étiquettes localisées.
Après avoir créé la table Étiquettes localisées, il existe trois exemples d’étiquettes de
rapport, comme le montre la capture d’écran suivante. Dans la plupart des cas, vous
devez supprimer ces exemples d’étiquettes de rapport et les remplacer par les
étiquettes de rapport réelles requises pour le projet en cours.
Il n’est pas nécessaire d’interagir avec la table Étiquettes localisées dans Power BI
Desktop. Vous pouvez ajouter et gérer toutes les étiquettes de rapport nécessaires dans
le générateur de traductions.
2. Ajoutez des étiquettes de rapport une par une en saisissant le texte de l’étiquette.
Sélectionnez ensuite Ajouter une étiquette.
Vous pouvez également sélectionner Mode avancé pour ajouter des étiquettes en
tant que lot.
Une fois que vous avez ajouté les étiquettes de rapport à votre projet .pbix, elles
s’affichent dans la grille de traduction. Vous pouvez désormais ajouter et modifier des
traductions d’étiquettes localisées comme n’importe quel autre type de traduction dans
la grille de traduction.
Dans la stratégie de table d’étiquettes localisées, vous pouvez créer, gérer et stocker des
étiquettes de rapport dans le même fichier projet .pbix qui contient les traductions de
métadonnées pour les noms des tables, des colonnes et des mesures. La stratégie de
table d’étiquettes localisées peut fusionner les traductions de métadonnées et les
traductions d’étiquettes de rapport dans une expérience unifiée dans la grille de
traduction. Il n’est pas nécessaire de faire la distinction entre les traductions de
métadonnées et les traductions d’étiquettes de rapport lorsqu’il s’agit de modifier des
traductions ou d’utiliser les fonctionnalités du générateur de traductions pour générer
des traductions automatiques.
Pour créer une table d’étiquettes localisées traduites, suivez les étapes suivantes.
La première fois que vous générez la table Étiquettes localisées traduites, le générateur
de traductions crée la table et la remplit avec des mesures. Après cela, la génération de
la table supprime toutes les mesures de la table Étiquettes localisées traduites et les
recrée. Cette action synchronise toutes les traductions d’étiquettes de rapport entre la
table Étiquettes localisées et la table Étiquettes localisées traduites .
Chaque mesure de la table Étiquettes localisées traduites a un nom qui se termine par
le mot Étiquette. La raison en est que deux mesures dans le même jeu de données ne
peuvent pas avoir le même nom. Les noms des mesures doivent être uniques pour
l’ensemble du projet. Il n’est pas possible de créer des mesures dans la table Étiquettes
localisées traduites qui portent le même nom que les mesures de la table Étiquettes
localisées .
Si vous examinez les expressions DAX (Data Analysis Expressions) générées par
l’ordinateur pour rechercher des mesures dans la table Étiquettes localisées traduites,
elles sont basées sur le même modèle DAX que celui indiqué dans Implémenter des
traductions à l’aide de mesures et USERCULTURE. Ce modèle utilise la fonction DAX
USERCULTURE avec la fonction SWITCH pour retourner la meilleure traduction pour
l’utilisateur actuel. Ce modèle DAX utilise par défaut la langue par défaut du jeu de
données si aucune correspondance n’est trouvée.
Vous devez exécuter Générer une table d’étiquettes localisées traduites à chaque fois
que vous apportez des modifications à la table Étiquettes localisées .
Ne modifiez pas les expressions DAX pour les mesures dans la table Étiquettes
localisées traduites . Toutes les modifications que vous apportez sont perdues, car
toutes les mesures de cette table sont supprimées et recréées à chaque fois que vous
générez la table.
L’exemple de projet multilingue utilise une forme Rectangle pour afficher l’étiquette de
rapport localisée pour le titre du rapport. La capture d’écran suivante montre comment
sélectionner une forme rectangle et comment configurer sa valeur de propriété Text
dans la section Forme>Texte dans le volet Format.
La propriété Text d’une forme peut être configurée avec une chaîne codée en dur. Vous
devez éviter de coder en dur les valeurs de texte dans la disposition du rapport lorsque
vous créez des rapports multilingues. Pour utiliser une mesure localisée, suivez les
étapes suivantes :
Power BI Desktop affiche une boîte de dialogue qui vous permet de configurer la
propriété Text de la forme Rectangle.
4. Sélectionnez OK.
Vous pouvez utiliser la même technique pour localiser un Titre visuel à l’aide d’une
mesure de la table Étiquettes localisées traduites .
Contenu connexe
Générer des traductions automatiques à l'aide d'Azure Translator Service
Commentaires
Cette page a-t-elle été utile ? Yes No
L'un des plus grands défis dans la création de rapports multilingues est la gestion du
processus de traduction. Vous devez vous assurer que la qualité des traductions est
élevée. Assurez-vous que les noms traduits des tables, des colonnes, des mesures et des
étiquettes ne perdent pas leur sens lorsqu'ils sont traduits dans une autre langue. Dans
la plupart des cas, l'acquisition de traductions de qualité nécessite des traducteurs
humains pour créer ou au moins réviser les traductions dans le cadre du processus de
développement de rapports multilingues.
Bien que les traducteurs humains soient généralement une partie essentielle du
processus de bout en bout, l'envoi de fichiers de traduction à une équipe de traduction,
puis l'attente de leur retour, peuvent prendre beaucoup de temps. Avec toutes les
avancées récentes de l'industrie en matière d'IA, vous pouvez également générer des
traductions automatiques à l'aide d'une API Web qui peut être appelée directement à
partir d'un outil externe tel que Translations Builder. Si vous générez des traductions
automatiques, vous avez quelque chose sur quoi travailler en attendant qu'une équipe
de traduction vous renvoie ses traductions humaines de haute qualité.
Bien que la qualité des traductions automatiques ne soit pas toujours garantie, elles
apportent une valeur ajoutée dans le processus de développement de rapports
multilingues.
Ils peuvent agir comme espaces réservés de traduction afin que vous puissiez
commencer votre test en chargeant des rapports utilisant des langues secondaires
pour voir s'il y a des problèmes de mise en page ou des sauts de ligne inattendus.
Ils peuvent fournir aux traducteurs humains un meilleur point de départ car ils
n'ont qu'à réviser et corriger les traductions au lieu de créer chaque traduction à
partir de zéro.
Ils peuvent être utilisés pour ajouter rapidement la prise en charge des langues où
il y a des problèmes de conformité légale et où les organisations sont confrontées
à des amendes ou à des litiges pour non-conformité.
7 Notes
Si vous n'avez pas encore installé le générateur de traductions, consultez Créer des
rapports multilingues avec le générateur de traductions.
Après avoir configuré une clé de service Azure Translator, Translations Builder affiche
d'autres boutons de commande. Ces boutons génèrent des traductions pour une seule
langue à la fois ou pour toutes les langues à la fois. Il existe également des commandes
pour générer des traductions automatiques uniquement pour les traductions
actuellement vides.
Contenu connexe
Ajout de la prise en charge de la navigation de pages multilingues
Commentaires
Cette page a-t-elle été utile ? Yes No
Vous ne pouvez pas afficher les onglets de page pour l’utilisateur dans un rapport
multilingue, car les onglets de page dans un rapport Power BI ne prennent pas en
charge la localisation. Pour la localisation, vous devez fournir d’autres moyens aux
utilisateurs de naviguer d’une page à l’autre.
Vous pouvez utiliser une technique de conception dans laquelle vous ajoutez un menu
de navigation qui utilise des boutons. Lorsque l’utilisateur sélectionne un bouton, celui-
ci applique un signet pour accéder à une autre page. Cette section décrit le processus
de création d’un menu de navigation qui prend en charge la localisation à l’aide de
mesures de la table Étiquettes localisées.
2. Pour chaque onglet que vous masquez, cliquez avec le bouton droit et
sélectionnez Masquer la page dans le menu contextuel.
Créer des signets
Chaque bouton utilise un signet pour amener le lecteur à une page. Pour plus
d’informations sur les signets, consultez Créer des navigateurs de pages et de signets.
2. Dans le volet Signets, créez un ensemble de signets. Chaque signet accède à une
page spécifique.
e. Répétez ces étapes pour chacun des onglets masqués. Le volet Signet comporte
les signets suivants :
Configurer les boutons
Le projet de démonstration multilingue contient des boutons pour la navigation. Pour
en savoir plus sur l’ajout de boutons, consultez Créer des boutons dans les rapports
Power BI.
3. Sous Action, définissez Type sur Signet et Signet sur le signet approprié, en
commençant par GoToSalesSummary.
5. Pour chaque bouton, sélectionnez Bouton>Style>Texte, puis sélectionnez le
bouton de fonction.
Le rapport n’a plus d’onglets visibles lorsque vous le publiez sur le service Power BI. Le
rapport s’ouvre sur la page Résumé des ventes. Les lecteurs peuvent se déplacer d’une
page à l’autre à l’aide des boutons, qui sont localisés à l’aide de la table Étiquettes
localisées traduites.
Contenu connexe
Conseils relatifs à Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Lorsque vous créez des rapports multilingues pour Power BI, vous pouvez travailler
rapidement et efficacement en utilisant Translations Builder et en générant des
traductions automatiques. Cependant, les traductions générées automatiquement ne
suffisent pas à de nombreux besoins de production. Vous devez intégrer d'autres
personnes agissant en tant que traducteurs dans un processus de flux de travail humain.
Translations Builder utilise une feuille de traduction, qui est un fichier .csv que vous
exportez pour l'envoyer à un traducteur. L'humain agissant en tant que traducteur met à
jour la feuille de traduction, puis vous la renvoie. Vous importez ensuite la feuille révisée
pour intégrer les modifications dans le modèle de données actuel.
Translations Builder génère un fichier pour une langue sélectionnée à l'aide d'un format
de dénomination spécial, par exemple, PbixProjectName-Translations-Spanish.csv. Le
nom inclut le nom du modèle de données et la langue de traduction. Translations
Builder enregistre la feuille de traduction générée dans un dossier appelé Boîte d'envoi.
Les traducteurs humains peuvent apporter des modifications à une feuille de traduction
à l'aide de Microsoft Excel. Lorsque vous recevez une feuille de traduction mise à jour
d'un traducteur, copiez-la dans le dossier Boîte de réception. À partir de là, vous pouvez
l'importer pour réintégrer ces traductions mises à jour dans le modèle de données du
projet en cours.
2. Sélectionnez les boutons de réglage pour mettre à jour les paramètres Chemin du
dossier de la boîte d'envoi des traductions et Chemin du dossier de la boîte
d'envoi des traductions.
Après avoir configuré les chemins d'accès aux dossiers pour Boîte d'envoi et Boîte de
réception, vous pouvez commencer à exporter et importer des feuilles de traduction à
l'aide des options Exporter/Importer des traductions.
Contenu connexe
Exporter des feuilles de traduction dans Translations Builder
Commentaires
Cette page a-t-elle été utile ? Yes No
Lorsque vous utilisez Translations Builder avec des traducteurs externes, vous devez
exporter une feuille de traduction contenant la langue par défaut et des cellules vides ou
des traductions générées automatiquement. Les traducteurs mettent à jour le fichier .csv
et vous le renvoient.
Conseil
Ne sélectionnez pas Ouvrir l'exportation dans Excel. Cette option ouvre tous les
fichiers dans Excel.
Translations Builder génère l'ensemble complet des fiches de traduction à envoyer aux
traducteurs.
Contenu connexe
Importer des feuilles de traduction dans Translations Builder
Commentaires
Cette page a-t-elle été utile ? Yes No
Lorsque vous utilisez Translations Builder avec des traducteurs externes, vous devez
exporter une feuille de traduction contenant la langue par défaut et des cellules vides ou
des traductions générées automatiquement. Les traducteurs mettent à jour le fichier .csv
et vous le renvoient.
Le travail du traducteur est de revoir toutes les traductions dans la colonne pertinente et
de faire des mises à jour le cas échéant. Du point de vue du traducteur, la ligne
supérieure avec les en-têtes de colonne et les quatre premières colonnes doivent être
traitées comme des valeurs en lecture seule.
Voici un exemple simple. Après avoir généré la feuille principale de traduction actuelle
pour un projet, imaginez que vous supprimez le français comme langue du projet en
cliquant avec le bouton droit sur l'en-tête de colonne Français [fr-FR] et en
sélectionnant Supprimer cette langue du modèle de données.
Lorsque vous tentez de supprimer la colonne d'une langue, Translations Builder vous
invite à vérifier.
Supposons que vous ayez supprimé cette langue par erreur. Vous pouvez utiliser une
feuille de traduction principale générée précédemment pour restaurer la langue
supprimée. Si vous importez la feuille de traduction, la colonne Français [fr-FR]
réapparaît comme dernière colonne.
Contenu connexe
Gérer les traductions du modèle de données au niveau de l’entreprise
Commentaires
Cette page a-t-elle été utile ? Yes No
Vous pouvez utiliser une feuille de traductions principale comme sauvegarde de projet.
Translations Builder ajoute une langue secondaire ainsi que ses traductions à un projet
.pbix s’il se trouve dans la feuille de traduction mais pas dans le projet cible. Pour plus
d’informations, consultez Importer des feuilles de traduction dans Translations Builder.
La commande Importer des traductions commence par déterminer s’il existe des
langues secondaires dans la feuille de traduction qui ne se trouvent pas dans le projet
.pbix cible. Il ajoute toutes les langues secondaires qui ne sont pas déjà présentes dans
le projet cible. Après cela, la commande déplace la feuille de traduction ligne par ligne.
Étant donné que la commande Importer des traductions crée la table Étiquettes
localisées et copie les étiquettes de rapport dans un projet .pbix cible, elle peut
constituer la base de la gestion d’une feuille de traduction principale au niveau de
l’entreprise. Utilisez un ensemble d’étiquettes de rapport localisées sur plusieurs projets
.pbix. Chaque fois que vous créez un projet .pbix, vous pouvez importer la feuille de
traduction au niveau de l’entreprise pour ajouter l’ensemble généralisé d’étiquettes de
rapport localisées.
Contenu connexe
Conseils relatifs à Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Tous les rapports multilingues nécessitent une traduction des métadonnées et une
traduction des étiquettes de rapport, mais pas nécessairement une traduction des
données. Pour déterminer si votre projet nécessite une traduction de données,
réfléchissez aux cas d'utilisation que vous prévoyez de prendre en charge. L'utilisation
de la traduction des données implique de la planification et des efforts. Vous pouvez
décider de ne pas prendre en charge la traduction des données à moins qu'il ne s'agisse
d'une exigence absolue pour votre projet.
Supposons que vous développiez un modèle de rapport pour une application logicielle
en tant que service (SaaS) avec un schéma de base de données bien connu. Certains
clients gèrent leur instance de base de données en anglais tandis que d'autres gèrent
leurs instances de base de données dans d'autres langues, telles que l'espagnol ou
l'allemand. Il n'est pas nécessaire d'implémenter des traductions de données dans ce cas
d'utilisation, car les données de n'importe quelle instance de base de données, car les
utilisateurs affichent les données chacun dans une seule langue.
Chaque déploiement client utilise une seule langue pour sa base de données et tous ses
utilisateurs. Les traductions de métadonnées et les traductions d'étiquettes de rapport
doivent être implémentées dans ce cas d'utilisation. Vous déployez une version unique
du fichier .pbix sur tous les déploiements client. Cependant, il n'est pas nécessaire
d'implémenter des traductions de données lorsqu'aucune instance de base de données
n'a jamais besoin d'être affichée dans plusieurs langues.
Si vous avez des personnes qui utilisent des langues et des paramètres régionaux
différents pour interagir avec la même instance de base de données, vous devez
toujours tenir compte d'autres considérations.
Examinez les colonnes textuelles qui sont candidates à la traduction. Déterminez à
quel point la traduction de ces valeurs de texte est difficile. Les colonnes avec des
valeurs de texte courtes, comme les noms de produits et les catégories de
produits, sont de bons candidats pour les traductions de données. Les colonnes
qui contiennent des valeurs de texte plus longues, telles que les descriptions de
produits, nécessitent plus d'efforts pour générer des traductions de haute qualité.
Contenu connexe
Étendre le schéma de source de données pour prendre en charge les traductions
de données
Commentaires
Cette page a-t-elle été utile ? Yes No
Il existe plusieurs façons d'implémenter des traductions de données dans Power BI.
Certaines stratégies de traduction de données sont meilleures que d'autres. Quelle que
soit l'approche que vous choisissez, assurez-vous qu'elle évolue en termes de
performances. Vous devez également vous assurer que votre stratégie évolue en termes
de frais généraux requis pour ajouter la prise en charge de nouvelles langues
secondaires dans le cadre de la maintenance continue.
Lorsque vous utilisez des paramètres de champ pour implémenter des traductions de
données, utilisez des colonnes au lieu de mesures. Le rôle principal que jouent les
paramètres de champ dans la mise en œuvre des traductions de données est de fournir
une utilisation de champ unique et unifiée dans la création de rapports qui peut être
basculée dynamiquement entre les colonnes source.
Contenu connexe
Mettre en œuvre la traduction de données à l'aide de paramètres de champ
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article vous montre comment mettre en œuvre la traduction de données en utilisant
des paramètres de champ. Ce processus contient les étapes suivantes :
Une fois que vous avez créé un paramètre de champ, il apparaît dans la liste Champs à
droite, sous la forme d’une nouvelle table. Sous Données, sélectionnez Noms de
produits traduits pour afficher le code DAX (Data Analysis Expressions) qui définit le
paramètre de champ, comme illustré dans la capture d’écran suivante.
Si vous examinez l’expression DAX, les noms de colonne codés en dur de la source de
données sous-jacente s’affichent, tels que ProductTranslationEnglish et
ProductTranslationSpanish.
DAX
Mettez à jour l’expression DAX pour remplacer les noms de colonnes par des
traductions localisées pour le mot Product, comme indiqué dans le code suivant.
DAX
Lorsque vous apportez cette modification, l’en-tête de colonne est traduit, ainsi que les
noms de produits.
Les noms des colonnes dans un paramètre de champ sont générés en fonction du nom
que vous donnez au paramètre de champ de niveau supérieur. Vous devez renommer
les colonnes pour simplifier le modèle de données et améliorer la lisibilité.
2. Renommez les deux champs masqués avec des noms plus courts, tels que Champs
et Ordre de tri.
DAX
Après avoir mis à jour l’expression DAX avec un identificateur de langue pour
chaque langue, une nouvelle colonne apparaît dans la vue Données de la table
Produits. Elle est nommée Value4.
Vous n’avez pas besoin de configurer la colonne de tri pour les deux champs
préexistants. Power BI Desktop les configure lorsque vous configurez le paramètre
de champ.
Les auteurs de rapports n’ont jamais besoin de voir cette colonne, car elle est utilisée
pour sélectionner une langue en appliquant un filtre en arrière-plan.
Dans cet article, vous avez créé un paramètre de champ nommé Noms de produits
traduits et vous l’avez étendu avec une colonne nommée LanguageId. La colonne
LanguageId est utilisée pour filtrer la colonne source utilisée. Cette action détermine la
langue affichée pour les utilisateurs des rapports.
Contenu connexe
Ajouter la table des langues pour filtrer les paramètres des champs
Commentaires
Cette page a-t-elle été utile ? Yes No
Ajouter le tableau
1. Dans Power BI Desktop, dans le ruban Accueil, sélectionnez Transformer les
données>Transformer les données pour ouvrir l’Éditeur Power Query.
Power Query M
let
LanguagesTable = #table(type table [
Language = text,
LanguageId = text,
DefaultCulture = text,
SortOrder = number
], {
{"English", "en", "en-US", 1 },
{"Spanish", "es", "es-ES", 2 },
{"French", "fr", "fr-FR", 3 },
{"German", "de", "de-DE", 4 }
}),
SortedRows = Table.Sort(LanguagesTable,{{"SortOrder",
Order.Ascending}}),
QueryOutput = Table.TransformColumnTypes(SortedRows,{{"SortOrder",
Int64.Type}})
in
QueryOutput
Lorsque cette requête s'exécute, elle génère la table Languages avec une ligne
pour chacune des quatre langues prises en charge.
Une fois que vous avez établi la relation entre les langues et les noms de produits
traduits, elle sert de base pour filtrer le paramètre de champ à l'échelle du rapport. Par
exemple, vous pouvez ouvrir le volet Filtrer et ajouter la colonne Langue du tableau
Langues à la section Filtres sur toutes les pages. Si vous configurez ce filtre avec
l'option Exiger une sélection unique, vous pouvez basculer entre les langues à l'aide du
volet Filtre.
Contenu connexe
Synchroniser plusieurs paramètres de champ
Commentaires
Cette page a-t-elle été utile ? Yes No
Un paramètre de champ peut prendre en charge les traductions d'une colonne dans un
rapport multilingue dans Power BI. La plupart des rapports contiennent plusieurs
colonnes qui nécessitent des traductions de données. Vous devez vous assurer que le
mécanisme que vous utilisez pour sélectionner une langue peut être synchronisé sur
plusieurs paramètres de champ. Pour tester cette approche en travaillant avec le projet
dans cette série d'articles, créez un deuxième paramètre de champ pour traduire les
noms de catégories de produits à partir de la table Produits.
3. Remplissez les champs avec les colonnes de la table Produits pour les langues
souhaitées.
5. Ouvrez la vue Données. Sélectionnez la table pour afficher le code DAX (Data
Analysis Expressions). Mettez à jour le code pour qu'il corresponde au code
suivant.
DAX
Après avoir apporté vos modifications, la valeur Catégorie est localisée et une
nouvelle colonne apparaît.
6. Double-cliquez sur Valeur4 et remplacez le nom par LanguageId.
7 Notes
Vous pouvez tester votre implémentation des traductions de données dans Power
BI Desktop en modifiant le filtre du tableau Langues. Cependant, les deux autres
types de traductions ne fonctionnent pas correctement dans Power BI Desktop.
Vous devez tester les traductions des métadonnées et des étiquettes de rapport
dans le service Power BI.
Contenu connexe
Mettre en œuvre des traductions de données pour une table de calendrier
Commentaires
Cette page a-t-elle été utile ? Yes No
Les versions traduites facilitent la lecture du visuel dans les langues prises en charge.
La stratégie décrite dans cet article pour les traductions de colonnes de table de
calendrier utilise Power Query et le langage de requête M. Power Query fournit des
fonctions intégrées, telles que Date.MonthName , qui acceptent un paramètre Date et
retournent un nom de calendrier textuel. Si votre projet .pbix a en-US comme langue et
paramètres régionaux par défaut, l’appel de fonction Power Query suivant correspond à
une valeur de janvier basée sur le texte.
Power Query M
Date.MonthName( #date(2023, 1, 1) )
La fonction Date.MonthName accepte un deuxième paramètre de chaîne facultatif pour
passer une langue et des paramètres régionaux spécifiques.
Power Query M
Si vous souhaitez traduire le nom du mois en Français, vous pouvez passer une valeur
de texte de fr-FR.
Power Query M
Power Query repose sur un langage de requête fonctionnel nommé M. Avec cette
langue, vous pouvez itérer dans les lignes de la table Langues pour découvrir quelles
langues et quelles cultures par défaut le projet prend en charge. Vous pouvez écrire une
requête qui utilise la table Languages comme source pour générer une table de
traduction de calendrier avec les noms des mois ou des jours de la semaine.
Voici le code M qui génère la table Des noms de mois traduits.
Power Query M
let
Source = #table( type table [ MonthNumber = Int64.Type ],
List.Split({1..12},1)),
Translations = Table.AddColumn( Source, "Translations",
each
[ MonthDate = #date( 2022, [ MonthNumber ], 1 ),
Translations = List.Transform(Languages[DefaultCulture], each
Date.MonthName( MonthDate, _ ) ),
TranslationTable = Table.FromList( Translations, null ),
TranslationsTranspose = Table.Transpose(TranslationTable),
TranslationsColumns = Table.RenameColumns(
TranslationsTranspose,
List.Zip({ Table.ColumnNames( TranslationsTranspose ),
List.Transform(Languages[Language],
each "MonthNameTranslations" & _ ) })
)
]
),
ExpandedTranslations = Table.ExpandRecordColumn(Translations,
"Translations",
{ "TranslationsColumns" },
{ "TranslationsColumns"
}),
ColumnsCollection = List.Transform(Languages[Language], each
"MonthNameTranslations" & _ ),
ExpandedTranslationsColumns =
Table.ExpandTableColumn(ExpandedTranslations,
"TranslationsColumns",
ColumnsCollection,
ColumnsCollection ),
TypedColumnsCollection = List.Transform(ColumnsCollection, each {_, type
text}),
QueryOutput = Table.TransformColumnTypes(ExpandedTranslationsColumns,
TypedColumnsCollection)
in
QueryOutput
Conseil
De même, la requête nommée Translation Day Names Table génère une table avec des
traductions de noms en semaine.
Les deux requêtes nommées Table des noms de mois traduits et Table des noms de
jour traduits ont été écrites pour être génériques. Ils ne contiennent aucun nom de
colonne codé en dur. Ces requêtes ne nécessitent aucune modification à l’avenir lorsque
vous ajoutez ou supprimez des langues du projet. Il vous suffit de mettre à jour les
lignes de données de la requête.
Configurer les colonnes de traduction dans Translated Month Names Table pour
utiliser la colonne de tri MonthNumber
Configurer les colonnes de traduction dans Translated Day Names Table pour
utiliser la colonne de tri DayNumber
Créez une relation entre la table Calendrier et les tables de faits, telles que Sales, à l’aide
de la colonne Date pour créer une relation un-à-plusieurs. Les relations créées entre la
table Calendrier et les deux tables de traductions sont basées sur la colonne
MonthNumber et la colonne DayNumber .
Après avoir créé les relations requises avec la table Calendrier, créez un paramètre de
champ pour chacune des deux tables de traductions de calendrier. La création d’un
paramètre de champ pour une table de traduction de calendrier équivaut à créer les
paramètres de champ pour les noms de produits et les noms de catégorie indiqués
précédemment.
Ajoutez une relation entre ces nouvelles tables de paramètres de champ et la table
Languages pour vous assurer que la stratégie de filtrage linguistique fonctionne comme
prévu.
Après avoir créé les paramètres de champ pour Translated Month Names et Translated
Day Names, vous pouvez commencer à les exposer dans un rapport à l’aide de visuels
cartésiens, de tables et de matrices.
Après avoir tout configuré, vous pouvez tester votre travail à l’aide d’un filtre au niveau
du rapport dans la table Langues pour basculer entre les langues et vérifier les
traductions des noms des mois et des jours de la semaine comme prévu.
Contenu connexe
Charger des rapports multilingues
Commentaires
Cette page a-t-elle été utile ? Yes No
Pour charger des rapports multilingues dans la langue de l'utilisateur, vous pouvez
utiliser des signets ou incorporer des rapports.
1. Créez un signet distinct pour chaque langue prenant en charge les traductions de
données.
2. Désactivez l'affichage et la page actuelle et activez uniquement le comportement
des données.
HTTP
?language=es&bookmarkGuid=Bookmark856920573e02a8ab1c2a
JavaScript
let config = {
type: "report",
id: reportId,
embedUrl: embedUrl,
accessToken: embedToken,
tokenType: models.TokenType.Embed,
localeSettings: { language: "de-DE" }
};
// embed report using config object
let report = powerbi.embed(reportContainer, config);
Lorsque vous intégrez un rapport avec un objet de configuration comme celui-ci qui
définit la propriété de langue de l'objet localeSettings, les traductions des métadonnées
et des étiquettes de rapport fonctionnent comme prévu. Cependant, une étape
supplémentaire est nécessaire pour filtrer le tableau Langues afin de sélectionner la
langue appropriée pour l'utilisateur actuel.
Il est possible d'appliquer un signet à un rapport intégré. Au lieu de cela, vous pouvez
appliquer un filtre directement sur la table Langues lors du chargement du rapport à
l'aide de l'API JavaScript Power BI. Il n'est pas nécessaire d'ajouter des signets pour
filtrer le tableau Langues si vous avez uniquement l'intention d'utiliser un rapport à
l'aide de l'incorporation de Power BI.
JavaScript
});
Conseil
Lorsque vous définissez des filtres avec l'API JavaScript Power BI, vous devez
préférer la méthode updateFilters à la méthode setFilters . La méthode
updateFilters vous permet de supprimer les filtres existants alors que ce
Contenu connexe
Conseils relatifs à Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article est destiné aux administrateurs Power BI qui souhaitent installer et gérer la
passerelle de données locale.
La passerelle est requise chaque fois que Power BI doit accéder à des données qui ne
sont pas directement accessibles sur Internet. Elle peut être installée sur un serveur local
ou sur une infrastructure IaaS (infrastructure as a service) hébergée sur une machine
virtuelle.
Cette charge de travail demande des ressources processeur pour le routage des
requêtes et des résultats des requêtes. En général, la demande en processeur est bien
moins importante que celle de la charge de travail Données du cache, en particulier s’il
est nécessaire de transformer les données pour la mise en cache.
Une connectivité fiable, rapide et cohérente est importante pour que les utilisateurs des
rapports bénéficient d’une expérience réactive.
Considération sur le dimensionnement
Le bon dimensionnement d’un ordinateur de passerelle peut dépendre des variables
suivantes :
7 Notes
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Recommandations
Les recommandations de dimensionnement de la passerelle dépendent de nombreuses
variables. Dans cette section, nous vous donnons des recommandations générales que
vous pouvez prendre en compte.
Dimensionnement initial
Il peut être difficile d’estimer avec précision la taille appropriée. Nous vous
recommandons de commencer avec un ordinateur disposant d’au moins 8 cœurs de
processeur, 8 Go de RAM et plusieurs cartes réseau Gigabit. Vous pouvez ensuite
mesurer une charge de travail de passerelle type en enregistrant les compteurs système
de processeur et de mémoire. Pour plus d’informations, consultez Surveiller et optimiser
les performances de la passerelle de données locale.
Connectivité
Prévoyez la meilleure connectivité possible entre le service Power BI et votre passerelle,
ainsi qu’entre votre passerelle et les sources de données.
Clustering
Pour les déploiements à grande échelle, vous pouvez créer une passerelle avec plusieurs
membres du cluster. Les clusters évitent les points de défaillance uniques et peuvent
équilibrer la charge du trafic entre les passerelles. Vous pouvez :
Pour plus d’informations, consultez Gérer l’équilibrage de charge et les clusters à haute
disponibilité de la passerelle de données locale.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
L’Analyseur de performances ne peut pas être utilisé pour superviser les activités ou
la capacité Premium par utilisateur.
7 Notes
SQL Server Profiler est disponible dans le cadre de SQL Server Management
Studio.
SQL Server
SQL Server Analysis Services
Azure Analysis Services
U Attention
Pour créer un rapport des appels de procédure SQL Server Profiler trace, suivez les
instructions ci-dessous :
1. Ouvrez votre rapport de Power BI Desktop (il sera donc facile de localiser le port à
l’étape suivante, puis de fermer tous les autres rapports ouverts).
2. Pour déterminer le port utilisé par Power BI Desktop, dans PowerShell (avec des
privilèges d’administrateur), ou à l’invite de commandes, entrez la commande
suivante :
netstat -b -n
Le résultat doit être une liste d’applications et leurs ports ouverts. Recherchez le
port utilisé par msmdsrv.exe et enregistrez-le pour la suite. Il s’agit de votre
instance Power BI Desktop.
3. Pour connecter SQL Server Profiler à votre rapport Power BI Desktop :
a. Ouvrez SQL Server Profiler.
b. Dans SQL Server Profiler, dans le menu Fichier, sélectionnez Nouveau rapport
des appels de procédure.
c. Dans Type de serveur, sélectionnez Analysis Services.
d. Dans Nom du serveur, entrez localhost:[port recorded earlier] .
e. Cliquez sur exécuter : à présent, le rapport des appels de procédure SQL Server
Profiler est actif et le profilage des requêtes Power BI Desktop est actif.
4. À mesure que les requêtes Power BI Desktop sont exécutées, vous verrez leur
durée respective et les temps UC. Selon le type de source de données, vous
pouvez voir d’autres événements indiquant comment la requête a été exécutée. À
l’aide de ces informations, vous pouvez déterminer quelles requêtes sont des
goulots d’étranglement.
L’un des avantages de l’utilisation de SQL Server Profiler est qu’il est possible
d’enregistrer un rapport des appels de procédure de base de données SQL Server
(relationnel). Le rapport des appels de procédure peut devenir une entrée de l'Assistant
Paramétrage du moteur de base de données. De cette façon, vous pouvez recevoir des
suggestions sur la manière de paramétrer votre source de données.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Diagnostic de requête
Analyseur de performances
Résoudre les problèmes de performances de rapports dans Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article fournit des conseils qui permettent aux développeurs et aux administrateurs
de résoudre les problèmes de performances de rapport lentes. Il concerne les rapports
Power BI ainsi que les rapports paginés Power BI.
Les rapports lents peuvent être identifiés par les utilisateurs de rapports confrontés à
des rapports lents à charger ou à mettre à jour lors de l’interaction avec des segments
ou d’autres fonctionnalités. Lorsque les rapports sont hébergés sur une capacité
Premium ou une capacité Fabric, il est également possible d’identifier les rapports lents
en surveillant l’application Métriques de capacité Microsoft Fabric. Cette application
vous permet de surveiller l’intégrité et la capacité de votre abonnement Power BI
Premium.
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
ノ Agrandir le tableau
• Gérer la capacité.
• Mettre à l’échelle la capacité.
• Modification de l’architecture.
• Tenir compte d’Azure Analysis Services.
• Vérifier la passerelle locale.
Capacité Premium
Lorsque le rapport est hébergé sur une capacité Premium, utilisez l’application
Métriques de capacité Microsoft Fabric pour déterminer si la capacité d’hébergement de
rapports dépasse souvent les ressources de la capacité. En cas de pression sur les
ressources, il peut être temps de gérer ou de mettre à l’échelle la capacité (indicateur de
fin de l’organigramme 1). Lorsqu’il existe des ressources adéquates, examinez l’activité
de la capacité pendant l’utilisation des rapports classiques (indicateur de fin de
l’organigramme 2).
Capacité partagée
Lorsque le rapport est hébergé sur une capacité partagée, il n’est pas possible de
surveiller l’intégrité de la capacité. Vous devez adopter une approche d’investigation
différente.
S’il n’y a pas de modèle de temps, vérifiez ensuite si les performances lentes sont
limitées à une zone géographique ou à une région spécifique. Si c’est le cas, il est
probable que la source de données est distante et que la communication réseau est
lente. Dans ce cas, prenez en compte les éléments suivants :
Modification de l’architecture à l’aide d’Azure Analysis Services (indicateur de fin
d’organigramme 3).
Optimisation des performances de la passerelle de données locale (indicateur de
fin d’organigramme 3).
Enfin, si vous constatez qu’il n’existe pas de modèle de temps et que les performances
sont lentes dans toutes les régions, vérifiez si les performances sont lentes sur des
appareils, des clients ou des navigateurs web spécifiques. Si ce n’est pas le cas, utilisez
l’analyseur de performances Power BI Desktop comme décrit plus haut pour optimiser le
rapport ou le modèle (indicateur de fin d’organigramme 5).
Lorsque vous constatez que des appareils, des clients ou des navigateurs web
spécifiques contribuent au ralentissement des performances, nous vous recommandons
de créer un ticket de support via la page de support Power BI (indicateur de fin de
l’organigramme 6).
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article fournit des conseils aux créateurs de données et analyse qui gèrent leur
contenu tout au long de son cycle de vie dans Microsoft Fabric. L’article décrit
l’utilisation de l’intégration Git pour le contrôle de code source et des pipelines de
déploiement comme outil de mise en production. Pour obtenir des conseils généraux
sur la publication de contenu d’entreprise, consultez Publication de contenu
d’entreprise.
) Important
Préparation du contenu
Pour préparer au mieux votre contenu pour la gestion continue tout au long de son
cycle de vie, passez en revue les informations de cette section avant de :
Pour implémenter un workflow sécurisé et facile, planifiez qui a accès à chaque partie
des environnements utilisés, à la fois au dépôt Git et aux phases dev/test/prod dans un
pipeline. Quelques éléments à prendre en compte :
Développement
Cette section fournit des conseils pour travailler avec les pipelines de déploiement et les
adapter à votre stade de développement.
Assurez-vous que vous disposez d’un environnement isolé pour que les autres ne
remplacent pas votre travail avant sa validation. Cela signifie utiliser un outil de
bureau (comme VS Code , Power BI Desktop ou autre) ou un espace de travail
distinct auquel les autres utilisateurs ne peuvent pas accéder.
Validez dans une branche que vous avez créée et qu’aucun autre développeur
n’utilise. Si vous utilisez un espace de travail comme environnement de création,
découvrez comment utiliser des branches.
Bouton Annuler : l’opération Annuler est un moyen simple et rapide de rétablir les
modifications immédiates que vous avez apportées, tant qu’elles ne sont pas
encore validées. Vous pouvez également annuler chaque élément séparément. En
savoir plus sur l’opération d’annulation.
Étant donné que les données ne sont pas stockées dans Git, notez que le rétablissement
d’un élément de données à une version antérieure peut arrêter les données existantes et
éventuellement nécessiter votre suppression des données pour éviter l’échec de
l’opération. Vérifiez cela à l’avance avant de rétablir les modifications.
Création d’une branche : créez une branche à partir de la branche primaire afin de
disposer de la version la plus récente de votre contenu. Veillez également à vous
connecter au dossier approprié dans la branche, afin de pouvoir extraire le contenu
approprié dans l’espace de travail.
Les développeurs qui utilisent un outil client (comme VS Code, Power BI Desktop
ou autre) n’ont pas nécessairement besoin d’un espace de travail. Ils peuvent créer
des branches et valider les modifications apportées à cette branche localement, les
pousser vers le dépôt distant et créer une demande de tirage vers la branche main,
le tout sans espace de travail. Un espace de travail est nécessaire uniquement en
tant qu’environnement de test pour vérifier que tout fonctionne dans un scénario
réel. C’est à vous de décider quand cela devrait se produire.
Test
Cette section fournit des conseils pour travailler avec une étape de développement des
pipelines de test.
Assurez-vous que ces trois facteurs sont traités dans votre environnement de test :
Volume de données
Volume d’utilisation
Lors du test, vous pouvez utiliser la même capacité que l’étape de production. Toutefois,
l’utilisation de la même capacité peut rendre la production instable pendant le test de
charge. Pour éviter une production instable, utilisez une autre capacité similaire aux
ressources de la capacité de production. Pour éviter les coûts supplémentaires, utilisez
une capacité permettant de payer uniquement pour la durée du test.
Vous pouvez facilement trouver les éléments liés en utilisant l'analyse d'impact.
Étant donné que différents éléments ont des fonctionnalités différentes lorsqu’il s’agit
de conserver des données lorsque des modifications apportées à la définition sont
appliquées, soyez attentif lors de l’application des modifications. Voici quelques
pratiques qui peuvent vous aider à appliquer les modifications de la manière la plus
sûre :
Sachez à l’avance ce que sont les modifications et leur impact sur les données
existantes. Utilisez des messages de validation pour décrire les modifications
apportées.
Pour voir comment cet élément gère la modification avec des données test,
chargez les modifications en premier dans un environnement de test ou de
développement.
Test de l'application
Si vous distribuez du contenu à vos clients par le biais d’une application, passez en
revue la nouvelle version de l’application avant qu’elle ne soit en production. Comme
chaque étape du pipeline de déploiement a son propre espace de travail, vous pouvez
facilement publier et mettre à jour des applications à des stades de développement et
de test. La publication et la mise à jour d’applications vous permettent de tester
l’application du point de vue d’un utilisateur final.
) Important
Production
Cette section fournit des conseils pour l’étape de production des pipelines de
déploiement.
Veillez à définir des règles de déploiement de production pour les sources de données
et les paramètres définis dans le modèle sémantique.
Si vous utilisez un déploiement à partir de Git, nous vous recommandons de suivre les
pratiques décrites dans Adopter une stratégie de branches Git.
Contenu connexe
Tutoriel sur la gestion du cycle de vie de bout en bout
Démarrer avec l’intégration Git
Bien démarrer avec les pipelines de déploiement
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article s’adresse aux administrateurs Power BI qui doivent accéder aux sources de
données du journal d’activité de Power BI et les analyser. Il se concentre sur la
récupération par programmation d’activités Power BI à l’aide du cmdlet Get-
PowerBIActivityEvent à partir du module Gestion de Power BI. Il contient jusqu’à 30 jours
d’historique. Ce cmdlet utilise l’opération d’API REST Power BI Get Activity Events, qui
est une API d’administration. Les cmdlet PowerShell ajoutent une couche d’abstraction
au-dessus des API sous-jacentes. Par conséquent, le cmdlet PowerShell simplifie l’accès
au journal d’activité Power BI.
Conseil
Exemples disponibles
L’objectif de cet article est de vous fournir des exemples pour vous aider à démarrer. Les
exemples incluent des scripts qui récupèrent des données à partir du journal d’activité à
l’aide du module PowerShell de gestion Power BI.
2 Avertissement
Les scripts ne sont pas prêts pour la production, car ils sont destinés uniquement à
des fins éducatives. Toutefois, vous pouvez adapter les scripts à des fins de
production en ajoutant une logique pour la journalisation, la gestion des erreurs,
l’alerte et la refactorisation pour la réutilisation et la modularisation du code.
Comme ils sont destinés à l’apprentissage, les exemples sont simplistes, mais ils sont
réels. Nous vous recommandons de passer en revue tous les exemples pour
comprendre comment ils appliquent des techniques légèrement différentes. Une fois
que vous avez identifié le type de données d’activité dont vous avez besoin, vous
pouvez combiner et faire correspondre les techniques pour produire un script qui
correspond le mieux à vos besoins.
ノ Agrandir le tableau
Afficher une activité pendant N jours Partager un rapport (lien ou accès direct)
Afficher trois activités pendant N jours Créer une application, mettre à jour une
application et installer une application
Par souci de simplicité, la plupart des exemples affichent leur résultat à l’écran. Par
exemple, dans Visual Studio Code, les données sont sorties vers le panneau de
terminal , qui contient un jeu de données tampon en mémoire.
La plupart des exemples récupèrent des données JSON brutes. L’utilisation des données
JSON brutes présente de nombreux avantages.
Conseil
Nous vous recommandons de conserver vos scripts qui extraient des données aussi
simples que possible. Par conséquent, évitez d’analyser, de filtrer ou de mettre en
forme les données du journal d’activité au fur et à mesure qu’elles sont extraites.
Cette approche utilise une méthodologie ELT (Extract, Load, Transform) qui
comporte des étapes distinctes pour extraire, charger et transformer des données.
Cet article se concentre uniquement sur la première étape, qui concerne l’extraction
des données.
Configuration requise
Pour utiliser les scripts d’exemple, vous devez répondre aux exigences suivantes.
Outil client PowerShell : Utilisez votre outil préféré pour exécuter des commandes
PowerShell. Tous les exemples ont été testés à l’aide de l’extension PowerShell
pour Visual Studio Code avec PowerShell 7. Pour plus d’informations sur les outils
clients et les versions de PowerShell, consultez Audit au niveau du locataire.
Module Gestion de Power BI : Installez tous les modules PowerShell Power BI. Si
vous les avez déjà installés, nous vous recommandons de mettre à jour les
modules pour vous assurer que vous utilisez la dernière version publiée.
Rôle administrateur Fabric : Les exemples de scripts sont conçus pour utiliser un
flux d’authentification interactif. Par conséquent, l’utilisateur exécutant les
exemples de scripts PowerShell doit se connecter pour utiliser les API REST Power
BI. Pour récupérer les données du journal d’activité, l’utilisateur d’authentification
doit appartenir au rôle administrateur Power BI (car la récupération des
événements d’activité s’effectue avec une API d’administrateur). L’authentification
du principal de service est hors de portée pour ces exemples d’apprentissage.
Le reste de cet article comprend des exemples de scripts qui vous montrent différentes
façons de récupérer des données de journal d’activité.
Exemple 1 : S’authentifier auprès du service
Power BI
Toutes les opérations d’API REST Power BI nécessitent une connexion. L’authentification
(qui effectue la requête) et l’autorisation (ce que l’utilisateur a l’autorisation de faire)
sont gérées par la plateforme d’identités Microsoft. L’exemple suivant utilise le cmdlet
Connect-PowerBIServiceAccount à partir du module Gestion de Power BI. Ce cmdlet
prend en charge une méthode simple de connexion.
Exemple de requête 1
Le premier script vous redirige vers un navigateur pour terminer le processus de
connexion. Les comptes d’utilisateur pour lesquels l’authentification multifacteur (MFA)
est activée peuvent utiliser ce flux d’authentification interactif pour se connecter.
PowerShell
Connect-PowerBIServiceAccount
) Important
Conseil
Lors de l’extraction de données du journal d’activité à l’aide du cmdlet PowerShell,
chaque requête peut extraire des données pendant un jour (un maximum de 24
heures). Par conséquent, l’objectif de cet exemple est de commencer simplement
par vérifier un utilisateur pendant une journée. D’autres exemples plus loin dans cet
article vous montrent comment utiliser une boucle pour exporter des données
pendant plusieurs jours.
Exemple de requête 2
Ce script déclare deux variables PowerShell pour faciliter la réutilisation du script :
8601). Vous ne pouvez pas demander une date antérieure à 30 jours avant la date
actuelle.
PowerShell
7 Notes
Vous remarquerez peut-être un accent grave (`) à la fin de certaines lignes des
scripts PowerShell. Dans PowerShell, vous pouvez utiliser l’accent grave comme
caractère de continuation de ligne. Nous l’avons utilisé pour améliorer la lisibilité
des scripts de cet article.
Conseil
Dans le script, chacune des variables PowerShell est corrélée à une valeur de
paramètre obligatoire ou facultative dans le cmdlet Get-PowerBIActivityEvent. Par
exemple, la valeur que vous affectez à la variable $UserEmailAddr est passée au
paramètre -User . La déclaration de variables PowerShell de cette façon est une
approche légère pour éviter le codage en dur des valeurs qui pourraient changer
dans votre script. C’est une bonne habitude à adopter, et elle sera utile à mesure
que vos scripts deviennent plus complexes. Les paramètres PowerShell sont plus
robustes que les variables, mais ils ne sont pas concernés par cet article.
Exemple de réponse 2
Voici un exemple de réponse JSON. Il comprend deux activités effectuées par l’utilisateur
:
JSON
[
{
"Id": "10af656b-b5a2-444c-bf67-509699896daf",
"RecordType": 20,
"CreationTime": "2023-03-15T15:18:30Z",
"Operation": "ViewReport",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "100FFF92C7717B",
"Workload": "PowerBI",
"UserId": "jordan@contoso.com",
"ClientIP": "192.168.1.1",
"Activity": "ViewReport",
"ItemName": "Gross Margin Analysis",
"WorkSpaceName": "Sales Analytics",
"DatasetName": "Sales Data",
"ReportName": "Gross Margin Analysis",
"WorkspaceId": "e380d1d0-1fa6-460b-9a90-1a5c6b02414c",
"ObjectId": "Gross Margin Analysis",
"DatasetId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229",
"ReportId": "94e57e92-Cee2-486d-8cc8-218c97200579",
"ArtifactId": "94e57e92-Cee2-486d-8cc8-218c97200579",
"ArtifactName": "Gross Margin Analysis",
"IsSuccess": true,
"ReportType": "PowerBIReport",
"RequestId": "53451b83-932b-f0b0-5328-197133f46fa4",
"ActivityId": "beb41a5d-45d4-99ee-0e1c-b99c451e9953",
"DistributionMethod": "Workspace",
"ConsumptionMethod": "Power BI Web",
"SensitivityLabelId": "e3dd4e72-5a5d-4a95-b8b0-a0b52b827793",
"ArtifactKind": "Report"
},
{
"Id": "5c913f29-502b-4a1a-a089-232edaf176f7",
"RecordType": 20,
"CreationTime": "2023-03-15T17:22:00Z",
"Operation": "ExportActivityEvents",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 2,
"UserKey": "100FFF92C7717B",
"Workload": "PowerBI",
"UserId": "jordan@contoso.com",
"ClientIP": "192.168.1.1",
"UserAgent": "MicrosoftPowerBIMgmt/1.2.1111.0",
"Activity": "ExportActivityEvents",
"IsSuccess": true,
"RequestId": "2af6a22d-6f24-4dc4-a26a-5c234ab3afad",
"ActivityId": "00000000-0000-0000-0000-000000000000",
"ExportEventStartDateTimeParameter": "2023-03-17T00:00:00Z",
"ExportEventEndDateTimeParameter": "2023-03-17T23:59:59.999Z"
}
]
Conseil
Exemple de requête 3
Le script déclare deux variables :
$NbrOfDaysToCheck : nombre de jours que vous souhaitez vérifier. Elle effectue une
PowerShell
Conseil
Vous pouvez utiliser cette technique de boucle pour vérifier toutes les opérations
enregistrées dans le journal d’activité.
Exemple de réponse 3
Voici un exemple de réponse JSON. Il comprend deux activités effectuées par l’utilisateur
:
La première activité montre qu’un lien de partage a été créé pour un utilisateur.
Notez que la valeur SharingAction diffère selon que l’utilisateur a créé, modifié ou
supprimé un lien. Par souci de concision, un seul type d’activité concernant le lien
de partage s’affiche dans la réponse.
La deuxième activité montre qu’un partage d’accès direct a été créé pour un
groupe. Notez que la valeur SharingInformation diffère selon l’action effectuée. Par
souci de concision, un seul type d’activité concernant le partage d’accès direct
s’affiche dans la réponse.
JSON
[
{
"Id": "be7506e1-2bde-4a4a-a210-bc9b156142c0",
"RecordType": 20,
"CreationTime": "2023-03-15T19:52:42Z",
"Operation": "ShareReport",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "900GGG12D2242A",
"Workload": "PowerBI",
"UserId": "morgan@contoso.com",
"ClientIP": "192.168.1.1",
"UserAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0)
Gecko/20100101 Firefox/110.0",
"Activity": "ShareReport",
"ItemName": "Call Center Stats",
"WorkSpaceName": "Sales Analytics",
"SharingInformation": [
{
"RecipientEmail": "ellis@contoso.com",
"RecipientName": "Turner",
"ObjectId": "fc9bbc6c-e39b-44cb-9c8a-d37d5665ec57",
"ResharePermission": "ReadReshare",
"UserPrincipalName": "ellis@contoso.com"
}
],
"WorkspaceId": "e380d1d0-1fa6-460b-9a90-1a5c6b02414c",
"ObjectId": "Call Center Stats",
"Datasets": [
{
"DatasetId": "fgagrwa3-9044-3e1e-228f-k24bf72gg995",
"DatasetName": "Call Center Data"
}
],
"ArtifactId": "81g22w11-vyy3-281h-1mn3-822a99921541",
"ArtifactName": "Call Center Stats",
"IsSuccess": true,
"RequestId": "7d55cdd3-ca3d-a911-5e2e-465ac84f7aa7",
"ActivityId": "4b8b53f1-b1f1-4e08-acdf-65f7d3c1f240",
"SharingAction": "CreateShareLink",
"ShareLinkId": "J_5UZg-36m",
"ArtifactKind": "Report",
"SharingScope": "Specific People"
},
{
"Id": "b4d567ac-7ec7-40e4-a048-25c98d9bc304",
"RecordType": 20,
"CreationTime": "2023-03-15T11:57:26Z",
"Operation": "ShareReport",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "900GGG12D2242A",
"Workload": "PowerBI",
"UserId": "morgan@contoso.com",
"ClientIP": "69.132.26.0",
"UserAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0)
Gecko/20100101 Firefox/111.0",
"Activity": "ShareReport",
"ItemName": "Gross Margin Analysis",
"WorkSpaceName": "Sales Analytics",
"SharingInformation": [
{
"RecipientName": "SalesAndMarketingGroup-NorthAmerica",
"ObjectId": "ba21f28b-6226-4296-d341-f059257a06a7",
"ResharePermission": "Read"
}
],
"CapacityId": "1DB44EEW-6505-4A45-B215-101HBDAE6A3F",
"CapacityName": "Shared On Premium - Reserved",
"WorkspaceId": "e380d1d0-1fa6-460b-9a90-1a5c6b02414c",
"ObjectId": "Gross Margin Analysis",
"Datasets": [
{
"DatasetId": "cfafbeb1-8037-4d0c-896e-a46fb27ff229",
"DatasetName": "Sales Data"
}
],
"ArtifactId": "94e57e92-Cee2-486d-8cc8-218c97200579",
"ArtifactName": "Gross Margin Analysis",
"IsSuccess": true,
"RequestId": "82219e60-6af0-0fa9-8599-c77ed44fff9c",
"ActivityId": "1d21535a-257e-47b2-b9b2-4f875b19855e",
"SensitivityLabelId": "16c065f5-ba91-425e-8693-261e40ccdbef",
"SharingAction": "Direct",
"ArtifactKind": "Report",
"SharingScope": "Specific People"
}
]
7 Notes
Cette réponse JSON montre que la structure des données est différente en fonction
du type d’événement. Même le même type d’événement peut avoir des
caractéristiques différentes qui produisent une sortie légèrement différente.
Comme recommandé plus haut dans cet article, vous devez vous habituer à
récupérer les données brutes.
Exemple de requête 4
Le script déclare les variables suivantes :
$NbrOfDaysToCheck : nombre de jours que vous souhaitez vérifier. Elle effectue une
boucle qui fonctionne en arrière à partir du jour actuel. La valeur maximale
autorisée est de 30 jours (car la date la plus ancienne que vous pouvez récupérer
se situe 30 jours avant le jour actuel).
$Activity1 : nom de l’opération pour l’activité que vous examinez. Dans cet
Vous ne pouvez récupérer des événements d’activité que pour une seule activité à la
fois. Par conséquent, le script recherche chaque opération séparément. Il combine les
résultats de la recherche en une variable nommée $FullResults , qu’il affiche ensuite à
l’écran.
U Attention
7 Notes
Pour récupérer les résultats du jour précédent uniquement (en évitant les résultats
partiels de la journée), consultez l’exemple Exporter toutes les activités des N jours
précédents.)
PowerShell
#Get activity 1 and append its results into the full resultset:
$Activity1Results = @()
$Activity1Results += Get-PowerBIActivityEvent `
-StartDateTime ($ActivityDate+'T00:00:00.000') `
-EndDateTime ($ActivityDate+'T23:59:59.999') `
-ActivityType $Activity1 | ConvertFrom-Json
If ($null -ne $Activity1Results) {$FullResults += $Activity1Results}
#Get activity 2 and append its results into the full resultset:
$Activity2Results = @()
$Activity2Results += Get-PowerBIActivityEvent `
-StartDateTime ($ActivityDate+'T00:00:00.000') `
-EndDateTime ($ActivityDate+'T23:59:59.999') `
-ActivityType $Activity2 |
ConvertFrom-Json
If ($null -ne $Activity2Results) {$FullResults += $Activity2Results}
#Get activity 3 and append its results into the full resultset:
$Activity3Results = @()
$Activity3Results += Get-PowerBIActivityEvent `
-StartDateTime ($ActivityDate+'T00:00:00.000') `
-EndDateTime ($ActivityDate+'T23:59:59.999') `
-ActivityType $Activity3 |
ConvertFrom-Json
If ($null -ne $Activity3Results) {$FullResults += $Activity3Results}
}
#Convert all of the results back to a well-formed JSON object:
$FullResults = $FullResults | ConvertTo-Json
Exemple de réponse 4
Voici un exemple de réponse JSON. Il comprend trois activités effectuées par l’utilisateur
:
2 Avertissement
La réponse inclut uniquement les autorisations utilisateur qui ont été modifiées. Par
exemple, il est possible que trois audiences ont été créées dans un événement
CreateApp. Dans l’événement UpdateApp, si une seule audience a changé, une seule
audience apparaît dans les données OrgAppPermission. Pour cette raison, le fait de
s’appuyer sur l’événement UpdateApp pour le suivi de toutes les autorisations
d’application ne suffit pas, car le journal d’activité affiche uniquement ce qui a
changé.
JSON
[
{
"Id": "65a26480-981a-4905-b3aa-cbb3df11c7c2",
"RecordType": 20,
"CreationTime": "2023-03-15T18:42:13Z",
"Operation": "CreateApp",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "100FFF92C7717B",
"Workload": "PowerBI",
"UserId": "jordan@contoso.com",
"ClientIP": "192.168.1.1",
"UserAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0)
Gecko/20100101 Firefox/111.0",
"Activity": "CreateApp",
"ItemName": "Sales Reconciliations App",
"WorkSpaceName": "Sales Reconciliations",
"OrgAppPermission": {
"recipients": "Sales Reconciliations App(Entire Organization)",
"permissions": "Sales Reconciliations App(Read,CopyOnWrite)"
},
"WorkspaceId": "9325a31d-067e-4748-a592-626d832c8001",
"ObjectId": "Sales Reconciliations App",
"IsSuccess": true,
"RequestId": "ab97a4f1-9f5e-4a6f-5d50-92c837635814",
"ActivityId": "9bb54a9d-b688-4028-958e-4d7d21ca903a",
"AppId": "42d60f97-0f69-470c-815f-60198956a7e2"
},
{
"Id": "a1dc6d26-b006-4727-bac6-69c765b7978f",
"RecordType": 20,
"CreationTime": "2023-03-16T18:39:58Z",
"Operation": "UpdateApp",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "100GGG12F9921B",
"Workload": "PowerBI",
"UserId": "morgan@contoso.com",
"ClientIP": "192.168.1.1",
"UserAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0)
Gecko/20100101 Firefox/111.0",
"Activity": "UpdateApp",
"ItemName": "Sales Analytics",
"WorkSpaceName": "Sales Analytics",
"OrgAppPermission": {
"recipients": "Sales Reps Audience(SalesAndMarketingGroup-
NorthAmerica,SalesAndMarketingGroup-Europe)",
"permissions": "Sales Reps Audience(Read,CopyOnWrite)"
},
"WorkspaceId": "c7bffcd8-8156-466a-a88f-0785de2c8b13",
"ObjectId": "Sales Analytics",
"IsSuccess": true,
"RequestId": "e886d122-2c09-4189-e12a-ef998268b864",
"ActivityId": "9bb54a9d-b688-4028-958e-4d7d21ca903a",
"AppId": "c03530c0-db34-4b66-97c7-34dd2bd590af"
},
{
"Id": "aa002302-313d-4786-900e-e68a6064df1a",
"RecordType": 20,
"CreationTime": "2023-03-17T18:35:22Z",
"Operation": "InstallApp",
"OrganizationId": "927c6607-8060-4f4a-a5f8-34964ac78d70",
"UserType": 0,
"UserKey": "100HHH12F4412A",
"Workload": "PowerBI",
"UserId": "ellis@contoso.com",
"ClientIP": "192.168.1.1",
"UserAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0)
Gecko/20100101 Firefox/111.0",
"Activity": "InstallApp",
"ItemName": "Sales Reconciliations App",
"ObjectId": "Sales Reconciliations App",
"IsSuccess": true,
"RequestId": "7b3cc968-883f-7e13-081d-88b13f6cfbd8",
"ActivityId": "9bb54a9d-b688-4028-958e-4d7d21ca903a"
}
]
Exemple de requête 5
Le script déclare deux variables :
pouvez pas demander une date antérieure à 30 jours avant la date actuelle.
$WorkspaceName : nom de l’espace de travail qui vous intéresse.
Ce script stocke les résultats dans la variable $Results . Il convertit ensuite les données
JSON en objet afin que les résultats puissent être analysés. Puis, il filtre les résultats pour
récupérer cinq colonnes spécifiques. Les données CreationTime sont renommées
ActivityDateTime. Les résultats sont filtrés par le nom de l’espace de travail, puis affichés
à l’écran.
U Attention
Si vous êtes dans une grande organisation avec des centaines ou des milliers
d’activités par jour, le filtrage des résultats une fois qu’ils ont été récupérés peut
être très inefficace. Gardez à l’esprit que l’opération Obtenir les événements
d’activité est limitée à 200 requêtes par heure.
Pour éviter la limitation des API (lorsque vous dépassez le nombre de requêtes que
vous êtes autorisé à effectuer au cours d’une période donnée), ne récupérez pas les
données d’origine plus que nécessaire. Vous pouvez continuer à travailler avec les
résultats filtrés sans exécuter le script pour récupérer à nouveau les résultats. En cas
de besoins continus, il est préférable d’extraire toutes les données une fois par jour,
puis de les interroger plusieurs fois.
PowerShell
Exemple de réponse 5
Voici les résultats filtrés, qui incluent un petit sous-ensemble de propriétés. Le format est
plus facile à lire pour une analyse occasionnelle. Toutefois, nous vous recommandons de
le convertir de nouveau au format JSON si vous envisagez de stocker les résultats.
7 Notes
Après avoir converti les résultats JSON en objet PowerShell, les valeurs d’heure sont
converties en heure locale. Les données d’audit d’origine étant toujours
enregistrées en heure UTC (Temps universel coordonné), nous vous recommandons
de vous habituer à utiliser uniquement l’heure UTC.
Output
Conseil
Vous pouvez utiliser cette technique pour filtrer les résultats par n’importe quelle
propriété. Par exemple, vous pouvez utiliser un événement RequestId spécifique
pour analyser seulement un événement spécifique.
) Important
Exemple de requête 6
Le script récupère toutes les activités pendant une série de jours. Il déclare trois
variables :
effectue une boucle qui fonctionne en arrière à partir du jour actuel. La valeur
maximale autorisée est de 30 jours (car la date la plus ancienne que vous pouvez
récupérer se situe 30 jours avant le jour actuel).
$ExportFileLocation : chemin d’accès au dossier dans lequel vous souhaitez
enregistrer les fichiers. Le dossier doit exister avant d’exécuter le script. N’incluez
pas de caractère barre oblique inverse (\) à la fin du chemin du dossier (car il est
automatiquement ajouté au moment de l’exécution). Nous vous recommandons
d’utiliser un dossier distinct pour stocker des fichiers de données brutes.
$ExportFileName : préfixe de chaque nom de fichier. Étant donné qu’un fichier par
jour est enregistré, le script ajoute un suffixe pour indiquer les données contenues
dans le fichier, ainsi que la date et l’heure de récupération des données. Par
exemple, si vous avez exécuté un script à 9 h (UTC) le 25 avril 2023 pour extraire
des données d’activité pour le 23 avril 2023, le nom de fichier serait :
PBIActivityEvents-20230423-202304250900. Bien que la structure de dossiers dans
laquelle il est stocké soit utile, chaque nom de fichier doit être entièrement
autodéscriptif.
Nous vous recommandons d’extraire des données au moins un jour avant le jour actuel.
De cette façon, vous évitez de récupérer des événements d’une journée partielle et vous
pouvez être sûr que chaque fichier d’exportation contient les 24 heures complètes de
données.
Le script collecte jusqu’à 30 jours de données, jusqu’au jour précédent. Les horodatages
pour les événements audités sont toujours en heure UTC. Nous vous recommandons de
générer tous vos processus d’audit en fonction de l’heure UTC plutôt que de votre heure
locale.
Le script produit un fichier JSON par jour. Le suffixe du nom de fichier inclut
l’horodatage (au format UTC) des données extraites. Si vous extrayez plusieurs fois des
données le même jour, le suffixe dans le nom de fichier vous aide à identifier le fichier le
plus récent.
PowerShell
#Start with yesterday for counting back to ensure full day results are
obtained:
[datetime]$DayUTC = (([datetime]::Today.ToUniversalTime()).Date).AddDays(-1)
[string]$DateToExtractLabel=$DateToExtractUTC.ToString("yyyy-MM-dd")
Le cmdlet vous permet de demander un jour d’activité chaque fois que vous
effectuez un appel à l’aide du cmdlet. Au contraire, lorsque vous communiquez
directement avec l’API, vous ne pouvez demander qu’une heure par requête d’API.
Le cmdlet gère les jetons de continuation. Si vous utilisez l’API directement, vous
devez vérifier le jeton de continuation pour déterminer s’il existe d’autres résultats
à venir. Certaines API doivent utiliser des jetons de pagination et de continuation
pour des raisons de performances lorsqu’elles retournent une grande quantité de
données. Elles retournent le premier jeu d’enregistrements, puis avec un jeton de
continuation, vous pouvez effectuer un appel d’API pour récupérer le jeu
d’enregistrements suivant. Continuez à appeler l’API jusqu’à ce qu’aucun jeton de
continuation ne soit retourné. L’utilisation du jeton de continuation est un moyen
de consolider plusieurs requêtes d’API afin de pouvoir consolider un ensemble
logique de résultats. Pour obtenir un exemple d’utilisation de jeton de
continuation, consultez Evènements d’activité d’API REST.
L’applet de commande gère les expirations des jetons d’accès Microsoft Entra ID
(précédemment Azure Active Directory). Une fois que vous êtes authentifié, votre
jeton d’accès expire au bout d’une heure (par défaut). Dans ce cas, le cmdlet
demande automatiquement un jeton d’actualisation pour vous. Si vous
communiquez directement avec l’API, vous devez demander un jeton
d’actualisation.
Pour plus d’informations, consultez Choisir des API ou des applets de commande
PowerShell.
7 Notes
Un exemple de réponse est omis, car il s’agit d’une sortie similaire aux réponses
présentées dans les exemples précédents.
Contenu connexe
Pour plus d’informations en rapport avec cet article, consultez les ressources suivantes :
Les clients standardisent de plus en plus Power BI pour piloter une culture des données,
ce qui implique d’activer une informatique décisionnelle libre-service gérée (SSBI), de
rationaliser la remise d’une informatique décisionnelle d’entreprise et de traiter les
pressions économiques. L’objectif de cette série d’articles sur la migration vers Power BI
est de vous fournir des conseils pour planifier et réaliser une migration depuis un outil
décisionnel tiers vers Power BI.
7 Notes
Phase Description
Installer et évaluer Power BI. La première phase implique d’établir l’architecture initiale
de Power BI. Le déploiement préliminaire et la planification de la gouvernance sont
traités à ce stade, ainsi que les évaluations de Power BI, notamment son retour sur
investissement et/ou l’analyse coûts-avantages.
Créer rapidement des solutions dans Power BI. Pendant la deuxième phase, les auteurs
de contenu décisionnel libre-service peuvent commencer à utiliser et évaluer Power BI
pour répondre à leurs besoins, puis obtenir rapidement une valeur ajoutée de Power BI.
Les activités de la phase 2 attachent beaucoup d’importance à la souplesse et la valeur
métier rapide, ce qui est essentiel pour faire accepter la sélection d’un nouvel outil
décisionnel comme Power BI. C’est pourquoi, dans l’illustration, les activités de la phase 2
se produisent de concert avec les activités de migration de la phase 3.
Adopter, contrôler et superviser Power BI. La phase finale comprend des activités
permanentes comme l’entretien d’une culture des données, la communication et la
formation. Ces activités exercent un impact considérable sur une implémentation de
Power BI efficace. Il est important d’avoir des stratégies et processus de gouvernance et
de sécurité appropriés à votre organisation, ainsi que des audits et des supervisions pour
faciliter la mise à échelle, la croissance et les améliorations en continu.
) Important
Une migration formelle vers Power BI se produit presque toujours en parallèle avec
le développement d’une nouvelle solution Power BI. Une solution Power BI est un
terme générique qui englobe l’utilisation à la dois des données et des rapports. Un
simple fichier Power BI Desktop (pbix) peut contenir un modèle de données ou un
rapport, ou les deux. La séparation entre le modèle de données et les rapports est
encouragée à des fins de réutilisabilité des données, mais elle n’est pas obligatoire.
L’utilisation de Power BI pour créer des exigences, quand vous planifiez et déroulez
la migration formelle, vous permet d’en obtenir l’assentiment. Les phases
simultanées offrent aux auteurs de contenu une expérience pratique et concrète
avec Power BI.
Étapes de prémigration
Étape 1 : Déterminer les besoins et hiérarchiser
Étape 2 : Planifier le déploiement
Étape 3 : Exécuter une preuve de concept
Étape 4 : Créer et valider du contenu
Étape 5 : Déployer, assister et superviser
Étapes de prémigration
Les étapes de pré-migration incluent des actions que vous devriez envisager avant de
commencer un projet de migration de contenu d’une ancienne plateforme décisionnelle
vers Power BI. Cela comprend généralement la planification initiale du déploiement au
niveau du locataire. Pour plus d’informations sur ces activités, consultez Préparer la
migration vers Power BI.
Conseil
La plupart des concepts décrits dans cette série d’articles sur la migration Power BI
s’appliquent aussi à un projet d’implémentation de Power BI standard.
Remerciements
Cette série d’articles a été écrite par Melissa Coates, MVP des plateformes de données
et propriétaire de Coates Data Strategies . Les contributeurs et réviseurs sont les
suivants : Marc Reguera, Venkatesh Titte, Patrick Baumgartner, Tamer Farag, Richard
Tkachuk, Matthew Roche, Adam Saxton, Chris Webb, Mark Vaillancourt, Daniel Rubiolo,
David Iseminger et Peter Myers.
Contenu connexe
Dans l’article suivant de cette série sur la migration Power BI, découvrez les étapes de
prémigration.
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit les actions que vous pouvez entreprendre avant de commencer la
migration vers Power BI.
7 Notes
Les étapes de prémigration mettent l’accent sur la planification initiale, qui est une
préparation importante avant de passer aux cinq étapes de la migration. La plupart des
étapes de prémigration sont à effectuer une seule fois. Toutefois, dans les grandes
organisations, certaines opérations peuvent devoir être réitérées pour chaque division
ou service.
Conseil
La plupart des sujets abordés dans cet article s’appliquent également à tout projet
d’implémentation standard de Power BI.
Créer une analyse et une évaluation des
coûts/avantages
Plusieurs choses importantes sont à faire lors de l’évaluation initiale, notamment :
Conseil
) Important
Le modèle de gouvernance le plus performant est celui qui trouve le juste équilibre
entre l’autonomisation des utilisateurs et le niveau de contrôle nécessaire. Pour
plus d’informations, consultez Discipline au niveau de la base et Flexibilité en
périphérie.
Voici des éléments critiques à définir dès le départ dans une implémentation Power BI :
Les décisions relatives aux paramètres du locataire Power BI, qui doivent être
documentées.
Les décisions liées à la gestion des espaces de travail, qui doivent être
documentées.
Les considérations et les préférences ayant trait aux données et aux méthodes de
distribution du contenu, comme les applications, les espaces de travail, le partage,
les abonnements et l’incorporation de contenu.
Préférences liées aux modes de modèles sémantiques, précédemment appelés
modes de jeux de données, telles que l’utilisation du mode Importer, du mode
DirectQuery ou la combinaison des deux modes dans un modèle composite.
La sécurisation des données et des accès.
Utilisation de modèles sémantiques partagés pour la réutilisation.
L’application d’une certification des données pour promouvoir l’utilisation de
données faisant autorité et jugées fiables.
L’utilisation de différents types de rapports, parmi lesquels les rapports Power BI,
les rapports Excel ou les rapports paginés selon les cas d’usage ou les divisions.
Les approches de gestion des changements pour les éléments BI centralisés et les
éléments BI gérés par l’entreprise.
Les plans de formation destinés aux consommateurs, aux modélisateurs de
données, aux auteurs de rapports et aux administrateurs.
Le support mis à la disposition des auteurs de contenu au moyen de modèles
Power BI Desktop, de visuels personnalisés et de standards documentés pour la
conception des rapports.
Les procédures et processus pour répondre aux besoins des utilisateurs, comme la
demande de nouvelles licences, l’ajout de nouvelles sources de données de
passerelle, l’obtention d’une autorisation d’accès aux sources de données de
passerelle, la demande de nouveaux espaces de travail, les modifications des
autorisations sur les espaces de travail et diverses autres exigences courantes
souvent observées.
) Important
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Quels sont les motivations et les objectifs sous-jacents à cette migration ? Pour
plus d’informations, consultez Vue d’ensemble de la migration vers Power BI
(section sur les motifs de la migration à prendre en compte). Cet article décrit les
motifs les plus fréquents d’une migration vers Power BI. Vous devez bien sûr définir
vos objectifs au niveau de l’organisation. En fait, la migration peut avoir des
objectifs différents : telle solution décisionnelle héritée est migrée pour faire des
économies substantielles, tandis que telle autre solution décisionnelle héritée l’est
principalement pour optimiser le workflow.
Quels sont les coûts/avantages ou le ROI attendus pour cette migration ? Pour
mesurer la réussite, il est utile d’avoir une compréhension claire des attentes en
matière de coûts, d’accroissement des capacités, de simplification ou d’une plus
grande agilité. Cela peut vous aider à établir des principes directeurs qui
faciliteront la prise de décision pendant le processus de migration.
Quels indicateurs de performance clés (KPI) seront utilisés pour mesurer la
réussite ? Voici quelques exemples d’indicateurs de performance clés :
Nombre de rapports générés à partir d’une plateforme décisionnelle héritée, en
baisse d’un mois sur l’autre.
Nombre de rapports générés à partir de Power BI, en hausse d’un mois sur
l’autre.
Nombre de consommateurs de rapports Power BI, en hausse d’un trimestre sur
l’autre.
Pourcentage de rapports migrés en production par date cible.
Réduction des coûts de licences d’une année sur l’autre.
Conseil
1. Inventaire des rapports : dressez une liste des rapports et des tableaux de bord
susceptibles d’être migrés.
2. Inventaire des sources de données : dressez une liste de toutes les sources de
données auxquelles les rapports existants accèdent. Cet inventaire doit inclure
aussi bien les sources de données générales de l’entreprise que les sources de
données spécifiques des services et des utilisateurs. Ce processus peut découvrir
des sources de données inconnues du service informatique (ce que l’on désigne
souvent sous le terme de Informatique fantôme).
3. Journal d’audit : récupérez les données du journal d’audit de la plateforme
décisionnelle héritée pour comprendre les modèles d’usage et établir plus
facilement les priorités. Les informations importantes à prendre du journal d’audit
sont :
7 Notes
La plupart du temps, le contenu n’est pas migré en l’état vers Power BI. La
migration représente une occasion de repenser l’architecture des données et/ou
d’améliorer la livraison des rapports. La compilation d’un inventaire des rapports
est cruciale pour savoir ce qui existe déjà et commencer à évaluer ce qui aurait
besoin d’être remanié. Les autres articles de cette série décrivent les améliorations
possibles plus en détail.
Contenu connexe
Dans l’article suivant de cette série sur la migration vers Power BI, découvrez l’étape 1,
qui concerne la collecte et la hiérarchisation des exigences pour la migration vers
Power BI.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit l’étape 1, qui concerne la collecte et la hiérarchisation des exigences
pour la migration vers Power BI.
7 Notes
) Important
Conseil
La plupart des sujets abordés dans cet article s’appliquent également à tout projet
d’implémentation standard de Power BI.
Conseil
) Important
La réutilisation des données est possible avec des modèles sémantiques partagés,
qui peuvent éventuellement être certifiés pour indiquer la fiabilité et améliorer la
détectabilité. Vous pouvez réutiliser la préparation des données avec des flux de
données pour réduire la logique répétitive dans plusieurs modèles sémantiques.
Les flux de données permettent aussi de diminuer considérablement la charge sur
les systèmes sources car les données sont récupérées moins souvent ; plusieurs
modèles sémantiques peuvent donc importer des données à partir du même flux
de données.
7 Notes
Contenu connexe
Dans l’article suivant de cette série sur la migration vers Power BI, découvrez l’étape 2,
qui concerne la planification de la migration pour une solution Power BI unique.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit l’étape 2, qui concerne la planification de la migration d’une solution
Power BI unique.
7 Notes
L’objectif de l’étape 2 est de définir la manière dont les exigences établies à l’étape 1
seront appliquées pour migrer une solution vers Power BI.
La prise de décision est ici un processus itératif et non linéaire. Une partie de la
planification aura déjà été effectuée lors des étapes de prémigration. Les enseignements
d’une preuve de concept (voir l’étape 3) peuvent être obtenus en parallèle de la
planification du déploiement. Même pendant la création de la solution (décrite à
l’étape 4), des informations supplémentaires peuvent faire surface et influencer les
décisions liées au déploiement.
) Important
Conseil
Les sujets abordés dans cet article s’appliquent également à tout projet
d’implémentation standard de Power BI.
U Attention
Si vous êtes tenté de vous servir de fichiers Power BI Desktop stockés dans un
système de fichiers, sachez qu’il ne s’agit pas d’une approche optimale. Le recours
au service Power BI (ou à Power BI Report Server) présente des avantages
significatifs pour la sécurité, la distribution du contenu et la collaboration. La
possibilité d’auditer et de surveiller les activités est un autre avantage du service
Power BI.
Conseil
Une application Power BI (qui comprend des rapports et des tableaux de bord
issus d’un seul espace de travail) est-elle le meilleur moyen de livrer du contenu
aux consommateurs, ou l’accès direct à un espace de travail est-il suffisant pour les
lecteurs de contenu ?
Certains rapports et tableaux de bord seront-ils incorporés ailleurs, par exemple
dans Teams, SharePoint Online, ou un portail ou site web sécurisé ?
Les consommateurs accéderont-ils au contenu sur des appareils mobiles ? La
configuration requise pour livrer des rapports sur des petits appareils influencera
certaines décisions de conception des rapports.
U Attention
La fonctionnalité Enregistrer une copie est très utile, mais elle doit être utilisée avec
précaution lorsque le rapport contient des graphismes ou des messages avec en-
tête/pied de page. Étant donné que les logos, les icônes et les messages textuels
sont souvent associés à des besoins de personnalisation ou de conformité
réglementaire, il est important de contrôler soigneusement la manière dont ils sont
livrés et distribués. Si la fonctionnalité Enregistrer une copie est utilisée, mais que les
graphismes ou les messages avec en-tête/pied de page d’origine ne sont pas
modifiés par le nouvel auteur, cela peut entraîner une confusion sur qui a
initialement créé le rapport. Cela peut également limiter l’intérêt de la
personnalisation.
) Important
Contenu accessible aux consommateurs qui n’ont pas de licence Power BI Pro ou
Premium par utilisateur.
Prise en charge des modèles sémantiques volumineux.
Actualisations des données plus fréquentes.
Utilisation possible de l’ensemble complet de dataflows.
Fonctionnalités d’entreprise, y compris les pipelines de déploiement et le point de
terminaison XMLA.
) Important
Conseil
Contenu connexe
Dans l’article suivant de cette série sur la migration vers Power BI, découvrez l’étape 3,
qui concerne la création d’une preuve de concept pour atténuer les risques et résoudre
les inconnues le plus tôt possible durant la migration vers Power BI.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit l’étape 3, qui a trait à l’exécution d’une preuve de concept (POC) pour
atténuer les risques et résoudre les problèmes inconnus le plus tôt possible lors de la
migration vers Power BI.
7 Notes
L’objectif de l’étape 3 est de traiter les problèmes inconnus et d’atténuer les risques le
plus tôt possible. Une preuve de concept technique s’avère utile pour valider des
hypothèses. Elle peut être exécutée de manière itérative en même temps que la
planification du déploiement de la solution (décrite à l’étape 2).
Le résultat de cette étape est une solution Power BI dont l’étendue est limitée, qui traite
les questions ouvertes initiales et qui est prête pour le travail supplémentaire de
l’étape 4 visant à sa mise en production.
) Important
Notre intention n’est pas que la preuve de concept soit un travail supprimable.
Nous pensons plutôt qu’il s’agit d’une itération précoce de la solution prête pour la
production. Dans votre organisation, vous pouvez considérer cette activité comme
un prototype, un pilote, une maquette, un démarrage rapide ou un produit à
viabilité minimale. L’exécution d’une preuve de concept n’est pas toujours
nécessaire et peut même se produire de manière informelle.
Conseil
La plupart des sujets abordés dans cet article s’appliquent également à un projet
d’implémentation standard de Power BI. À mesure que votre organisation acquiert
de l’expérience avec Power BI, la nécessité d’exécuter des preuves de concept
diminue. Toutefois, en raison de la cadence de publication rapide de Power BI et de
l’introduction continue de nouvelles fonctionnalités, vous pouvez exécuter
régulièrement des preuves de concept techniques à des fins d’apprentissage.
La plupart du temps, avec une migration, les exigences sont bien connues parce qu’il
existe une solution existante à partir de laquelle commencer. En revanche, en fonction
du degré des améliorations à apporter ou des compétences Power BI existantes, une
preuve de concept apporte quand même une valeur ajoutée importante. De plus, un
prototypage rapide avec des commentaires des consommateurs peut s’avérer utile pour
clarifier rapidement les exigences, en particulier si des améliorations sont apportées.
) Important
Même si une preuve de concept n’utilise qu’une partie des données, ou si elle
inclut uniquement des visuels limités, il est souvent important de l’exécuter du
début à la fin. Autrement dit, du développement dans Power BI Desktop au
déploiement sur un espace de travail de développement dans le service Power BI.
C’est la seule façon d’atteindre complètement les objectifs de la preuve de concept.
Cela se vérifie particulièrement quand le service Power BI doit fournir des
fonctionnalités critiques que vous n’avez pas utilisées auparavant, comme un
modèle sémantique DirectQuery utilisant l’authentification unique. Pendant la
preuve de concept, concentrez vos efforts sur les aspects sur lesquels vous n’avez
pas de certitudes ou que vous avez besoin de vérifier auprès d’autres personnes.
Si vous effectuez une migration à partir d’une ancienne plateforme décisionnelle dans
laquelle les rapports font référence à des sources de données relationnelles à l’aide de
requêtes SQL ou de procédures stockées, et si vous envisagez d’utiliser Power BI en
mode DirectQuery, vous avez des chances de réussir une migration individuelle du
modèle de données.
U Attention
Si vous voyez qu’un grand nombre de fichiers Power BI Desktop comprenant une
seule table importée sont créés, cela indique en général que la conception n’est pas
optimale. Si vous rencontrez ce cas, déterminez si l’utilisation de modèles
sémantiques partagés créés à l’aide d’une conception de schéma en étoile permet
d’obtenir un meilleur résultat.
1. Le tableau de bord hérité peut être recréé sous forme de rapport Power BI. La
plupart des rapports sont créés avec Power BI Desktop. Les rapports paginés et les
rapports Excel sont des options alternatives, également.
2. Le tableau de bord hérité peut être recréé sous forme de tableau de bord Power BI.
Les tableaux de bord sont une fonctionnalité de visualisation du service Power BI.
Les visuels de tableau de bord sont souvent créés en épinglant des visuels issus
d’un ou plusieurs rapports, de Questions et réponses ou de Quick Insights.
Conseil
Étant donné que les tableaux de bord sont un type de contenu Power BI, évitez
d’utiliser le mot tableau de bord dans le nom du rapport ou du tableau de bord.
Quand vous recréez des visuels de rapport, concentrez-vous davantage sur les questions
métier globales traitées par le rapport. La tentation de répliquer la conception de
chaque visuel exactement de la même façon est ainsi oubliée. Alors que les
consommateurs de contenu apprécient la cohérence des rapports migrés, il est
important de ne pas se perdre dans des débats chronophages sur des détails peu
importants.
Contenu connexe
Dans l’article suivant de cette série sur la migration vers Power BI, découvrez l’étape 4,
qui concerne la création et la validation du contenu.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article décrit l’étape 4, qui a trait à la création et à la validation du contenu lors de la
migration vers Power BI.
7 Notes
Le résultat de cette étape est une solution Power BI qui a été validée dans un espace de
travail de développement et qui est prête pour le déploiement en production.
Conseil
La plupart des sujets abordés dans cet article s’appliquent également à tout projet
d’implémentation standard de Power BI.
Dans l’idéal, commencez par découpler le travail de développement des données et des
rapports. Le découplage des données et des rapports facilitera la séparation du travail et
des autorisations, quand différentes personnes sont responsables de la modélisation
des données et des rapports. Il offre une approche plus évolutive et encourage la
réutilisation des données.
Obtenir des données à partir d’une ou plusieurs sources de données (par exemple,
un flux de données Power BI).
Mettre en forme, combiner et préparer des données.
Créer le modèle sémantique, y compris des tables de dates.
Créer et vérifier les relations de modèles.
Définir des mesures.
Configurer la sécurité au niveau des lignes, si nécessaire.
Configurer des synonymes et optimiser les questions/réponses.
Planifier la scalabilité, les performances et la concurrence, susceptibles d’influencer
vos décisions sur les modes de stockage des données, notamment l’utilisation d’un
modèle composite ou d’agrégations.
Conseil
7 Notes
La plupart de ces décisions auront été prises pendant les étapes précédentes de
planification ou pendant la preuve de concept technique.
Valider la solution
La validation d’une solution Power BI présente quatre aspects principaux :
Valider la sécurité
Lors de la validation de la sécurité, il existe deux aspects principaux à prendre en
compte :
Les principales façons d’accorder l’accès au contenu Power BI sont les suivantes :
Conseil
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Documenter la solution
Il existe deux principaux types de documentation utiles pour une solution Power BI :
Dans un site SharePoint : un site SharePoint peut exister pour votre centre
d’excellence ou un site de communauté Power BI interne.
Dans une application : les URL peuvent être configurées lors de la publication
d’une application Power BI pour diriger le consommateur vers plus d’informations.
Au sein de fichiers Power BI Desktop individuels : Des éléments de modèle,
comme des tables et colonnes, peuvent définir une description. Ces descriptions
s’affichent sous forme d’info-bulles dans le volet Champs lors de la création de
rapports.
Conseil
Si vous créez un site qui sert de hub pour la documentation relative à Power BI,
envisagez de personnaliser le menu Aide avec son emplacement d’URL.
Vous pouvez également choisir de créer un journal des modifications qui résume les
modifications les plus importantes qui se sont produites dans le modèle sémantique au
fil du temps.
Contenu connexe
Dans l’article suivant de cette série sur la migration vers Power BI, découvrez l’étape 5,
qui concerne le déploiement, l’assistance et la supervision du contenu.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
La finalité de cette étape est d’obtenir une solution prête à être utilisée en production
par l’entreprise. Quand vous utilisez une méthodologie agile, il est acceptable de
planifier certaines améliorations à apporter à une future itération. Le support et la
surveillance sont également des sujets importants à ce stade et en continu.
Conseil
Si votre contenu a été publié dans un espace de travail sur une capacité Premium, les
pipelines de déploiement peuvent simplifier le processus de déploiement dans les
espaces de travail de développement, de test et de production. La publication peut
également être effectuée manuellement ou à l’aide de scripts PowerShell .
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Conseil
) Important
À ce stade, vous avez atteint un jalon majeur. Bravo ! Vous avez réussi la migration.
Veillez à fournir des instructions expliquant comment obtenir de l’aide et envoyer des
commentaires.
Exécuter en parallèle
Dans de nombreux cas, la nouvelle solution s’exécutera en parallèle de la solution
héritée pendant une durée prédéterminée. Les avantages de l’exécution en parallèle
sont les suivants :
Réduit les risques, en particulier avec les rapports considérés comme critiques.
Laisse aux utilisateurs le temps de se familiariser avec la nouvelle solution Power BI.
Permet de recouper les informations présentées dans Power BI avec les rapports
hérités.
Surveiller la solution
Les événements du journal d’activité de Power BI peuvent servir à comprendre les
modèles d’usage de la nouvelle solution (ou ceux du journal d’exécution pour le
contenu déployé sur Power BI Report Server). L’analyse du journal d’activité peut aider à
déterminer si l’usage réel diffère des attentes. Elle peut également attester la bonne
prise en charge de la solution.
) Important
Mettre en place un processus de support formel par le service informatique, avec des
tickets de support, est également indispensable pour traiter les demandes courantes
liées au système et faciliter l’escalade des problèmes.
7 Notes
Les différents types de support interne et externe sont décrits dans la feuille de
route d’adoption de Fabric.
Vous pouvez également avoir un centre d’excellence qui joue le même rôle que les
consultants internes qui s’occupent du support, de l’apprentissage et de l’administration
de Power BI au sein de l’organisation. Un centre d’excellence peut être responsable du
maintien d’un contenu Power BI utile dans un portail interne.
Enfin, les consommateurs du contenu doivent savoir précisément qui contacter pour
poser des questions sur le contenu et comment transmettre leurs commentaires au sujet
de problèmes ou d’améliorations.
Pour plus d’informations sur le support utilisateur, et en particulier sur la résolution des
problèmes, consultez l’article sur le support utilisateur dans la feuille de route
d’adoption de Fabric.
Contenu connexe
Dans le dernier article de cette série, apprenez des expériences de clients qui ont
effectué une migration vers Power BI.
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
Cet article, qui conclut la série sur la migration vers Power BI, dévoilent les principales
leçons qu’ont tirées deux clients qui ont réussi à migrer vers Power BI.
Au cours du second semestre 2018, une annonce formelle a été faite pour déclarer
Power BI comme l’outil décisionnel approuvé de l’organisation. En conséquence, tout le
travail de développement décisionnel devait avoir lieu dans Power BI. La disponibilité de
Power BI Premium a considérablement motivé cette décision. À cette époque,
l’organisation déconseillait d’utiliser l’ancienne plateforme décisionnelle, et la
planification de la transition commençait.
) Important
Des conseils ont été fournis aux auteurs de contenu : qu’ils se concentrent sur la
création de rapports utilisables dans Power BI, au lieu d’essayer d’obtenir des réplicas
exacts des anciens rapports. C’est pourquoi il est nécessaire que les experts techniques
soient activement disponibles pendant le processus de migration à des fins de conseils
et de validation. Des efforts ont été déployés pour tenir compte de l’objectif de
conception des rapports et pour l’améliorer au besoin.
) Important
) Important
Il est très facile de surestimer l’importance réelle d’un rapport. S’agissant des
rapports rarement utilisés, déterminez s’il est possible de les abandonner
complètement. Parfois, ne rien faire s’avère moins coûteux et plus facile.
) Important
Bien que les estimations de temps soient souvent nécessaires pour obtenir
financement et personnel, elles sont probablement les plus précieuses sous leur
forme agrégée.
) Important
D’autres responsabilités incombent aux unités commerciales dès lors qu’il est peu
pratique de gérer le changement à partir d’une seule équipe centrale.
Il existe aussi une communauté Power BI interne qui compte plus de 1 600 membres.
Cette communauté est gérée dans Yammer. Les membres peuvent poser des questions
en interne et recevoir des réponses conformes aux bonnes pratiques et respectant les
contraintes de l’organisatino. Ce type d’interaction entre les utilisateurs permet d’alléger
une grande partie de la charge qui incombe au centre d’excellence. Toutefois, c’est ce
dernier qui supervise les questions et les réponses, s’impliquant dans les conversations,
au besoin.
Cette communauté interne s’est développée sous la forme d’un réseau d’experts Power
BI plus récent. Celui-ci comprend un nombre limité de spécialistes Power BI
présélectionnés au sein de l’organisation. Ceux-ci sont des praticiens Power BI
hautement qualifiés issus des unités commerciales, enthousiastes et activement désireux
de résoudre les problèmes au sein de l’entreprise. Les membres du réseau d’experts
Power BI sont censés respecter les bonnes pratiques et recommandations établies par le
centre d’excellence. Ils aident la communauté Power BI interne plus large à les
comprendre et à les mettre en œuvre. Même si le réseau d’experts Power BI collabore
avec le centre d’excellence et peut recevoir une formation dédiée, il fonctionne
indépendamment du centre d’excellence. Chaque expert Power BI peut définir ses
paramètres de fonctionnement, en tenant compte des autres responsabilités et priorités
de son rôle officiel.
) Important
) Important
) Important
Chacun des groupes d’analytique est dédié à une unité commerciale spécifique ou à une
fonction de services partagés. Un petit groupe peut compter un seul analyste, tandis
qu’un groupe plus large peut en compter entre 10 et 15.
) Important
) Important
) Important
La société a investi massivement dans les espaces de travail Premium, notamment pour
distribuer du contenu Power BI à de nombreux utilisateurs avec des licences Fabric
gratuites. L’équipe du support technique travaille avec les auteurs de contenu pour
veiller à ce qu’ils utilisent des espaces de travail Premium si besoin. Cela évite ainsi
d’allouer inutilement des licences Power BI Pro quand un utilisateur a uniquement
besoin de consommer du contenu.
) Important
Souvent, des questions se posent sur les licences. Soyez prêt à former et aider les
auteurs de contenu à traiter les questions liées aux licences. Vérifiez que les
demandes de licences Power BI Pro par les utilisateurs sont justifiées.
) Important
) Important
Prévoyez de créer et gérer des passerelles de données locales. Déterminez qui est
autorisé à installer et utiliser une passerelle personnelle et appliquez-y des
stratégies de passerelle. Pour plus d’informations, consultez Gérer les passerelles.
) Important
Bien que les deux premières couches soient moins formelles, elles sont tout aussi
importantes que la troisième couche de support. Les utilisateurs expérimentés ont
tendance à s’appuyer principalement sur les personnes qu’ils connaissent, tandis
que les utilisateurs plus récents (ou ceux qui jouent le rôle d’analyste de données
unique pour une unité commerciale ou un service partagé) se réfèrent davantage à
un support plus formel.
Il existe à présent six cours Power BI internes dans son catalogue interne. Le cours
Dashboard in a Day reste un cours qui plaît beaucoup aux débutants. Pour aider les
utilisateurs à approfondir leurs compétences, une série de trois cours Power BI et deux
cours DAX sont proposés.
L’une des plus importantes décisions en matière de gouvernance des données est liée à
la gestion des capacités Premium. La société a choisi d’aligner sa capacité sur des
domaines d’analytique clés dans les unités commerciales et les services partagés. Ainsi,
en cas d’inefficacité, l’impact n’est ressenti que dans un domaine particulier, et les
administrateurs décentralisés de la capacité ont la possibilité de gérer cette capacité
comme bon leur semble.
) Important
Faites attention à la façon dont les capacités Premium sont utilisées et à la façon
dont les espaces de travail leur sont attribués.
Contenu connexe
Voici d’autres ressources utiles :
Transformation BI de Microsoft
Planification de l’implémentation de Power BI
Dashboard in a Day
Vous avez des questions ? Essayez d’interroger la communauté Power BI
Vous avez des suggestions ? Envoyez-nous vos idées pour améliorer Power BI
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
L’objectif de cette série d’articles est de fournir une feuille de route. La feuille de route
présente de nombreuses considérations stratégiques et tactiques ainsi que les éléments
d’action qui mènent directement à une adoption réussie de Microsoft Fabric tout en
facilitant la création d’une culture des données au sein de l’organisation.
7 Notes
ノ Agrandir le tableau
Zone Description
Centre d’excellence : un Centre d’excellence Fabric est une équipe interne d’experts
techniques et métier. Ces experts aident activement les autres personnes qui utilisent les
données au sein de l’organisation. Le Centre d’excellence forme le noyau de la
communauté au sens large pour faire avancer les objectifs d’adoption alignés sur la vision
de la culture des données.
Mentorat et encadrement des utilisateurs : l’un des objectifs critiques pour les efforts
d’adoption consiste à permettre aux utilisateurs d’en faire le plus possible dans le cadre
des limites établies par les recommandations et stratégies de gouvernance. Le mentorat
des utilisateurs est l’une des responsabilités les plus importantes du Centre d’excellence.
Cela a une influence directe sur les efforts d’adoption.
Gestion des changements : la gestion des changements implique les procédures qui
traitent de l’impact des changements sur les membres d’une organisation. Ces procédures
Zone Description
permettent de vous protéger contre les interruptions et les pertes de productivité liées
aux changements apportés aux solutions ou aux processus. Une stratégie des données
efficace décrit qui est responsable de la gestion de ce changement, ainsi que les pratiques
et les ressources nécessaires pour sa mise en œuvre.
Les relations dans le diagramme ci-dessus peuvent être résumées comme suit.
Chaque article de cette série aborde des sujets clés associés aux éléments du
diagramme. Des considérations et des éléments d’action potentiels sont fournis. Chaque
article finit par un ensemble de niveaux de maturité qui vous permettent d’évaluer l’état
actuel pour pouvoir décider de la prochaine action à entreprendre.
Une idée fausse mais couramment répandue établit que l’adoption est principalement
liée à l’utilisation ou au nombre d’utilisateurs. Il ne fait aucun doute que les statistiques
d’utilisation sont un facteur important. Toutefois, l’utilisation n’est pas le seul facteur.
L’adoption ne consiste pas seulement à utiliser la technologie de manière régulière, mais
aussi à l’utiliser de manière efficace. L’efficacité est beaucoup plus difficile à définir et à
mesurer.
Dans la mesure du possible, les efforts d’adoption doivent s’aligner aux plateformes
d’analyse et aux services décisionnels.
7 Notes
Les autres articles de cette série sur l’adoption de Power BI traitent des aspects suivants.
Vous pouvez vous demander en quoi cette feuille de route d’adoption de Fabric est
différente du framework d’adoption de Power BI . Le framework d’adoption a été
créé principalement pour fournir un support aux partenaires Microsoft. Il s’agit d’un
ensemble léger de ressources visant à aider les partenaires à déployer des solutions
Power BI pour leurs clients.
Cette série d’articles sur l’adoption est plus récente. Elle est destinée à guider les
personnes ou organisations qui utilisent (ou comptent utiliser) Fabric. Si vous
cherchez à améliorer votre implémentation existante de Power BI ou Fabric ou si
vous en planifiez une nouvelle, cette feuille de route d’adoption est un excellent
point de départ.
Public cible
L’audience cible de cette série d’articles s’intéresse à un ou plusieurs des résultats
suivants.
Cette série d’articles est particulièrement utile pour les personnes qui travaillent dans
une organisation réunissant une ou plusieurs des caractéristiques suivantes.
Hypothèses et étendue
Cette série d’articles porte principalement sur la plateforme Microsoft Fabric.
Pour bénéficier pleinement des informations fournies dans ces articles, vous devez
comprendre les concepts fondamentaux de Power BI et les concepts fondamentaux de
Fabric.
Contenu connexe
Dans le prochain article de cette série, découvrez les niveaux de maturité d’adoption de
Fabric. Les niveaux de maturité sont référencés tout au long de la série d’articles.
Consultez également l’article de conclusion pour obtenir des ressources
supplémentaires relatives à l’adoption.
Des partenaires expérimentés sont disponibles pour aider votre organisation à réussir
ses initiatives d’adoption. Pour entrer en contact avec un partenaire, accédez au portail
des partenaires Power BI .
Remerciements
Les articles sur la feuille de route d’adoption de Microsoft Fabric sont rédigés par
Melissa Coates, Kurt Buhler et Peter Myers. Matthew Roche, de l’équipe de conseil à la
clientèle Fabric, fournit des conseils stratégiques et des commentaires aux experts en la
matière. Les articles sont relus par Cory Moore, James Ward, Timothy Bindas, Greg Moir
et Chuy Varela.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Les trois types d’adoption illustrés dans le diagramme ci-dessus sont les suivants :
ノ Agrandir le tableau
Type Description
L’adoption par les utilisateurs est la mesure dans laquelle les consommateurs et les
créateurs augmentent continuellement leurs connaissances. Il s’agit de savoir s’ils utilisent
Type Description
activement les outils d’analyse, et s’ils les utilisent de la manière la plus efficace.
L’adoption des solutions fait référence à l’impact et à la valeur métier obtenue pour les
exigences individuelles et les solutions d’analyse.
Comme l’indiquent les quatre flèches du diagramme précédent, les trois types
d’adoption sont tous étroitement liés :
L’adoption de la solution affecte l’adoption par les utilisateurs. Une solution bien
conçue et bien gérée mobilise les utilisateurs et les guide quant à l’utilisation
optimale de l’analyse. Elle peut se présenter sous la forme d’un ensemble de
rapports, d’une application Power BI, d’un modèle sémantique ,anciennement
connu sous le nom de jeu de données ou d’un lakehouse Fabric, par exemple.
L’adoption par les utilisateurs a un impact sur l’adoption organisationnelle. Les
modèles et les pratiques utilisés par les différents utilisateurs influencent les
décisions, stratégies et pratiques en matière d’adoption organisationnelle.
L’adoption organisationnelle influence l’adoption par les utilisateurs. Des
pratiques organisationnelles efficaces, notamment le mentorat, la formation, le
support et la communauté, encouragent les utilisateurs à faire les bons choix lors
de leurs tâches quotidiennes.
L’adoption par les utilisateurs affecte l’adoption de la solution. Une adoption plus
forte par les utilisateurs, due à l’utilisation efficace de l’analyse par des utilisateurs
éduqués et informés, contribue à des solutions individuelles plus robustes et plus
efficaces.
Le reste de cet article présente les trois types d’adoption plus en détail.
7 Notes
Certains contenus d’analyse sont désormais d’une importance capitale et/ou sont
largement utilisés par l’organisation.
Des tentatives de documenter et de définir des pratiques reproductibles ont eu
lieu. Ces efforts sont en silo, réactifs et offrent différents niveaux de réussite.
On compte trop sur le fait que les individus ont un bon jugement et adoptent des
habitudes saines qu’ils ont acquises par eux-mêmes.
L’adoption de l’analyse continue de croître de manière organique et produit de la
valeur. Mais elle a lieu de façon incontrôlée.
Les ressources pour une communauté interne sont établies, par exemple un canal
Teams ou un groupe Yammer
La planification initiale d’une stratégie de gouvernance de l’analyse cohérente est
en cours.
Il est reconnu qu’un Centre d’excellence (COE) peut apporter de la valeur.
Les efforts en matière d’analyse et de décisionnel créent une forte valeur ajoutée.
Des outils approuvés sont couramment utilisés pour la diffusion de contenu
critique au sein de l’organisation.
Un modèle de gouvernance établi et accepté est en place, avec la coopération de
toutes les unités commerciales clés.
Une formation, une documentation et des ressources sont aisément accessibles à
la communauté interne d’utilisateurs.
Des processus standardisés sont en place pour la supervision de l’utilisation et des
pratiques de l’analyse.
Toutes les principales unités commerciales sont représentées au sein du Centre
d’excellence.
Un réseau de champions soutient la communauté interne. Les champions
collaborent activement avec leurs collègues ainsi qu’avec le Centre d’excellence.
La valeur des solutions d’analyse est répandue au sein de l’organisation. Fabric est
largement acceptée dans toute l’organisation.
Les compétences d’analyse sont très appréciées au sein de l’organisation et
reconnues par la direction.
La communauté interne d’utilisateurs est autonome et bénéficie du soutien du
Centre d’excellence. La communauté ne dépend pas trop des personnes clés.
Le Centre d’excellence passe régulièrement en revue les indicateurs de
performance clés afin de mesurer la réussite des objectifs d’implémentation et
d’adoption
L’amélioration continue est une priorité permanente
L’utilisation de l’automatisation ajoute de la valeur, améliore la productivité ou
réduit les risques d’erreur
7 Notes
Le reste de cet article présente les deuxième et troisième types d’adoption : l’adoption
par les utilisateurs et l’adoption de la solution.
7 Notes
Les autres articles de cette série sont principalement axés sur l’adoption
organisationnelle.
L’adoption par les utilisateurs englobe la façon dont les consommateurs visualisent le
contenu et celle dont les créateurs libre-service génèrent du contenu que d’autres
utilisateurs pourront consommer.
L’adoption par les utilisateurs se produit au niveau de chaque utilisateur, mais elle est
mesurée et analysée dans son ensemble. Chaque utilisateur progresse à travers les
quatre phases d’adoption à son propre rythme. Une personne qui adopte une nouvelle
technologie prendra un certain temps avant d’atteindre un niveau de compétences.
Certains utilisateurs seront enthousiastes ; d’autres seront réticents à l’idée de devoir se
familiariser avec encore un autre outil, quelles que soient les améliorations de
productivité promises. Le passage d’une phase d’adoption utilisateur à une autre
implique du temps et des efforts, ainsi que des changements de comportement afin de
s’aligner sur les objectifs d’adoption de l’organisation. Le degré d’aide apportée par
l’organisation aux utilisateurs à mesure qu’ils progressent d’une phase d’adoption à une
autre a une corrélation directe avec la maturité de l’adoption au niveau de
l’organisation.
) Important
7 Notes
À mesure qu’une solution progresse vers les phases 3 ou 4, les attentes en matière
d’opérationnalisation de la solution sont plus élevées.
Conseil
Les utilisateurs cibles trouvent la solution utile et y voient des avantages tangibles.
La solution est promue en un espace de travail de production géré, sécurisé et
audité.
Des validations et des tests sont effectués afin de garantir la qualité des données,
une présentation précise, une accessibilité et des performances acceptables
Le contenu est approuvé, le cas échéant
Des métriques d’utilisation de la solution sont activement supervisées
Des boucles de commentaires des utilisateurs sont en place pour faciliter les
suggestions et les améliorations susceptibles de contribuer aux versions ultérieures
La documentation de la solution est générée pour prendre en charge les besoins
des consommateurs d’informations (comme les sources de données utilisées ou la
façon dont les métriques sont calculées). La documentation aide les futurs
créateurs de contenu (par exemple, à documenter toute maintenance future ou
toute amélioration planifiée).
Les experts techniques et les propriétaires de contenu sont clairement identifiés.
La personnalisation et les thèmes des rapports sont en place et conformes aux
règles de gouvernance.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric, vous
découvrirez la culture des données organisationnelles et son impact sur les efforts
d’adoption.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
obtenir une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
La mise en place d’une culture des données est étroitement liée à l’adoption de
l’analyse, et il s’agit souvent d’un aspect clé de la transformation numérique d’une
organisation. Le terme culture des données peut être défini de différentes façons par les
organisations. Dans cette série d’articles, la culture des données correspond à un
ensemble de comportements et de standards qui sont appliqués au sein d’une
organisation. Cette culture encourage des prises de décisions informées et régulières :
) Important
La culture des données correspond à ce que vous faites et non à ce que vous dites.
Votre culture des données n’est pas un ensemble de règles (autrement dit, la
gouvernance). La culture des données est donc un concept plutôt abstrait. Il s’agit
en fait de l’ensemble des comportements et normes qui sont autorisés, encouragés
et récompensés, et de ceux qui sont interdits et déconseillés. Notez qu’une bonne
culture des données incite tous les employés de l’organisation, quels que soient
leur rôles, à créer et à distribuer des connaissances actionnables.
Dans une organisation, certaines équipes ou divisions sont susceptibles d’appliquer
leurs propres comportements et normes pour la réalisation de leurs tâches. Les moyens
spécifiques pour atteindre les objectifs de la culture des données peuvent varier d’une
organisation à l’autre. Ce qui est important, c’est qu’ils doivent tous s’aligner sur les
objectifs de culture des données de l’organisation. Vous pouvez considérer cette
structure comme une autonomie alignée.
Le diagramme circulaire suivant présente des aspects liés entre eux qui influencent votre
culture des données :
Le diagramme illustre les relations les plus ambiguës qui existent entre les éléments
suivants :
La culture des données est le cercle extérieur. Tous les sujets qui le composent
contribuent à l’état de la culture des données.
L’adoption organisationnelle (y compris le mentorat et l’accompagnement des
utilisateurs, le support utilisateur, la communauté de pratique, la gouvernance et la
supervision des systèmes) est le cercle interne. Tous les sujets sont des
contributeurs majeurs à la culture des données.
Le support exécutif et le Centre d’excellence favorisent une adoption réussie au
sein de l’organisation.
La littératie des données, la démocratisation des données et la découverte des
données sont des aspects de la culture des données qui sont fortement influencés
par l’adoption de l’organisation.
La propriété et la gestion de contenu ainsi que l’étendue de la distribution du
contenu sont étroitement liées à la démocratisation des données.
Les éléments du diagramme sont abordés tout au long de cette série d’articles.
Provenir de l’exécutif.
S’aligner sur les objectifs organisationnels.
Influencer directement votre stratégie d’adoption.
Servir de principe directeur pour décider des stratégies et des directives de
gouvernance.
La culture des données ne doit pas avoir de résultats précis. C’est plutôt l’état de la
culture des données qui résulte de l’application des règles de gouvernance (ou de leur
absence). Les responsables de tous les niveaux doivent montrer par leurs actions ce qui
est important pour eux, notamment en honorant et en récompensant les collaborateurs
qui prennent des initiatives.
Conseil
Si vous avez l’assurance que vos efforts pour développer une solution de données
(comme un modèle sémantique, anciennement connu sous le nom de jeu de
données, un lakehouse ou un rapport) seront reconnus et appréciés, vous avez là
un excellent indicateur d’une bonne culture des données. Parfois, cependant, cela
peut dépendre de ce qui est important pour votre responsable direct.
La première motivation pour établir une culture des données provient souvent d’un
problème ou d’une initiative stratégique. Cela pourrait être :
Un changement réactif, comme répondre à une nouvelle concurrence agile.
Un changement proactif, comme le lancement d’une nouvelle activité ou
l’expansion vers des marchés où vous n’êtes pas encore présent. L’adoption d’une
approche basée sur les données dès le début peut être relativement plus facile si
vous n’avez pas les contraintes et les complications liées à celles d’une
organisation établie.
Des changements externes, comme l’urgence d’éliminer les redondances et le
manque d’efficacité lors d’un ralentissement économique.
Dans chacune de ces situations, il y a souvent une domaine précis où la culture des
données s’enracine. La zone en question peut être une étendue de travail qui est plus
petite que celle de l’ensemble de l’organisation, même si elle reste importante. Une fois
que les modifications nécessaires ont été apportées à cette plus petite étendue, elles
peuvent être répliquées de manière incrémentielle et adaptées pour le reste de
l’organisation.
Même si la technologie peut aider à atteindre les objectifs d’une culture des données,
l’implémentation d’outils ou de fonctionnalités n’est pas un but recherché. Cette série
d’articles sur l’adoption couvre un grand nombre de sujets qui aident à établir une
bonne culture des données. Le reste de cet article traite de trois aspects essentiels de la
culture des données : la découverte des données, la démocratisation des données et la
littératie des données.
Découverte de données
Pour une culture des données réussie, les utilisateurs doivent utiliser les bonnes
données dans leurs activités quotidiennes. Pour atteindre cet objectif, les utilisateurs
doivent rechercher des sources de données, des rapports et d’autres éléments.
Il est important de disposer d’une procédure simple et claire afin que les
utilisateurs puissent demander l’accès aux données. Savoir que des données
existent (sans pouvoir y accéder avec les directives et les procédures établies par le
propriétaire du domaine) peut être source de frustration pour les utilisateurs. Cela
peut les forcer à utiliser des solutions de contournement inefficaces au lieu de
continuer à demander l’accès via les canaux appropriés.
Le hub de données OneLake et l’utilisation des approbations sont des moyens clés de
promouvoir la découverte des données au sein de votre organisation.
En outre, les solutions de catalogue de données sont des outils extrêmement précieux
pour la découverte de données. En effet, elles peuvent enregistrer des étiquettes et des
descriptions de métadonnées afin de fournir un contexte et un sens plus approfondis.
Par exemple, Microsoft Purview peut analyser et cataloguer des éléments à partir d’un
locataire Fabric (ainsi que de nombreuses autres sources).
Utilisez des questions comme celles ci-dessous pour évaluer la découverte des données.
Existe-t-il un hub de données où les utilisateurs professionnels peuvent rechercher
des données ?
Existe-t-il un catalogue de métadonnées qui décrit les définitions et les
emplacements de données ?
Les sources de données de haute qualité sont-elles approuvées par certification ou
promotion ?
Dans quelle mesure existe-t-il des sources de données redondantes, du fait que les
utilisateurs ne trouvent pas les données dont ils ont besoin ? Quels rôles sont
censés créer des éléments de données ? Quels rôles sont censés créer des rapports
ou effectuer une analyse ad hoc ?
Les utilisateurs finaux peuvent-ils trouver et utiliser des rapports existants, ou
insistent-ils à exporter les données pour créer leurs propres rapports ?
Les utilisateurs finaux savent-ils quels rapports utiliser pour répondre à des
questions commerciales spécifiques ou rechercher des données spécifiques ?
Les utilisateurs utilisent-ils les sources de données et les outils appropriés, ou
préfèrent-ils les sources de données et les outils hérités ?
Les analystes comprennent-ils comment enrichir des modèles sémantiques
certifiés existants avec de nouvelles données, par exemple à l’aide d’un modèle
composite Power BI ?
Quelle est la cohérence des éléments de données quant à leur qualité, exhaustivité
et conventions de nommage ?
Les propriétaires d’éléments de données peuvent-ils suivre la traçabilité des
données pour effectuer une analyse d’impact des éléments de données ?
ノ Agrandir le tableau
100 : initial • Les données sont fragmentées et désorganisées, sans structure ni processus
clairs pour les trouver.
Niveau État de la découverte des données Fabric
• Les utilisateurs ont du mal à trouver et à utiliser les données dont ils ont
besoin pour leurs tâches.
• Le contenu est parfois approuvé, mais ces approbations ne sont pas définies
et le processus n’est pas géré. Les données restent en silo et fragmentées, et il
est difficile d’y accéder.
300 : défini • Un référentiel central, comme le hub de données OneLake, est utilisé pour
faciliter la recherche des données pour les personnes qui en ont besoin.
400 : capable • Des processus structurés et cohérents aident les utilisateurs à approuver,
documenter et rechercher des données à partir d’un hub central. Les silos de
données sont l’exception plutôt que la règle.
• Les outils de catalogage, tels que Microsoft Purview, sont utilisés pour rendre
les données découvrables à la fois pour l’utilisation et la gouvernance.
2 Avertissement
Si l’accès aux données ou la capacité d’obtenir des données d’analytique est limité
à certaines personnes de l’organisation, il s’agit généralement d’un avertissement,
car la possibilité d’utiliser des données est une caractéristique clé d’une saine
culture des données.
Utilisez des questions comme celles ci-dessous pour évaluer la démocratisation des
données.
ノ Agrandir le tableau
100 : initial • Les données et l'analyse sont limitées à un petit nombre de rôles, qui
contrôlent l'accès à d'autres personnes.
• Des initiatives en libre-service sont en place, avec un certain succès dans divers
secteurs de l’organisation. Ces activités se produisent de façon quelque peu
chaotique, avec peu de processus formels et sans plan stratégique. Il y a un
manque de supervision et de visibilité sur ces activités en libre-service. La
réussite ou l’échec de chaque solution n’est pas bien compris.
200 : • Des efforts limités sont consentis pour développer l'accès aux données et aux
reproductible outils.
• Plusieurs équipes ont connu des réussites quantifiables avec des solutions en
libre-service. Certaines personnes dans l’organisation commencent à y prêter
attention.
• Des investissements sont réalisés pour identifier l’équilibre idéal entre les
solutions d’entreprise et en libre-service.
300 : Défini • Plusieurs personnes ont accès aux données et aux outils dont elles ont besoin,
mais tous les utilisateurs ne bénéficient pas des mêmes accès ou ne sont pas
tenus responsables pour le contenu qu'ils créent.
400 : Capable • Des partenariats sains sont conclus entre les créateurs de solution d'entreprise
ou en libre-service. La responsabilité des utilisateurs et les stratégies claires et
réalistes atténuent le risque d’analyse et de décisionnel libre-service.
• Des processus clairs et cohérents sont en place pour que les utilisateurs
demandent l’accès aux données et aux outils.
• Les personnes qui prennent l’initiative de créer des solutions à valeur ajoutée
sont reconnues et récompensées.
Les efforts de formation, comme ceux décrits dans l’article sur le mentorat et
l’accompagnement des utilisateurs, se concentrent souvent sur la façon d’utiliser la
technologie. Les compétences technologiques sont importantes pour produire des
solutions de haute qualité. Toutefois, il est également important de réfléchir à la façon
dont nous pouvons faire avancer la littératie des données au sein de l’organisation.
Autrement dit, une adoption réussie nécessite bien plus que simplement fournir des
logiciels et des licences aux utilisateurs.
La façon dont vous allez améliorer la littératie des données dans votre organisation
dépend de nombreux facteurs, comme l’ensemble de compétences actuel des
utilisateurs, la complexité des données et le type d’analytique nécessaire. Vous pouvez
choisir de vous concentrer sur ces types d’activités liés à la littératie des données :
Conseil
Si vous éprouvez des difficultés à faire approuver la culture des données ou les
efforts de gouvernance, vous pouvez insister sur les avantages tangibles que
présentent la découverte des données (« trouver des données »), la
démocratisation des données (« utiliser des données ») ou la littératie des données
(« comprendre les données »). Il peut également être utile de mentionner les
problèmes précis qui peuvent être résolus ou atténués par le biais de la culture des
données.
La première étape consiste généralement à faire en sorte que les parties prenantes
se mettent d’accord sur le problème. Ensuite, il est important de faire en sorte que
les parties prenantes s’accordent sur l’approche stratégique à adopter pour une
solution, puis sur les détails de la solution.
Utilisez des questions comme celles ci-dessous pour évaluer la littératie des données.
Existe-t-il un vocabulaire analytique commun dans l’organisation pour parler des
données et des solutions décisionnelles ? Sinon, les définitions sont-elle
fragmentées et différentes entre les silos ?
À quel point les personnes sont-elles à l’aise avec la prise de décisions basées sur
les données et les preuves par rapport à l’instinct et à l’expérience intuitive ?
Quand les personnes qui ont une opinion sont confrontées à des preuves
conflictuelles, comment réagissent-elles ? Évaluent-elles les données de manière
critique ou les ignorent-elles ? Peuvent-elles modifier leur opinion ou deviennent-
elles réflexives et résistantes ?
Existe-t-il des programmes de formation pour aider les utilisateurs à se familiariser
avec les données et les outils analytiques ?
Existe-t-il une résistance significative à l’analytique visuelle et aux rapports
interactifs en faveur des feuilles de calcul statiques ?
Les utilisateurs sont-ils ouverts aux nouvelles méthodes et outils analytiques pour
répondre plus efficacement à leurs questions professionnelles ? Sinon, préfèrent-ils
continuer à utiliser des méthodes et des outils existants pour gagner du temps et
de l’énergie ?
Existe-t-il des méthodes ou des programmes pour évaluer ou améliorer la littératie
des données dans l’organisation ? La direction a-t-elle une compréhension précise
des niveaux de littératie des données ?
Existe-t-il des rôles, des équipes ou des services où la littératie des données est
particulièrement forte ou faible ?
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de la littératie des
données.
ノ Agrandir le tableau
100 : initial • Les décisions sont souvent prises en fonction de l'intuition et de l'expérience
subjective. Lorsque les données sont présentées de manière à confronter les
opinions existantes, elles sont souvent ignorées.
• Les individus ont peu de confiance pour utiliser et comprendre les données
Niveau État de la littératie des données
• Les consommateurs de rapports ont une préférence forte pour les tables
statiques. Ces consommateurs ignorent les visualisations interactives ou les
méthodes analytiques sophistiquées en les classifiant « fantaisistes » ou inutiles.
• Il existe une certaine résistance lorsque les données défient les opinions
préexistantes.
300 : défini • La majorité des équipes et des personnes assimilent les données relatives à leur
domaine d'activité et les utilisent implicitement pour orienter leurs décisions.
• Lorsque les données confrontent des opinions préexistantes, elles génèrent des
discussions critiques et provoquent parfois des changements.
• Les visualisations et les analyses avancées sont plus largement acceptées, mais
ne sont pas toujours utilisées efficacement.
400 : capable • La maîtrise des données est reconnue explicitement comme une compétence
nécessaire au sein de l'organisation. Certains programmes de formation traitent
de la littératie des données. Des efforts spécifiques sont déployés pour aider les
services, les équipes ou les individus qui ont une littératie des données
particulièrement faible.
Liste de contrôle : voici quelques considérations et actions clés qui pourront vous aider
à renforcer votre culture des données.
Utilisez des questions comme celles ci-dessous pour évaluer la culture des données.
ノ Agrandir le tableau
100 : Initial • Les équipes données de l’entreprise ne peuvent pas répondre assez vite aux
besoins de l’entreprise. Il existe un important backlog de requêtes.
200 : • Plusieurs équipes ont connu des réussites quantifiables avec des solutions en
Répétable libre-service. Certaines personnes dans l’organisation commencent à y prêter
attention.
• Des investissements sont réalisés pour identifier l’équilibre idéal entre les
données, l’analyse et la BI d’entreprise ou en libre-service.
300 : Défini • Des objectifs spécifiques sont définis pour faire progresser la culture des données.
Ces objectifs sont implémentés de manière incrémentielle.
400 : Les objectifs de la culture des données visant à utiliser la prise de décision éclairée
Capable correspondent aux objectifs de l'organisation. Ils sont soutenus activement par la
direction et ont un impact direct sur les stratégies d’adoption.
• Les personnes qui prennent l’initiative de créer des solutions de données à valeur
ajoutée sont reconnues et récompensées.
Contenu connexe
Dans l’article suivant de la série Feuille de route sur l’adoption de Microsoft Fabric,
découvrez l’importance des sponsors exécutifs.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez l’article Feuille de route d’adoption de
Microsoft Fabric.
Bien qu’il soit possible d’atteindre un certain degré de succès grâce à quelques
contributeurs déterminés, l’organisation se trouve dans une position nettement
meilleure lorsqu’un cadre dirigeant est impliqué, coopératif, informé et disponible pour
faciliter les activités suivantes.
) Important
Le sponsor exécutif idéal a une crédibilité, une influence et une autorité suffisantes
au sein de l’organisation. Ils ont également investi dans les efforts et la stratégie
liés aux données. Lorsque la stratégie décisionnelle réussit, le rôle du sponsor
exécutif idéal est également rempli.
Modèle descendant
Un sponsor exécutif sera peut-être sélectionné par un dirigeant encore plus haut placé.
Par exemple, le Président directeur général peut faire appel aux services d’un Directeur
des données ou d’un Directeur de l’analytique pour faire progresser explicitement les
objectifs de culture des données de l’organisation ou conduire des efforts de
transformation numérique. Le Directeur des données ou le Directeur de l’analytique
devient alors le candidat idéal pour assumer le rôle de cadre responsable de Fabric (ou
des données et de l’analyse en général).
Voici un autre exemple : le PDG peut déléguer ce rôle à un cadre existant, tel que le
Directeur financier, car ses antécédents en matière de gestion des données et de
l’analytique au sein de l’entreprise sont irréprochables. En tant que nouveau sponsor
exécutif, le Directeur financier peut ensuite mener les efforts visant à répliquer les succès
de l’équipe des finances dans d’autres secteurs de l’organisation.
7 Notes
Modèle ascendant
Il se peut également qu’un candidat pour le rôle de cadre responsable émerge en raison
de ses succès dans la création de solutions de données. Par exemple, une unité
commerciale au sein de l’organisation, comme l’unité Finances, a obtenu d’excellents
résultats avec son utilisation des données et de l’analyse. Pour l’essentiel, elle est
parvenue à former sa propre culture des données à plus petite échelle. Un responsable
junior qui n’a pas atteint le niveau exécutif (par exemple, directeur) peut alors assumer
graduellement le rôle de sponsor exécutif en partageant ses succès avec d’autres unités
commerciales au sein de l’organisation.
L’approche ascendante est plus susceptible d’être adoptée dans les organisations de
taille modeste. Cela peut être dû au fait que le retour sur investissement et l’impératif
stratégique d’une culture des données (ou transformation numérique) ne sont pas
encore une priorité urgente pour les cadres de direction.
Avec une approche ascendante, le sponsor pourra être en mesure de progresser dans
une certaine mesure, mais il n’aura pas d’autorité formelle sur les autres unités
commerciales. Sans autorité claire, des problèmes allant au-delà de son niveau
d’autorité finiront par survenir. C’est la raison pour laquelle l’approche descendante a
une probabilité de réussite plus élevée. Toutefois, les succès initiaux avec une approche
ascendante peuvent inciter la direction à augmenter son niveau de parrainage, ce qui
peut déclencher une compétition saine parmi les autres divisions dans l’adoption des
données et du décisionnel.
Liste de vérification : voici une liste des éléments à prendre en considération et des
actions clés que vous pouvez entreprendre pour établir ou renforcer le soutien exécutif
en faveur de l’analyse.
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer la littératie des données.
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel du soutien des
responsables.
ノ Agrandir le tableau
200 : • Il existe un soutien exécutif informel envers l’analyse exercé par le biais de
reproductible canaux et de relations informels.
300 : défini • Un sponsor exécutif est identifié. Les attentes sont claires pour le rôle.
400 : Capable • Un sponsor exécutif entretient une relation bien établie avec une personne
disposant d’une autorité suffisante au sein de l’organisation.
500 : Efficace • Le sponsor exécutif est très engagé. Leur contribution constitue un moteur clé
pour faire progresser la vision de la culture des données de l’organisation.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric,
découvrez l’importance de l’alignement de l’entreprise avec les objectifs de
l’organisation.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Les activités et solutions décisionnelles (BI) ont le meilleur potentiel pour offrir une
valeur ajoutée lorsqu’elles sont bien alignées sur les objectifs professionnels de
l’organisation. En général, un alignement efficace de l’entreprise permet d’améliorer
l’adoption. Avec un alignement commercial efficace, la culture des données et la
stratégie de données permettent aux utilisateurs métier d’atteindre leurs objectifs
business.
Vous pouvez réaliser un alignement commercial efficace avec les activités et les
solutions de données en ayant :
) Important
Alignement stratégique
Votre stratégie commerciale et votre stratégie BI et de données doivent être bien
alignées. Pour atteindre cet alignement de façon incrémentielle, nous vous
recommandons de vous engager à suivre des processus de planification itératifs et
structurés.
) Important
U Attention
Une stratégie de gouvernance mal alignée sur les objectifs commerciaux peut
entraîner davantage de conflits et de risques liés à la conformité, car les utilisateurs
adoptent alors souvent des solutions de contournement pour effectuer leurs
tâches.
Alignement de l’exécutif
La direction joue un rôle clé dans la définition de la stratégie d’entreprise et des
objectifs professionnels. À cette fin, l’engagement de la direction est un élément
important permettant de réaliser l’alignement de l’entreprise de haut en bas.
) Important
Affectez une équipe responsable : une équipe de travail passe en revue les
commentaires et organise les sessions de réalignement. Cette équipe est
responsable de l’alignement de la planification et des priorités entre les stratégies
commerciales et de données.
Créez et prenez en charge un processus de commentaires : votre communauté
d’utilisateurs a besoin des moyens de fournir des commentaires. Les exemples de
commentaires peuvent inclure des demandes de modification de solutions
existantes ou de création de solutions et d’initiatives. Ces commentaires sont
essentiels pour l’alignement des utilisateurs professionnels de bas en haut, et ils
entraînent des cycles d’amélioration itératifs et continus.
Mesurez la réussite de l’alignement de l’entreprise : envisagez d’utiliser les
enquêtes, l’analyse des sentiments et les métriques d’utilisation pour évaluer la
réussite de l’alignement de l’entreprise. Lorsqu’elles sont combinées à d’autres
mécanismes de commentaires concis, elles peuvent fournir des informations utiles
pour vous aider à définir des actions et des activités futures afin d’améliorer
l’alignement commercial et l’adoption de Fabric.
Planifiez des sessions régulières de réalignement : assurez-vous que la
planification stratégique et la planification tactique en matière de données se
produisent parallèlement à la planification de la stratégie commerciale pertinente
(lorsque la direction de l’entreprise examine les objectifs commerciaux).
7 Notes
Étant donné que les objectifs professionnels évoluent continuellement, vous devez
comprendre que les solutions et les initiatives changeront au fil du temps. Ne
partez pas du principe que les exigences pour les projets de données et BI sont
rigides et ne peuvent pas être modifiées. Si vous avez du mal à faire face à la
modification des exigences, cela peut indiquer que votre processus de collecte des
exigences est inefficace ou rigide, ou que vos workflows de développement
n’intègrent pas suffisamment de commentaires réguliers.
) Important
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer l’alignement de l’entreprise.
Niveaux de maturité
ノ Agrandir le tableau
100 : Initial • Les stratégies commerciales et de données manquent d’alignement formel, ce qui
entraîne une implémentation réactive et un mauvais alignement entre les équipes
de données et les utilisateurs métier.
200 : • Des efforts ont été faits pour aligner les initiatives données et BI avec des besoins
répétable en données spécifiques, mais sans approche cohérente ni compréhension de leur
réussite.
300 : • Les initiatives données et BI sont classées par ordre de priorité en fonction de leur
défini alignement sur les objectifs business stratégiques. Toutefois, l’alignement est en silo
et se concentre généralement sur les besoins locaux.
400 : • Il existe une vue cohérente à l’échelle de l’organisation de la façon dont les
capable initiatives et les solutions données étayent les objectifs commerciaux.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric, vous en
saurez plus sur la propriété et la gestion du contenu, ainsi que sur leur effet sur le
décisionnel libre-service piloté par l’entreprise, le décisionnel libre-service managé et le
décisionnel d’entreprise.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez l’article Feuille de route d’adoption de
Microsoft Fabric.
7 Notes
La culture des données d’une organisation détermine pourquoi, comment et par qui
chacune de ces trois stratégies de propriété du contenu est implémentée.
Le diagramme ci-dessus comprend les zones suivantes :
ノ Agrandir le tableau
Zone Description
Libre-service piloté par l’entreprise : tout le contenu est détenu et géré par les créateurs
et experts techniques au sein d’une division. Cette stratégie de propriété est également
connue sous le nom de stratégie décentralisée ou ascendante.
Libre-service managé : les données sont détenues et gérées par une équipe centralisée,
tandis que les utilisateurs de l’entreprise ont la responsabilité des rapports et des tableaux
de bord. Cette stratégie de propriété est également appelée « discipline au centre et
flexibilité en périphérie ».
Entreprise : tout le contenu est détenu et géré par une équipe centralisée, par exemple le
service informatique, le décisionnel d’entreprise ou le Centre d’excellence (COE).
Il est peu probable qu’une organisation s’appuie exclusivement sur une seule stratégie
de propriété et de gestion du contenu. En fonction de votre culture des données, une
stratégie peut être beaucoup plus dominante que les autres. Le choix de la stratégie
peut varier d’une solution à l’autre ou d’une équipe à l’autre. En fait, une même équipe
peut utiliser activement plusieurs stratégies si elle consomme le contenu de l’entreprise
tout en produisant son propre contenu en libre-service. La stratégie à suivre dépend de
plusieurs facteurs, notamment des suivants :
Conditions requises d’une solution (par exemple, une collection de rapports, une
application Power BI ou un lakehouse).
Compétences des utilisateurs.
Engagement continu envers le développement de la formation et des
compétences.
Flexibilité requise.
Niveau de complexité.
Priorités et niveau d’engagement du leadership.
La façon dont le contenu est détenu et géré a un impact significatif sur la gouvernance,
le degré de mentorat et d’accompagnement des utilisateurs, les besoins en support
utilisateur et le modèle d’exploitation du centre d’excellence.
En général :
ノ Agrandir le tableau
Rôle Description
Expert Personne chargée de définir la signification des données, leur utilisation, les
technique personnes pouvant y accéder et la façon dont elles sont présentées aux autres.
Collabore au besoin avec le propriétaire de domaine et aide ses collègues à
exploiter les données.
Propriétaire Décideur de niveau supérieur qui collabore avec les équipes de gouvernance sur
de domaine les politiques, processus et exigences en matière de gestion des données.
Décideur qui définit les utilisations appropriées et inappropriées des données.
Participe au conseil de gouvernance des données, comme le décrit l’article sur la
gouvernance.
L’attribution de la propriété d’un domaine de données a tendance à être plus simple lors
de la gestion de systèmes sources transactionnels. Dans les solutions d’analyse et de
décisionnel, les données sont intégrées à partir de plusieurs domaines, puis
transformées et enrichies. Pour les solutions analytiques en aval, la question de la
propriété est plus complexe.
7 Notes
Le reste de cet article traite des considérations liées aux trois stratégies de propriété et
de gestion du contenu.
) Important
Le libre-service piloté par l’entreprise et l’informatique fantôme ne partagent pas le
même concept. Dans les deux scénarios, le contenu des données et de décisionnel
est créé, détenu et géré par les utilisateurs de l’entreprise. Toutefois, dans le cadre
du « Shadow IT », la division contourne le service informatique et la solution n’est
pas approuvée. Avec les solutions de décisionnel libre-service piloté par
l’entreprise, la division a pleine autorité pour créer et gérer le contenu. Les
ressources et le support technique du centre d’excellence sont accessibles aux
créateurs de contenu en libre-service. La division est censée se conformer à toutes
les directives et politiques de gouvernance des données établies.
Voici quelques instructions pour vous aider à réussir dans le libre-service piloté par
l’entreprise lié aux données et au décisionnel.
Apprenez à vos créateurs à utiliser les mêmes techniques que celles employées par
le service informatique, comme les modèles sémantiques partagés et les flux de
données. Utilisez un OneLake bien organisé. Centralisez les données pour réduire
la maintenance, améliorer la cohérence et réduire les risques.
Concentrez-vous sur le mentorat, la formation, les ressources et la documentation
(comme indiqué dans l’article sur le mentorat et l’accompagnement des
utilisateurs). Nous insistons sur l’importance de ces efforts. Les niveaux de
compétence des créateurs de contenu en libre-service varient considérablement :
soyez prêt. Par ailleurs, il arrive souvent qu’une solution offrant une excellente
valeur commerciale ne puisse pas être mise à l’échelle ou se comporte moins bien
au fil du temps (à mesure que les volumes de données historiques augmentent).
Dans ces situations, il est très utile de pouvoir accéder au centre d’excellence.
Donnez des conseils sur la meilleure façon d’utiliser des approbations.
L’approbation promue concerne le contenu généré par les créateurs en libre-
service. Songez à réserver l’utilisation de l’approbation certifiée au contenu du
décisionnel d’entreprise et du décisionnel libre-service managé (décrits ci-après).
Analysez le journal d’activité pour découvrir les situations dans lesquelles le centre
d’excellence peut contacter de manière proactive les propriétaires en libre-service
afin de leur fournir des informations utiles. C’est particulièrement utile lorsqu’un
modèle d’utilisation non optimal est détecté. Par exemple, l’activité du journal
pourrait révéler une surutilisation du partage d’éléments individuels, alors que des
audiences d’application Power BI ou des rôles d’espaces de travail pourraient être
de meilleures options. Les données du journal d’activité permettent au centre
d’excellence d’offrir un support et des conseils aux divisions. Réciproquement, ces
informations peuvent contribuer à augmenter la qualité des solutions tout en
permettant à l’entreprise de conserver la propriété et le contrôle complets de son
contenu. Pour plus d’informations, consultez Audit et surveillance.
Libre-service managé
Le décisionnel libre-service managé est une approche mixte en matière de données et
de décisionnel. Les données sont détenues et gérées par une équipe centralisée (service
informatique, décisionnel d’entreprise ou centre d’excellence), tandis que la
responsabilité en matière de création de rapports et de tableaux de bord revient aux
créateurs et experts techniques au sein de la division. Le décisionnel libre-service
managé est souvent une bonne stratégie pour les solutions de décisionnel d’équipe et
de décisionnel de département.
Voici quelques instructions pour vous aider à réussir dans le décisionnel libre-service
managé.
Enterprise
Le mode Entreprise est une approche centralisée pour fournir des solutions de données
et de BI dans laquelle tout le contenu des solutions est détenu et géré par une équipe
centralisée. Cette équipe est généralement le service informatique, le décisionnel
d’entreprise ou le COE.
La centralisation de la gestion du contenu avec une seule équipe est alignée sur la
culture des données de l’organisation.
L’organisation dispose d’une expertise en données et BI pour gérer tous les
éléments de bout en bout.
Les besoins en contenu des consommateurs sont bien définis, et il est rare de
devoir personnaliser ou explorer les données au-delà de la solution de création de
rapports fournie.
La propriété du contenu et l’accès direct aux données doivent être limités à un
petit nombre d’experts et de propriétaires.
Les données sont très sensibles ou soumises à des exigences réglementaires.
Voici quelques instructions pour vous aider à réussir dans le décisionnel et les données
d’entreprise.
Transferts de propriété
Vous devrez sans doute transférer la propriété d’une solution particulière à une autre
équipe. Un transfert de propriété entre une division et une équipe centralisée peut se
produire dans les cas suivants :
Une solution pilotée par une entreprise est utilisée par un grand nombre
d’utilisateurs, ou prend désormais en charge des décisions métier critiques. Dans
de tels cas, la solution doit être gérée par une équipe disposant de processus en
place pour implémenter des niveaux plus élevés de gouvernance et de support.
Une solution pilotée par une entreprise peut potentiellement être utilisée par un
plus grand nombre de personnes au sein de l’organisation. Elle doit donc être
gérée par une équipe capable de définir des mesures de sécurité et de déployer du
contenu dans toute l’organisation.
Une division n’a plus l’expertise, le budget ou le temps nécessaire pour continuer à
gérer le contenu, mais le besoin métier du contenu persiste.
La taille ou la complexité d’une solution a tellement augmenté qu’une refonte ou
une architecture de données différente s’impose.
Une preuve de concept est prête à être opérationnalisée.
7 Notes
Il est possible que le nouveau propriétaire soit amené à refactoriser et à valider des
données avant d’assumer la pleine propriété de la solution. La refactorisation est
plus susceptible de se produire avec les aspects les moins visibles de la préparation
des données, de la modélisation des données et des calculs. S’il existe des étapes
manuelles ou des sources de fichiers plats, c’est le moment idéal pour appliquer ces
améliorations. La personnalisation des rapports et des tableaux de bord peut
également nécessiter certains changements (par exemple un pied de page
indiquant le contact d’un rapport ou une étiquette de texte indiquant que le
contenu est certifié).
Il est également possible pour une équipe centralisée de transférer la propriété à une
division. Cela peut arriver pour les raisons suivantes :
L’équipe avec la connaissance du domaine est mieux équipée pour détenir et gérer
le contenu à l’avenir.
L’équipe centralisée a créé la solution pour une division qui n’a pas les
compétences nécessaires pour la créer à partir de zéro, mais elle peut gérer et
étendre la solution à l’avenir.
Conseil
Liste de contrôle : voici une liste des considérations et des actions clés qui vous
permettront de renforcer votre approche en matière de propriété et de gestion du
contenu.
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer la propriété et la gestion
du contenu.
Niveaux de maturité
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de la propriété et
de la gestion de votre contenu.
ノ Agrandir le tableau
• Il existe un ratio élevé entre les modèles sémantiques et les rapports. Quand de
nombreux modèles sémantiques existent pour ne prendre en charge qu’un seul
rapport, cela indique des possibilités d’amélioration de la réutilisation des
données, de renforcement de la fiabilité, et de réduction de la maintenance et du
nombre de modèles sémantiques en double.
• Les divergences entre les différents rapports sont courantes, entraînant une
certaine méfiance à l’égard du contenu produit par d’autres.
• Des mesures initiales sont prises pour améliorer les niveaux de cohérence et de
fiabilité des efforts de libre-service.
• Les rôles et responsabilités sont clairs et bien compris de toutes les personnes
impliquées.
300 : défini • Le libre-service managé est une priorité et un champ d’investissement pour
faire progresser la culture des données. La priorité est de donner aux créateurs
de rapports la flexibilité dont ils ont besoin en veillant à ce qu’ils disposent de
sources de données bien gérées, sécurisées et fiables.
400 : • Des critères sont définis pour aligner les exigences de gouvernance du libre-
Compatible service au contenu d’entreprise.
• Un plan est en place pour définir comment demander et traiter des transferts
de propriété.
500 : efficace • Étapes proactives pour communiquer avec un utilisateur lorsque des activités
inquiétantes sont détectées dans le journal d’activité. Un enseignement et des
informations sont fournis pour apporter des améliorations progressives ou
réduire les risques.
• Des outils tiers sont utilisés par des créateurs de contenu très compétents pour
améliorer la productivité et l’efficacité.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric,
découvrez l’étendue de la distribution du contenu.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Les quatre étendues de livraison décrites dans cet article sont les niveaux personnel, de
l’équipe, du service et de l’entreprise. Pour faire simple, l’étendue de livraison d’une
solution de données et BI détermine bel et bien le nombre de personnes qui verront
sans doute la solution, même si son impact ne se limite pas à cela. L’étendue influence
fortement les bonnes pratiques concernant la distribution, mais aussi celle pour la
gestion du contenu, la sécurité, et la protection des informations. L’étendue a une
corrélation directe avec le niveau de gouvernance (par exemple, les exigences relatives à
la gestion des modifications, au support ou à la documentation). Elle a également une
corrélation directe avec le mentorat et l’accompagnement des utilisateurs ainsi qu’avec
le support utilisateur. Elle influence également les décisions relatives aux licences
utilisateur.
) Important
Toutes les données et solutions ne sont pas équivalentes. Vous devez vous préparer
à l’idée d’appliquer différents niveaux de gestion et de gouvernance des données
en fonction des équipes et du type de contenu. Les règles standardisées sont plus
faciles à gérer. Toutefois, la flexibilité et la personnalisation sont souvent
nécessaires pour appliquer le niveau de supervision approprié en fonction des
circonstances. Votre sponsor exécutif peut s’avérer indispensable en vous
permettant d’obtenir un consensus parmi les groupes de parties prenantes lorsque
des situations difficiles se produisent.
Étendue de la distribution de contenu
Le diagramme suivant montre le nombre de consommateurs cibles qui consommeront le
contenu.
Les quatre étendues de distribution du contenu qui sont présentées dans le diagramme
ci-dessus sont les suivantes :
Personnel : Les solutions personnelles sont, comme leur nom l’indique, destinées à
être utilisées par leur créateur. Le partage de contenu n’est pas un objectif. Par
conséquent, une solution de données et BI personnelle a le plus petit nombre de
consommateurs cibles.
Équipe : Collaboration et partage de contenu entre un nombre relativement faible
de collègues qui travaillent étroitement ensemble.
Service : Livraison du contenu à un grand nombre de consommateurs, qui peuvent
appartenir à un service ou à une unité commerciale.
Entreprise : Livraison du contenu à l’échelle de l’entreprise, au plus grand nombre
de consommateurs cibles. Le contenu d’entreprise est généralement géré par une
équipe centralisée et il est soumis à des exigences de gouvernance
supplémentaires.
7 Notes
Le terme partage peut être interprété de deux manières : il est souvent utilisé de
manière générale pour désigner le partage de contenu entre collègues, ce qui peut
être implémenté de plusieurs façons. Toutefois, cela peut également faire référence
à une fonctionnalité spécifique de Fabric, qui correspond à une implémentation
dans laquelle un utilisateur ou un groupe se voit accorder un accès à un élément.
Dans cet article, le terme partage s’entend dans son sens général pour décrire le
partage de contenu entre collègues. Lorsque nous évoquerons les autorisations
spécifiques à l’élément, cet article y fera clairement référence. Pour plus
d’informations, consultez Plan de sécurité des consommateurs de rapports.
Personnel
L’étendue de livraison personnelle consiste à faire bénéficier un individu d’une valeur
analytique ajoutée. Elle permet également d’effectuer des tâches métier plus
efficacement grâce à l’utilisation personnelle des données, des informations et de
l’analytique. Elle peut s’appliquer à n’importe quel type de professionnel de
l’information au sein de l’organisation, et pas seulement aux analystes de données et
aux développeurs.
Cette étendue ne s’utilise pas pour partager du contenu. Le contenu personnel peut
résider dans Power BI Desktop ou dans un espace de travail personnel du portail Fabric.
Voici quelques instructions pour vous aider atteindre vos objectifs en matière de
contenu développé pour une utilisation personnelle.
Conseil
Pour plus d’informations sur la façon dont les utilisateurs passent les étapes
d’adoption, consultez les Niveaux de maturité d’adoption de la feuille de route
Microsoft Fabric. Pour plus d’informations sur l’utilisation du journal d’activité,
consultez Audit au niveau du locataire.
Équipe
L’étendue de livraison d’équipe s’adresse aux équipes de personnes qui travaillent
étroitement ensemble et qui sont chargées de résoudre des problèmes très liés les uns
aux autres à l’aide des mêmes données. L’objectif principal est généralement de
collaborer et de partager du contenu au sein d’un espace de travail.
Souvent, le contenu est partagé entre les membres de l’équipe de manière plus
informelle par rapport au contenu de service ou d’entreprise. Par exemple, l’espace de
travail est souvent suffisant pour consommer du contenu au sein d’une petite équipe. Il
n’est pas nécessaire de publier le contenu dans l’espace de travail sous la forme d’une
application. Il n’existe pas de nombre d’utilisateurs maximal pour l’utilisation de cette
étendue. Chaque équipe peut déterminer le nombre d’utilisateurs qui lui convient.
Le contenu est créé, géré et affiché par un groupe de collègues qui travaillent
étroitement ensemble.
La collaboration et la cogestion de contenu constituent la priorité la plus élevée.
La livraison officielle de contenu se produira sans doute pour les viewers de
rapports (surtout pour les responsables de l’équipe), mais il s’agit généralement
d’une priorité secondaire.
Les rapports ne sont pas toujours très sophistiqués ni attrayants. La fonctionnalité
et l’accès aux informations constituent les éléments les plus importants.
Voici quelques instructions pour vous aider atteindre vos objectifs en matière de
contenu développé pour une utilisation en équipe.
Vérifiez que le Centre d’excellence est prêt à prendre en charge les efforts des
créateurs libre-service qui publient du contenu pour leur équipe.
Prenez des décisions judicieuses sur la façon dont la gestion de l’espace de travail
sera gérée. L’espace de travail est le lieu où vous allez organiser les contenus
associés, ainsi que définir une limite d’autorisations et l’étendue d’une application
Power BI. Il est tentant de commencer par un espace de travail par équipe.
Toutefois, cette méthode risque de ne pas être suffisamment souple pour répondre
à tous les besoins.
Reportez-vous à l’article concernant la propriété et la gestion de contenu afin de
consulter les techniques décrites pour le libre-service géré par l’entreprise et le
libre-service managé. Il s’agit de techniques hautement pertinentes qui aident les
créateurs de contenu à créer des solutions de données et BI d’équipe.
Conseil
Pour plus d’informations, consultez Planification au niveau de l’espace de travail.
À l’échelle du service
Le contenu est distribué aux membres d’un service ou d’une unité commerciale. La
distribution de contenu à un plus grand nombre de consommateurs est une priorité
pour les étendues de livraison à l’échelle du service.
Voici quelques instructions pour vous aider à réussir dans le décisionnel d’équipe.
Vérifiez que le Centre d’excellence est prêt à prendre en charge les efforts des
créateurs libre-service. Les créateurs qui publient du contenu utilisé dans
l’ensemble du service ou de l’unité commerciale seront sans doute candidats pour
devenir des utilisateurs experts. Ils pourraient aussi se présenter comme candidats
au centre d’excellence en tant que membres satellites.
Prenez des décisions judicieuses sur la façon dont la gestion de l’espace de travail
sera gérée. L’espace de travail est le lieu où vous allez organiser les contenus
associés, ainsi que définir une limite d’autorisations et l’étendue d’une application.
Plusieurs espaces de travail seront probablement nécessaires pour répondre à tous
les besoins d’un grand service ou d’une grande unité commerciale.
Planifiez la manière dont les applications Power BI distribuent du contenu à
l’entreprise. Une application peut fournir une expérience utilisateur beaucoup plus
efficace pour la consommation de contenu. Dans de nombreux cas, les
consommateurs de contenu peuvent obtenir des autorisations pour afficher le
contenu via l’application uniquement. De cette façon, la gestion des autorisations
d’espace de travail est réservée aux créateurs et aux réviseurs de contenu.
L’utilisation de groupes d’audience d’application vous permet de combiner et de
mettre en correspondance le contenu et l’audience cible de manière flexible.
Soyez clair sur les validations de la qualité des données. Les attentes en matière de
fiabilité augmentent avec le niveau d’importance et de criticité.
Vérifiez que les créateurs de contenu disposent des formations, du mentorat et de
la documentation nécessaires. Les bonnes pratiques relatives à la préparation des
données, à la modélisation des données et à la présentation des données vous
permettront d’obtenir des solutions de meilleure qualité.
Expliquez la meilleure façon d’utiliser l’approbation promue, puis indiquez les cas
où l’approbation certifiée pourrait être autorisée pour les solutions à l’échelle du
service.
Vérifiez que le propriétaire est identifié pour tout le contenu BI Division. La
propriété du contenu doit être claire, notamment les personnes à contacter en cas
de questions, de commentaires, de demandes d’amélioration ou de demandes de
support. Dans le portail Fabric, les propriétaires de contenu peuvent définir la
propriété de liste de contacts pour de nombreux types d’éléments (comme les
rapports et les tableaux de bord). La liste de contacts est également utilisée dans
les workflows de sécurité. Par exemple, lorsqu’un utilisateur reçoit une URL pour
ouvrir une application alors qu’il ne dispose pas des autorisations nécessaires, une
option lui est proposée pour demander l’accès.
Vous pouvez utiliser des pipelines de déploiement conjointement à des espaces de
travail séparés. Les pipelines de déploiement peuvent prendre en charge les
environnements de développement, de test et de production, qui offrent une plus
grande stabilité aux consommateurs.
Vous pouvez mettre en place l’utilisation des étiquettes de confidentialité afin
d’implémenter la protection des informations pour l’ensemble du contenu.
Incluez une personnalisation cohérente sur les rapports :
En utilisant des couleurs et du style du service pour indiquer qui a produit le
contenu. Pour plus d’informations, consultez Propriété et gestion du contenu.
En ajoutant une petite image ou une étiquette de texte dans le pied de page du
rapport, utile lorsque celui-ci est exporté à partir du portail Fabric.
En utilisant un fichier de modèle Power BI Desktop standard. Pour plus
d’informations, consultez Mentorat et accompagnement des utilisateurs.
Appliquez les techniques décrites dans l’article Propriété et gestion de contenu
pour le libre-service piloté par l’entreprise et la livraison de contenu en libre-
service managé. Il s’agit de techniques hautement pertinentes qui peuvent aider
les créateurs de contenu à créer des solutions destinées aux services.
Enterprise
Le contenu Entreprise est généralement géré par une équipe centralisée et il est soumis
à des exigences de gouvernance supplémentaires. Le contenu est distribué dans toute
l’entreprise.
Une équipe centralisée d’experts gère le contenu de bout en bout et le publie afin
que d’autres puissent l’utiliser.
La livraison formelle de solutions de données telles que les rapports, les
lakehouses et les applications Power BI est une forte priorité pour garantir que les
consommateurs ont la meilleure expérience.
Le contenu est très sensible, soumis à des exigences réglementaires, ou il est
considéré comme extrêmement critique.
Les modèles sémantiques (précédemment appelés jeux de données) et les flux de
données de niveau entreprise publiés peuvent servir de source pour les créateurs
en libre-service, créant ainsi une chaîne de dépendances aux données sources.
La stabilité ainsi que la cohérence de l’expérience des consommateurs sont très
importantes. La gestion du cycle de vie des applications, comme les pipelines de
déploiement et les techniques DevOps , est couramment utilisée. Il est courant
d’utiliser des processus de gestion des modifications pour réviser et approuver les
modifications du contenu Entreprise avant déploiement, par exemple, à l’aide d’un
tableau de révision des modifications ou d’un groupe similaire.
Il existe des processus permettant de rassembler des exigences, de hiérarchiser les
efforts, de planifier de nouveaux projets ou d’améliorer le contenu existant.
L’intégration à d’autres services de gestion et d’architecture de données de niveau
entreprise pourrait exister, éventuellement avec d’autres services Azure et produits
Power Platform.
Voici quelques instructions pour vous aider à atteindre vos objectifs en matière de
livraison de contenu d’entreprise.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer l’étendue de la distribution
de contenu.
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de la distribution
de votre contenu.
ノ Agrandir le tableau
100 : initial • Le contenu est publié pour les consommateurs par les créateurs libre-service
de manière non contrôlée et sans stratégie spécifique.
300 : Défini • Des instructions claires sont définies et communiquées pour décrire ce qui
peut et ne peut pas se produire dans chaque étendue de distribution. Ces
instructions sont suivies par certains groupes (mais pas par tous) au sein de
l’organisation.
400 : • Des critères sont définis pour aligner les exigences de gouvernance du libre-
Compatible service au contenu d’entreprise.
• Des exigences relatives à la gestion des changements sont mises en place pour
approuver les modifications critiques pour le contenu distribué à un public plus
large.
500 : Efficace • Suivez des étapes de manière proactive pour communiquer avec un utilisateur
lorsque des activités inquiétantes sont détectées dans le journal d’activité. Un
enseignement et des informations sont fournis pour apporter des améliorations
progressives ou réduire les risques.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez l’article Feuille de route d’adoption de
Microsoft Fabric.
Un Centre d’excellence d’analyse ou des données est une équipe interne constituée
d’experts techniques et commerciaux. L’équipe assiste activement d’autres membres de
l’organisation qui utilisent des données dans leur travail. Le Centre d’excellence
constitue le noyau d’une communauté qui vise à favoriser l’adoption et dont les
objectifs s’alignent sur la vision de la culture des données.
7 Notes
) Important
L’un des principaux points forts du Centre d’excellence est qu’il permet de voir
comment les outils d’analyse comme Fabric sont utilisés dans toutes les divisions
de l’organisation. Cette connaissance peut montrer quelles sont les pratiques qui
fonctionnent et celles qui ne fonctionnent pas, ce qui permet une approche
pyramidale de la gouvernance. L’un des principaux objectifs du Centre d’excellence
est de savoir quelles pratiques fonctionnent correctement, de partager ces
connaissances plus largement et de répliquer les bonnes pratiques au sein de
l’organisation.
Lorsque vous recrutez pour le Centre d’excellence, il est important de chercher une
combinaison de compétences analytiques, techniques et commerciales.
Rôles et responsabilités
Vous trouverez ci-dessous la liste générale des rôles que l’on peut trouver au sein d’un
Centre d’excellence. Il est courant que plusieurs personnes partagent en partie un même
rôle, ce qui est utile du point de vue des formations transversales et des remplacements
en cas d’absence. Il est également courant pour une même personne d’assumer
plusieurs rôles. Par exemple, la plupart des membres du Centre d’excellence jouent
également le rôle de coach ou de mentor.
ノ Agrandir le tableau
Rôle Description
Analyste de Expert technique d’un domaine donné. Sert de liaison entre le Centre
données d’excellence et la division. Créateur de contenu pour la division. Fournit une
assistance pour la certification de contenu. Travaille sur des projets de
codéveloppement et des preuves de concept.
Modeleur de Créer et gérer des actifs de données (tels que des modèles sémantiques
données partagés – précédemment connus sous le nom d’ensembles de données – et
Rôle Description
Créateur d’états Crée et publie des rapports, des tableaux de bord et des métriques.
Service client Aide à résoudre les écarts de données et les problèmes remontés par le
support technique.
7 Notes
Les termes suivants seront sans doute différents de ceux qui sont utilisés dans votre
organisation, en particulier l’adjectif fédéré, qui peut avoir de nombreuses
significations.
Avantages :
Vous n’avez affaire qu’à une seule et même équipe qui gère les standards, les
bonnes pratiques et la distribution de bout en bout.
Du point de vue de l’organigramme, le Centre d’excellence constitue un groupe.
Il est facile de commencer avec cette approche, puis d’évoluer vers le modèle
unifié ou fédéré au fil du temps.
Inconvénients :
Une équipe centralisée peut avoir tendance à privilégier les solutions génériques
qui ne fonctionnent pas nécessairement dans toutes les divisions.
Elle peut avoir tendance à préférer les compétences informatiques aux
compétences commerciales.
En raison de sa nature centralisée, il sera sans doute plus difficile pour les membres
du centre d’excellence de bien comprendre les besoins de toutes les unités
commerciales.
Avantages :
Vous n’avez affaire qu’à une seule et même équipe, qui comprend des membres
incorporés issus du Centre d’excellence assumant plusieurs rôles. Les membres
d’équipe incorporés issus du Centre d’excellence sont affectés à différents services
de l’entreprise.
Du point de vue de l’organigramme, le Centre d’excellence constitue un groupe.
Le Centre d’excellence comprend mieux les besoins des divisions grâce à ses
membres dédiés qui possèdent une expertise dans le domaine donné.
Inconvénients :
Les membres incorporés issus du Centre d’excellence qui sont dédiés à une
division spécifique ont une responsabilité différente de celle des personnes qu’ils
aident directement au sein de la division. La structure de l’organisation risque
d’entraîner des complications, des différences de priorités, ou de nécessiter
l’intervention du sponsor exécutif. Il est préférable que le sponsor exécutif dispose
d’une étendue d’autorité qui comprenne le Centre d’excellence ainsi que toutes les
divisions impliquées pour résoudre les conflits plus facilement.
Avantages :
Les membres satellites issus du Centre d’excellence qui sont impliqués possèdent
chacun une expertise dans leur domaine.
Il y a un équilibre entre la représentation centralisée et la représentation
décentralisée parmi les membres satellites et les membres principaux du Centre
d’excellence.
Lorsqu’il existe des situations de propriété de données distribuées (comme cela
peut être le cas lorsque les divisions assument la responsabilité directe des
activités de gestion des données), ce modèle est efficace.
Inconvénients :
Étant donné que les membres principaux et satellites sont répartis dans plusieurs
divisions, l’approche fédérée du Centre d’excellence nécessite une direction forte,
une excellente communication, une gestion de projet robuste et des attentes très
claires.
La structure fédérée accroît le risque de concurrence entre les priorités.
Cette approche implique généralement des employés à temps partiel et/ou une
responsabilité en pointillés, ce qui peut entraîner une concurrence des priorités.
Conseil
Avantages :
Il existe une culture de données spécialisée axée sur la division, ce qui permet un
apprentissage et une adaptation rapides.
Les stratégies et les pratiques sont adaptées à chaque division.
L’agilité, la flexibilité et les priorités sont axées sur la division concernée.
Inconvénients :
) Important
Le centre de coûts.
Le centre de profit avec les budgets des projets.
Une combinaison du centre de coûts et du centre de profit.
Le financement est important car il a un impact sur la façon dont le Centre d’excellence
communique et s’implique auprès de la communauté interne. Plus le centre d’excellence
connaît de réussites, plus il a de chances d’être sollicité par les unités commerciales.
C’est particulièrement le cas lorsque la sensibilisation croît au sein de l’organisation.
Conseil
) Important
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer l’efficacité d’un Centre
d’excellence.
Existe-t-il un Centre d’excellence ? Le cas échéant, qui en fait partie et quelle est sa
structure ?
S’il n’existe pas de Centre d’excellence, existe-t-il une équipe centrale qui effectue
une fonction similaire ? Les décisionnaires en matière de données de l’organisation
comprennent-ils le fonctionnement d’un Centre d’excellence ?
S’il n’existe pas de Centre d’excellence, l’organisation prévoit-elle d’en créer un ?
Pourquoi ou pourquoi pas ?
Existe-t-il des opportunités pour les modèles de Centre d’excellence fédérés ou
décentralisés en raison d’une combinaison de solutions d’entreprise et de solutions
des services ?
Y a-t-il des rôles et des responsabilités manquants dans le Centre d’excellence ?
Dans quelle mesure le Centre d’excellence communique-t-il avec la communauté
des utilisateurs ? Est-ce qu’il accompagne les utilisateurs ? Organise-t-il un portail
centralisé ? Conserve-t-il des ressources centralisées ?
Le Centre d’excellence est-il reconnu dans l’organisation ? La communauté des
utilisateurs le considère-t-elle comme étant fiable et utile ?
Les utilisateurs professionnels voient-ils les équipes centrales comme activant ou
limitant leur travail avec les données ?
Quel est le modèle de financement du Centre d’excellence ? Les clients du Centre
d’excellence contribuent-ils financièrement d’une certaine manière au Centre
d’excellence ?
Le Centre d’excellence communique-t-il avec cohérence et transparence ?
Niveaux de maturité
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de votre Centre
d’excellence.
ノ Agrandir le tableau
100 : initial • Un ou plusieurs Centres d’excellence existent, ou les activités sont effectuées
au sein de l’équipe BI, de l’équipe en charge des données ou du service
informatique. Les objectifs et les attentes en matière de responsabilités ne sont
pas clairs.
200 : • Le Centre d’excellence a été mis en place avec une charte concernant le
reproductible mentorat, le conseil et la formation des utilisateurs libre-service. Le Centre
d’excellence cherche à optimiser les avantages des approches en libre-service en
matière de données et de décisionnel, tout en réduisant les risques.
300 : défini • Le Centre d’excellence fonctionne avec l’implication active de toutes les
divisions en mode unifié ou fédéré.
400 : capable • Les objectifs du Centre d’excellence s’alignent sur les objectifs organisationnels
et sont réévalués régulièrement.
500 : efficace • Des examens réguliers des KPI ou des OKR évaluent l’efficacité du Centre
d’excellence de manière mesurable.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric,
découvrez comment implémenter des instructions, des stratégies et des processus de
gouvernance.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
La gouvernance des données est un sujet vaste et complexe. Cet article présente les
concepts clés et les considérations à prendre en compte. Toutefois, s’il identifie les
actions importantes à entreprendre lors de l’adoption de Microsoft Fabric, il ne constitue
pas une référence complète sur la gouvernance des données.
Lorsqu’elle est axée sur les données et le décisionnel (BI) en libre-service, les principaux
objectifs de la gouvernance sont d’atteindre le bon équilibre entre :
L’équilibre optimal entre contrôle et autonomie varie d’une organisation à l’autre. Il est
aussi probable qu’il varie entre les différentes divisions d’une organisation. Avec une
plateforme comme Fabric, vous obtiendrez de meilleurs résultats en mettant autant
l’accent sur l’autonomisation des utilisateurs que sur la clarification de son utilisation
pratique, dans les limites des garde-fous établis.
Conseil
Stratégie de gouvernance
Si vous songez à implémenter la gouvernance des données dans une organisation, le
meilleur point de départ est de définir une stratégie de gouvernance. En vous
concentrant d’abord sur les objectifs stratégiques de la gouvernance des données,
toutes les décisions détaillées relatives à la mise en œuvre des politiques et des
processus de gouvernance pourront être prises à la lumière de cette stratégie. La
stratégie de gouvernance est quant à elle définie par la culture des données de
l’organisation.
Conseil
Le modèle de gouvernance le plus léger qui permet d’atteindre les objectifs requis
est utilisé.
La gouvernance est abordée de manière itérative et n’entrave pas de manière
significative la productivité.
Une approche ascendante est utilisée pour formuler des instructions liées à la
gouvernance chaque fois que cela est possible. Le Centre d’excellence (COE) et/ou
l’équipe de gouvernance des données observent des comportements réussis qui se
produisent au sein d’une unité commerciale. Le centre d’excellence prend ensuite
des mesures pour effectuer un scale-out vers d’autres secteurs de l’organisation.
Les décisions de gouvernance sont définies en tenant compte des contributions de
différentes divisions avant d’être adoptées. Bien qu’une directive spécifique soit
nécessaire dans certains cas (en particulier dans les secteurs fortement
réglementés), les exigences doivent constituer l’exception et non la règle.
Un équilibre est trouvé entre les besoins en gouvernance et la flexibilité et les
capacités nécessaires pour travailler de manière productive.
Les exigences en matière de gouvernance sont satisfaites dans le cadre du
workflow habituel des utilisateurs, ce qui permet à ces derniers d’accomplir leurs
tâches de la bonne façon avec peu de frictions.
La réponse aux nouvelles demandes de données n’est pas systématiquement
« non », mais plutôt « oui » avec des règles claires, simples et transparentes en ce
qui concerne les exigences de gouvernance relatives à l’accès aux données, à leur
utilisation et à leur partage.
Les utilisateurs qui ont besoin d’accéder aux données sont incités à le faire par les
canaux normaux, en se conformant aux exigences de gouvernance et non en les
contournant.
Les décisions, politiques et exigences relatives à la gouvernance auxquelles les
utilisateurs doivent se soumettre sont conformes aux objectifs de culture des
données de l’organisation ainsi qu’à autres initiatives existantes de gouvernance
des données.
Les décisions qui affectent ce que les utilisateurs peuvent ou ne peuvent pas faire
ne sont pas prises uniquement par un administrateur système.
ノ Agrandir le tableau
Choisissez la méthode 1 lorsque Fabric est déjà utilisé pour des scénarios en libre-
service et que vous êtes prêt à travailler de manière plus efficace.
Choisissez la méthode 2 lorsque votre organisation a déjà une approche bien établie de
la gouvernance qui peut être facilement développée pour inclure Fabric.
Avantages :
Inconvénients :
Des efforts plus importants pour établir la gouvernance sont fournis une fois que
Fabric est utilisé de manière prédominante dans l’organisation
Résistance de la part des utilisateurs en libre-service à qui l’on demande de
changer leur façon de travailler
Les utilisateurs libre-service doivent déterminer eux-mêmes ce qui est inefficace et
entraîne des incohérences
Les utilisateurs libre-service doivent utiliser leur meilleur jugement, ce qui produit
une dette technique à résoudre
D’autres inconvénients possibles sont décrits dans la section sur les défis de la
gouvernance ci-dessous.
Avantages :
Inconvénients :
Avantages :
Inconvénients :
Pour plus d’informations sur la planification initiale, consultez l’article sur la préparation
de la migration vers Power BI.
L’identification de vos défis actuels, et de vos forces, est essentielle pour bien
planifier la gouvernance. Il n’y a pas de solution simple et directe aux défis
répertoriés ci-dessus. Chaque organisation doit trouver le bon équilibre et la bonne
approche lui permettant de résoudre les défis les plus importants pour elle. Les
défis présentés ci-dessus vous aideront à identifier la façon dont ils peuvent
affecter votre organisation. Vous pouvez donc commencer à réfléchir à la solution
la mieux adaptée à votre situation.
Planification de la gouvernance
Certaines organisations ont implémenté Fabric sans approche de gouvernance ni
orientation stratégique claire (comme décrit ci-dessus par la méthode 1). Dans ce cas,
l'effort pour commencer à planifier la gouvernance peut être décourageant.
) Important
La gouvernance est un projet de taille qui n’est jamais entièrement terminé. Le fait
de hiérarchiser et d’itérer sans relâche des améliorations permet de mieux gérer
l’étendue de ce projet. Si vous suivez vos progrès et vos accomplissements chaque
semaine et chaque mois, vous serez étonné de l’impact sur votre organisation au fil
du temps. Les niveaux de maturité à la fin de chaque article de cette série peuvent
vous aider à évaluer où vous en êtes actuellement.
Stratégie
Activités clés :
Organisez une série d’ateliers pour recueillir des informations et évaluer l’état
actuel de la culture des données, de l’adoption et des pratiques données et BI.
Pour obtenir des conseils sur la collecte d’informations et la définition de l’état
actuel de l’adoption décisionnelle, y compris la gouvernance, consultez
planification stratégique décisionnelle.
Utilisez l’évaluation de l’état actuel et les informations collectées pour définir l’état
futur souhaité, y compris les objectifs de gouvernance. Pour obtenir des conseils
sur l’utilisation de cette définition d’état actuelle pour décider de l’état futur
souhaité, consultez planification tactique décisionnelle.
Validez l’objectif et l’étendue du programme de gouvernance.
Identifiez les initiatives ascendantes en cours.
Identifiez les points sensibles, les problèmes et les risques immédiats.
Éduquez les dirigeants sur la gouvernance et vérifiez que le sponsoring exécutif est
suffisant pour soutenir et développer le programme.
Clarifiez la façon dont Power BI s’inscrit dans la stratégie décisionnelle et d’analyse
globale de l’organisation.
Évaluez les facteurs internes tels que la préparation organisationnelle, les niveaux
de maturité et les défis majeurs.
Évaluez les facteurs externes tels que le risque, l’exposition, les obligations
réglementaires et les exigences légales, notamment les différences régionales.
Résultats clés :
Personnes
Activités clés :
Résultats clés :
Politiques et processus
Activités clés :
Résultats clés :
Gestion de projets
L’implémentation du programme de gouvernance doit être planifiée et gérée comme
une série de projets.
Activités clés :
Établissez une chronologie avec des priorités et des jalons.
Identifiez les initiatives et les dépendances associées.
Identifiez les initiatives ascendantes et coordonnez vos efforts.
Créez un plan de projet itératif aligné sur des priorités de haut niveau.
Obtenez l’approbation du budget et le financement.
Établissez un moyen tangible de suivre les progrès.
Résultats clés :
) Important
Politiques de gouvernance
Critères de décision
Toutes les décisions de gouvernance doivent être alignées sur les objectifs établis pour
l’adoption organisationnelle. Une fois la stratégie clairement définie, vous devez prendre
des décisions de gouvernance tactiques qui affectent les activités quotidiennes de la
communauté des utilisateurs en libre-service. Ces types de décisions tactiques sont
directement liés aux politiques de données qui sont créées.
La façon dont nous prenons des décisions en matière de gouvernance dépend des
réponses aux questions suivantes :
Conseil
Chaque combinaison des quatre critères ci-dessus se traduira par des exigences
différentes en matière de gouvernance pour le contenu Fabric.
La liste suivante répertorie les éléments que vous pourriez choisir de prioriser lors de
l’introduction de la gouvernance pour Fabric.
Si vous ne prenez pas de décisions de gouvernance et ne les communiquez pas bien, les
utilisateurs feront appel à leur propre jugement, ce qui peut souvent déboucher sur des
incohérences dans les tâches courantes.
Bien qu’il ne soit pas nécessaire de prendre toutes les décisions de gouvernance à
l’avance, il est important d’identifier les domaines les plus à risque dans votre
organisation. Ensuite, implémentez progressivement les politiques et processus de
gouvernance qui auront le plus d’impact.
Stratégies de données
Une politique de données est un document qui définit ce que les utilisateurs peuvent et
ne peuvent pas faire. Il se peut que vous l’appeliez autrement, mais l’objectif reste le
même : lorsque des décisions, comme celles abordées dans la section précédente, sont
prises, elles sont documentées en vue d’être utilisées et référencées par la communauté
des utilisateurs.
Une politique de données doit être aussi courte que possible. Cela permet aux
utilisateurs de comprendre facilement ce qu’on leur demande.
7 Notes
Recherchez les politiques de données dans votre portail centralisé ou créez un lien
vers celles-ci.
Voici trois exemples courants de politique de données que vous pourriez choisir de
prioriser.
ノ Agrandir le tableau
Stratégie Description
Politique de Spécifie le processus qui est suivi pour certifier du contenu. Les exigences
certification peuvent inclure les activités suivantes : validation de l’exactitude des
(approbation) des données, examen de la source de données et de la traçabilité, examen
données technique du modèle de données, examen de la sécurité et examen de la
documentation.
Stratégie Description
Politique de Spécifie les activités autorisées et non autorisées par classification (niveau
classification et de de sensibilité). Elle doit spécifier des activités comme le partage autorisé
protection des avec des utilisateurs externes (avec ou sans NDA), les exigences de
données chiffrement et la possibilité de télécharger les données. Elle est parfois
appelée politique de gestion des données ou politique d’utilisation des
données. Pour plus d’informations, consultez l’article Protection des
informations pour Power BI.
U Attention
Le fait d’avoir une documentation abondante peut donner le faux sentiment que
tout est maîtrisé et mener à la complaisance. Le niveau d’engagement du centre
d’excellence avec la communauté des utilisateurs est un moyen d’améliorer les
chances que les directives et les politiques de gouvernance soient suivies de façon
cohérente. Les activités d’audit et de supervision sont également importantes.
Rigides
Moins d’autonomie et de responsabilisation
Conseil
Personnel et responsabilité
La structure organisationnelle de la gouvernance des données varie considérablement
d’une organisation à l’autre. Dans les grandes organisations, vous pouvez avoir un
bureau de gouvernance des données avec du personnel dédié. Certaines organisations
ont un conseil ou un comité directeur de gouvernance des données avec des membres
désignés provenant de différentes divisions. Selon l’étendue de l’organe de
gouvernance des données au sein de l’organisation, vous pouvez avoir une équipe de
direction distincte d’une équipe fonctionnelle de personnes.
) Important
Quelle que soit la façon dont l’organe de gouvernance est structuré, il est
important qu’une personne ou un groupe ait suffisamment d’influence sur les
décisions de gouvernance des données. Cette personne doit avoir l’autorité
nécessaire pour appliquer ces décisions au-delà des limites de l’organisation.
Freins et contrepoids
La responsabilité de la gouvernance suppose des freins et des contrepoids.
En commençant en bas, les niveaux du diagramme ci-dessus sont les suivants :
ノ Agrandir le tableau
Niveau Description
important d’avoir une équipe de direction disposant d’une autorité suffisante pour
prendre des décisions le cas échéant.
) Important
Rôles et responsabilités
Une fois que vous avez une idée de votre stratégie de gouvernance, des rôles et des
responsabilités doivent être définis pour établir des attentes claires.
ノ Agrandir le tableau
Rôle Description
Directeur des Définit la stratégie d’utilisation des données en tant que ressource de
données ou l’entreprise. Supervise les directives et les politiques de gouvernance à
directeur de l’échelle de l’entreprise.
l’analytique
Équipe de Crée des politiques, des normes et des processus de gouvernance. Est
gouvernance des chargée de surveiller et d’optimiser l’intégrité, la fiabilité, la confidentialité
données et la convivialité des données à l’échelle de l’entreprise. Collabore avec le
Rôle Description
Comités de travail Équipes temporaires ou permanentes qui se concentrent sur des questions
sur la gouvernance de gouvernance individuelles, comme la sécurité ou la qualité des
des données données.
Gestion des risques Passe en revue et évalue les risques liés au partage des données et à la
sécurité. Définit des politiques et des normes de données éthiques.
Communique les exigences réglementaires et légales.
réglementaires et internes.
Intendant des Collabore avec le comité de gouvernance et/ou le centre d’excellence pour
données vérifier que les données ont des niveaux de qualité acceptables.
Tous les créateurs et Adhèrent aux politiques pour garantir la sécurité, la protection et la bonne
consommateurs de gestion des données organisationnelles, au même titre que les autres
BI ressources de l’organisation.
Conseil
Nommez un remplaçant pour chaque titulaire d’un rôle clé, par exemple pour
chaque membre du conseil de gouvernance des données. En cas d’absence, le
remplaçant peut assister aux réunions et prendre des décisions urgentes si
nécessaire.
Liste de contrôle : voici certaines considérations et actions clés qui vous permettront
d’établir ou de renforcer vos initiatives de gouvernance.
" Aligner les objectifs et les principes directeurs : vérifiez que les objectifs généraux
et les principes directeurs des objectifs de culture des données sont clairement
documentés et communiqués. Vérifiez que l’alignement existe pour toutes les
nouvelles directives ou stratégies de gouvernance.
" Comprendre ce qui se passe actuellement : veillez à bien comprendre comment
Fabric est actuellement utilisé dans des scénarios de données et BI libre-service et
d’entreprise. Documentez les opportunités d’amélioration. Documentez également
les points forts et les bonnes pratiques qu’il serait utile pour effectuer un scale-out
plus vaste.
" Donner la priorité aux nouvelles directives et stratégies de gouvernance : pour
savoir quelle directive ou stratégie créer en priorité, sélectionnez un point sensible
important, un besoin hautement prioritaire ou un risque connu pour un domaine de
données. Elle doit présenter des avantages significatifs et doit pouvoir être mise en
œuvre avec un niveau d’effort réaliste. Quand vous implémentez vos premières
directives de gouvernance, choisissez celles que les utilisateurs sont le plus
susceptibles d’adopter, par exemple celles qui présentent des changements à faible
impact ou qui suscitent de l’intérêt.
" Créer une planification pour passer en revue les stratégies : déterminez la
fréquence à laquelle les stratégies de données sont réévaluées. Réévaluez et ajustez
quand les besoins changent.
" Déterminer comment gérer les exceptions : déterminez comment les conflits,
problèmes et demandes d’exceptions aux stratégies documentées seront traités.
" Comprendre les ressources de données existantes : vérifiez que vous comprenez
quelles ressources de données critiques existent. Créez un inventaire de la propriété
et de la traçabilité, si nécessaire. Gardez à l’esprit que vous ne pouvez pas
gouverner ce que vous ne connaissez pas.
" Vérifier le soutien des responsables : confirmez que le cadre responsable et les
chefs de division vous accordent le soutien nécessaire et une attention suffisante.
" Préparez un plan d’action : incluez les éléments clés suivants :
Priorités initiales : sélectionnez un domaine de données ou une division à la fois.
Chronologie : travaillez en implémentant des itérations suffisamment longues
pour réaliser des progrès significatifs, mais assez courtes pour procéder à des
ajustements périodiques.
Gains rapides : concentrez-vous sur des progrès tangibles, tactiques et
incrémentiels.
Métriques de réussite : créez des métriques mesurables pour évaluer les
progrès.
Questions à se poser
Conseil
« Exporter vers Excel » peut faire débat. Souvent, les utilisateurs professionnels se
concentrent sur la nécessité d’avoir « Exporter vers Excel » dans les solutions
décisionnelles. L’activation de l’option « Exporter vers Excel » peut être contre-
productive, car un objectif métier n’est pas d’obtenir des données dans Excel. Au
lieu de cela, définissez pourquoi les utilisateurs finaux ont besoin des données dans
Excel. Demandez-leur ce qu’ils font avec les données une fois qu’elles sont dans
Excel, les questions métier auxquelles ils essaient de répondre, les décisions et les
actions qu’ils prennent avec ces données.
Le fait de se concentrer sur les décisions et les actions métier permet de se
concentrer sur les outils et fonctionnalités, et d’aider les utilisateurs à atteindre
leurs objectifs métier.
Niveaux de maturité
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de vos initiatives
de gouvernance.
ノ Agrandir le tableau
200 : • Certains secteurs de l’organisation ont fait des efforts délibérés pour
reproductible standardiser, améliorer et documenter leurs pratiques de gestion et de
gouvernance des données.
300 : Défini • Une stratégie de gouvernance complète avec focus, objectifs et priorités est
adoptée et largement communiquée.
400 : capable • Toutes les priorités de la gouvernance Fabric sont alignées sur les objectifs
organisationnels et commerciaux. Les objectifs sont réévalués régulièrement.
• Des processus existent pour personnaliser les stratégies pour les unités
Niveau État de la gouvernance
• Le journal d’activité et les données d’API Fabric sont activement analysés pour
superviser et auditer les activités de Fabric. Une action proactive est effectuée en
fonction des données.
500 : Efficace • Des révisions régulières des indicateurs de performance clés ou des OKR
évaluent les objectifs de gouvernance mesurables. Le progrès itératif et continu
est une priorité.
• Le journal d’activité et les données d’API Fabric sont activement utilisés pour
éclairer et améliorer les efforts d’adoption et de gouvernance.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric, vous en
saurez plus sur le mentorat et l’accompagnement des utilisateurs.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
L’un des objectifs critiques des efforts d’adoption est de permettre aux utilisateurs d’être
le plus performant possible dans les limites requises établies par les règles et stratégies
de gouvernance. C’est la raison pour laquelle le mentorat des utilisateurs est l’une des
responsabilités les plus importantes du Centre d’excellence et a une influence directe sur
l’adoption par les utilisateurs. Pour plus d’informations sur l’adoption utilisateurs,
consultez les niveaux de maturité dans l’adoption de Microsoft Fabric.
Heures de bureau
Projets de codéveloppement
Passage en revue des meilleures pratiques
Support étendu
Heures de bureau
Les heures de bureau constituent une forme d’engagement continue de la communauté
gérée par le Centre d’excellence. Comme leur nom l’indique, les heures de bureau sont
des heures de disponibilité planifiée régulièrement, durant lesquelles les membres de la
communauté peuvent s’adresser à des experts du Centre d’excellence afin de recevoir
de l’aide avec une surcharge de processus minimale. Les heures de bureau sont
généralement basées sur des groupes. Les champions Fabric et d’autres membres de la
communauté peuvent donc également vous aider à résoudre un problème s’il entre
dans le cadre de leur domaine d’expertise.
Les heures de bureau sont une activité très populaire et productive dans de nombreuses
organisations. Certaines organisations les appellent des heures de consultation ou même
de manière plus amusante, l’heure des pros ou les Fabric Fridays. L’objectif principal est
généralement d’obtenir des réponses aux questions, de résoudre des problèmes et
d’éliminer les blocages. Elles peuvent également servir de plateforme à la communauté
d’utilisateurs pour partager des idées, des suggestions et même des réclamations.
Conseil
L’une des options consiste à définir des heures de bureau spécifiques chaque
semaine. Toutefois, certains utilisateurs ne viendront sans doute pas, ce qui peut
s’avérer inefficace. Vous pouvez également tirer parti de Microsoft Bookings
pour planifier les heures de bureau. Il montre les plages horaires auxquelles chaque
expert du Centre d’excellence est disponible, avec une intégration à Outlook
garantissant que la disponibilité est à jour.
Les heures de bureau sont également bénéfiques au Centre d’excellence pour les
raisons suivantes :
Conseil
Il est courant que des problèmes difficiles se posent pendant les heures de bureau
et ne puissent donc pas être résolus rapidement, comme des obstacles au
fonctionnement d’un calcul DAX complexe ou la des problèmes de performances
dans une solution complexe. Définissez des attentes claires en ce qui concerne la
portée des heures de bureau, et si un engagement est souscrit en terme de suivi.
Projets de codéveloppement
Le Centre d’excellence peut également fournir des services de mentorat pendant un
projet de codéveloppement. Un projet de codéveloppement est une forme d’assistance
offerte par le Centre d’excellence, où un utilisateur ou une unité commerciale tire parti
de l’expertise technique du Centre d’excellence pour résoudre des problèmes métier
avec les données. Le codéveloppement implique que des parties prenantes issues de
l’unité commerciale et du Centre d’excellence travaillent en partenariat en vue de créer
une solution d’analyse out de décisionnel libre-service de haute qualité que les parties
prenantes métier ne pourraient pas fournir de manière indépendante.
Les projets de codéveloppement peuvent offrir des avantages significatifs à court terme
et à long terme. À court terme, l’implication du Centre d’excellence peut souvent aboutir
à une solution mieux conçue et plus performante qui respecte les bonnes pratiques et
est alignée aux normes de l’organisation. À long terme, le codéveloppement contribue à
accroître les connaissances et les capacités des parties prenantes, ce qui les rend plus
autonomes et plus confiantes dans leur capacité de fournir des solutions de données et
BI libre-service de qualité à l’avenir.
) Important
Pour l’essentiel, un projet de codéveloppement aide les utilisateurs moins
expérimentés à se familiariser avec la bonne manière de procéder. Cela réduit le
risque qu’une refactorisation soit nécessaire plus tard, et augmente le potentiel de
mise à l'échelle et de croissance d’une solution au fil du temps.
Lors d’une revue, un expert du Centre d’excellence évalue le contenu Fabric en libre-
service développé par un membre de la communauté, et identifie les zones à risque ou
les axes d’amélioration.
Voici quelques exemples d’utilisation à bon escient d’une révision des meilleures
pratiques.
Un examen des bonnes pratiques est le plus souvent axé sur la conception de modèle
sémantique (précédemment appelée conception de jeux de données), bien que la
révision puisse englober tous les types d’éléments de données (tels qu’un lakehouse, un
entrepôt de données, un pipeline de données, un flux de données ou un modèle
sémantique). La révision peut également englober des éléments de rapport (tels que des
rapports, des tableaux de bord ou des métriques).
Le code dans les notebooks suit les normes organisationnelles et les meilleures
pratiques.
Les approches de préparation des données appropriées (flux de données,
pipelines, notebooks et autres) sont utilisées si nécessaire.
Les sources de données utilisées sont appropriées et le Query Folding est appelé
chaque fois que Power Query et les flux de données sont utilisés.
Les étapes de préparation des données sont propres, ordonnées et efficaces
Les choix en matière de mode de connectivité et de mode de stockage (par
exemple Direct Lake, l’importation, la connexion active, DirectQuery et les
frameworks de modèle composite) sont adéquats.
L’emplacement des sources de données, comme les fichiers plats et les fichiers
Power BI Desktop d’origine, est approprié (stockage de préférence dans un
emplacement de sauvegarde avec gestion de versions et sécurité appropriée, par
exemple fichiers Teams ou bibliothèque partagée SharePoint)
Les modèles sémantiques sont bien conçus, propres, compréhensibles, et utilisent
une conception de schéma en étoile.
Les relations sont correctement configurées
Les calculs DAX utilisent des pratiques de codage efficaces (en particulier si le
modèle de données est volumineux)
La taille du modèle sémantique est comprise dans des limites raisonnables, et des
techniques de réduction des données s’appliquent.
La sécurité au niveau des lignes (RLS) applique de manière appropriée des
autorisations de données
Les données sont précises et ont été validées par rapport à la ou les sources faisant
autorité
Les définitions et la terminologie courantes approuvées sont utilisées
Les bonnes pratiques en matière de visualisation des données sont suivies,
notamment la conception pour l’accessibilité
Une fois le contenu déployé, la revue des bonnes pratiques n’est pas nécessairement
terminée. La réalisation du reste de l’évaluation pourrait également inclure des éléments
telles que les suivants :
Support étendu
De temps à autre, le centre d’excellence sera sans doute impliqué dans des problèmes
complexes remontés par le support technique. Pour plus d’informations, consultez
l’article sur le Support utilisateur.
7 Notes
Portail centralisé
Un portail centralisé unique, ou hub, est l’endroit où la communauté des utilisateurs
peut trouver :
Conseil
Dans les grandes organisations, il peut être difficile d’implémenter un portail centralisé
unique. Lorsqu’il n’est pas pratique de consolider tout sur un portail unique, un hub
centralisé peut servir d’agrégateur contenant des liens vers les autres emplacements.
) Important
Formation
La formation est l’un des facteurs clés de la réussite de l’accompagnement des
utilisateurs libre-service dans une communauté Fabric. Il est important que les
ressources de formation appropriées soient facilement disponibles et facilement
découvrables. Certains utilisateurs sont tellement enthousiastes envers l’analyse qu’ils
trouveront des informations et des solutions par eux-mêmes, mais cela n’est pas le cas
de la plupart des utilisateurs.
Conseil
L’un des objectifs de la formation est d’aider les utilisateurs à acquérir de nouvelles
compétences tout en évitant de prendre de mauvaises habitudes. Il s’agit de
trouver le bon équilibre. Par exemple, il ne faut pas surcharger les utilisateurs en
ajoutant de la complexité et de la friction à une classe de niveau débutant pour les
créateurs de rapports. Il s’agit cependant d’un investissement majeur pour rendre
les nouveaux créateurs de contenu conscients de ce qui leur prendrait un certain
temps à comprendre sans formation. Un bon exemple consiste à enseigner la
possibilité d’utiliser une connexion active pour signaler à partir d’un modèle
sémantique existant. En enseignant ce concept au moment logique le plus tôt
possible, vous pouvez éviter qu’un créateur moins expérimenté pense qu’il a
toujours besoin d’un modèle sémantique pour chaque rapport (et encourager la
bonne habitude que constitue la réutilisation de modèles sémantiques existants
dans les rapports).
Certaines formations peuvent être délivrées plus formellement, par exemple sous forme
de cours dirigés ou d’ateliers pratiques. D’autres types de formation sont moins formels,
par exemple :
Conseil
Vous ciblerez sans doute pour la formation les types d’utilisateurs suivants :
) Important
Tenez compte de la façon dont vous souhaitez gérer les utilisateurs à différentes phases
de l’adoption utilisateur. Les besoins en formation sont très différents pour :
La façon dont le Centre d’excellence investit son temps dans la création et l’organisation
des documents de formation évoluera au fil du temps, avec l’augmentation de
l’adoption et de la maturité. Vous constaterez peut-être également au fil du temps que
certains ambassadeurs de la communauté souhaitent mener leur propre ensemble
personnalisé de classes de formation au sein de leur unité commerciale.
Pensez à utiliser Microsoft Viva Learning , qui est intégré à Microsoft Teams. Il
comprend du contenu provenant de sources telles que Microsoft Learn et
LinkedIn Learning . Le contenu personnalisé produit par votre organisation peut
également être inclus.
Conseil
Le menu Aide et support dans le portail Fabric est personnalisable. Lorsque votre
emplacement centralisé pour la documentation de formation est opérationnel,
mettez à jour le paramètre de locataire dans le portail d’administration avec le
lien. Celui-ci est ensuite accessible à partir du menu lorsque les utilisateurs
sélectionnent l’option Obtenir de l’aide. Veillez aussi à informer les utilisateurs de la
présence de l’onglet Aide dans le ruban de Power BI Desktop. Il comprend des liens
vers des formations guidées, des vidéos de formation, de la documentation et bien
plus encore.
Documentation
Une documentation concise et bien écrite peut être une aide précieuse pour les
utilisateurs qui essaient de mener à bien leur travail. Vos besoins en matière de
documentation, ainsi que la façon dont elle est délivrée, dépendent de la façon dont
Fabric est géré dans votre organisation. Pour plus d’informations, consultez l’article
Gestion et propriété du contenu.
Certains aspects de Fabric ont tendance à être gérés par une équipe centralisée, telle
que le Centre d’excellence. Il peut être utile de proposer une documentation pour
répondre aux questions suivantes :
Comment demander une licence Power BI (et s’il existe des exigences en matière
d’approbation du gestionnaire)
Comment demander une nouvelle capacité
Comment demander un nouvel espace de travail
Comment demander l’ajout d’un espace de travail à une capacité existante
Comment demander l’accès à une source de données de passerelle
Comment demander l’installation d’un logiciel
Conseil
Si certaines activités sont répétées sans arrêt, pensez à les automatiser à l’aide de
Power Apps et Power Automate. Dans ce cas, votre documentation indiquera
également comment accéder à la fonctionnalité Power Platform et comment
l’utiliser.
Différents aspects de votre documentation peuvent être gérés par les utilisateurs libre-
service, les équipes décentralisées ou une équipe centralisée. Les types de
documentation suivants peuvent varier en fonction de la personne qui gère le contenu
et en est propriétaire :
Conseil
Lors de la planification d’un portail centralisé, comme décrit plus haut dans cet
article, planifiez la gestion des situations dans lesquelles les directives ou les
stratégies de gouvernance doivent être personnalisées pour une ou plusieurs unités
commerciales.
Il y a également des décisions de gouvernance qui ont été prises et qui doivent être
documentées, par exemple :
La documentation doit se trouver dans votre portail centralisé, qui est un emplacement
de recherche où, de préférence, les utilisateurs travaillent déjà. Teams ou SharePoint
conviennent parfaitement bien à cet usage. La création d’une documentation dans des
pages wiki ou dans des documents peut aussi convenir, à condition que le contenu soit
organisé correctement et facile à trouver. Les documents courts axés sur une rubrique
spécifique sont généralement plus simples d’utilisation que les documents longs et
exhaustifs.
) Important
L’une des documentations les plus utiles que vous pouvez publier pour la
communauté est une description des paramètres du locataire et les appartenances
aux groupes requises pour chaque paramètre de locataire. Il arrive parfois que les
utilisateurs se renseignent sur une fonctionnalité en ligne et se rendent compte que
les informations ne s’appliquent pas à eux. Lorsqu’ils sont en mesure de rechercher
rapidement les paramètres de locataire de votre organisation, ils auront moins
tendance à être frustrés et à tenter de trouver une solution de contournement. Une
documentation efficace peut réduire le nombre de tickets de support technique
envoyés. Cela peut également réduire le nombre de personnes qui doivent se voir
attribuer le rôle administrateur Fabric (qui peuvent avoir ce rôle uniquement pour
l’affichage des paramètres).
Au fil du temps, vous choisirez sans doute d’autoriser l’entretien de certains types de
documentation par la communauté si vous avez des volontaires. Dans ce cas, vous
souhaiterez peut-être introduire un processus d’approbation pour les modifications.
Quand vous constatez que certaines questions sont régulièrement posées dans le forum
Questions et réponses (comme décrit dans l’article Support utilisateur), pendant les
heures de bureau, les repas ou les formations, cela peut indiquer que créer une nouvelle
documentation serait approprié. Quand la documentation existe déjà, cela permet aux
collègues de la référencer si nécessaire. La documentation contribue à l’autonomisation
des utilisateurs et de la communauté.
Conseil
Promouvoir la cohérence.
Réduire la courbe d’apprentissage.
Présenter de bons exemples et de bonnes pratiques.
Gagner en efficacité.
Les fichiers de modèles Power BI peuvent améliorer l’efficacité et aider les utilisateurs à
s’instruire au cours de leur travail normal. Ils procurent entre autres les avantage
suivants :
7 Notes
Une modification et une création avancées (par exemple, dans un éditeur de code
tel que Visual Studio Code).
La séparation intentionnelle d’éléments de modèles sémantiques et de rapports
(contrairement aux fichiers .pbix ou .pbit).
Permettre à plusieurs créateurs de contenu et développeurs de travailler
simultanément sur le même projet.
Intégration au contrôle de code source (par exemple, à l’aide de l’intégration de
Fabric Git).
Utilisation des techniques d’intégration continue et de livraison continue (CI/CD)
pour automatiser l’intégration, le test et le déploiement des modifications ou des
versions de contenu.
7 Notes
Power BI inclut des fonctionnalités telles que des fichiers de modèle .pbit et des
fichiers projet .pbip qui facilitent le partage de ressources de démarrage avec les
auteurs. D’autres charges de travail Fabric fournissent différentes approches pour le
développement et le partage de contenu. Avoir un ensemble de ressources de
démarrage à disposition est important, quel que soient les éléments partagés. Par
exemple, votre portail peut inclure un ensemble de scripts SQL ou de notebooks
qui présentent des approches testées pour résoudre les problèmes courants.
Liste de contrôle : considérations et actions clés que vous pouvez effectuer afin
d’établir, ou améliorer, le mentorat et l’accompagnement des utilisateurs.
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer le mentorat et l’habilitation
des utilisateurs.
Niveaux de maturité
Les niveaux de maturité suivants vous aideront à évaluer l’état actuel de votre mentorat
et accompagnement des utilisateurs.
ノ Agrandir le tableau
Niveau État du mentorat et de l’accompagnement des utilisateurs
• Les heures de bureau sont disponibles afin que la communauté des utilisateurs
puisse obtenir de l’aide du Centre d’excellence.
300 : défini • Le portail centralisé est le principal point d’accès des membres de la
communauté à la formation, à la documentation et aux ressources. Les
ressources sont couramment référencées par les champions et les membres de
la communauté pour se soutenir et apprendre les uns des autres.
400 : capable • Les heures de bureau bénéficient d’une participation régulière et active de
toutes les unités commerciales de l’organisation.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric, vous
découvrirez la communauté de pratique.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Une communauté de pratique est un groupe de personnes ayant un intérêt commun qui
s’entraident et interagissent les unes avec les autres sur la base du volontariat.
L’utilisation d’outils tels que Microsoft Fabric pour produire une analyse efficace est un
intérêt commun qui peut réunir des personnes au sein d’une organisation.
Les champions sont le plus petit groupe parmi les créateurs et les experts techniques.
Les créateurs de contenu libre-service et les experts techniques représentent un plus
grand nombre de personnes. Les consommateurs de contenu représentent le plus grand
nombre de personnes dans la plupart des organisations.
7 Notes
Toutes les références à la communauté Fabric dans cette série d’articles sur
l’adoption désignent des utilisateurs internes, sauf indication contraire. Il existe une
communauté mondiale active et dynamique de blogueurs et de présentateurs qui
produisent une multitude d’informations sur Fabric. Toutefois, les utilisateurs
internes constituent le sujet de cet article.
Pour plus d’informations sur les rubriques connexes, notamment sur les ressources, la
documentation et la formation fournies pour la communauté Fabric, consultez l’article
Mentorat et accompagnement des utilisateurs.
Réseau de champions
L’une des parties importantes d’une communauté de pratique est ses champions. Un
champion est un créateur de contenu libre-service travaillant dans une division qui
collabore avec le Centre d’excellence. Un champion est reconnu par ses pairs comme
expert de référence. Un champion développe et partage continuellement ses
connaissances, même si cela ne fait pas officiellement partie de son travail. Les
champions influencent et aident leurs collègues de nombreuses façons, notamment en
matière de développement de solutions, de formation, d’amélioration des compétences,
de résolution des problèmes et de maintien à jour.
Conseil
Souvent, les gens ne sont pas directement invités à devenir des champions. En règle
générale, les champions sont identifiés par le Centre d’excellence et reconnus pour les
activités qu’ils effectuent déjà, comme le fait de répondre fréquemment aux questions
sur un canal de discussion interne ou de participer à des sessions d’apprentissage.
Telle ou telle approche peut être plus efficace d’une organisation à l’autre, et chaque
organisation trouve ce qui lui convient le mieux au fur et à mesure qu’augmente son
niveau de maturité.
) Important
Une personne présentant les qualités requises peut jouer le rôle de champion, sans
même le savoir et sans avoir aucune reconnaissance formelle. Le Centre
d’excellence doit toujours être à la recherche de champions. Les membres du
Centre d’excellence doivent superviser activement le canal de discussion pour voir
qui est particulièrement utile. Le Centre d’excellence doit encourager et soutenir
délibérément les champions potentiels et, le cas échéant, les inviter dans un réseau
de champions pour concrétiser leur reconnaissance formelle.
Activité Description
Canal de Forum Q&R dans lequel une personne de la communauté peut publier et
discussion afficher des messages. Souvent utilisé pour l’aide et les annonces. Pour plus
d’informations, consultez l’article sur le Support utilisateur.
Sessions Lunch Sessions régulièrement planifiées durant lesquelles quelqu’un fait une brève
and learn présentation de quelque chose qu’il a appris ou d’une solution qu’il a créée.
L’objectif est de faire en sorte qu’un grand nombre de présentateurs soient
impliqués, car les témoignages directs de réussite de la part de collègues
constituent un message puissant.
Heures de bureau Heures régulièrement planifiées au cours desquelles des experts du Centre
avec le Centre d’excellence se mettent à la disposition de la communauté. Les utilisateurs
d’excellence de la communauté peuvent recevoir de l’aide avec une surcharge
administrative minimale. Pour plus d’informations, consultez l’article
Mentorat et accompagnement des utilisateurs.
Billets de blog Billets de blog courts, couvrant généralement des sujets relatifs à des
internes ou procédures techniques.
publications de
wiki
Conseil
Incentives
Un effort conséquent est consacré à la formation et au maintien d’une communauté
efficace. Il est de l’intérêt de tout un chacun que les utilisateurs qui œuvrent pour le bien
de la communauté soient autonomisés et récompensés.
Plan de communication
La communication avec la communauté emprunte différents types de canaux. Les
canaux de communication courants sont les suivants :
Les objectifs de communication les plus critiques visent à s’assurer que les membres de
la communauté savent :
Conseil
Types de communication
Il existe généralement quatre types de communications à planifier :
Les communications destinées aux nouveaux employés peuvent être dirigées vers
les nouveaux employés (et sous-traitants). Il s’agit d’une excellente opportunité de
fournir des documents d’intégration pour démarrer. Ce type de communication
peut inclure des articles sur des sujets tels que l’installation de Power BI Desktop, la
demande d’une licence, les sources des supports de formation préliminaire. Il peut
également inclure les directives générales de gouvernance des données que tous
les utilisateurs doivent connaître.
Les communications d’intégration peuvent être dirigées vers les employés qui
acquièrent simplement une licence Fabric ou qui participent à la communauté de
pratiques. Ce type de communication offre une excellente opportunité de fournir
les mêmes documents que ceux transmis dans le cadre des communications
destinées aux nouveaux employés (comme indiqué plus haut).
Les communications continues peuvent inclure des annonces et des mises à jour
régulières adressées à tous les utilisateurs ou à des sous-ensembles d’utilisateurs,
comme :
Des annonces sur les modifications qui sont prévues pour un contenu
d’organisation essentiel. Par exemple, les modifications doivent être publiées
pour un modèle sémantique partagé critique (anciennement connu sous le nom
de jeu de données) qui est utilisé de manière intensive au sein de l’organisation.
Il peut également inclure l’annonce de nouvelles fonctionnalités. Pour plus
d’informations sur la planification des modifications, consultez l’article sur la
Surveillance au niveau du locataire.
Les annonces de fonctionnalités, qui sont plus susceptibles d’attirer l’attention
du lecteur si le message comporte un contexte significatif sur la raison pour
laquelle il est important. (Même si un flux RSS peut être une technique utile,
avec un rythme de modification fréquent, il peut devenir bruyant et risque
d’être ignoré.)
Les communications situationnelles peuvent être dirigées vers des utilisateurs ou
des groupes spécifiques en fonction d’une occurrence donnée découverte lors de
la supervision de la plateforme. Par exemple, si vous remarquez une quantité
importante de partage à partir de l’espace de travail personnel d’un utilisateur
particulier, vous pouvez lui envoyer des informations sur les avantages des espaces
de travail et des applications Power BI.
Conseil
Liste de contrôle : considérations et actions clés que vous pouvez prendre pour la
communauté de pratique à suivre.
" Clarifier les objectifs : Clarifiez vos objectifs spécifiques pour former un réseau de
champions. Assurez-vous que ces objectifs s’alignent sur votre stratégie de données
et BI globale et que votre sponsor exécutif est de la partie.
" Créer un plan pour le réseau de champions : Même si certains aspects d’un réseau
de champions sont toujours menés de manière informelle, déterminez dans quelle
mesure le Centre d’excellence forme et prend en charge à dessein les efforts des
champions dans les différentes divisions. Déterminez le nombre de champions idéal
pour chaque secteur d’activité fonctionnel. En règle générale, 1 à 2 champions par
secteur est un nombre convenable, mais ce nombre peut varier en fonction de la
taille de l’équipe, des besoins de la communauté libre-service et de la façon dont le
Centre d’excellence est structuré.
" Déterminer le niveau d’engagement des champions : Déterminez le niveau
d’engagement et le temps d’investissement attendu de la part des champions.
Soyez conscient que l’investissement en temps variera d’une personne à l’autre et
d’une équipe à l’autre en raison de responsabilités différentes. Envisagez de
communiquer clairement les attentes aux personnes qui souhaitent s’impliquer.
Obtenez l’approbation du responsable, le cas échéant.
" Déterminer comment identifier les champions : Déterminez comment vous allez
répondre aux demandes de personnes souhaitant devenir champion et comment le
Centre d’excellence va chercher des champions. Décidez si vous allez encourager
ouvertement les employés intéressés à s’identifier en tant que champion et à
demander à en savoir plus (moins courant). Ou bien, si le Centre d’excellence, en
fonction des efforts observés, adresse une invitation privée (plus courant).
" Déterminer la façon dont les membres du réseau des champions seront gérés :
une excellente option pour gérer l'identité des champions est le groupe de sécurité.
Réfléchissez à ce qui suit :
Envisager la façon dont vous devez communiquer avec le réseau de champions
(par exemple, dans un canal Teams, un groupe Yammer et/ou une liste de
distribution d’e-mail).
Envisager la façon dont les réseaux de champions doivent communiquer et
collaborer directement (au-delà des limites de l’organisation).
Détermine si un forum de discussion privé et exclusif pour les champions et les
membres du Centre d’excellence est approprié.
" Planifier les ressources pour les champions : Assurez-vous que les membres du
réseau des champions disposent des ressources dont ils ont besoin, notamment :
Accès direct aux membres du Centre d’excellence.
Influence sur les stratégies de données implémentées (par exemple, les
exigences liées à une stratégie de certification de modèle sémantique).
Influence sur la création de bonnes pratiques et de guides (par exemple,
recommandations pour l’accès à un système source spécifique).
" Impliquer des champions : Impliquez activement certains champions comme
membres satellites du Centre d’excellence. Pour plus d’informations sur les
manières de structurer le Centre d’excellence, consultez l’article Centre d’excellence.
" Créer une boucle de commentaires pour les champions : Assurez-vous que les
membres du réseau des champions peuvent facilement fournir des informations ou
soumettre des suggestions au Centre d’excellence.
" Offrir régulièrement une reconnaissance et des incitations aux champions : Outre
les compliments, le fait de partager des exemples d’efforts réussis peut motiver et
inspirer autrui.
" Identifier les incitations pour les champions : Réfléchissez au type d’incitations que
vous pourriez offrir aux membres de votre réseau de champions.
" Identifier les incitations pour les membres de la communauté : Identifiez les
incitations pour les membres de la communauté.
Améliorer les communications :
Questions à se poser
Niveaux de maturité
Les niveaux de maturité suivants vous aideront à évaluer l’état de votre communauté de
pratique.
ノ Agrandir le tableau
100 : initial • Certains créateurs de contenu libre-service font un excellent travail au sein de
l’organisation. Cependant, leurs efforts ne sont pas reconnus.
300 : défini • Le partage des connaissances sous plusieurs formes est un événement normal.
Le partage d’informations se produit fréquemment et délibérément.
400 : capable • Les champions sont identifiés pour toutes les unités commerciales. Ils
soutiennent activement leurs collègues dans leurs efforts en libre-service.
Contenu connexe
Dans l’article suivant de la série Feuille de route sur l’adoption de Microsoft Fabric,
découvrez le support utilisateur.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez l’article Feuille de route d’adoption de
Microsoft Fabric.
Cet article traite du support utilisateur. Il est principalement axé sur la résolution des
problèmes.
Les premières sections de cet article portent sur les aspects du support utilisateur que
vous contrôlez en interne au sein de votre organisation. Les dernières rubriques
concernent les ressources externes disponibles.
Pour obtenir une description des rubriques connexes, y compris le mentorat des
compétences, la formation, la documentation et l’assistance en matière de
codéveloppement fournis à la communauté interne des utilisateurs Fabric, consultez
l’article sur le mentorat et l’accompagnement des utilisateurs. L’efficacité de ces activités
peut réduire de manière significative le volume des demandes formelles de support
utilisateur et améliorer l’expérience globale des utilisateurs.
Le diagramme suivant montre quelques types courants de support utilisateur que les
organisations emploient avec succès :
Les six types de support utilisateur illustrés dans le diagramme ci-dessus sont les
suivants :
ノ Agrandir le tableau
Type Description
Le support étendu (interne) implique la gestion des problèmes complexes remontés par
le support technique.
Conseil
Pour plus d’informations sur les concepts du décisionnel et des données en libre-
service piloté par l’entreprise, en libre-service managé et en mode entreprise,
consultez l’article sur la propriété et la gestion de contenu.
Chacun des six types de support utilisateur introduit ci-dessus est décrit plus en détail
dans cet article.
Support intra-équipe
Le support intra-équipe fait référence à la façon dont les membres de l’équipe s’entre-
aident et apprennent les uns des autres au cours de leur travail quotidien. Les créateurs
de contenu libre-service qui émergent comme vos champions ont tendance à assumer
ce type de rôle de support informel volontairement, car ils ont un désir intrinsèque
d’aider. Bien qu’il s’agisse d’un mode de support informel, il ne doit pas être sous-
évalué. Certaines estimations indiquent qu’un fort pourcentage de l’apprentissage au
travail est l’apprentissage entre pairs, ce qui est particulièrement utile pour les analystes
qui créent des solutions d’analyse propres à un domaine.
7 Notes
Le support intra-équipe n’est pas très efficace pour les personnes qui sont l’unique
analyste de données au sein d’un service, ni pour celles qui n’ont pas encore créé
de réseau de relations étendu au sein de leur organisation. En l’absence de proches
collègues sur lesquels s’appuyer, d’autres types de support, comme décrit dans cet
article, assument une plus grande importance.
Conseil
L’objectif d’une communauté Fabric interne est d’être autonome, ce qui peut
entraîner une réduction des besoins et des coûts de support formel. Elle peut
également faciliter la création de contenu en libre-service managé qui se produit
sur une échelle plus large, comparé à une approche purement centralisée.
Toutefois, il sera toujours nécessaire de superviser, gérer et promouvoir la
communauté interne. Voici deux conseils spécifiques :
Veillez à la présence de plusieurs experts pour des sujets plus délicats tels que
T-SQL, Python, DAX (Data Analysis Expressions) et le langage de formule
Power Query M. Lorsqu’un membre de la communauté devient un expert
reconnu, il peut être surchargé par un trop grand nombre de demandes
d’aide.
Un plus grand nombre de membres de la communauté pourra facilement
répondre à certains types de questions (par exemple sur les visualisations de
rapport), tandis qu’un nombre plus réduit de membres répondra à d’autres
questions (par exemple pour du langage DAX ou T-SQL complexe). Il est
important que le Centre d’excellence offre à la communauté la possibilité de
répondre, tout en étant disposé à traiter rapidement les questions sans
réponse. Si les utilisateurs posent à plusieurs reprises des questions et ne
reçoivent pas de réponse, cela entravera considérablement la croissance de la
communauté. Un utilisateur qui ne reçoit aucune réponse à ses questions est
susceptible de quitter le forum et de ne jamais plus y revenir.
L’un des avantages d’un canal de discussion interne est que les réponses peuvent
provenir de personnes que le demandeur d’origine n’a jamais rencontrées auparavant.
Dans les grandes organisations, une communauté de pratiques regroupe les gens sur la
base d’un intérêt commun. Elle peut offrir différentes perspectives pour obtenir de l’aide
et apprendre en général.
L’utilisation d’un canal de discussion communautaire interne permet au Centre
d’excellence de superviser le genre de questions posées. C’est l’une des manières pour
le Centre d’excellence de comprendre les problèmes rencontrés par les utilisateurs
(généralement liés à la création de contenu, mais il pourrait également s’agir de la
consommation de contenu).
) Important
Un autre avantage clé d’un canal de discussion est qu’il peut faire l’objet de recherches,
ce qui permet à d’autres personnes de découvrir les informations. Toutefois, il s’agit d’un
changement d’habitude que de demander aux gens de poser des questions sur un
forum ouvert plutôt que par le biais d’e-mails ou de messages privés. Soyez sensible au
fait que certaines personnes ne sont pas à l’aise de poser des questions de manière
aussi publique. Elles reconnaissent ouvertement ce qu’elles ne savent pas, ce qui peut
être embarrassant. Cette réticence peut s’atténuer au fil du temps grâce à la promotion
d’un canal de discussion convivial, motivant et utile.
Conseil
Vous pouvez être tenté(e) de créer un bot pour gérer certaines des questions les
plus courantes et les plus simples de la communauté. Un bot peut fonctionner pour
des questions peu compliquées telles que « Comment faire pour demander une
licence ? » ou « Comment faire pour demander un espace de travail ? » Avant
d’adopter cette approche, réfléchissez s’il y a suffisamment de questions de routine
et prévisibles pour améliorer l’expérience utilisateur plutôt que la rendre encore
plus compliquée. Souvent, un FAQ (Forum aux questions) bien conçu fonctionne
mieux, et est plus simple et plus rapide à développer et à gérer.
Support technique
Le support technique opère généralement en tant que service partagé, exécuté par le
service Informatique. Les utilisateurs qui s’appuieront probablement sur un canal de
support plus formel sont notamment ceux qui :
Il existe également certains problèmes techniques qui ne peuvent pas être entièrement
résolus sans l’implication du service Informatique, comme les demandes d’installation et
de mise à niveau de logiciels lorsque les ordinateurs sont managés par le service
Informatique.
) Important
Conseil
Les problèmes purement techniques, tels que les défaillances d’actualisation des
données ou la nécessité d’ajouter un nouvel utilisateur à une source de données
de passerelle, impliquent généralement des réponses simples associées à un
contrat de niveau de service (SLA). Il peut par exemple y avoir un SLA exigeant une
réponse aux problèmes bloquants en une heure et leur résolution dans les huit
heures. Il est généralement plus difficile de définir des SLA pour la résolution des
problèmes, comme les incohérences de données.
Support étendu
Le Centre d’excellence ayant une compréhension approfondie de la façon dont le
service Fabric est utilisé dans l’organisation, il s’agit d’une option intéressante pour le
support étendu en cas de problème complexe. L’implication du Centre d’excellence dans
le processus de support doit suivre un chemin d’escalade.
La gestion des demandes sous la forme d’un simple chemin d’escalade à partir du
support technique devient difficile à appliquer, car les membres du Centre d’excellence
sont souvent bien connus des utilisateurs professionnels. Pour encourager l’adoption
des canaux appropriés, les membres du Centre d’excellence doivent rediriger les
utilisateurs vers la création d’un ticket de support technique. Cela améliorera également
la qualité des données pour l’analyse des demandes de support technique.
Support Microsoft
En plus des approches de support utilisateur interne décrites dans cet article, il existe de
précieuses options de support externe directement accessibles aux utilisateurs et aux
administrateurs Fabric qui ne doivent pas être négligées.
Documentation Microsoft
Consultez le site web de support Fabric pour en savoir plus sur les problèmes de
haute priorité qui affectent largement tous les clients. Les administrateurs généraux de
Microsoft 365 ont accès à des détails supplémentaires sur les problèmes relatifs au
support dans le portail Microsoft 365.
Conseil
Support administrateur
Plusieurs options de support sont disponibles pour les administrateurs Fabric.
Les clients qui ont un contrat Support unifié Microsoft peuvent envisager d’accorder
aux membres du support technique et du Centre d’excellence l’accès au Microsoft
Services Hub . L’un des avantages du Microsoft Services Hub est que les membres de
votre support technique et du Centre d’excellence peuvent soumettre et afficher des
demandes de support.
Documentation de la communauté
La communauté internationale Fabric est très dynamique. Chaque jour, un grand
nombre de billets de blog, articles, webinaires et vidéos sur Fabric sont publiés. Si vous
utilisez des informations communautaires pour la résolution des problèmes, vérifiez les
points suivants :
" Encouragez les gens à poser des questions : encouragez les utilisateurs à poser
des questions par le biais du canal de discussion communautaire désigné. Au fil du
temps, cela deviendra une habitude d’utiliser ce canal comme première option, et il
évoluera et finira par devenir un support autonome
" Surveillez activement la zone de discussion : veillez à ce que les membres du
Centre d’excellence appropriés supervisent activement ce canal de discussion. Ils
peuvent intervenir si une question reste sans réponse, améliorer les réponses
existantes, ou apporter des corrections si nécessaire. Ils peuvent également poster
des liens vers des informations supplémentaires afin de sensibiliser les utilisateurs à
la présence des ressources existantes. Bien que l’objectif soit l’autonomie de la
communauté en matière de support, des ressources dédiées sont quand même
nécessaires afin d’assurer sa supervision et de favoriser son développement
" Communiquez les options disponibles : veillez à ce que votre population
d’utilisateurs ait connaissance de l’existence de la zone interne de support
communautaire. Cela peut inclure l’affichage visible des liens. Vous pouvez inclure
un lien dans les communications régulières avec votre communauté d’utilisateurs.
Vous pouvez également personnaliser les liens du menu d’aide sur le portail Fabric
afin de diriger les utilisateurs vers vos ressources internes.
" Configurez l’automatisation : veillez à ce que tous vos utilisateurs disposant d’une
licence aient automatiquement accès au canal de discussion de la communauté. Il
est possible d’automatiser la configuration des licences à l’aide de la gestion des
licences basée sur les groupes.
Améliorez votre support technique interne :
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer le support utilisateur.
U Attention
Niveaux de maturité
Les niveaux de maturité suivants vous aident à évaluer l’état actuel de votre support
utilisateur Power BI.
ノ Agrandir le tableau
100 : initial • Les différentes unités commerciales trouvent des moyens efficaces de s’entre-
aider. Toutefois, les tactiques et les pratiques sont cloisonnées et ne sont pas
appliquées de manière cohérente.
• Le support technique gère une petite partie des problèmes de support les plus
courants.
Niveau État du support utilisateur
300 : défini • Le canal de discussion interne est désormais populaire et en grande partie
autonome. Le Centre d’excellence supervise et gère activement le canal de
discussion pour s’assurer que toutes les questions sont traitées rapidement et
correctement.
400 : capable • Le support technique est entièrement formé et prêt à gérer un plus grand
nombre de problèmes de support technique connus et attendus.
• Des contrats de niveau de service (SLA) sont en place afin de définir les attentes
en matière de support technique, y compris le support étendu. Les attentes sont
documentées et communiquées afin d’être claires pour toutes les personnes
concernées.
Contenu connexe
Dans l’article suivant de la série Feuille de route d’adoption de Microsoft Fabric,
découvrez les activités de supervision et d’administration du système.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez l’article Feuille de route d’adoption de
Microsoft Fabric.
) Important
La supervision du système est un sujet vaste et profond. L’objectif de cet article est de
présenter certaines des considérations et actions les plus importantes pour vous aider à
atteindre vos objectifs d’adoption organisationnelle.
Administrateurs Fabric
Le rôle Administrateur Fabric est un rôle défini dans Microsoft 365, qui délègue un sous-
ensemble d’activités de gestion. Les administrateurs Microsoft 365 généraux sont
implicitement des administrateurs Fabric. Les administrateurs Power Platform sont
également implicitement des administrateurs Fabric.
Une décision de gouvernance clé est la désignation d’un administrateur Fabric. Il s’agit
d’un rôle centralisé qui affecte votre locataire tout entier. Idéalement, deux à quatre
personnes au sein de l’organisation sont capables de gérer Fabric. Vos administrateurs
devraient opérer en étroite coordination avec le Centre d’excellence (CE).
) Important
Rôles et responsabilités
Les types d’activités qu’un administrateur effectue sur une base quotidienne varient
d’une organisation à l’autre. Ce qui est important, et prioritaire dans votre culture des
données, influe fortement sur ce qu’un administrateur fait pour accompagner les
scénarios de décisionnel et de données en libre-service piloté par l’entreprise, en libre-
service managé et à l’échelle de l’entreprise. Pour plus d’informations, consultez l’article
Gestion et propriété du contenu.
Conseil
Outre l’administrateur Fabric, il existe d’autres rôles qui utilisent le terme administrateur.
Le tableau suivant décrit les rôles qui sont couramment et régulièrement utilisés.
ノ Agrandir le tableau
Administrateur de Une Gère les espaces de travail ainsi que les charges de travail et
capacité capacité supervise l’intégrité d’une capacité Fabric.
Administrateur Un espace Gère les paramètres des espaces de travail et l’accès à ces
d’espace de travail de travail derniers.
Le reste de cet article offre une vue d’ensemble des activités les plus courantes
effectuées par un administrateur. Il met l’accent sur des activités qu’il est important
d’effectuer de manière efficace lors d’une approche stratégique d’adoption
organisationnelle.
Comment les utilisateurs vont-ils demander l’accès aux nouveaux outils ? L’accès
aux licences, aux données et à la formation sera-t-il disponible pour aider les
utilisateurs à utiliser efficacement les outils ?
Comment les consommateurs de contenu vont-ils visualiser du contenu publié par
d’autres utilisateurs ?
Comment les créateurs de contenu vont-ils développer, gérer et publier du
contenu ? Quels sont vos critères pour décider quels outils et applications sont
appropriés pour quel cas d’utilisation ?
Comment allez-vous installer et configurer les outils ? Cela inclut-il les prérequis et
les composants de connectivité des données associés ?
Comment allez-vous gérer les mises à jour à venir pour les outils et les
applications ?
Architecture
Dans le contexte de Fabric, l’architecture est liée à l’architecture des données, à la
gestion de la capacité et à l’architecture et à la gestion de la passerelle de données.
Architecture de données
L’architecture des données fait référence aux principes, aux pratiques et aux
méthodologies qui régissent et définissent les données collectées et la façon dont elles
sont ingérées, stockées, gérées, intégrées, modélisées et utilisées.
) Important
Les décisions en matière d’architecture des données ont un impact significatif sur
l’adoption de Fabric, la satisfaction des utilisateurs et les taux de réussite des
projets individuels.
Conseil
Prenez la bonne habitude d’effectuer une preuve de concept (POC) technique pour
tester les hypothèses et les idées. Certaines organisations les appellent également
micro-projets lorsque l’objectif est de fournir une petite unité de travail. L’objectif
d’une POC est de traiter les inconnues et de réduire les risques le plus tôt possible.
Il n’est pas nécessaire qu’une POC soit un travail jetable, mais son étendue doit être
limitée. Les révisions des meilleures pratiques, comme décrit dans l’article Mentorat
et accompagnement des utilisateurs, sont une autre méthode utile pour aider les
créateurs de contenu à prendre des décisions architecturales importantes.
Gestion de la capacité
Capacité inclut des fonctionnalités et capacités supplémentaires pour fournir des
solutions d’analyse à grande échelle. Il existe deux types de licences d’organisation
Fabric : Premium par utilisateur (PPU) et capacité. Il existe plusieurs types de licences de
capacité. Le type de licence de capacité détermine les charges de travail Fabric prises en
charge.
) Important
L’utilisation de la capacité peut jouer un rôle important dans votre stratégie de création,
de gestion, de publication et de distribution de contenu. Voici quelques-unes des
principales raisons d’investir dans la capacité :
La liste ci-dessus n’est pas exhaustive. Pour obtenir une liste complète, consultez
Fonctionnalités de Power BI Premium.
U Attention
La mise à l’échelle automatique est destinée à gérer les pics d’utilisation occasionnels ou
inattendus de la capacité. La mise à l’échelle automatique peut répondre à ces pics en
augmentant automatiquement les ressources du processeur pour gérer la charge de
travail accrue.
Il est possible de configurer plusieurs capacités pour faciliter la gestion décentralisée par
différentes divisions. La décentralisation de la gestion de certains aspects de Fabric est
un excellent moyen de trouver un équilibre entre agilité et contrôle.
Les limites par capacité sont inférieures. La taille maximale de mémoire autorisée
pour les modèles sémantiques ne correspond pas à la taille totale du nœud de
capacité P3 achetée. Il s’agit plutôt de la taille attribuée à la capacité dans laquelle
le modèle sémantique est hébergé.
Il est fort probable que l’une des plus petites capacités devra être mise à l’échelle à
un moment donné.
Il existe d’autres capacités à gérer dans le locataire.
7 Notes
Les ressources pour Power BI Premium par capacité sont appelées v-cores.
Toutefois, une capacité Fabric les désigne comme unités de capacité (CU). L’échelle
des CU et des v-cores est différente pour chaque référence SKU. Pour plus
d’informations, consultez la documentation sur les licences Fabric.
Conseil
La décision de savoir qui peut installer le logiciel de la passerelle est une décision
de gouvernance. Pour la plupart des organisations, l’utilisation de la passerelle de
données en mode standard ou d’une passerelle de données réseau virtuel doit être
vivement encouragée. Elles sont beaucoup plus évolutives, gérables et auditables
que les passerelles de données en mode personnel.
Éléments gérés par les propriétaires de données centralisées (y compris les sources de
données utilisées à l’échelle de l’organisation ; la gestion est centralisée pour éviter les
sources de données dupliquées) :
Conseil
Licences utilisateur
Chaque utilisateur a besoin d’une licence commerciale qui est intégrée à une identité
Microsoft Entra. La licence utilisateur peut être gratuite, Pro ou Premium par utilisateur
(PPU).
Une licence utilisateur est obtenue par le biais d’un abonnement qui autorise un certain
nombre de licences avec une date de début et de fin.
7 Notes
Bien que chaque utilisateur ait besoin d’une licence, une licence Pro ou PPU n’est
requise que pour partager du contenu Power BI. Les utilisateurs disposant d’une
licence gratuite peuvent créer et partager du contenu Fabric autre que des
éléments Power BI.
Achat en libre-service
Une décision de gouvernance importante consiste à déterminer dans quelle mesure
l’achat en libre-service doit être autorisé ou encouragé.
Les grandes organisations avec des divisions décentralisées qui ont l’autorité
d’achat et souhaitent gérer le paiement directement avec une carte de crédit
Les organisations qui envisagent de rendre aussi simple que possible l’achat
d’abonnements pour un engagement mensuel
En règle générale, la désactivation des essais n’est pas recommandée. Elle peut
encourager les utilisateurs à chercher des solutions de contournement, par exemple en
exportant les données ou en travaillant en dehors des processus et des outils pris en
charge.
Conseil
Analysez qui utilise, et surtout, qui n’utilise pas, les licences Fabric allouées et
effectuez les ajustements nécessaires. L’utilisation de Fabric est analysée à l’aide du
journal d’activité.
Analysez la rentabilité de la capacité ou de Premium par utilisateur. Outre les
fonctionnalités supplémentaires, effectuez une analyse coûts/avantages pour
déterminer si les licences de capacité sont plus rentables quand il y a un grand
nombre de consommateurs.
Surveillez et gérez la capacité Fabric avec attention. La compréhension des
modèles d’utilisation au fil du temps vous permet de prédire à quel moment
acheter davantage de capacité. Par exemple, vous pourriez choisir d’effectuer un
scale-up à une même capacité pour la faire passer de P1 à P2, ou effectuer un
scale-out pour passer d’une capacité P1 à deux capacités P1.
S’il existe des pics occasionnels dans le niveau d’utilisation, le recours à la mise à
l’échelle automatique avec Fabric est recommandé pour assurer une continuité de
l’expérience utilisateur. La mise à l’échelle automatique procédé d’effectuer un
scale-up des ressources de la capacité pendant 24 heures, puis un scale-down
pour revenir à des niveaux normaux (à condition qu’il n’y ait pas d’activité
soutenue). Gérez le coût de la mise à l’échelle automatique en limitant le nombre
maximal de cœurs virtuels et/ou avec les limites de dépense définies dans Azure.
En raison du modèle de tarifs, la mise à l’échelle automatique convient mieux pour
gérer les augmentations occasionnelles non planifiées de l’utilisation.
En ce qui concerne les sources de données Azure, colocalisez-les dans la même
région que votre locataire Fabric dans la mesure du possible. Cela évite d’exposer
des frais de sortie Azure . Les frais de sortie de données sont minimes mais, à
grande échelle, ils peuvent s’additionner jusqu’à constituer des coûts non planifiés
considérables.
Le livre blanc sur la sécurité dans Power BI est une excellente ressource pour
comprendre l’ampleur des considérations, y compris les aspects gérés par Microsoft.
Cette section présente plusieurs sujets dont la gestion incombe aux clients.
Une des façons d’automatiser son implémentation consiste à utiliser une stratégie de
Conditions d’utilisation Microsoft Entra. L’utilisateur doit afficher et accepter la stratégie
avant d’être autorisé à accéder au portail Fabric pour la première fois. Vous pouvez
également exiger qu’elle soit reconnue périodiquement, comme un renouvellement
annuel.
Le cas échéant, le Centre d’excellence doit fournir aux créateurs de contenu une
documentation et une formation afin qu’ils acquièrent de bonnes pratiques (en
particulier pour les situations nécessitant le traitement de données ultra-sensibles).
L’accès des utilisateurs externes est contrôlé par les paramètres du tenant (locataire)
ainsi que par certains paramètres Microsoft Entra ID. Si vous souhaitez obtenir plus
d’informations sur les considérations relatives aux utilisateurs externes, consultez le livre
blanc Distribuer du contenu Power BI à des utilisateurs invités externes avec Microsoft
Entra B2B.
Protection des informations et prévention contre la perte
de données
Fabric prend en charge les fonctionnalités de protection des informations et de
protection contre la perte de données (DLP) des manières suivantes.
Clés de chiffrement
Microsoft gère le chiffrement des données au repos dans les centres de données
Microsoft avec un chiffrement transparent côté serveur et une permutation automatique
des certificats. Pour les clients soumis à des exigences réglementaires leur imposant de
gérer eux-mêmes la clé de chiffrement Premium, la capacité Premium peut être
configurée pour utiliser Azure Key Vault. L’utilisation de clés gérées par le client
(également appelée BYOK ou Bring Your Own Key) est une précaution pour garantir que
les données client ne peuvent pas être exposées en cas d’erreur humaine par un
opérateur de service.
Notez que Premium par utilisateur (PPU) ne prend en charge le service BYOK que s’il est
activé pour l’ensemble du locataire Fabric.
Audit et supervision
Il est critique que vous utilisiez l’audition de données pour analyser les efforts
d’adoption, comprendre les modèles d’utilisation, éduquer les utilisateurs, prendre en
charge les utilisateurs, atténuer les risques, améliorer la conformité, gérer les coûts de
licence et monitorer les performances. Pour comprendre pourquoi les données d’audit
sont si précieuses, consultez Vue d’ensemble de l’audit et du monitoring.
Audit au niveau des rapports : techniques que les créateurs de rapports peuvent
utiliser pour comprendre quels utilisateurs se servent des rapports qu’ils créent,
publient et partagent.
Audit au niveau des données : méthodes que les créateurs de données peuvent
utiliser pour suivre les modèles de performances et d’utilisation des ressources de
données qu’ils créent, publient et partagent.
Audit au niveau du locataire : décisions et actions clés que les administrateurs
peuvent prendre pour créer une solution d’audit de bout en bout.
Supervision au niveau du locataire : actions tactiques que les administrateurs
peuvent entreprendre pour surveiller les service, incluant les mises à jour et les
annonces Power BI.
API REST
Les API REST Power BI et les API REST Fabric fournissent une mine d’informations sur
votre locataire Fabric. La récupération de données à l’aide des API REST doit jouer un
rôle important dans la gestion et la gouvernance d’une implémentation Fabric. Pour plus
d’informations sur la planification de l’utilisation des API REST pour l’audit, consultez
Audit au niveau du locataire.
Vous pouvez récupérer des données d’audit pour créer une solution d’audit, gérer le
contenu par programmation ou augmenter l’efficacité des actions de routine. Le tableau
suivant présente certaines actions que vous pouvez effectuer avec les API REST.
ノ Agrandir le tableau
Auditer l’activité des utilisateurs API REST pour obtenir des événements d’activité
Auditer les espaces de travail, les Collection d’API REST d’analyse asynchrone des
éléments et les autorisations métadonnées pour obtenir un inventaire client
Auditer le contenu partagé à l’ensemble API REST pour case activée utilisation de liens
des organisations largement partagés
Paramètres d’audit du locataire API REST pour case activée paramètres de locataire
Publication de contenu API REST pour déployer des éléments à partir d’un
pipeline de déploiement ou cloner un rapport vers
un autre espace de travail
Gérer les sources de données de API REST pour mettre à jour les informations
passerelles d’identification d’une source de données de
passerelle
Créer des espaces de travail REST API pour créer un espace de travail
Gérer les autorisations d'espace de travail API REST pour attribuer des autorisations utilisateur à
un espace de travail
Mettre à jour le nom ou la description de API REST pour mettre à jour les attributs de l’espace
l’espace de travail de travail
Récupérer programmatiquement un API REST pour exécuter une requête DAX sur un
résultat de requête d’un modèle modèle sémantique
sémantique
Attribuer des espaces de travail à la API REST pour affecter des espaces de travail à la
capacité capacité
Incorporer du contenu Power BI dans des API clientes Power BI Embedded Analytics
applications personnalisées
Conseil
Il existe de nombreuses autres API REST Power BI. Pour obtenir la liste complète,
consultez Utilisation des API REST Power BI.
) Important
Liste de contrôle : les considérations et actions clés que vous pouvez entreprendre pour
la supervision du système suivent.
" Déterminer les objectifs de gestion des coûts : considérez comment équilibrer les
coûts, les fonctionnalités, les modèles d’utilisation et l’utilisation efficace des
ressources. Planifiez un processus ordinaire pour évaluer les coûts, au moins une
fois par an.
" Obtenir les données du journal d’activité : vérifiez que vous avez accès aux
données du journal d’activité pour faciliter l’analyse des coûts. Il peut être utilisé
pour comprendre qui utilise ou non la licence qui lui est attribuée.
" Le plan pour les besoins d’audit : collectez et documentez les principales exigences
métier d’une solution d’audit. Tenez compte de vos priorités en matière d’audit et
de surveillance. Prenez des décisions clés liées au type de solution d’audit, aux
autorisations, aux technologies à utiliser et aux besoins en données. Consultez le
service informatique pour clarifier les processus d’audit qui existent actuellement et
les préférences en matière d’exigences pour la création d’une nouvelle solution.
" Tenez compte des rôles et des responsabilités : Identifiez les équipes qui seront
impliquées dans la création d’une solution d’audit, ainsi que l’analyse continue des
données d’audit.
" Extraire et stocker les données d’activité utilisateur : Si vous n’êtes pas en train
d’extraire et de stocker les données brutes, commencez à récupérer les données
d’activité utilisateur.
" Extraire et stocker des instantanés des données d’inventaire client : Commencez à
récupérer les métadonnées pour créer un inventaire client, qui décrit tous les
espaces de travail et tous les éléments.
" Extraire et stocker des instantanés de données d’utilisateurs et de groupes :
Commencez à récupérer des métadonnées sur les utilisateurs, les groupes et les
principaux de service.
" Créez un modèle de données organisé : Effectuez le nettoyage des données et les
transformations des données brutes pour créer un modèle de données organisé qui
prend en charge les rapports analytiques pour votre solution d’audit.
" Analysez les données d’audit et agissez sur les résultats : Créez des rapports
analytiques pour analyser les données d’audit organisées. Clarifier les actions
attendues, par qui et quand.
" Inclure des données d’audit supplémentaires : au fil du temps, déterminez les
autres données d’audit susceptibles de compléter les données du journal d’activité
comme donnée de sécurité.
Conseil
Questions à se poser
Utilisez des questions comme celles ci-dessous pour évaluer la supervision du système.
Niveaux de maturité
Les niveaux de maturité suivants vous aident à évaluer l’état actuel de la supervision de
votre système Power BI :
ノ Agrandir le tableau
• Les besoins en architecture, tels que les passerelles et les capacités, sont
satisfaits quand ils se présentent. Toutefois, il n’y a pas de plan stratégique.
300 : Défini • Les paramètres du locataire sont entièrement documentés dans le portail
centralisé pour que les utilisateurs puissent s’y référer, notamment la façon de
demander l’accès aux groupes appropriés.
500 : Efficace • Les administrateurs Fabric travaillent en étroite collaboration avec le Centre
d’excellence. Les billets de blog et les plans de publication de l’équipe produit
Fabric sont fréquemment examinés pour planifier les modifications à venir.
• Une analyse régulière de la gestion des coûts est effectuée pour s’assurer que
les besoins des utilisateurs sont satisfaits de manière économique.
• L’API REST Fabric est utilisée pour récupérer régulièrement les valeurs des
paramètres du locataire.
• Le journal d’activité et les données d’API sont activement utilisés pour informer
et améliorer les efforts d’adoption et de gouvernance.
Contenu connexe
Pour plus d’informations sur la supervision du système et l’administration de Fabric,
consultez les ressources suivantes.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Quand vous cherchez à améliorer l’adoption des données et du décisionnel (BI), vous
devez planifier une gestion des changements efficace. Dans le contexte des données et
du décisionnel, la gestion des changements comprend des procédures qui traitent de
l’impact de ces changements sur les membres d’une organisation. Ces procédures
permettent de vous protéger contre les interruptions et les pertes de productivité liées
aux changements apportés aux solutions ou aux processus.
7 Notes
Une gestion des changements efficace est particulièrement importante quand vous
migrez vers Power BI.
Une gestion des changements efficace améliore l’adoption des changements et stimule
la productivité, car elle :
Une gestion des changements efficace est essentielle pour une adoption réussie à tous
les niveaux. Pour gérer correctement les changements, pensez aux actions et activités
clés décrites dans les sections suivantes.
) Important
Conseil
Tenez compte des types de changements suivants à gérer quand vous planifiez
l’adoption de Fabric.
7 Notes
7 Notes
Dans le contexte de cet article, une solution est conçue pour répondre à des
besoins métier spécifiques des utilisateurs. Une solution peut prendre de
nombreuses formes, par exemple un pipeline de données, un lakehouse, un modèle
sémantique ou un rapport. Les considérations relatives à la gestion des
changements décrites dans cet article s’appliquent à tous les types de solutions, et
pas seulement aux projets de création de rapports.
La façon dont vous préparez les plans et les activités de gestion des changements
dépend des types de changements. Pour gérer les changements de manière réussie et
durable, nous vous recommandons d’implémenter des changements incrémentiels.
Les étapes suivantes décrivent la façon dont vous pouvez gérer les changements de
manière incrémentielle.
1. Définir ce qui change : Décrivez les changements en mettant en évidence les états
antérieur et postérieur. Clarifiez les parties spécifiques du processus ou de la
situation que vous allez changer, supprimer ou introduire. Justifiez la raison pour
laquelle les changements sont nécessaires, et le moment auquel ils doivent avoir
lieu.
2. Décrire l’impact des changements : Pour chacun de ces changements, évaluez son
impact sur l’entreprise. Identifiez les processus, équipes ou individus affectés par
les changements ainsi que les conséquences disruptives attendues. Tenez
également compte des effets en aval des changements sur les autres solutions ou
processus dépendants. Les effets en aval peuvent entraîner d’autres modifications.
De plus, tenez compte du temps pendant lequel la situation est restée la même
avant qu’elle ne change. Les changements apportés aux processus plus anciens ont
tendance à avoir un impact plus élevé, car les préférences et les dépendances
apparaissent au fil du temps.
3. Identifier les priorités : Concentrez-vous sur les changements ayant l’impact
potentiel le plus élevé. Fournissez une description plus détaillée de chaque
changement et de son impact sur les personnes.
4. Planifier l’implémentation des changements de manière incrémentielle :
Déterminez si les changements à fort impact peuvent être divisés en phases ou en
parties. Décrivez comment chaque partie peut être implémentée de manière
incrémentielle par phases pour limiter son impact. Déterminez s’il existe des
contraintes ou des dépendances (par exemple le moment où les changements
peuvent être apportés, ou par qui).
5. Créer un plan d’action pour chaque phase : Planifiez les actions à entreprendre
pour implémenter et prendre en charge chaque phase de changement. Planifiez
également la façon dont vous pouvez atténuer les interruptions dans les phases à
fort impact. Veillez à inclure un plan de restauration dans votre plan d’action, dans
la mesure du possible.
Conseil
Planifiez de manière itérative la façon dont vous allez implémenter chaque phase
de ces changements incrémentiels dans le cadre de votre planification tactique
établie de manière trimestrielle.
Quand vous souhaiterez atténuer l’impact des changements sur l’adoption de Power BI,
tenez compte des activités décrites dans les sections suivantes.
) Important
Vous devez communiquer les changements suffisamment à l’avance pour que les
utilisateurs soient préparés. Plus l’impact potentiel des changements est élevé, plus
vous devez les annoncer tôt. Si des circonstances imprévues ne vous permettent
pas d’émettre une annonce préalable, veillez à en expliquer la raison dans votre
communication.
Voici quelques actions que vous pouvez effectuer pour planifier la formation et le
support.
7 Notes
Impliquer la direction
Le soutien de la direction est essentiel pour une gestion des changements efficace.
Quand un dirigeant prend en charge un changement, il démontre son importance
stratégique ou son avantage pour le reste de l’organisation. Cette approbation et ce
renforcement du haut vers le bas sont particulièrement importants pour les
changements à grande échelle et à fort impact, lesquels ont un potentiel disruptif plus
élevé. Dans ces scénarios, veillez à engager et à impliquer activement votre
commanditaire exécutif pour qu’il approuve et renforce les changements.
U Attention
De plus, vous pouvez avoir un impact significatif sur la résistance aux changements en
impliquant des promoteurs et des détracteurs.
Pour une gestion des changements efficace, vous devez identifier et impliquer les
promoteurs dès le début du processus. Vous devez les impliquer et les informer des
changements pour mieux utiliser et amplifier leur plaidoyer.
Conseil
Les promoteurs que vous identifiez peuvent également être d’excellents candidats
pour votre réseau de champions.
Pour une gestion des changements efficace, vous devez identifier et impliquer les
détracteurs dès le début du processus. Ainsi, vous pouvez atténuer leur impact négatif
potentiel. De plus, si vous répondez à leurs préoccupations, vous pouvez convertir ces
détracteurs en promoteurs, ce qui vous aidera dans vos efforts d’adoption.
Conseil
Les propriétaires de contenu des solutions qui vont être modifiées ou remplacées
représentent une source courante de détracteurs. Les changements sont parfois vus
comme une menace par les propriétaires de contenu, qui sont incités à y résister
dans l’espoir que leur solution continue d’être utilisée. Dans ce cas, identifiez au
préalable les propriétaires de contenu, et impliquez-les dans le processus de
changement. Le fait de donner à ces personnes un sentiment d’importance dans le
processus d’implémentation les aidera à adopter les changements, voire à plaider
en leur faveur.
Questions à se poser
Utilisez des questions telles que celles qui sont indiquées ci-dessous pour évaluer la
gestion des changements.
Niveaux de maturité
Les niveaux de maturité suivants vous permettent d’évaluer l’état actuel de la gestion
des changements, en ce qui concerne les données et les initiatives du décisionnel.
ノ Agrandir le tableau
100 : Initial • Les changements sont généralement réactifs. Ils sont également mal
communiqués.
200 : • Les dirigeants et les décideurs reconnaissent la nécessité d’une gestion des
Reproductible changements dans les projets et les initiatives liés aux données et à la BI.
300 : Défini • Des plans ou des rôles formels de gestion des changements sont en place.
Ces plans incluent des tactiques de communication et des formations, mais ils
ne sont pas suivis de manière cohérente ou fiable. Les changements sont
parfois disruptifs au niveau des processus et des outils existants.
• Une gestion des changements réussie est portée par des personnes clés qui
facilitent la communication et la coopération au sein de l’organisation.
Niveau État de la gestion des changements
400 : Capable • L’empathie et une communication efficace font partie intégrante des
stratégies de gestion des changements.
500 : Efficace • Les changements font partie intégrante de l’organisation. Les membres de
l’organisation comprennent le caractère inévitable des changements, et le
voient comme une source de dynamisme plutôt que de perturbation. Les
changements sont rarement disruptifs au niveau des processus ou des outils
existants.
Contenu connexe
Dans l’article suivant qui conclut la série Feuille de route sur l’adoption de Microsoft
Fabric, découvrez des ressources liées à l’adoption que vous pourrez trouver utiles.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article fait partie de la série Feuille de route d’adoption de Microsoft Fabric. Pour
une vue d’ensemble de la série, consultez la feuille de route d’adoption de
Microsoft Fabric.
Cet article conclut la série sur l’adoption de Microsoft Fabric. Les considérations
stratégiques et tactiques ainsi que les actions présentées dans cette série vous aideront
dans votre adoption de l’analyse et dans la mise en place d’une culture des données
productive au sein de votre organisation.
Introduction à l’adoption
Niveaux de maturité d’adoption
Culture des données
Soutien des responsables
Alignement de l’entreprise
Propriété et gestion du contenu
Étendue de la distribution de contenu
Centre d’excellence
Gouvernance
Mentorat et accompagnement
Communauté de pratique
Service client
Supervision du système
Gestion du changement
Le reste de cet article comprend des suggestions d’actions suivantes à effectuer. Il inclut
également d’autres ressources liées à l’adoption que vous pouvez trouver précieuses.
Quelques points clés importants sont impliqués dans les suggestions précédentes.
Se concentrer sur le court-terme : bien qu’il soit important d’avoir un œil sur la
vue d’ensemble, nous vous recommandons de vous concentrer principalement sur
le prochain trimestre, le semestre suivant et l’année suivante. Il est plus facile
d’évaluer, de planifier et d’agir lorsque vous vous concentrez sur le court terme.
La progression sera incrémentielle : les changements qui se produisent tous les
jours, chaque semaine et chaque mois s’additionnent au fil du temps. Il est facile
de se décourager et de sentir un manque de progrès lorsque vous travaillez sur
une grande initiative d’adoption qui prend du temps. Si vous effectuez le suivi de
votre progression incrémentielle, vous serez surpris de voir tout ce que vous
pouvez accomplir au cours d’une année.
Les changements sont continus : préparez-vous à reconsidérer les décisions que
vous prenez, peut-être tous les trimestres. Il est plus facile de faire face aux
changements continus lorsque vous vous attendez à ce que le plan change.
Tout est corrélé : à mesure que vous progressez dans chacune des étapes
répertoriées ci-dessus, il est important que tout soit corrélé à partir des objectifs
stratégiques de haut niveau de l’organisation, jusqu’à des éléments d’action plus
détaillés. De cette façon, vous saurez que vous travaillez sur les bonnes choses.
Le framework peut augmenter cette série sur la feuille de route d’adoption de Microsoft
Fabric. Cette série est axée sur les raisons d’adopter Fabric ainsi que sur ce qu’implique
l’adoption, plutôt que sur la procédure à suivre.
7 Notes
Transformation BI de Microsoft
Nous vous conseillons également de lire cet article sur le parcours et l’expérience de
Microsoft concernant la culture des données. Cet article décrit l’importance de
deux notions : la discipline au centre et la flexibilité à la périphérie. Il partage également
les opinions et les expériences de Microsoft concernant l’importance des Centres
d’excellences.
Le modèle de maturité pour l’adoption Power CAT , publié par l’équipe Power CAT,
décrit des modèles répétables qui permettent une l’adoption réussie de Power Platform.
Le Starter Kit du Centre d’excellence Power Platform est un ensemble de composants et
d’outils qui vous aideront à développer une stratégie d’adoption et de support pour
Microsoft Power Platform.
Conseils du secteur
Data Management Book of Knowledge (DMBOK2) que vous pouvez acheter auprès de
DAMA International. Il contient une multitude d’informations sur la maturation des
pratiques de gestion des données.
7 Notes
Les autres ressources fournies dans cet article ne sont pas obligatoires pour tirer
parti des instructions fournies dans cette série sur l’adoption de Fabric. Il s’agit de
ressources fiables que vous pouvez utiliser pour continuer votre parcours
d’adoption.
Commentaires
Cette page a-t-elle été utile ? Yes No
Dans cette vidéo, regardez Matthew vous présenter la série d’articles sur la planification
de l’implémentation de Power BI.
https://www.microsoft.com/fr-fr/videoplayer/embed/RWUWA9?
postJsllMsg=true&autoCaptions=fr-fr
Zones d’objet
Lorsque vous implémentez Power BI, il existe de nombreux domaines d’objet à prendre
en compte. Les zones d’objet suivantes font partie de la série de planification de
l’implémentation power BI :
Stratégie BI
Configuration du locataire
Outils et appareils utilisateur
Abonnements, licences et essais
Administration de locataire
Espaces de travail
Gestion des données
Gestion de cycle de vie du contenu
Distribution et partage de contenu
Sécurité
Protection des informations et prévention contre la perte de données
Gestion de la capacité
Passerelles de données
Intégration à d’autres services
Audit et supervision
Suivi de l’adoption
Mise à l’échelle et croissance
7 Notes
Scénarios d’usage
La série comprend des scénarios d’utilisation qui montrent différentes façons dont les
créateurs et les consommateurs peuvent déployer et utiliser Power BI :
Objectif
Lorsqu’elle sera terminée, la série :
Recommandations
Pour vous préparer à réussir, nous vous recommandons de suivre les étapes suivantes :
Public cible
Le public visé par cette série d’articles peut être intéressé par les résultats suivants :
Identifier les domaines dans lesquels ils peuvent améliorer ou renforcer leur
implémentation de Power BI.
Augmenter leur capacité à gérer efficacement et à diffuser en toute sécurité du
contenu Power BI.
Planifier l’implémentation de Power BI au sein de leur organisation.
Augmenter le retour sur investissement (ROI) de leur organisation dans Power BI.
Cette série sera certainement utile aux organisations qui en sont aux premiers stades de
la mise en œuvre de Power BI ou qui prévoient une mise en œuvre étendue. Cela peut
également être utile pour ceux qui travaillent dans une organisation présentant une ou
plusieurs des caractéristiques suivantes :
Conseil
Contenu connexe
Dans le prochain article de cette série, découvrez les scénarios d'utilisation qui décrivent
comment vous pouvez utiliser Power BI de diverses manières.
Les partenaires Power BI expérimentés sont là pour aider votre organisation à mener à
bien le processus de migration. Pour contacter un partenaire Power BI, accédez au
portail des partenaires Power BI .
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article présente la série d’articles sur la stratégie BI (business intelligence). La série
sur la stratégie BI est destinée à plusieurs audiences :
La définition de votre stratégie BI est essentielle pour tirer le meilleur parti des données
et analyses. Il est important d’avoir une stratégie BI clairement définie pour que les
efforts soient cohérents avec les priorités de l'organisation. Dans certains cas, c’est
particulièrement important.
Nous vous recommandons d’accorder une attention particulière à ces articles si votre
organisation :
En résumé, cette série d’articles traite de la définition d’une stratégie BI. Elle définit ce
qu’est une stratégie BI, pourquoi elle est importante et comment vous pouvez planifier
votre stratégie BI. Les articles de cette série complètent la feuille de route d’adoption de
Fabric.
Une stratégie BI est un plan permettant d’implémenter, d’utiliser et de gérer les données
et leur analyse, afin de mieux accompagner vos utilisateurs dans la réalisation de leurs
objectifs commerciaux. Une stratégie BI efficace garantit que les données et leur analyse
bénéficient à votre stratégie d’entreprise.
ノ Agrandir le tableau
Article Description
Pour progresser vers vos objectifs de BI, vous identifiez et décrivez les résultats clés de BI
que vous souhaitez atteindre au cours d’une période donnée. Ces résultats clés décrivent
les chemins pour atteindre l’état futur souhaité.
Pour réaliser vos résultats clés de BI, vous planifiez et implémentez des solutions et des
initiatives BI. Une solution peut être développée par une équipe informatique ou de BI
Article Description
Les solutions et initiatives BI ont pour but de permettre aux utilisateurs de l’entreprise
d’atteindre leurs résultats clés..
Les solutions et les initiatives BI sont utilisées pour prendre des décisions éclairées qui se
traduisent en actions efficaces.
7 Notes
Dans le cadre des objectifs et des résultats clés (OKR), les objectifs sont des
descriptions claires et générales de ce que vous souhaitez atteindre. En revanche,
les résultats clés sont des résultats spécifiques et réalisables permettant de mesurer
la progression vers l’un de vos objectifs.
En outre, les initiatives ou solutions sont des processus ou des outils conçus pour
vous aider à obtenir un ou plusieurs résultats clés. Les solutions répondent aux
besoins de données spécifiques des utilisateurs. Une solution peut prendre de
nombreuses formes, telles qu’un pipeline de données, un data lakehouse, un
modèle sémantique ou un rapport Power BI.
Pour plus d’informations sur les OKR, consultez Découvrir les OKR (Microsoft Viva
Goals).
ノ Agrandir le tableau
Domaine Exemple
le temps de produire des rapports sur la livraison à temps de 80 %, afin que les
rapports soient disponibles quotidiennement, au lieu d’une semaine. Un autre
résultat clé consiste à fournir des données d’inventaire et de commandes
combinées pour le plus grand centre de distribution. Les planificateurs de
demande peuvent utiliser des données d’inventaire pour améliorer la
planification de la livraison.
Utilisateurs Grâce à ces solutions et ces initiatives de BI, les utilisateurs professionnels
professionnels peuvent identifier les risques de retard de livraison et y remédier plus
efficacement. Ces solutions permettent de réduire les retards de livraison et
d’améliorer la satisfaction des clients, ce qui permet à l’organisation d’atteindre
ses objectifs commerciaux.
ノ Agrandir le tableau
Article Description
Une stratégie de données définit les objectifs et les domaines d’intérêt d’une utilisation
et gestion plus larges des données d’une organisation. Une stratégie de données
englobe plus que la seule business intelligence.
La culture des données est importante dans une stratégie BI et dans une stratégie de
données. Différents périmètres de culture des données donnent une vision des
comportements, des valeurs et des processus qui permettent aux utilisateurs de travailler
efficacement avec les données. La littératie des données est un exemple de périmètre de
culture des données.
) Important
L’illustration suivante vous présente comment définir votre stratégie BI à trois niveaux
de planification différents, comme illustré dans le diagramme suivant.
L’illustration représente les trois niveaux de planification suivants.
ノ Agrandir le tableau
Article Description
Planification stratégique : vous commencez par définir vos objectifs et vos domaines
d’intérêt de BI stratégiques, ainsi que la façon dont ils appuient votre stratégie
d’entreprise. Ces objectifs de BI sont des descriptions générales de ce que vous
souhaitez réaliser et de vos motivations.
Planification tactique : vous identifiez ensuite vos résultats clés de BI spécifiques. Ces
résultats clés sont des actions spécifiques, mesurables et à court terme qui décrivent
comment vous allez avancer vers vos objectifs de BI stratégiques à long terme.
Planification de solution : les solutions et initiatives BI que vous créez doivent être le
résultat direct de la planification tactique. Ces solutions vous permettent d’atteindre vos
résultats clés de BI et de vous rapprocher de vos objectifs de BI.
) Important
Exemple de stratégie BI
L’exemple général fictif suivant explique comment passer des objectifs commerciaux aux
objectifs de BI. Il explique ensuite comment passer des objectifs BI aux résultats clés,
puis aux solutions et aux initiatives de BI.
Dans cet exemple, l’organisation a pour objectif d’augmenter l’efficacité des ventes.
L’une des stratégies utilisées par l’entreprise pour atteindre cet objectif consiste à
vendre plus de produits à forte marge à ses principaux clients.
7 Notes
Dans cet exemple, de nombreux autres facteurs peuvent être importants. Toutefois,
l’organisation a identifié ces domaines et objectifs particuliers pour soutenir la
stratégie métier.
Résultats clés
Pour atteindre ses objectifs de BI, l’équipe de BI effectue une planification tactique pour
identifier et décrire ses résultats clés à court terme. L’équipe de BI crée un programme
d’introduction d’littératie des données pour les commerciaux. De plus, l’équipe
décisionnelle rédige un plan d’accompagnement des utilisateurs et un plan de
responsabilité pour les commerciaux qui souhaitent effectuer des analyses en libre-
service. Ces plans permettent aux commerciaux de demander l’accès aux données, dès
lors qu’ils ont terminé un parcours de formation déterminé et signé un engagement
d’utilisation en libre-service.
Dans cet exemple, les résultats clés de BI au premier trimestre sont les suivants :
Pour obtenir ses résultats clés, l’organisation vise à mettre en œuvre les initiatives clés
suivantes, ou à concevoir et à déployer les solutions de BI suivantes.
7 Notes
Cet exemple décrit un scénario simple pour expliquer les trois niveaux de
planification d’une stratégie BI. En réalité, vos objectifs, résultats et initiatives de BI
stratégiques et vos solutions sont susceptibles d’être plus complexes.
Planification itérative d’une stratégie BI
Votre stratégie BI doit évoluer avec le développement de votre entreprise et en fonction
des expériences que traverse votre organisation. Pour ces raisons, la planification de
votre stratégie BI est un processus itératif continu.
Il est irréaliste de penser qu’une planification à long terme globale puisse survivre au-
delà de 12 à 18 mois. Par exemple, essayer de créer un plan exhaustif sur trois à cinq ans
peut entraîner un sur-investissement, un échec dans la prise en compte du changement
et une incapacité à refléter toute modification de votre stratégie d’entreprise. Il est
préférable de définir et mettre en œuvre vos stratégies à l’aide d’approches itératives,
avec des résultats réalisables dans une période maximale de 18 mois.
Dans l’illustration suivante, vous trouverez des suggestions pour programmer vos
révisions de planification.
Le schéma montre comment structurer de manière itérative la planification de votre
stratégie BI à l’aide des concepts suivants.
ノ Agrandir le tableau
Article Description
Éviter une planification détaillée à long terme : les plans détaillés à long terme peuvent
devenir obsolètes à mesure que les technologies et les priorités de l’entreprise changent.
Amélioration continue (tous les mois) : les sessions mensuelles se concentrent sur les
retours d’expérience et les changements urgents qui ont un impact sur la planification
en cours. Si nécessaire, les décideurs peuvent prendre des décisions, des mesures
correctives ou influencer la planification en cours.
L’illustration représente trois niveaux de planification de stratégie BI, qui sont décrits
dans des articles distincts. Nous vous recommandons de lire ces articles dans l’ordre
suivant.
Conseil
Avant de lire les articles sur la stratégie BI, nous vous recommandons de parcourir
la feuille de route d’adoption de Fabric. La feuille de route d’adoption donne
divers éléments à prendre en compte pour parvenir à l’adoption de Fabric et à une
culture des données saine. Ces articles sur la stratégie BI s’appuient sur la feuille de
route d’adoption.
Contenu connexe
Dans l’article suivant de cette série, découvrez la planification stratégique BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à définir vos objectifs et domaines prioritaires en matière de
business intelligence (BI) par le biais d’un plan stratégique. Il est principalement destiné
à:
Une stratégie BI est un plan de mise en œuvre, d’utilisation et de gestion des données et
des analyses. Comme décrit dans l’article sur la vue d’ensemble de la stratégie BI, votre
stratégie BI est un sous-ensemble de votre stratégie de données. Elle soutient votre
stratégie d’entreprise en permettant aux utilisateurs de prendre des décisions et d’agir
en utilisant plus efficacement les données et les solutions de BI.
En résumé, cet article décrit comment élaborer un plan stratégique pour définir les
objectifs et les domaines prioritaires de votre stratégie BI.
7 Notes
Dans le cadre des objectifs et des résultats clés (OKR), les objectifs sont des
descriptions claires et générales de ce que vous souhaitez atteindre. En revanche,
les résultats clés sont des résultats spécifiques et réalisables permettant de mesurer
la progression vers l’un de vos objectifs.
En outre, les initiatives ou solutions sont des processus ou des outils conçus pour
vous aider à obtenir un ou plusieurs résultats clés. Les solutions répondent aux
besoins de données spécifiques des utilisateurs. Une solution peut prendre de
nombreuses formes, telles qu’un pipeline de données, un data lakehouse, un
modèle sémantique ou un rapport Power BI.
Pour plus d’informations sur les OKR, consultez Découvrir les OKR (Microsoft Viva
Goals).
Vous effectuez les étapes suivantes pour définir vos objectifs et domaines prioritaires
stratégiques en matière de BI.
ノ Agrandir le tableau
Étape Description
1 Mettez en place une équipe de travail pour diriger l’initiative de stratégie de BI.
3 Réalisez une évaluation de la situation actuelle en organisant une série d’ateliers de plan
stratégique avec les principales parties prenantes.
Étape Description
4 Utilisez les évaluations et les contributions des parties prenantes pour déterminer les
objectifs et les domaines prioritaires stratégiques en matière de BI.
Le diagramme suivant décrit les rôles suivants qui désignent les membres de l’équipe de
travail, et les types de membres d’une équipe de travail.
Le diagramme décrit les rôles suivants.
ノ Agrandir le tableau
Article Description
Le sponsor exécutif fournit généralement des objectifs selon une approche descendante
et le support de l’équipe de travail, y compris le financement. Le sponsor exécutif peut
également nommer les membres de l’équipe de travail avec le Centre d’excellence (COE).
Un COE ou une équipe centrale de BI se concerte avec le sponsor exécutif pour identifier
et nommer les membres de l’équipe de travail. Le COE peut également fournir des
conseils à l’équipe de travail pour soutenir ses activités.
Les membres du COE font partie de l’équipe de travail. Ils sont responsables de
l’utilisation de leur expertise en matière de BI pour conduire la collecte d’informations de
BI et compléter les évaluations de l’état actuel.
Les PME professionnelles font partie de l’équipe de travail. Ils représentent les intérêts de
leur service ou unité commerciale. Les PME sont responsables de la collecte des
informations de stratégie d’entreprise.
Les membres de l’équipe fonctionnelle, comme ceux de l’équipe chargée des données
de référence, peuvent faire partie de l’équipe de travail. Ils sont chargés de clarifier les
processus stratégiquement importants lors de la collecte d’informations.
Les membres de l’équipe technique, comme ceux d’une équipe d’engineering données,
peuvent faire partie de l’équipe de travail. Ils sont chargés de clarifier les systèmes
d’importance stratégique lors de la collecte d’informations.
Les membres de l’équipe de sécurité font partie de l’équipe de travail. Ils sont chargés
d’identifier et de clarifier les exigences en matière de conformité, de sécurité et de
respect de la vie privée lors de la collecte d’informations.
D’autres membres de l’équipe informatique peuvent faire partie de l’équipe de travail. Ils
peuvent repérer d’autres exigences techniques liées à des domaines tels que la mise en
réseau ou la gestion des applications.
7 Notes
Tous les rôles décrits dans le diagramme ne doivent pas nécessairement être
présents dans l’équipe de travail. Impliquer les rôles qui sont pertinents pour la
portée et l’échelle de votre initiative de stratégie de BI.
) Important
Outre les nombreuses activités énumérées dans la feuille de route pour l’adoption, le
sponsor exécutif joue un rôle clé dans le plan stratégique BI :
Conseil
Dans le cadre de l’exercice de cadrage, vous devez également planifier la manière dont
vous ferez comprendre aux parties prenantes que la stratégie de BI sera définie de
manière itérative.
7 Notes
) Important
Vous pouvez faire appel à des membres de l’équipe de travail du centre d’excellence
Power BI (COE)ou à un groupe similaire d’experts BI. La principale responsabilité des
membres du COE au sein de l’équipe de travail est de tirer parti de leur expertise du
COE pour contribuer à la collecte d’informations. En outre, les membres du COE peuvent
partager les conclusions de l’atelier avec le COE pour informer les décisions et les
actions de plan tactique.
Certaines organisations n’ont pas de COE, peut-être parce que le rôle d’un COE est
effectué par son équipe BI ou informatique. Dans ce cas, envisagez d’ajouter des
membres de l’équipe BI ou informatique à l’équipe de travail.
7 Notes
Conseil
7 Notes
Il peut ne pas être pratique d’inclure chaque service, unité commerciale ou région
dans l’équipe de travail. Dans ce cas, veillez à vous efforcer d’identifier les
hypothèses et les exceptions pour tous les départements, unités commerciales ou
régions non représentés.
Réseau de champions
Les membres de l’équipe de travail peuvent inclure des utilisateurs de vos réseau
champions existants dans la communauté de pratiques. Un champion possède
généralement une connaissance exceptionnelle des outils de BI et des besoins en
données de son secteur d’activité. Ils sont souvent des leaders de la communauté de
pratique. La principale responsabilité des champions de l’équipe de travail est de
promouvoir la collecte d’informations et d’impliquer leur communauté de pratique dans
l’initiative.
7 Notes
Une équipe de travail peut inclure des membres de domaines fonctionnels spécifiques,
en particulier lorsque d’autres compétences sont requises. La responsabilité principale
de ces membres est d’apporter leur expertise sur des sujets importants spécifiques à la
stratégie BI.
Voici quelques exemples de cas où vous pouvez inclure des membres de zones
fonctionnelles dans l’équipe de travail.
ノ Agrandir le tableau
Article Description
L’équipe de travail crée et gère différents canaux pour chaque domaine d’activité. La
séparation par domaine d’activité doit correspondre à la structure de niveau supérieur
de l’initiative. Chaque canal contient un référentiel de résultats résumés, de chronologies
et de discussions sur la stratégie BI.
Le sponsor exécutif limite la participation. Par exemple, ils peuvent résoudre les litiges au
fur et à mesure qu’ils surviennent.
Conseil
) Important
Ces activités sont des prérequis pour les ateliers et les évaluations complètes (étape 3).
Effectuez des recherches indépendantes
L’équipe de travail effectue des recherches pour documenter l’état actuel de l’adoption
et de la mise en œuvre de la BI. Cette recherche est utilisée pour effectuer des
évaluations, mais elle aide également l’équipe de travail à se préparer aux ateliers.
Les PME de l’équipe de travail doivent utiliser leur expertise pour guider les efforts
visant à décrire le contexte d’entreprise. Toutefois, il est important que tous les membres
de l’équipe de travail participent. Il est essentiel que l’équipe de travail ait une
compréhension partagée de la stratégie d’entreprise. De cette façon, la stratégie BI se
concentre sur la résolution des besoins d’entreprise au lieu de résoudre des problèmes
techniques abstraits.
Les membres du COE de l’équipe de travail doivent utiliser leur expertise pour guider les
efforts visant à décrire l’état actuel de l’adoption et de la mise en œuvre de la BI. Un
exemple d’activité qui facilite cet effort est l’audit au niveau du locataire. L’audit permet
à l’équipe de travail de collecter un inventaire des initiatives et solutions BI actuelles
pour préparer les ateliers.
) Important
Le diagramme suivant illustre des rubriques généralement traitées avec des recherches
indépendantes.
Le schéma illustre les concepts et les processus suivants.
ノ Agrandir le tableau
Article Description
L’équipe de travail identifie les objectifs métier spécifiques que les services ou les unités
commerciales doivent atteindre avec leurs objectifs.
Les processus d’entreprise sont des initiatives ou des plans créés pour atteindre les
objectifs d’entreprise. L’équipe de travail repère les processus en place pour aider à
atteindre les objectifs d’entreprise.
Les besoins en matière de données métier sont les données, les outils et les solutions
nécessaires pour soutenir les processus métier et atteindre les objectifs stratégiques.
L’équipe de travail repère les besoins en données d’entreprise.
L’équipe de travail repère les initiatives passées ou parallèles pour définir la stratégie BI.
Les initiatives passées peuvent contenir des enseignements utiles, tandis que des
initiatives parallèles peuvent être combinées pour éviter la duplication des efforts.
L’équipe de travail identifie les calculs et les données de référence qui ont une
importance stratégique. Ces calculs et données de référence sont essentiels pour
permettre à l’entreprise d’atteindre ses objectifs métier.
) Important
Les rubriques et les exemples présentés dans cette section sont destinés à vous
guider dans la réalisation de vos propres recherches indépendantes. Ces rubriques
ne sont pas une liste exhaustive ou obligatoire. Utilisez ces rubriques comme
source d’inspiration. Nous vous recommandons d’utiliser les niveaux de maturité
documentés dans la feuille de route d’adoption de Fabric pour vous aider à évaluer
et cibler les domaines les plus importants pour votre organisation et son contexte
métier.
7 Notes
Cet article utilise le terme ateliers pour décrire les réunions interactives avec les
principales parties prenantes. L’objectif des ateliers est de recueillir des
informations pour vous permettre de décrire avec exactitude et de comprendre les
objectifs et les données dont vous avez besoin.
Un plan stratégique BI réussie nécessite que l’équipe de travail implique les parties
prenantes appropriées dans les ateliers. L’équipe de travail doit repérer les principales
parties prenantes qui disposent des connaissances et de la sensibilité suffisantes pour
représenter leur domaine d’activité. Dans chaque atelier, le rôle de ces parties prenantes
est de participer aux discussions qui sont dirigées par l’équipe de travail. Les parties
prenantes doivent décrire les objectifs métier et les besoins en données de leurs
domaines, ainsi que l’état actuel des initiatives de données et d’analytique pour prendre
en charge les objectifs d’entreprise.
L’identification des parties prenantes appropriées est essentielle pour exécuter des
ateliers réussis et obtenir une compréhension précise des domaines d’activité dans
l’étendue.
2 Avertissement
Si vous sollicitez les mauvaises parties prenantes, vous courrez le risque que la
stratégie BI ne soit pas alignée sur les objectifs métier stratégiques ou n’aide pas
les utilisateurs professionnels à atteindre leurs objectifs.
ノ Agrandir le tableau
Article Description
Pour chaque domaine fonctionnel, identifiez deux ou trois représentants potentiels des
principales parties prenantes.
Contactez les parties prenantes pour les informer de l’initiative et valider leur sélection. À
ce stade, les parties prenantes candidates peuvent refuser de participer et suggérer
d’autres personnes.
) Important
Souvent, les initiatives BI de haut en bas limitent les parties prenantes aux cadres et
aux décideurs. Bien que ces personnes aient un rôle important à jouer (pour obtenir
un accord exécutif suffisant et un alignement stratégique suffisant), elles ne sont
pas nécessairement les bonnes parties prenantes. Dans ce scénario, vous risquez de
définir une stratégie isolée de la réalité rencontrée par les utilisateurs
professionnels. Cette incompatibilité peut entraîner des stratégies et des solutions
qui ne répondent pas aux besoins des utilisateurs quotidiens et, par conséquent,
elles ne sont pas utilisées.
Les objectifs métier, la stratégie et les données nécessaires des domaines d’activité
dans l’étendue.
L’état actuel de l’adoption et de la mise en œuvre de la BI pour les domaines
d’activité dans l’étendue.
L’équipe de travail combine l’entrée des parties prenantes avec des recherches
indépendantes. Ces entrées doivent fournir à l’équipe de travail une compréhension
suffisante de la stratégie métier et de l’état actuel de l’adoption et de la mise en œuvre
de la BI.
Les sections suivantes décrivent les types de sessions que vous effectuez généralement
lors de l’exécution d’ateliers.
Session d’introduction
La session d’introduction est exécutée par l’équipe de travail et doit impliquer toutes les
parties prenantes et le sponsor exécutif. Elle présente l’initiative et clarifie l’étendue, les
objectifs, la chronologie et les livrables.
L’objectif de cette session est de définir les attentes quant à l’objectif des ateliers et ce
dont a besoin l’initiative BI pour réussir.
Ateliers
Les ateliers sont des réunions interactives entre quelques membres de l’équipe de travail
et les principales parties prenantes. Un membre de l’équipe de travail modère la
discussion, en posant des questions aux parties prenantes pour recueillir des
commentaires. Les parties prenantes fournissent des informations sur leur stratégie
commerciale, leurs initiatives et solutions BI existantes, ainsi que leurs besoins en
matière de données.
7 Notes
Bien qu’un modérateur maîtrise les informations, il n’a pas besoin de connaissances
approfondies sur le domaine. Idéalement, tous les ateliers d’un domaine d’activité
donné doivent être dirigés par le même modérateur.
L’objectif des ateliers est de recueillir suffisamment d’informations auprès des parties
prenantes pour décrire avec exactitude leurs objectifs métier et les données dont elles
ont besoin. Un atelier réussi se termine avec le sentiment des parties prenantes que les
membres de l’équipe de travail comprennent les objectifs d’entreprise et les besoins en
données. Cette contribution des parties prenantes est utilisée avec les recherches
indépendantes de l’équipe de travail pour réaliser une évaluation de l’état actuel de
l’adoption et de la mise en œuvre de la BI.
Voici quelques considérations pratiques pour vous aider à planifier et organiser des
ateliers efficaces.
7 Notes
La liste des besoins en données hiérarchisés est un résultat clé du plan stratégique
qui facilite ultérieurement le plan tactique et le plan de solution.
Objectifs métier.
Résultats clés de l’entreprise pour mesurer les progrès vers les objectifs.
Initiatives clés de l’entreprise, qui doivent permettre d’atteindre les résultats clés.
Données métier nécessaires pour soutenir les initiatives clés.
Les outils et les solutions BI que les utilisateurs utilisent pour répondre à leurs
besoins en matière de données d’entreprise.
La façon dont les utilisateurs utilisent les outils et les solutions, ainsi que les défis
qui les empêchent d’utiliser efficacement les outils et les solutions.
Pour identifier les domaines prioritaires, l’équipe de travail effectue deux types
d’évaluation : une évaluation de la culture des données et une évaluation technique.
Il est essentiel d’effectuer une évaluation concise et précise de l’état actuel. Les
évaluations doivent mettre en évidence les points forts et les défis de la capacité de
l’organisation à utiliser les données pour prendre des décisions et prendre des mesures.
Niveau de maturité : évaluez le niveau de maturité global sur une échelle de cinq
points comprise entre 100 (initial) et 500 (efficace). Le score représente une
évaluation de haut niveau et interactive par l’équipe de travail de l’efficacité dans
différents domaines.
Incidents d’entreprise : justifiez et illustrez les scores de niveau de maturité dans
l’évaluation. Les exemples concrets incluent les actions, les outils et les processus
effectués par les utilisateurs professionnels pour atteindre leurs objectifs métier
avec des données. L’équipe de travail utilise des incidents d’entreprise avec des
résultats résumés pour prendre en charge leur évaluation. Une étude de cas se
compose généralement des éléments suivants :
Explication claire du résultat souhaité et des données d’entreprise que le
processus actuel vise à traiter.
Description en l’état de la façon dont le processus général est actuellement
effectué.
Défis, risques ou inefficacités dans le processus actuel.
Informations supplémentaires : prenez en charge les conclusions ou documente
des détails significatifs pertinents pour la stratégie BI et commerciale. L’équipe de
travail documente des informations supplémentaires pour prendre en charge la
prise de décision et le plan tactique ultérieurs.
1. Examinez les résultats résumés : l’équipe de travail examine les entrées collectées
lors de la réalisation de recherches indépendantes et de l’exécution d’ateliers.
2. Évaluez les niveaux de maturité : l’équipe de travail passe en revue chacune des
zones de culture de données décrites dans cette section. En utilisant la feuille de
route d’adoption de Fabric, ils évaluent l’efficacité de chaque domaine en
attribuant un score de maturité.
3. Justifier l’évaluation subjective avec des preuves de l’objectif : l’équipe de travail
décrit plusieurs analyses de rentabilité clés et les informations qui justifient
l’évaluation des scores de maturité de chaque domaine.
4. Repérez les faiblesses et les possibilités : l’équipe de travail met en évidence ou
documente des résultats spécifiques qui peuvent refléter une force ou un défi
particulier dans la culture des données de l’organisation. Il peut s’agir des zones de
score les plus faibles ou les plus élevées, ou de toutes les zones qui, selon elles, ont
un impact élevé sur la culture des données de l’organisation. Ces domaines clés
sont utilisés pour identifier les domaines prioritaires et objectifs de la business
intelligence.
Conseil
ノ Agrandir le tableau
Article Description
Culture des données : dans quelle mesure les utilisateurs sont capables de lire,
d’interpréter et d’utiliser des données pour former des opinions et prendre des
décisions ?
Découverte des données : comment les données appropriées sont détectables, au bon
moment, pour les personnes qui en ont besoin ?
Démocratisation des données : si les données sont mises entre les mains des utilisateurs
chargés de résoudre les problèmes de l’entreprise.
Gestion et propriété du contenu : indique s’il existe une vision claire des méthodes
centralisées et décentralisées que les créateurs de contenu gèrent les données (par
exemple, les modèles de données) et comment elles sont prises en charge par le COE.
Étendue de distribution de contenu : indique s’il existe une vision claire des utilisateurs
ou des utilisateurs du contenu analytique (tels que les rapports) et de la façon dont ils
sont pris en charge par le COE.
Mentorat et activation des utilisateurs : indique si les utilisateurs finaux disposent des
ressources et de la formation nécessaires pour utiliser efficacement les données et
améliorer leur connaissance des données.
Pour évaluer ces zones de culture de données, consultez la feuille de route d’adoption
de Fabric. Plus précisément, reportez-vous aux sections de niveau de maturité et de
questions à poser, qui vous guident dans l’exécution d’évaluations.
Le diagramme suivant illustre les aspects techniques que vous pouvez évaluer lors de la
définition de votre stratégie BI.
7 Notes
Si vous adoptez Microsoft Fabric, sachez que la plupart de ces domaines sont
représentés en tant que parties distinctes de la plateforme d’analyse Fabric.
Le diagramme décrit les domaines techniques suivants.
ノ Agrandir le tableau
Article Description
Engineering données : quelle est l’efficacité des architectures actuelles pour prendre en
charge les cas d’usage analytiques et s’adapter aux changements des besoins des
données d’entreprise ?
Article Description
Sécurité des données : indique si les ressources de données sont conformes aux
stratégies réglementaires et organisationnelles pour s’assurer que les personnes non
autorisées ne peuvent pas afficher, accéder ou partager des données. La sécurité des
données est généralement évaluée avec la protection des informations et la protection
contre la perte de données.
Gestion des données de référence : indique si les champs quantitatifs et les attributs
d’entreprise sont gérés, documentés de manière centralisée et gérés uniformément au
sein de l’organisation.
Article Description
Qualité des données : si les solutions et les données BI sont fiables, complètes et
précises selon la communauté des utilisateurs professionnels.
7 Notes
U Attention
Lorsque vous effectuez l’évaluation technique, n’évaluez pas les détails au-delà du
cadre de la planification stratégique. Vérifiez que toutes les activités qui participent
à l’implémentation BI ciblent directement la définition et l’évaluation de l’état
actuel pour définir vos objectifs et domaines prioritaires en matière de BI.
Le fait d’être trop détaillé dans l’évaluation technique risque de diluer les messages
clés relatifs à la stratégie BI. Gardez toujours à l’esprit les questions générales telles
que : Où voulons-nous aller ? et Comment la BI peut-elle prendre en charge
efficacement l’entreprise ?
7 Notes
Conseil
Pour les domaines de la culture des données, nous vous recommandons de définir
vos objectifs en utilisant la feuille de route d’adoption de Fabric. Il peut vous aider
à repérer le niveau de maturité que vous devez atteindre pour l’état futur souhaité.
Toutefois, il n’est pas réaliste d’atteindre un niveau 500 pour chaque catégorie. Au
lieu de cela, visez une augmentation réalisable du niveau de maturité au cours de la
période de plan suivante.
Pour les domaines techniques, nous vous recommandons de définir vos objectifs en
utilisant les échelles de maturité décrites dans l’évaluation technique par l’équipe de
travail.
Améliorez le support des cadres pour les initiatives et les solutions BI.
Améliorez l’efficacité du COE.
Créez une stratégie et une structure de propriété de contenu claires.
Mieux comprendre et surveiller le comportement des utilisateurs avec les données
pour améliorer la gouvernance.
Passez de solutions d’analyse descriptives à des solutions d’analyse prédictive.
Améliorez les processus de prise de décision avec une visualisation des données
plus efficace.
Développez le nombre de créateurs de contenu efficaces pour améliorer le délai de
livraison et la valeur commerciale obtenue à partir des solutions décisionnelles.
Avant de conclure le plan stratégique, l’équipe de travail doit cadrer avec les parties
prenantes et la direction les objectifs et les domaines prioritaires en matière de BI qui
ont été déterminés.
Les sections suivantes décrivent comment vous vous alignez sur les parties prenantes et
les cadres.
L’objectif de cette session est de parvenir à un consensus sur les conclusions et les
évaluations, et sur les objectifs et domaines prioritaires BI convenus.
7 Notes
Assurez-vous que les parties prenantes comprennent que la stratégie BI n’est pas
finale et immuable. Soulignez que la stratégie décisionnelle évolue parallèlement à
l’entreprise et à la technologie. Idéalement, les mêmes parties prenantes
continueront à participer à cet exercice itératif.
Préparez et présentez un récapitulatif exécutif
Le récapitulatif de l’exécutif est généralement remis par le sponsor exécutif à d’autres
cadres responsables de la stratégie commerciale globale. Le sponsor exécutif décrit les
résultats de l’évaluation et met l’accent sur les principaux défis et opportunités qui
justifient les domaines prioritaires identifiés. Surtout, le sponsor exécutif décrit les
prochaines étapes pour commencer à avancer vers l’état futur.
Check-list : voici les décisions et les actions clés à prendre en compte pour déterminer
les objectifs et les domaines prioritaires en matière de BI :
" organisez une liste des besoins et possibilités des données d’entreprise : créez
une liste centralisée et hiérarchisée des besoins des données d’entreprise, des
difficultés et des possibilités. Cette sortie est utilisée dans le plan tactique.
" Déterminer les objectifs BI stratégiques : collaborez avec votre sponsor exécutif et
d’autres décideurs pour identifier les objectifs BI généraux des 12 à 18 prochains
mois.
" Alignez sur les parties prenantes : obtenez un contrat de consensus indiquant que
les évaluations et d’autres livrables sont exacts.
" Alignez sur les cadres : obtenez des approbations sur les résultats de le plan
stratégique et les étapes suivantes.
Contenu connexe
Dans le prochain article de cette série, nous verrons comment procéder au plan tactique
de la BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à identifier vos résultats clés de BI et à créer des plans actionnables
délimités dans le temps pour atteindre un progrès incrémentiel vers vos objectifs BI
stratégiques. Il est principalement destiné à :
7 Notes
Dans le cadre des objectifs et des résultats clés (OKR), les objectifs sont des
descriptions claires et générales de ce que vous souhaitez atteindre. En revanche,
les résultats clés sont des résultats spécifiques et réalisables permettant de mesurer
la progression vers l’un de vos objectifs.
En outre, les initiatives ou solutions sont des processus ou des outils conçus pour
vous aider à obtenir un ou plusieurs résultats clés. Les solutions répondent aux
besoins de données spécifiques des utilisateurs. Une solution peut prendre de
nombreuses formes, telles qu’un pipeline de données, un data lakehouse, un
modèle sémantique ou un rapport Power BI.
Pour plus d’informations sur les OKR, consultez Découvrir les OKR (Microsoft Viva
Goals).
Le diagramme général suivant montre comment effectuer une planification tactique BI.
Vous effectuez les étapes suivantes pour effectuer la planification tactique de l’aide à la
décision.
ノ Agrandir le tableau
Étape Description
Conseil
Évaluez la préparation de l’organisation en tenant compte des facteurs décrits dans les
sections suivantes.
) Important
) Important
Voici quelques exemples de domaines sensibles au temps que vous pouvez hiérarchiser
lorsque vous définissez vos résultats clés.
Bien qu’il soit important d’identifier et d’agir sur les activités sensibles au temps,
vous devez également être prudent pour éviter un scénario où l’urgence cohérente
vous empêche d’atteindre vos objectifs de haut niveau.
Lors de l’évaluation des chronologies et des priorités, vous devez identifier les gains
rapides. Les gains rapides sont des activités à court terme qui offrent un avantage
important à long terme. Par exemple, un démarrage rapide peut avoir peu de
dépendances ou ne pas impliquer de nouvelles conceptions ou processus importants.
L’avantage clé d’un gain rapide est qu’il peut rapidement démontrer un retour sur
l’initiative stratégique BI pour l’entreprise. Ce retour crée un élan qui peut mener à
l’appui d’initiatives plus importantes.
Les gains rapides peuvent également être des activités à fort impact. Dans ce cas, ils ont
le potentiel de faire des progrès substantiels dans de nombreux domaines de
l’entreprise.
Voici quelques exemples de domaines à succès rapide ou à impact élevé que vous
pouvez hiérarchiser lorsque vous définissez vos résultats clés.
" Passez en revue les domaines et les objectifs de BI : assurez-vous que vos objectifs
stratégiques sont actuels et qu’ils sont compris par tous ceux qui participent à la
planification tactique.
" Passez en revue les évaluations d’état actuelles : les faiblesses et les opportunités
identifiées par l’équipe de travail dans les évaluations d’état actuelles informent
directement les résultats clés que vous allez définir.
" Identifier les activités sensibles au temps : identifier toutes les activités ou zones
potentielles qui ont une période ou une urgence définie. Clarifier l’échéance et son
importance pour l’entreprise.
" Identifier les victoires rapides : identifier les activités qui nécessitent un faible effort
ou un investissement de temps pour atteindre un impact élevé. Justifiez pourquoi
ces activités gagnent rapidement.
" Identifier les activités à fort impact : identifier les domaines qui ont un impact
significatif sur votre stratégie de BI. Définissez pourquoi ces domaines ont un
impact élevé.
" Évaluer la préparation de l’organisation : enquête sur les risques potentiels ou les
menaces que vous devez résoudre pour atteindre vos objectifs stratégiques.
Un aspect fondamental de vos principaux résultats est qu’ils vous aident à définir et
mesurer le succès de votre stratégie de BI.
Il existe deux façons de suivre les succès mesurables. Dans cet article, nous abordons les
résultats clés, qui font partie de l’infrastructure OKR (objectifs et résultats clés), mais les
organisations utilisent également des indicateurs de performance clés (indicateurs de
performance clés) ou une combinaison d’OKR avec des indicateurs de performance clés.
Les deux approches sont tout aussi valides. Ce qui est le plus important, c’est que vous
trouvez une approche pour mesurer la progression vers vos objectifs stratégiques qui
fonctionne pour vous.
Résultats clés : Évaluez des critères de réussite mesurables qui suivent les progrès
réalisés pour atteindre des objectifs stratégiques.
Indicateurs de performance clés (KPI) : évaluer la réussite d’une activité
particulière par rapport à une cible. Bien que les indicateurs de performance clés
mesurent généralement les performances par rapport aux objectifs, les résultats
clés mesurent les résultats. Vous pouvez utiliser des indicateurs de performance
clés avec des OKR.
7 Notes
Vos mesures de réussite doivent être étroitement alignées sur les objectifs métier.
Assurez-vous que vos critères de réussite ne sont pas spécifiques aux tâches
techniques.
U Attention
Voici quelques considérations générales pour vous aider à mesurer et à surveiller les
résultats clés et les indicateurs de performance clés.
Signaler vos indicateurs : créer des solutions de création de rapports pour vos
indicateurs qui vous permettent de les surveiller efficacement. Par exemple, vous
pouvez utiliser les OKR des Microsoft Viva Goals ou des cartes de performance et
des métriques dans Power BI pour mesurer et suivre la progression.
Automatiser la collecte de données : si possible, assurez-vous que les données
des indicateurs ne sont pas collectées manuellement. Trouvez des moyens efficaces
de simplifier et d’automatiser la collecte des données afin qu’elles soient actuelles,
précises et fiables.
Suivre le changement : visualiser la valeur de l’indicateur actuel, mais également la
tendance au fil du temps. La progression est présentée comme une amélioration
progressive. Si l’indicateur présente une forte instabilité ou variance, envisagez
d’utiliser une moyenne mobile pour mieux illustrer la tendance.
Affectez un propriétaire : Assurez-vous qu’une équipe ou une personne est
responsable de la mesure de l’indicateur et de la conservation de ses données.
Définissez une plage acceptable : Établir des cibles ou une plage acceptable de
valeurs pour affecter l’état (par exemple, sur ou off track) à l’indicateur. Lorsque les
valeurs se trouvent en dehors de la cible ou de la plage, il doit demander à
quelqu’un d’examiner ou de prendre des mesures correctives.
Configurez des alertes pilotées par les données : configurez des alertes
automatisées qui avertissent les équipes ou les individus clés, par exemple, à l’aide
de Power Automate. De cette façon, une action en temps opportun peut être
effectuée lorsque l’indicateur n’est pas sur la bonne voie.
Définir des actions et des intervention : décrivez clairement comment vous allez
utiliser ces informations pour prendre des mesures, soit pour résoudre des
problèmes, soit pour justifier le passage à l’étape suivante de votre stratégie BI.
) Important
Conseil
Pour vous aider à définir et à décrire vos résultats clés, reportez-vous aux sections
correspondantes de la Feuille de route d’adoption de Fabric et de la Planification
de l’implémentation de Power BI.
) Important
Lorsque vous définissez vos résultats clés, n’oubliez pas que l’implémentation
réussie de votre stratégie BI est plus probable lorsque vous visez une évolution au
lieu d’une révolution de votre état actuel. Évolution implique que vous vous
efforcez de changer progressivement au fil du temps. Une progression faible, mais
cohérente et soutenue est préférable à une multitude de changements qui risquent
d’interrompre les activités en cours.
Adoption
Tout d’abord, identifiez vos résultats clés d’adoption. Ces activités peuvent répondre à
de nombreux domaines, mais décrivent généralement les actions que vous effectuerez
pour améliorer l’adoption globale organisation et culture de données.
Voici quelques exemples de résultats clés de l’adoption que vous pouvez définir pour
une période donnée.
Gouvernance
Ensuite, identifiez vos résultats clés de gouvernance. Ces résultats clés doivent décrire
comment vous allez permettre aux utilisateurs de répondre durablement aux problèmes
métier liés aux données, tout en atténuant les risques pour la sécurité ou la conformité
des données. Ces résultats clés de gouvernance doivent être motivés par et étroitement
liés à vos résultats clés d’adoption.
Voici quelques exemples de résultats clés de la gouvernance que vous pouvez définir
pour une période donnée.
Si vous n’avez pas de processus efficace pour surveiller les activités et le contenu
des utilisateurs, vous devez faire de cette priorité immédiate. Une compréhension
de ces activités et éléments informe de meilleures décisions et actions de
gouvernance.
Implémentation
Enfin, identifiez vos résultats clés d’implémentation. Ces résultats clés doivent décrire
comment vous allez améliorer les solutions, pratiques et processus de BI existants ou
futurs. Ces résultats clés d’implémentation doivent prendre en charge et s’aligner sur
vos résultats clés d’adoption et de gouvernance.
Voici quelques exemples de résultats clés de l’implémentation que vous pouvez définir
pour une période donnée.
Liste de vérification : lors de l’identification de vos résultats clés BI, les décisions et
actions clés sont les suivantes :
" Définissez la façon dont vous mesurez la réussite : déterminez si vous utiliserez les
résultats clés, les indicateurs de performance clés ou une combinaison des deux.
" Identifier les résultats clés d’adoption : identifier les résultats clés qui vous
aideront à réaliser votre vision de la culture des données et à atteindre les objectifs
de BI pour l’adoption de l’organisation.
" Identifier les résultats clés de gouvernance : identifiez les résultats clés qui vous
aideront à équilibrer l’activation des utilisateurs et l’atténuation des risques.
" Identifier les résultats clés de l’implémentation : identifiez les résultats clés pour
prendre en charge les résultats clés d’adoption et de gouvernance définis ou des
besoins spécifiques en matière de données métier. Classifiez les résultats clés
d’implémentation en tant qu’initiatives ou solutions.
Les solutions et les initiatives que vous allez implémenter ont deux objectifs. Voici ces
restrictions :
Voici quelques exemples d’objectifs de BI avec des résultats et des solutions clés
associés ou des initiatives pour les atteindre pendant une période de planification
spécifique.
ノ Agrandir le tableau
Lorsque vous organisez ce backlog d’implémentation, tenez compte des points suivants.
) Important
Si les solutions que vous envisagez visent à répondre aux besoins de l’entreprise en
matière de données, il est peu probable que vous allez pouvoir répondre à tous ces
besoins immédiatement. Veillez à limiter l’impact potentiel des besoins de données
métier non satisfaits que vous ne traiterez pas maintenant. Essayez d’évaluer
l’impact de ces besoins de données et prévoyez de les traiter partiellement avec
des solutions de gain rapide ou même d’arrêt pour réduire au moins
temporairement l’impact sur l’entreprise.
Liste de contrôle : lorsque vous envisagez l’état futur souhaité, les décisions et actions
clés sont les suivantes :
ノ Agrandir le tableau
Article Description
Planification tactique BI : identifiez et réévaluez vos résultats clés tous les trimestres, ou
tous les 1 à 3 mois. Entre-temps, vous implémentez ces plans tactiques en créant des
solutions BI et en lançant des initiatives BI. En outre, entre la planification tactique, vous
devez recueillir des commentaires et surveiller vos indicateurs de performance clés ou
OKR pour informer les futures décisions tactiques.
Les résultats clés et les domaines d’intérêt définis dans votre planification stratégique et
tactique sont informés à l’aide de mécanismes de commentaires et d’évaluation
réguliers, tels que ceux décrits dans les sections suivantes.
Conseil
Pour atténuer l’impact et tirer parti des opportunités de changement, vous devez
examiner régulièrement le contexte technologique de votre entreprise. Prenez en
compte les points suivants concernant la réponse aux changements technologiques.
Suivez les mises à jour : restez à jour avec les nouveaux développements et
fonctionnalités dans Microsoft Fabric. Lisez les billets de blog mensuels de la
communauté et suivez le rythme des annonces lors des événements de
conférence.
Modifications clés du document : assurez-vous que les modifications ayant un
impact sont incluses dans votre planification tactique et incluent des références
pertinentes. Attirer l’attention sur les modifications qui ont un impact direct ou
urgent sur les besoins des données métier ou les résultats clés de BI.
Décidez comment gérer les fonctionnalités en préversion : Clarifiez la façon dont
vous allez utiliser les nouvelles fonctionnalités en préversion qui ne sont pas
encore en disponibilité générale. Identifiez les fonctionnalités ou outils en
préversion qui ont un impact stratégique dans votre organisation ou vous aident à
atteindre les résultats clés stratégiques. Réfléchissez à la façon dont vous tirerez
parti de ces fonctionnalités en préversion tout en identifiant et en atténuant les
risques ou limitations potentiels.
Décidez comment gérer les nouveaux outils tiers et communautaires : clarifier
votre stratégie concernant les outils tiers et communautaires. Si ces outils sont
autorisés, décrivez un processus permettant d’identifier les nouveaux outils ayant
un impact stratégique dans votre organisation ou de vous aider à atteindre les
résultats clés stratégiques. Réfléchissez à la façon dont vous tirerez parti de ces
outils tout en identifiant et en atténuant les risques ou limitations potentiels.
Contenu connexe
Dans le prochain article de cette série, découvrez comment planifier des solutions BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à planifier des solutions qui prennent en charge votre stratégie de
business intelligence (BI). Il est principalement destiné à :
Une stratégie BI est un plan de mise en œuvre, d'utilisation et de gestion des données
et des analyses. Vous définissez votre stratégie BI en commençant par la planification
stratégique BI. La planification stratégique vous permet d’identifier vos domaines et
objectifs BI. Pour déterminer la voie à suivre pour progresser vers vos objectifs BI, vous
décrivez des résultats clés spécifiques à l’aide de la planification tactique. Vous
progressez ensuite vers ces résultats clés en planifiant et en déployant des solutions BI.
7 Notes
Dans le cadre des objectifs et des résultats clés (OKR), les objectifs sont des
descriptions claires et générales de ce que vous souhaitez atteindre. En revanche,
les résultats clés sont des résultats spécifiques et réalisables permettant de mesurer
la progression vers l’un de vos objectifs.
En outre, les initiatives ou solutions sont des processus ou des outils conçus pour
vous aider à obtenir un ou plusieurs résultats clés. Les solutions répondent aux
besoins de données spécifiques des utilisateurs. Une solution peut prendre de
nombreuses formes, telles qu’un pipeline de données, un data lakehouse, un
modèle sémantique ou un rapport Power BI.
Pour plus d’informations sur les OKR, consultez Découvrir les OKR (Microsoft Viva
Goals).
Il existe de nombreuses approches pour planifier et mettre en œuvre des solutions BI.
Cet article décrit une approche que vous pouvez adopter pour planifier et mettre en
œuvre des solutions BI qui prennent en charge votre stratégie BI.
ノ Agrandir le tableau
Étape Description
1 Constituez une équipe de projet qui rassemble les exigences et définit la conception de la
solution.
3 Réaliser une preuve de concept (POC) de solution pour valider les hypothèses concernant
la conception.
l'environnement de production.
7 Notes
Pour plus d’informations, consultez la série de migration Power BI. Bien que la série
s'intéresse à la migration, les actions et considérations clés sont pertinentes pour la
planification de la solution.
Remarque : La planification stratégique et tactique est dirigée par une équipe de travail
qui dirige l'initiative. En revanche, la planification de la solution est dirigée par une
équipe de projet composée de propriétaires et de créateurs de contenu.
Voici quelques avantages de l’utilisation d’une approche collaborative pour recueillir les
exigences.
Vous pouvez adopter différentes approches pour impliquer les utilisateurs et recueillir
les exigences. Par exemple, vous pouvez rassembler les exigences avec la conception
commerciale et la conception technique (décrites en détail dans les sections suivantes de
cet article).
) Important
La collecte de mauvaises exigences est une raison courante pour laquelle les
implémentations échouent. Souvent, les équipes collectent les mauvaises exigences
parce qu’elles ont collaboré avec les mauvaises parties prenantes, comme les
décideurs qui formulent des demandes descendantes pour que les solutions soient
construites.
7 Notes
Conseil
ノ Agrandir le tableau
Article Description
L'équipe du projet rassemble et recherche les solutions existantes que les utilisateurs
professionnels utilisent actuellement pour répondre aux besoins existants en matière de
données commerciales. Pour accélérer ce processus, l'équipe de projet peut utiliser des
recherches pertinentes issues de la planification stratégique BI, qui ont été documentées
dans le centre de communication.
L'équipe du projet organise des séances de conception commerciale avec les parties
prenantes. Ces sessions sont de petites réunions interactives, au cours desquelles
l'équipe de projet guide les parties prenantes pour comprendre les besoins et les
exigences en matière de données commerciales.
Conseil
7 Notes
L'équipe de projet engage les parties prenantes techniques ou fonctionnelles dans des
sessions de conception technique limitées et ciblées. Ces sessions sont des réunions
interactives avec les parties prenantes fonctionnelles pour recueillir les exigences
techniques. Les parties prenantes sont responsables des domaines fonctionnels
spécifiques requis pour que la solution fonctionne efficacement.
Des exemples de parties prenantes dans une conception technique pourraient être :
L'équipe du projet engage les parties prenantes dans des séances de conception
technique pour aborder les aspects techniques de la solution. Les aspects techniques
peuvent inclure :
Conseil
Idéalement, les personnes qui dirigent la conception technique devraient avoir une
compréhension approfondie des résultats et des utilisateurs métier.
ノ Agrandir le tableau
Article Description
L'équipe du projet planifie des sessions limitées et ciblées avec les parties prenantes
fonctionnelles pour aborder les aspects techniques de la solution. La planification
implique d'informer les parties prenantes, d'organiser des réunions et de préparer les
livrables.
Si nécessaire, l'équipe de projet implique les parties prenantes dans les séances de
conception technique. Les sessions se concentrent sur un aspect technique spécifique de
la solution, comme la sécurité ou les connexions aux sources de données. Au cours de
ces sessions, l'équipe du projet recueille les commentaires qualitatifs des parties
prenantes et des PME.
L'équipe du projet prépare ses conclusions à l'aide d'un plan de solution, qu'elle
présente aux parties prenantes et aux décideurs. Le plan est une itération et une
Article Description
extension des résultats de la conception commerciale qui inclut la conception finale, les
estimations et d'autres livrables.
La conception technique doit se conclure par une réunion finale avec les parties
prenantes et les décideurs pour décider de procéder ou non. Cette réunion offre une
dernière occasion d'évaluer la planification de la solution avant que les ressources ne
soient engagées dans le développement de la solution.
7 Notes
La conception technique peut révéler une complexité inattendue qui peut rendre la
planification de la solution irréalisable compte tenu de la disponibilité actuelle des
ressources ou de l'état de préparation de l'organisation. Dans ce cas, la solution
devra être réévaluée lors de la période de planification tactique suivante. En
fonction de l'urgence des besoins en données de l'entreprise, un décideur, comme
le sponsor exécutif, peut toujours souhaiter procéder à une preuve de concept, ou
seulement à une partie de la solution prévue.
La conception technique se termine par un plan de solution, qui comprend les livrables
suivants.
) Important
Conseil
Liste de contrôle – Lors de la collecte des exigences, les décisions et actions clés
incluent :
Outils et processus initiaux : effectuez une première configuration pour tous les
nouveaux outils et processus nécessaires au développement, aux tests et au
déploiement.
Identités et informations d'identification : créez des groupes de sécurité et des
principaux de service qui seront utilisés pour accéder aux outils et aux systèmes.
Stockez efficacement et en toute sécurité les informations d'identification.
Passerelles de données : déployez des passerelles de données pour les sources de
données sur site (passerelles en mode entreprise) ou les sources de données sur
un réseau privé (passerelles de réseau virtuel ou réseau virtuel).
Espaces de travail et référentiels : créez et configurez des espaces de travail et des
référentiels distants pour la publication et le stockage de contenu.
7 Notes
" Planifiez les domaines clés : planifiez les processus et les outils dont vous avez
besoin pour développer et déployer avec succès votre solution. Abordez à la fois les
domaines techniques (comme les passerelles de données ou les espaces de travail)
et également l'adoption (comme la formation des utilisateurs et la gouvernance).
" Effectuer la configuration initiale : établissez les outils, processus et fonctionnalités
dont vous avez besoin pour développer et déployer la solution. Documentez la
configuration pour aider les autres personnes qui devront effectuer une première
configuration à l'avenir.
" Testez les connexions aux sources de données : vérifiez que les composants et
processus appropriés sont en place pour vous connecter aux bonnes données afin
de démarrer la preuve de concept.
U Attention
Lorsque l'équipe de projet effectue le POC, elle doit rester attentive aux hypothèses
et aux limites. Par exemple, l'équipe de projet ne peut pas facilement tester les
performances de la solution et la qualité des données en utilisant un petit
ensemble de données. De plus, assurez-vous que la portée et l’objectif du POC sont
clairs pour les utilisateurs professionnels. Assurez-vous de communiquer que le
POC est une première itération et insistez sur le fait qu'il ne s'agit pas d'une
solution de production.
7 Notes
Pour plus d’informations, consultez Réaliser une preuve de concept pour migrer
vers Power BI.
Liste de contrôle – Lors de la création d'un POC, les décisions et actions clés incluent :
" Définir les objectifs : assurez-vous que les objectifs du POC sont clairs pour toutes
les personnes impliquées.
" Définir la portée du POC : assurez-vous que la création du POC ne nécessitera pas
trop d'efforts de développement, tout en apportant de la valeur et en démontrant
la conception de la solution.
" Décidez quelles données seront utilisées : identifiez les données sources que vous
utiliserez pour réaliser le POC, en justifiant votre décision et en décrivant les risques
et les limites potentiels.
" Décidez quand et comment démontrer le POC : prévoyez de montrer les progrès
en présentant le POC aux décideurs et aux utilisateurs professionnels.
" Clarifiez quand le POC se termine : assurez-vous que l'équipe de projet décide
d'une conclusion claire pour le POC et décrivez comment il sera promu dans les
cycles de développement formels.
Conseil
La livraison itérative encourage une validation et un retour d'informations précoces
qui peuvent atténuer les demandes de changement, promouvoir l'adoption de la
solution et générer des avantages avant la version de production.
ノ Agrandir le tableau
Article Description
pour résoudre les problèmes, accepter ou rejeter les demandes et informer les phases de
développement à venir.
L'équipe du projet surveille l'utilisation de la solution pour confirmer que les utilisateurs
la testent. S’il n’y a aucune utilisation, l’équipe du projet doit interagir avec la
communauté des utilisateurs pour en comprendre les raisons. Une faible utilisation peut
indiquer que l'équipe de projet doit prendre des mesures supplémentaires d'habilitation
et de gestion du changement.
L'équipe de projet parcourt toutes les étapes jusqu'à ce qu'elle parvienne à une
conclusion prédéfinie et que la solution soit prête pour le déploiement en production.
Créer du contenu
L'équipe de projet développe la solution en suivant son flux de travail de
développement normal. Cependant, ils doivent tenir compte des points suivants lors de
la création de contenu.
Validation du développeur : les tests de solutions sont effectués par des créateurs
de contenu et des nœuds homologues. Le but de la validation des développeurs
est d'identifier et de résoudre tous les problèmes critiques et visibles avant que la
solution ne soit mise à la disposition des utilisateurs professionnels. Les problèmes
peuvent concerner l’exactitude des données, la fonctionnalité ou l’expérience
utilisateur. Idéalement, le contenu est validé par un créateur de contenu qui ne l'a
pas développé.
Validation utilisateur : les tests de la solution sont effectués par la communauté
des utilisateurs. Le but de la validation des utilisateurs est de fournir des
commentaires pour les itérations ultérieures et d'identifier les problèmes qui n'ont
pas été détectés par les développeurs. Les périodes formelles de validation des
utilisateurs sont généralement appelées tests d'acceptation des utilisateurs (UAT).
) Important
Assurez-vous que tout problème de qualité des données est résolu lors de la
validation du développeur (avant l'UAT). Ces problèmes peuvent rapidement éroder
la confiance dans la solution et nuire à son adoption à long terme.
Conseil
Tenez compte des considérations suivantes lorsque l’équipe de projet valide le contenu.
7 Notes
Cet article décrit uniquement la planification de haut niveau et les éléments exploitables.
Pour plus d’informations sur les cycles de développement et de test itératifs, consultez
Créer du contenu pour migrer vers Power BI.
Pour garantir un déploiement réussi, vous effectuez les tâches de support et d’adoption
suivantes.
U Attention
Ne pas procéder à un transfert efficace peut entraîner des problèmes évitables liés
au support et à l’adoption de la solution au cours de son cycle de vie.
Liste de contrôle – Lorsque vous envisagez le déploiement d'une solution, les décisions
et actions clés incluent :
" Créez un plan de communication : planifiez la manière de communiquer sur la
version, la formation et les autres actions de support ou d'adoption de la solution.
Assurez-vous que toute panne ou problème est signalé et résolu rapidement au
cours de la période de support post-déploiement.
" Poursuivez avec un plan de formation : Formez les utilisateurs à l’utilisation de la
solution. Assurez-vous que la formation comprend des sessions de formation en
direct et enregistrées pendant plusieurs semaines après la sortie.
" Mener des activités de transfert : si nécessaire, préparez un transfert de l'équipe de
développement à l'équipe de support.
" Organisez des heures de bureau pour la solution : après la période de support
post-déploiement, envisagez d'organiser des sessions régulières pendant les heures
de bureau pour répondre aux questions et recueillir les commentaires des
utilisateurs.
" Mettre en place un processus d'amélioration continue : planifiez un audit mensuel
de la solution pour examiner les changements ou améliorations potentiels au fil du
temps. Centralisez les commentaires des utilisateurs et examinez-les
périodiquement entre les audits.
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur la configuration du locataire présente les aspects importants à connaître
sur la configuration de votre locataire Fabric, en mettant l’accent sur l’expérience
Power BI. Il s’adresse à plusieurs publics :
Fabric fait partie d’un plus grand écosystème Microsoft. Si votre organisation utilise déjà
d’autres services d’abonnement cloud (comme Azure, Microsoft 365 ou Dynamics 365),
Fabric fonctionne alors dans le même locataire Microsoft Entra. Le domaine de votre
organisation (par exemple contoso.com) est associé à Microsoft Entra ID. Comme tous
les services cloud Microsoft, votre locataire Fabric s’appuie sur Microsoft Entra ID dans
votre organisation pour la gestion des identités et des accès.
Conseil
En règle générale, Microsoft Entra ID est configuré avant le début de la mise en œuvre
de Fabric. Toutefois, c’est parfois lorsque vous approvisionnez un service cloud que vous
prenez conscience de l’importance de Microsoft Entra ID.
Conseil
Étant donné que la plupart des organisations ont un locataire Microsoft Entra, il
peut être difficile d’explorer de nouvelles fonctionnalités de manière isolée. Vous
serez sans doute éligible pour un tenant développeur hors production via le
programme Développeur Microsoft 365. Si vous souhaitez en savoir plus, veuillez
consulter la FAQ. Vous pouvez également vous inscrire à un essai gratuit d’un (1)
mois ou acheter un plan Microsoft 365 .
Pour gérer, configurer et prendre en charge correctement Fabric, un locataire géré est
nécessaire. Il existe un processus qu’un administrateur système peut suivre pour prendre
le contrôle d’un locataire non géré afin qu’il puisse le gérer correctement pour le
compte de l’organisation.
Conseil
Liste de contrôle – lors de l’évaluation de votre locataire Microsoft Entra pour une
utilisation avec Fabric, les décisions et actions clés sont les suivantes :
Chaque locataire Microsoft Entra dispose d’un identificateur global unique (GUID)
appelé ID de locataire. Dans Fabric, il s’agit de l’ID de locataire client (CTID). Le CTID est
ajouté à la fin de l’URL du locataire. Vous pouvez trouver le CTID dans le portail Fabric
en ouvrant la fenêtre de dialogue À propos de Microsoft Fabric. Il est disponible dans le
menu Aide et support (?) qui se trouve en haut à droite du portail Fabric.
Connaître votre CTID est important pour les scénarios Microsoft Entra B2B. Les URL que
vous fournissez aux utilisateurs externes (par exemple, pour afficher un rapport
Power BI) doivent ajouter le paramètre CTID pour accéder au locataire approprié.
Liste de contrôle – lorsque vous envisagez d’utiliser vos administrateurs Microsoft Entra,
les décisions et les actions clés sont les suivantes :
Région d’accueil
La région d’accueil est importante car :
Vous pouvez découvrir que votre locataire réside dans une région qui n’est pas idéale.
Vous pouvez utiliser la fonctionnalité Multi-Geo en créant une capacité dans une région
spécifique (décrit dans la section suivante), ou vous pouvez la déplacer. Pour déplacer
votre locataire vers une autre région, votre administrateur Microsoft 365 global doit
ouvrir une demande de support.
La réinstallation d’un locataire vers une autre région n’est pas un processus entièrement
automatisé, et certains temps d’arrêt sont impliqués. Veillez à prendre en compte les
conditions préalables et les actions requises avant et après le déplacement.
Conseil
Étant donné que beaucoup d’efforts sont impliqués, lorsque vous déterminez qu’un
déplacement est nécessaire, nous vous recommandons de le faire plus tôt que plus
tard.
Liste de contrôle : lorsque vous considérez la région d’accueil pour stocker des données
dans votre locataire, les principales décisions et les actions sont les suivantes :
Répondez aux exigences de résidence des données pour les données au repos.
Améliorez la possibilité de localiser des données près de la base utilisateur.
7 Notes
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Conseil
Pour savoir comment gérer un locataire Fabric, nous vous recommandons de suivre
le module Administrer Microsoft Fabric.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article présent les considérations clés pour la planification des outils utilisateur et la
gestion des appareils pour activer et prendre en charge Power BI consommateurs et
auteurs au sein de l’organisation. Cet article est destiné à :
Requêtes logicielles
Demandes de licences utilisateur
Demandes de formation
Requêtes d’accès aux données
" Décidez comment gérer les demandes logicielles : précisez qui est responsable de
la réception et du traitement des nouvelles demandes d’installation de logiciels.
" Vérifiez si les prérequis sont requis : déterminez les prérequis organisationnels liés
à la formation, au financement, aux licences et aux approbations avant de
demander l’installation du logiciel.
" Créez un système de suivi : créez un système pour suivre l’état et l’historique des
requêtes logicielles.
" Créez des conseils pour les utilisateurs : fournissez de la documentation dans le
portail centralisé pour savoir comment demander de nouveaux outils et
applications logicielles. Envisagez de regrouper ces conseils pour demander des
licences, une formation et un accès aux données.
Les méthodes les plus courantes pour qu’un consommateur puisse accéder au contenu
de Power BI sont les suivantes :
ノ Agrandir le tableau
service Power BI Les consommateurs de contenu affichent le contenu à l’aide d’un navigateur
web (par exemple, Microsoft Edge).
Solutions Power Consommateurs de contenu qui affichent le contenu à partir du service Power
Apps BI incorporé dans une solution Power Apps.
Logiciels Public cible
7 Notes
Cette liste n’est pas destinée à être une liste complète de méthodes d’accès Power
BI contenu.
Étant donné que l’expérience utilisateur peut varier légèrement d’un navigateur web à
l’autre, nous vous recommandons de documenter les suggestions des navigateurs dans
votre portail centralisé. Pour plus d’informations, consultez Navigateurs pris en charge
pour Power BI.
Liste de vérification : voici les décisions et les actions clés pour planifier les outils
destinés aux consommateurs :
" Utilisez un navigateur web moderne : assurez-vous que tous les utilisateurs ont
accès à un navigateur web moderne pris en charge pour Power BI. Vérifiez que le
navigateur préféré est mis à jour régulièrement sur tous les appareils utilisateur.
" Décidez de la façon dont Teams doit être utilisé avec Power BI : déterminez le
fonctionnement actuel des utilisateurs et dans quelle mesure l’intégration Teams est
utile. Définissez les paramètres d’activation de l’intégration Teams et de l’application
d’installation automatique de Power BI dans le portail d’administration Fabric en
fonction de votre décision.
" Activez et installez l’application Teams : si Teams est un outil couramment utilisé,
activez l’application Power BI pour Microsoft Teams. Envisagez de préinstaller
l’application pour tous les utilisateurs par souci pratique.
" Déterminez si l’affichage des fichiers Power BI Desktop est autorisé : déterminez si
l’affichage des fichiers Power BI Desktop stockés dans OneDrive ou SharePoint est
autorisé ou encouragé. Définissez les utilisateurs pouvant afficher les fichiers Power
BI enregistrés dans le paramètre client OneDrive et SharePoint en fonction de votre
décision.
" Formez les utilisateurs : fournissez des conseils et des formations aux créateurs de
contenu sur la façon d’utiliser au mieux chaque option et sur l’emplacement de
stockage sécurisé des fichiers. Incluez des suggestions, telles que des navigateurs
web préférés, dans votre portail centralisé.
" Effectuez un transfert de connaissances avec l’équipe de support : vérifiez que
l’équipe de support est prête à répondre aux questions fréquemment posées par
les utilisateurs.
Les créateurs de contenu peuvent utiliser plusieurs outils pour créer du contenu Power
BI. Certains outils sont destinés aux créateurs de contenu en libre-service. D’autres outils
sont destinés aux créateurs de contenu avancés.
Conseil
Cette section présente les outils de création les plus courants. Toutefois, un auteur
n’a pas besoin de tous ces éléments. En cas de doute, commencez par installer
uniquement Power BI Desktop.
ノ Agrandir le tableau
service Power BI Les consommateurs et les créateurs de contenu qui développent du contenu
à l’aide d’un navigateur web.
Power BI Desktop Créateurs de contenu qui développent des modèles de données et des
rapports interactifs qui seront publiés sur le service Power BI.
Power BI Desktop Créateurs de contenu qui développent des modèles de données et des
optimisé pour rapports interactifs qui seront publiés sur Power BI Report Server (un portail
Report Server de rapports simplifiés localement).
Générateur de Créateurs de rapports qui développent des rapports paginés qui seront
rapports Power BI publiés sur le service Power BI ou sur Power BI Report Server.
Logiciels Public cible
Excel Créateurs de contenu qui développent des rapports Excel dans des classeurs
qui peuvent inclure des tableaux croisés dynamiques, des graphiques, des
segments, etc. Si vous le souhaitez, les classeurs Excel peuvent être affichés
dans le service Power BI lorsqu’ils sont stockés dans SharePoint ou OneDrive
pour le travail ou l’école.
Outils tiers Les créateurs de contenu avancés peuvent éventuellement utiliser des outils
tiers et étendre les fonctionnalités intégrées à des fins telles que la gestion
avancée des modèles de données et la publication de contenu d’entreprise.
Conseil
Nous vous recommandons d’adopter une méthode de travail, puis d’utiliser cette
méthode de manière cohérente. Par exemple, lorsque les créateurs de contenu sont
incohérents quant à l’utilisation de Power BI Desktop par rapport au service Power
BI pour la création de rapports, il devient beaucoup plus difficile de déterminer où
réside le rapport d’origine et qui en est responsable.
7 Notes
Étant donné que le service Power BI est une application web, Microsoft installe
toutes les mises à jour pour s’assurer qu’il s’agit de la dernière version. Cela peut
être un avantage significatif pour les équipes informatiques occupées. Toutefois, il
est également important de surveiller attentivement le moment où des mises en
production se produisent afin d’être informé des modifications apportées aux
fonctionnalités.
Il existe certains types d’éléments Power BI qui peuvent être créés dans l’expérience
web, par exemple :
Dataflows
Datamarts
Rapports paginés
Rapports Power BI
Tableaux de bord
Cartes de performance
Une solution Fabric peut être créée de bout en bout dans un navigateur. La solution
peut inclure des éléments Power BI, ainsi que des éléments non Power BI (par exemple,
un lakehouse).
) Important
Power BI Desktop
Étant donné qu’il s’agit d’une application gratuite, Power BI Desktop est un excellent
moyen pour les créateurs de contenu de commencer à développer des modèles de
données et à créer des rapports interactifs. Power BI Desktop vous permet de vous
connecter à de nombreuses sources de données, de combiner des données provenant
de plusieurs sources de données, de nettoyer et de transformer des données, de créer
un modèle de données, d’ajouter des calculs DAX et de générer des rapports au sein
d’une seule application. Power BI Desktop convient parfaitement à la création de
rapports interactifs en mettant l’accent sur l’exploration.
Vous pouvez créer des rapports dans Power BI Desktop ou dans le service Power
BI. En raison de cette flexibilité, un processus cohérent pour savoir comment et où
développer du contenu est nécessaire.
L’utilisation de la gestion de version est considérée comme une meilleure pratique.
Une option pour les créateurs de contenu libre-service consiste à enregistrer les
fichiers créés par Power BI Desktop dans un emplacement où le contrôle de
version est activé (par exemple, OneDrive ou SharePoint) et qui peuvent être
sécurisés pour les utilisateurs autorisés. Les créateurs de contenu avancés peuvent
préférer utiliser l’intégration Git.
Power BI Desktop est disponible en tant qu’application de bureau Windows. Si
vous le souhaitez, il est possible d’exécuter Power BI Desktop dans un
environnement virtualisé.
Power BI Desktop est généralement mis à jour tous les mois. Les mises à jour
régulières permettent aux utilisateurs d’accéder rapidement aux nouvelles
fonctionnalités. Toutefois, le déploiement de mises à jour fréquentes dans une
grande organisation nécessite une planification. Pour plus d’informations,
consultez Outils clients plus loin dans cet article.
7 Notes
Il est important que les créateurs de contenu utilisent la version correcte du serveur de
rapports de Power BI Desktop pour éviter les problèmes de compatibilité après la
publication de contenu dans Power BI Report Server. Vous pouvez télécharger et
installer manuellement Power BI Desktop pour Report Server à partir du centre de
téléchargement Microsoft.
Pour les utilisateurs qui publient du contenu sur les services Power BI et Power BI Report
Server, deux options s’offrent à vous.
Option 1 : utilisez uniquement Power BI Desktop pour Report Server, car il produit
des fichiers qui peuvent être publiés à la fois sur le service Power BI et sur le
serveur de rapports. De nouvelles fonctionnalités de création seront disponibles
pour les utilisateurs environ tous les quatre mois (pour rester cohérents avec la
cadence de publication Power BI Report Server).
Avantages :
Les créateurs de contenu n’ont besoin d’utiliser qu’un seul outil.
Les créateurs de contenu sont assurés que le contenu qu’ils publient est
compatible avec le serveur de rapports.
Moins d’outils sont plus simples à gérer.
Inconvénients :
Certaines fonctionnalités prises en charge uniquement dans le service Power
BI ne sont pas disponibles dans la version Report Server de Power BI
Desktop. Par conséquent, les créateurs de contenu peuvent le trouver limité.
Les nouvelles caractéristiques sont plus lentes à devenir disponibles.
Les fonctionnalités d’évaluation ne sont pas disponibles.
Option 2 : exécutez les deux versions (Power BI Desktop et Power BI Desktop pour
Report Server) côte à côte.
Avantages :
Toutes les fonctionnalités de Power BI Desktop standard peuvent être
utilisées.
Les nouvelles fonctionnalités de Power BI Desktop standard sont disponibles
plus rapidement.
Les fonctionnalités d’évaluation des Power BI Desktop standard sont
disponibles à la discrétion du créateur de contenu.
Inconvénients :
Les créateurs de contenu doivent être préparés à la complexité, car ils
doivent se souvenir de la version à utiliser quand, en fonction de
l’emplacement de déploiement cible. Le risque est que lorsqu’un fichier .pbix
de la version plus récente est publié par inadvertance dans Power BI Report
Server, il ne fonctionne pas correctement. Par exemple, les requêtes de
modèle de données échouent, l’actualisation des données échoue ou les
rapports ne s’affichent pas correctement.
Les créateurs de contenu doivent connaître le comportement par défaut
lorsqu’ils ouvrent directement des fichiers .pbix (au lieu de les ouvrir à partir
de Power BI Desktop).
Microsoft Excel
De nombreux utilisateurs professionnels maîtrisent Microsoft Excel et souhaitent
l’utiliser pour l’analyse des données à l’aide de tableaux croisés dynamiques, de
graphiques et de segments. Il existe également d’autres fonctionnalités Excel utiles
(telles que les fonctions de cube ) qui permettent une plus grande flexibilité et une
mise en forme lors de la conception d’une disposition de grille de valeurs. Certains
créateurs de contenu peuvent également préférer utiliser des formules Excel pour
certains types de calculs (au lieu de calculs DAX dans le modèle de données), en
particulier lorsqu’ils effectuent des activités d’exploration de données.
Il existe d’autres façons d’utiliser Excel. Ces options étant moins optimales, vous ne
devez les utiliser que si nécessaire.
Exportez vers Excel : de nombreux utilisateurs ont pris l’habitude d’exporter des
données vers Excel à partir de rapports ou de tableaux de bord. Bien que Power BI
prenne en charge cette fonctionnalité, elle doit être utilisée avec précaution et avec
modération, car elle génère un ensemble statique de données. Pour s’assurer que
les exportations de données vers Excel ne sont pas sur-utilisées, les utilisateurs de
l’organisation doivent être informés des inconvénients des exportations et les
administrateurs doivent suivre les exportations dans les données d’activité des
utilisateurs.
Obtenir des données sources à partir d’Excel : Excel peut être utilisé comme
source de données lors de l’importation de données dans Power BI. Cette
fonctionnalité fonctionne mieux pour les petits projets lorsqu’une solution Excel
conviviale est nécessaire pour gérer les données sources. Il peut également être
utile d’effectuer rapidement une preuve de concept (POC). Toutefois, pour réduire
le risque associé aux sources de données Excel, le fichier Excel source doit être
stocké dans un emplacement partagé sécurisé. En outre, les noms des colonnes ne
doivent pas être modifiés pour garantir la réussite des actualisations des données.
Conseil
Certains prérequis doivent être mis en place pour permettre aux utilisateurs de se
connecter à un modèle sémantique Power BI depuis Excel.
Dans certaines organisations, les utilisateurs ont installé la version 32 bits d’Excel
plutôt que la version 64 bits. La version 64 bits d’Excel peut prendre en charge des
volumes de données plus importants et s’exécute généralement mieux que la
version 32 bits. Tous les fournisseurs de données doivent également s’aligner sur
ce choix.
Certaines fonctionnalités de Power BI Desktop ne sont pas disponibles dans le
modèle de données Excel, ou elles sont publiées à une cadence beaucoup plus
lente. Par conséquent, les exigences de modélisation complexes peuvent ne pas
être (facilement) réalisables dans Excel.
Certains connecteurs et sources de données disponibles dans Power BI Desktop ne
sont pas disponibles dans Excel.
Conseil
Power BI Report Builder est un outil permettant de créer un fichier de rapport paginé
(.rdl). Les rapports paginés peuvent être déployés sur le service Power BI ou le Power BI
Report Server. Si vous avez déjà créé des rapports dans SQL Server Reporting Services
(SSRS), vous constaterez qu’il s’agit d’une expérience de création de rapport similaire.
Les rapports paginés conviennent mieux aux rapports qui ont une mise en forme
élaborée ou sont prêts pour l’impression, comme les états financiers. Elles conviennent
également aux rapports destinés à être imprimés ou à la génération de PDF, et lorsque
l’entrée utilisateur (avec les paramètres de rapport) est requise.
Conseil
Pour d’autres scénarios qui favorisent le choix de rapports paginés, consultez
Quand utiliser des rapports paginés dans Power BI.
Voici quelques points importants à prendre en compte lorsque vous décidez d’utiliser
Power BI Report Builder.
L’approche de travailler dans Power BI Report Builder avec un état d’esprit différent
de celui que vous utilisez dans Power BI Desktop. Un rapport paginé se concentre
toujours sur la création d'un rapport individuel (à l'inverse, un modèle sémantique
créé dans Power BI Desktop peut servir de nombreux rapports différents).
Le développement de rapports paginés implique plus de compétences que la
création de rapports Power BI. Toutefois, le principal avantage est un contrôle
précis de l’extraction, de la disposition et de la sélection élective des données.
Un rapport paginé concerne à la fois l’extraction de données et la disposition. Vous
devez développer une requête (appelée ensemble de données) pour récupérer des
données à partir d'une source de données externe, ce qui peut impliquer l'écriture
d'une instruction de requête native (dans DAX, T-SQL ou un autre langage). Le jeu
de données appartient à un rapport, de sorte qu’il ne peut pas être publié et utilisé
par d’autres rapports paginés.
Les consommateurs de rapports sont habitués à l’interactivité intégrée de Power BI
rapports. Toutefois, l’interactivité des rapports n’est pas une force des rapports
paginés. La tentative d’obtention d’une interactivité similaire dans les rapports
paginés peut être difficile ou impossible.
Si vous devez accéder aux données à l’aide d’une procédure stockée de base de
données (telle qu’une procédure stockée Azure SQL Database), cela est possible
avec des rapports paginés.
Il existe des différences de caractéristiques et des fonctionnalités non prises en
charge selon que le rapport paginé est publié dans le service Power BI ou Power BI
Report Server. Nous vous recommandons d’effectuer une preuve de concept pour
déterminer ce qui est possible pour votre environnement cible.
Conseil
Pour plus d’informations, consultez les rapports paginés dans la FAQ sur Power BI
et les conseils de conception pour les rapports dans Power BI Report Builder.
Outils tiers
Les créateurs de contenu avancés peuvent choisir d’utiliser des outils tiers, en particulier
pour les opérations à l’échelle de l’entreprise. Ils peuvent utiliser des outils tiers pour
développer, publier, gérer et optimiser des modèles de données. L'objectif de ces outils
est d'élargir les capacités de développement et de gestion disponibles pour les
créateurs de modèles sémantiques. Parmi les exemples courants d’outils tiers, citons
l’éditeur tabulaire, DAX Studio et ALM Toolkit. Pour plus d’informations, consultez le
scénario d’utilisation Gestion avancée du modèle de données.
7 Notes
Il existe trois manières principales d'utiliser des outils tiers pour le développement et la
gestion de modèles sémantiques.
Certains outils tiers sont protégés et nécessitent une licence payante (telle que l’Éditeur
tabulaire 3). D’autres outils de la communauté sont gratuits et open source (tels que
l’Éditeur tabulaire 2, DAX Studio et ALM Toolkit). Nous vous recommandons d’évaluer
soigneusement les fonctionnalités de chaque outil, le coût et son modèle de support,
afin que vous puissiez proposer un support suffisant à vos créateurs de contenu.
Conseil
Certaines organisations trouvent plus facile d’obtenir un nouvel outil approuvé qui
est entièrement pris en charge (même en cas de coût de licence). Toutefois,
d’autres organisations trouvent plus facile d’obtenir l’approbation d’un outil open
source gratuit. Votre service informatique peut vous fournir des conseils et vous
aider à faire preuve de diligence.
Liste de vérification : voici les décisions et les actions clés pour planifier les outils de
création :
Outils clients
Le service informatique utilise souvent le terme outils clients pour faire référence aux
logiciels installés sur les ordinateurs clients (appareils utilisateur). Le logiciel Power BI le
plus courant installé sur un appareil utilisateur est Power BI Desktop.
Étant donné que Microsoft met généralement à jour Power BI Desktop tous les mois, il
est important d’avoir un processus transparent pour gérer les installations et les mises à
jour.
Voici plusieurs façons dont les organisations peuvent gérer les installations et les mises
à jour de Power BI Desktop.
ノ Agrandir le tableau
Microsoft Store Oui Power BI Desktop est distribué sur le Microsoft Store .
Toutes les mises à jour, y compris les correctifs de bogues,
sont installées automatiquement. Cette option est une
approche simple et transparente, à condition que votre
organisation ne bloque pas certaines (ou toutes)
applications du Microsoft Store pour certains (ou tous)
utilisateurs.
Il est important que les appareils utilisateur disposent de ressources système adéquates.
Pour être productifs, les créateurs de contenu qui travaillent avec des volumes de
données importants peuvent avoir besoin de ressources système qui dépassent la
configuration minimale requise, en particulier la mémoire (RAM) et le processeur. Le
service informatique peut avoir suggéré des spécifications d’ordinateurs en fonction de
leur expérience avec d’autres créateurs de contenu.
Plusieurs créateurs de contenu qui collaborent sur un fichier Power BI Desktop sont
assurés d’avoir la même version. Il est essentiel que les créateurs qui travaillent
ensemble sur le même fichier .pbix utilisent la même version logicielle.
Les utilisateurs n’auront pas à effectuer d’action spécifique pour obtenir des mises
à jour.
Les utilisateurs peuvent tirer parti des nouvelles fonctionnalités et leur expérience
est alignée sur les annonces et la documentation. Cela peut avoir un impact sur
l’adoption et la satisfaction des utilisateurs lorsque les créateurs de contenu
découvrent les nouvelles fonctionnalités et fonctionnalités, mais qu’ils rencontrent
de longs délais entre les mises à jour logicielles.
Seule la dernière version de Power BI Desktop est prise en charge par Microsoft. Si
un utilisateur rencontre un problème et qu’il crée un ticket de support, il est invité
par le support Microsoft à mettre à niveau son logiciel vers la dernière version.
Les utilisateurs qui créent et gèrent des fichiers situés dans Fabric OneLake peuvent
également bénéficier de OneLake Explorateur de fichiers. Cet outil leur permet de
charger, télécharger, modifier ou supprimer facilement des fichiers dans OneLake à
l’aide de l’Explorateur de fichiers Windows.
7 Notes
Il se peut que votre service informatique ait mis en place des stratégies d’appareil
managé. Ces stratégies peuvent contrôler quels logiciels peuvent être installés et
comment ils sont gérés.
) Important
Pour les sources de données qui nécessitent une connectivité via une passerelle, les
mêmes pilotes, connecteurs et fournisseurs doivent être installés sur chaque
machine de passerelle de données. Les composants manquants sur une passerelle
de données sont une raison courante pour les échecs d’actualisation des données
une fois que le contenu a été publié dans le service Power BI.
Conseil
Pour utiliser un visuel personnalisé dans Power BI Desktop, il doit d’abord être installé
sur l’ordinateur du créateur de contenu. Il existe plusieurs façons de distribuer des
visuels aux utilisateurs.
AppSource :AppSource est une place de marché pour les applications, les
compléments et les extensions pour les logiciels Microsoft. Les visuels sont
distribués dans AppSource à l’aide d’un fichier visuel Power BI (.pbiviz). Un visuel
peut être distribué gratuitement ou nécessite une licence.
Avantages :
Il est simple pour les utilisateurs de rechercher et de localiser des visuels
dans AppSource.
Tous les rapports et tableaux de bord sont automatiquement mis à jour pour
utiliser la dernière version des visuels personnalisés provenant d’AppSource.
Prend en charge l’utilisation de visuels certifiés.
Microsoft effectue des validations de base des visuels publiés sur AppSource.
L’étendue de la révision varie selon que le visuel est certifié ou non.
Inconvénients potentiels :
Lorsque chaque créateur de contenu télécharge ce dont il a besoin à partir
d’AppSource, cela peut entraîner des incompatibilités lorsque des versions
différentes sont installées pour les utilisateurs.
Un créateur de contenu peut télécharger un visuel qui n’a pas encore été
testé ou approuvé pour une utilisation dans l’organisation.
Le développeur du visuel doit suivre un processus de publication strict. Bien
qu’il renforce la sécurité et améliore la stabilité, le processus peut rendre
difficile la publication rapide d’un correctif de bogue,
Importer un fichier visuel : un créateur de contenu peut importer un fichier visuel
dans Power BI Desktop.
Avantages :
Les visuels disponibles publiquement ou distribués en privé peuvent être
installés. Cela inclut les visuels développés en interne ou les visuels
propriétaires achetés auprès d’un fournisseur.
Permet d’obtenir un fichier visuel en dehors d’AppSource.
Inconvénients potentiels :
Sans système centralisé, il peut être difficile pour les créateurs de contenu de
savoir quels visuels ont été approuvés pour une utilisation dans
l’organisation.
Lorsque chaque créateur de contenu importe le fichier visuel dont il dispose,
cela peut entraîner des incompatibilités lorsque des versions différentes sont
installées pour les utilisateurs.
Les mises à jour ne sont pas propagées automatiquement aux appareils
utilisateur. Les rapports dans les fichiers Power BI Desktop locaux ne sont pas
mis à jour tant que chaque utilisateur n’a pas mis à jour ses fichiers visuels.
Ne prend pas en charge l’utilisation de visuels certifiés.
Visuels d’organisation : le référentiel des visuels d’organisation est une zone
centralisée dans le portail d’administration Fabric pour la gestion des visuels.
Avantages :
Les créateurs de contenu n’ont pas à gérer les fichiers visuels. Au lieu de cela,
un administrateur Fabric gère de manière centralisée la version d’un visuel
disponible pour tous les utilisateurs. La cohérence des versions est garantie
pour tous les utilisateurs et tous les rapports.
Les visuels disponibles publiquement ou distribués en privé peuvent être
installés. Cela inclut les visuels développés en interne ou les visuels
propriétaires achetés auprès d’un fournisseur.
Les visuels peuvent être testés et pré-approuvés pour une utilisation dans
l’organisation. Ce processus de vérification réduit le risque d’utilisation de
visuels non approuvés. Il offre également une plus grande flexibilité pour
définir la version spécifique d’un visuel approuvée pour une utilisation.
Tous les rapports et tableaux de bord sont automatiquement mis à jour pour
utiliser la dernière version (lorsqu’un fichier visuel est mis à jour dans le
portail d’administration ou mis à disposition dans AppSource).
Si un visuel actuellement utilisé par l’organisation est considéré comme ne
plus fiable, il peut être désactivé ou supprimé du référentiel des visuels de
l’organisation. Dans ce cas, le visuel ne sera pas rendu dans les rapports et
les tableaux de bord.
Autorise l’utilisation de visuels non certifiés à partir d’AppSource. Cela est
utile lorsque vous avez défini le paramètre client pour bloquer les visuels non
certifiés, mais qu’un visuel non certifié spécifique a été validé et approuvé
pour une utilisation dans l’organisation.
Inconvénients potentiels :
Les visuels organisationnels doivent être gérés de manière centralisée par un
administrateur Fabric.
La centralisation est corrélée à la flexibilité réduite des utilisateurs et au
risque de retards dans la mise à jour de la version d’un visuel.
Certaines fonctionnalités ne sont pas disponibles lorsqu’un visuel n’est pas
certifié (ce qui nécessite une importation à partir d’AppSource).
) Important
Conseil
La façon dont vous distribuez des visuels personnalisés est une considération de
gouvernance. Nous vous recommandons d’évaluer soigneusement les
fonctionnalités de chaque visuel, en tenant compte de son coût et de son modèle
de support, afin que vous puissiez proposer un support suffisant à vos créateurs de
contenu.
Les visuels exécutent du code JavaScript et ont accès aux données qu’ils
visualisent.
Les visuels peuvent transmettre des données à un service externe. Par
exemple, un visuel peut avoir besoin de transmettre des données à une API
pour exécuter un algorithme d’IA ou pour restituer une carte. Ce n’est pas
parce qu’un visuel transmet des données à un service externe qu’il n’est pas
fiable. Un visuel qui transmet des données ne peut pas être certifié.
Vous pouvez également utiliser une stratégie de groupe pour spécifier si les
exportations de données sont autorisées ou bloquées à partir de visuels personnalisés.
Paramètres du Registre
Le système d’exploitation Windows stocke les informations, les paramètres et les
options de l’ordinateur dans le Registre Windows. Pour Power BI Desktop, les
paramètres du Registre peuvent être définis pour personnaliser les ordinateurs
utilisateur. Les paramètres du Registre peuvent être mis à jour par stratégie de groupe,
ce qui permet au service informatique de configurer des paramètres par défaut
cohérents pour tous les utilisateurs (ou groupes d’utilisateurs).
Voici plusieurs utilisations courantes des paramètres de Registre liés à Power BI Desktop.
Désactivez les notifications indiquant qu’une mise à jour logicielle est disponible.
Cela est utile lorsque vous êtes certain que le service informatique obtiendra la
mise à jour Power BI Desktop, effectuera des validations, puis enverra des mises à
jour aux appareils utilisateur via leur processus normal.
Définissez le niveau de confidentialité global. Il est judicieux de définir ce
paramètre sur Organisation comme valeur par défaut, car il peut aider à éviter les
violations de la confidentialité des données lorsque différentes sources de données
sont fusionnées.
Désactivez le formulaire de connexion Power BI Desktop. La désactivation du
formulaire est utile lorsque les ordinateurs de l’organisation sont
automatiquement connectés. Dans ce cas, l’utilisateur n’a jamais besoin d’être
invité.
Paramétrez Éditeur de requête performances. Ce paramètre est utile lorsque vous
devez influencer le comportement d’exécution des requêtes en modifiant les
valeurs par défaut.
Désactivez l’onglet de ruban outils externes. Vous pouvez désactiver l’onglet du
ruban lorsque vous savez que vous ne pouvez pas approuver ou prendre en
charge l’utilisation d’outils externes.
Conseil
Vous pouvez spécifier des stratégies de protection des applications et des stratégies de
protection des appareils pour les appareils gérés et non gérés à l’aide de Microsoft
Intune. Intune est un service logiciel qui fournit la gestion des appareils mobiles et des
applications, et prend en charge les stratégies de gestion des applications mobiles
(MAM). Les stratégies peuvent être définies à différents niveaux de protection.
Pour plus d’informations sur la sécurisation des appareils et des données, consultez le
livre blanc Power BI sécurité.
Liste de vérification : voici les décisions et les actions clés pour la gestion des appareils :
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
L’un des aspects clés de la gestion de Microsoft Fabric est de s’assurer que les
utilisateurs ont accès aux fonctionnalités dont ils ont besoin. À cette fin, vous devez
acheter et gérer des abonnements, des licences et des essais pour votre organisation. La
gestion des abonnements, des licences et des essais est nécessaire pour s’assurer que
les créateurs et les consommateurs de contenu peuvent utiliser Fabric et Power BI.
7 Notes
La gestion des licences est un sujet important qui peut être complexe, en particulier
lorsque votre organisation implémente Fabric ou Power BI pour la première fois.
Bien que cet article décrit les principales décisions et considérations relatives aux
abonnements, aux licences et aux versions d’évaluation, nous vous recommandons
de consulter les articles et ressources supplémentaires suivants pour obtenir des
informations plus détaillées et pratiques.
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
Le tableau suivant présente les concepts clés utilisés par cet article.
ノ Agrandir le tableau
Locataire Fabric fonctionne dans le locataire Microsoft Entra Sur Contoso, un locataire
de l’organisation. Une organisation dispose existe pour contoso.com.
généralement d’un seul locataire (même si
certaines grandes organisations peuvent avoir
plusieurs locataires).
Licence par Une licence par utilisateur repose sur un Contoso compte
utilisateur abonnement. Tous les utilisateurs nécessitent une 450 utilisateurs actifs :
licence utilisateur, qui peut être Fabric gratuite,
Power BI Pro (Pro) ou Premium par utilisateur • Les 450 utilisateurs
(PPU). reçoivent tous une
licence Fabric gratuite.
• 92 utilisateurs reçoivent
une licence Power BI Pro
(il en reste donc 8 de
disponibles dans
l’abonnement).
• 15 utilisateurs reçoivent
une licence PPU (il n’en
reste donc plus dans
l’abonnement).
Concept Description Exemple
Référence SKU Les références SKU sont un ID produit pour Contoso dispose de trois
(Stock-Keeping l’abonnement acheté. Pour la capacité, il existe capacités actives :
Unit) deux façons de faire référence aux références SKU.
• Une capacité F16.
• Regroupement : type de capacité achetée. Par • Une capacité F64.
exemple, la référence SKU F fait référence à une • Une capacité P1.
capacité Fabric en général.
• Spécifique : la référence SKU spécifique pour
une capacité désigne le niveau de sa puissance de
calcul. Par exemple, une capacité F64 a un
ensemble spécifique de ressources de calcul (telles
que le processeur et la mémoire) qui sont
disponibles pour tous les espaces de travail
affectés à cette capacité.
Évaluation Une licence d’essai vous permet d’essayer des Contoso présente des
fonctionnalités. Vous pouvez activer une version essais actifs :
d’essai pour une licence par utilisateur ou une
licence de capacité Fabric. • Deux utilisateurs ont un
essai actif PPU.
• Un essai de capacité
Fabric est actif.
7 Notes
Les abonnements mentionnés dans cet article concernent les coûts d’un produit. Il
s’agit d’un concept différent des abonnements aux rapports, qui sont des rapports
remis selon une planification.
) Important
L’organisation dispose d’un abonnement Microsoft Fabric gratuit avec des licences
gratuites illimitées. Les administrateurs de facturation peuvent attribuer ces
licences aux utilisateurs de l’organisation.
Les administrateurs de facturation peuvent acheter des abonnements Power BI Pro
et attribuer des licences Power BI Pro aux utilisateurs de l’organisation.
Les administrateurs de facturation peuvent acheter des licences Power BI Premium
par utilisateur (PPU) en tant que modules complémentaires à un abonnement
Power BI Pro existant. Ces administrateurs peuvent ensuite attribuer des licences
PPU aux utilisateurs de l’organisation.
Les administrateurs de facturation peuvent acheter des abonnements de capacité
Power BI Premium (SKU P) pour l’organisation. Ces licences sont par capacité et
non par utilisateur.
Dans le portail Azure, les administrateurs Azure peuvent attribuer des licences par
utilisateur et acheter et gérer des licences par capacité.
Les administrateurs Azure attribuent des licences par utilisateur, telles que
Microsoft Fabric gratuit, dans le portail Azure dans Microsoft Entra ID.
Les administrateurs Azure gèrent leur abonnement Azure, où ils peuvent acheter et
gérer des licences par capacité.
Les administrateurs de facturation peuvent acheter des abonnements de
capacité Premium (références SKU A ou EM), qui sont liés et facturés dans le
cadre d’un abonnement Azure.
Les administrateurs de facturation peuvent acheter des abonnements de
capacité Fabric (SKU F), liés et facturés dans le cadre d’un abonnement Azure.
7 Notes
La plupart des fonctionnalités décrites dans cet article ne sont pas disponibles pour
les administrateurs Fabric. Au lieu de cela, les administrateurs Fabric doivent
collaborer avec d’autres administrateurs disposant d’autorisations
supplémentaires pour afficher (ou mettre à jour) les abonnements, la facturation et
les licences.
Le reste de cet article décrit les considérations relatives aux licences par utilisateur et
licences de capacité.
Conseil
Vous pouvez également utiliser ces informations dans le cadre de l’audit au niveau
du locataire. Plus précisément, consultez cette section sur la récupération de
données sur les utilisateurs et les groupes.
) Important
Veillez à inclure les abonnements en libre-service existants dans votre liste afin
d’obtenir l’image complète. Pour plus d’informations, consultez Gérer les achats en
libre-service.
) Important
Vos décisions en matière de licences par utilisateur, avec ou sans capacité (décrites
dans la section suivante de cet article), ont un impact significatif sur les
fonctionnalités disponibles pour les auteurs et les consommateurs.
Licence Microsoft Fabric (gratuite) :licence gratuite sans coût d’abonnement. Elle
peut être utilisée de différentes manières :
Personal BI : un utilisateur gratuit peut utiliser son espace de travail personnel
dans le portail Fabric. Étant donné que l’objectif est le décisionnel personnel
(Personal BI), aucune fonctionnalité de distribution de rapports, de partage et
de collaboration n’est disponible pour l’utilisateur gratuit.
Consuming BI : un utilisateur gratuit peut afficher le contenu déployé sur un
espace de travail affecté à une capacité (minimum de F64 ou P1). Ce cas d’usage
Enterprise BI (décisionnel grande entreprise) est important lorsque vous avez un
grand nombre de consommateurs de rapports qui ne créent pas de contenu
décisionnel, car vous n’avez pas besoin d’acheter une licence Power BI Pro pour
ces consommateurs. Pour plus d’informations, consultez Plan de sécurité des
consommateurs de rapports.
Création Fabric : un utilisateur gratuit peut créer et partager des éléments
Fabric (non Power BI) dans un espace de travail affecté à une référence SKU F.
Licence Power BI Pro : une licence Power BI Pro est requise pour créer du contenu
Power BI. Elle est nécessaire pour toute forme de partage, de collaboration ou de
distribution de contenu. Pour plus d'informations, consultez Planification de la
sécurité des créateurs de contenu.
Licence Power BI Premium par utilisateur (PPU) : une licence PPU fournit toutes
les fonctionnalités de licence Pro et inclut certaines fonctionnalités Premium, par
utilisateur. Il s’agit d’un bon choix pour les petites organisations et les équipes qui
souhaitent utiliser des fonctionnalités spécifiques, mais qui n’ont pas besoin de
l’ensemble complet des fonctionnalités Fabric. Pour plus d’informations, consultez
cet article sur Power BI Premium par utilisateur.
Conseil
Vous pouvez combiner des licences utilisateur avec des licences de capacité. Par
exemple, vous pouvez avoir des espaces de travail de développement, de test et de
production qui s’appuient sur des approches de publication de contenu
d’entreprise spécifiques. Étant donné que les espaces de travail de développement
et de test ont très peu d’utilisateurs, ces espaces de travail peuvent être affectés à
une taille de capacité plus petite ou en mode de licence PPU (s’ils ne nécessitent
pas d’expérience ni de fonctionnalités Fabric). L’espace de travail de production
peut utiliser une licence de capacité pour prendre en charge de nombreux
consommateurs (avec des licences gratuites). De cette façon, vous pouvez
potentiellement réduire les coûts, tout en ségrégeant le contenu de
développement et de test de la charge de travail de production.
Conseil
Conseil
Vous pouvez définir une URL personnalisée pour les demandes de licence dans le
paramètre de locataire Publier des informations « Obtenir de l’aide ». L’URL peut
diriger les utilisateurs vers un formulaire ou vers votre page de demande de licence
interne.
Conseil
Une autre décision de gouvernance importante est de savoir si les essais utilisateur sont
autorisés. Un essai dans le produit fournit aux utilisateurs un moyen d’essayer des
fonctionnalités avant de s’engager à acheter une licence. Il existe deux types d’essais
qu’un utilisateur peut lancer : un essai Premium par utilisateur (PPU) et un essai de
capacité Fabric.
Lorsque les essais sont activés, un bouton Démarrer l’essai s’affiche dans le portail. Il
permet à un utilisateur de commencer un essai de Fabric. En outre, un utilisateur peut
être invité à démarrer un essai pendant qu’il travaille. Par exemple, si un utilisateur
gratuit tente de créer un espace de travail ou de partager un rapport, il est invité à
démarrer un essai PPU en sélectionnant le bouton Essai gratuit. De même, si un
utilisateur Pro tente d’afficher du contenu dans un espace de travail PPU, il est invité à
démarrer un essai en sélectionnant le bouton Essai gratuit.
La possibilité d’utiliser des essais dans le produit est contrôlée par les utilisateurs
peuvent essayer le paramètre de locataire Les utilisateurs peuvent essayer les
fonctionnalités payantes de Microsoft Fabric. Son comportement est étroitement corrélé
avec le fonctionnement de l’achat en libre-service (décrit ensuite). Pour plus
d’informations, consultez Les utilisateurs peuvent essayer les fonctionnalités payantes de
Microsoft Fabric.
7 Notes
L’expérience d’essai est censée être une facilité qui permet aux utilisateurs de
poursuivre leurs flux de travail normalement. En règle générale, la désactivation des
essais n’est pas recommandée. La restriction des essais peut encourager les
utilisateurs à rechercher des solutions de contournement, par exemple en exportant
des données ou en travaillant en dehors des outils et processus pris en charge.
Il existe des préoccupations significatives sur les coûts qui rendent peu probable
l’octroi à l’utilisateur d’une licence complète à la fin de la période d’essai.
Des conditions préalables sont requises pour obtenir une licence (telle qu’une
approbation, une justification ou une exigence de formation) qui doivent être
remplies avant de commencer un essai ou d’obtenir une licence.
Il existe un besoin valide, tel qu’une exigence réglementaire, de contrôler
étroitement l’accès à Fabric.
Les utilisateurs peuvent acheter eux-mêmes des licences lorsque l’achat en libre-service
est activé. Dans ce cas, un utilisateur peut acheter une licence pendant qu’il travaille. Par
exemple, si un utilisateur Pro tente d’afficher du contenu dans un espace de travail PPU,
il peut choisir d’acheter une licence en sélectionnant le bouton Mettre à niveau le
compte ou Acheter maintenant. Pour plus d’informations, consultez S’inscrire ou acheter
le service Power BI en tant que personne individuelle.
Les grandes organisations avec des divisions décentralisées qui ont l’autorité
d’achat et souhaitent gérer le paiement directement avec une carte de crédit
Les organisations qui envisagent de rendre aussi simple que possible l’achat
d’abonnements pour un engagement mensuel
ノ Agrandir le tableau
Article Description
L’utilisateur a une vue limitée des licences achetées auprès du Centre d’administration
Microsoft 365 qu’il peut affecter à d’autres personnes dans son étendue de
responsabilité.
Les administrateurs Microsoft 365 ont une vue holistique de toutes les licences acquises
via la publication en libre-service dans le Centre d’administration Microsoft 365.
Voici quelques considérations à prendre en compte lorsque vous envisagez de gérer les
licences pour les utilisateurs invités.
Conseil
Pour plus d’informations, consultez le livre blanc Microsoft Entra B2B. Il s’agit
d’une bonne ressource pour en savoir plus sur les stratégies de gestion des
utilisateurs externes.
) Important
Les sujets suivants sont des actions qui peuvent être appropriées.
En fonction des informations que vous avez collectées, vous pouvez choisir d’ajuster vos
abonnements utilisateur existants. Par exemple, vous pouvez choisir d’augmenter ou de
diminuer la quantité de vos abonnements Pro ou PPU.
7 Notes
Les ajustements apportés à vos abonnements utilisateur peuvent être corrélés avec
d’autres modifications apportées à un abonnement de capacité. La gestion des
licences de capacité est abordée plus loin dans cet article.
Conseil
Sauf si vous êtes une très petite organisation avec très peu de modifications, ne
documentez pas manuellement chaque licence utilisateur. Utilisez plutôt les API
Microsoft Graph pour extraire des informations sur les abonnements et les licences
régulièrement. Envisagez de stocker un instantané des données de licence
utilisateur toutes les semaines ou tous les mois. De cette façon, vous pouvez
comparer les instantanés pour déterminer ce qui a changé. Pour plus
d’informations, consultez Auditer les licences utilisateur.
) Important
Vous devez créer un processus reproductible et documenté pour demander une licence
utilisateur. Il implique généralement la création d’un formulaire en ligne. Des
informations sur les conditions préalables requises doivent également être incluses.
Dans les grandes organisations, la gestion des demandes de licences utilisateur peut
impliquer des efforts administratifs importants. Une façon d’améliorer l’efficacité
consiste à utiliser des licences basées sur des groupes. Les licences basées sur des
groupes vous permettent d’attribuer automatiquement une licence en fonction de
l’appartenance à un groupe de sécurité. Un groupe tel que Auteurs de contenu Fabric
fonctionne bien à cet effet, ce qui permet l’attribution de licences aux utilisateurs de
manière efficace.
Le diagramme suivant illustre le fonctionnement des licences basées sur des groupes.
Le diagramme illustre les processus et étapes suivants impliqués dans les licences
basées sur des groupes.
ノ Agrandir le tableau
Article Description
Les administrateurs attribuent ces licences à des groupes qu’ils gèrent dans Microsoft
Entra ID.
Article Description
Les groupes sont configurés pour attribuer des licences à tous les membres.
La licence n’est pas utilisée pendant une période spécifique (par exemple, six
mois).
La licence est utilisée rarement ou sporadiquement.
La licence a été utilisée une fois pour une seule activité.
Le journal d’activité vous permet d’identifier quand des activités se sont produites pour
un utilisateur et ce qu’ils sont (par exemple, l’affichage ou la publication d’un rapport).
Liste des abonnements actifs : vous pouvez afficher les produits qui ont un
abonnement actif dans la zone de facturation du Centre d’administration
Microsoft 365. Ou, avec Microsoft Graph, utilisez l’API REST List Subscribed SKUs
pour extraire les abonnements actifs.
Un abonnement a été créé : les produits récemment achetés affichent un
indicateur Nouveau dans la zone de facturation du Centre d’administration
Microsoft 365.
Audit des licences utilisateur
Voici quelques actions à rechercher pour auditer les licences utilisateur.
) Important
Les informations présentées dans cette étape ne sont pas destinées à être une liste
inclusive des moyens d’auditer les données. Au lieu de cela, elles sont destinées à
vous fournir des idées pour vous aider à débuter votre audit. Pour d’autres idées,
nous vous recommandons de consulter vos administrateurs de facturation.
Liste de vérification : voici les décisions et les actions clés pour planifier les licences
utilisateur :
L’utilisation de la capacité peut jouer un rôle important dans votre stratégie de création,
de gestion, de publication et de distribution de contenu. Vos décisions relatives aux
licences de capacité sont en plus des licences par utilisateur, qui ont été décrites
précédemment.
7 Notes
Capacité Fabric (références SKU F) : les références SKU F sont achetées dans Azure
(notez que la tarification est régionale). Les références SKU F présentent certains
avantages (qui ne sont pas disponibles avec des références SKU P), notamment la
possibilité de :
Mettre à l’échelle la capacité pour la redimensionner à tout moment. Cette
possibilité de mise à l’échelle vous permet d’ajuster la taille et le coût, car vous
comprenez mieux votre charge de travail.
Suspendre la capacité à tout moment. Cette fonctionnalité est utile pour les
capacités rarement utilisées.
Tester les fonctionnalités avec un essai Fabric avant de valider un achat.
Utilisez une licence de capacité de niveau inférieur pour les petites charges de
travail afin de réduire le coût.
Choisir le niveau d’engagement préféré :
Paiement à l’utilisation : le modèle tarifaire de paiement à l’utilisation ne
présente aucun engagement d’utilisation. Vous pouvez redimensionner la
capacité en fonction des besoins, et même la suspendre. Cela est adapté
quand vous souhaitez de la flexibilité.
Réservation : le modèle de tarification réservé implique une taille prédéfinie
(SKU) pour une période spécifique, ce qui entraîne un coût inférieur à celui
du paiement à l’utilisation. Toutefois, une instance réservée ne peut pas être
suspendue. Elle convient donc quand vous devez exécuter une capacité
24 h/24, 7 j/7.
Utilisez des primes de tarification organisationnelles. Si vous disposez d’un
contrat monétaire avec Microsoft, les programmes tels que l’engagement de
consommation Microsoft Azure (MACC) s’appliquent aux références SKU F.
Utilisez les fonctionnalités Microsoft Cost Management pour superviser et suivre
les coûts.
Power BI Premium par capacité (références SKU P) : les références SKU P sont
achetées dans le portail d’administration Microsoft 365. Power BI Premium utilise
un modèle tarifaire réservé. Il s’exécute 24 h/24, 7 j/7 et ne peut pas être mis à
l’échelle ni suspendu. Vous ne pouvez pas acheter de références SKU P après le
1er juillet 2024.
Power BI Premium (références SKU EM) : les références SKU EM sont un type
spécialisé de licence de capacité Power BI Premium achetée dans le portail
d’administration Microsoft 365 ou via une licence en volume (disponible par le
biais de votre gestionnaire de comptes Microsoft). Les références SKU EM sont
ciblées sur des scénarios d’incorporation simples, tels que l’incorporation d’un
rapport dans une application. L’offre de références SKU EM est un sous-ensemble
de fonctionnalités disponibles dans les références SKU P. Elles ont moins de
puissance de calcul et aucun accès au service Power BI. En outre, les références
SKU EM ne prennent pas en charge les expériences Fabric. Pour plus
d’informations, consultez Capacité et références SKU.
Power BI Embedded (références SKU A) : les références SKU A sont achetées dans
Azure (toutefois, cette offre est différente des références SKU F décrites
précédemment). Power BI Embedded est principalement destiné aux fournisseurs
de logiciel indépendants qui souhaitent incorporer du contenu Power BI dans leurs
applications. Les références SKU A ne prennent pas en charge les éléments Fabric.
Pour plus d’informations, consultez le scénario d’utilisation Incorporer pour vos
clients.
Conseil
Vous pouvez également utiliser des références SKU F pour incorporer du contenu
Power BI comme vous le feriez avec les références SKU A et EM. Pour plus
d’informations, consultez Power BI Embedded avec Microsoft Fabric .
Une décision clé consiste à utiliser une capacité plus grande ou plusieurs capacités plus
petites. Votre choix doit impliquer les considérations suivantes.
Pour être sûr de la taille de capacité dont vous aurez besoin, envisagez d’effectuer des
tests de charge de la capacité. Pour plus d’informations, consultez Planification de la
capacité et Évaluer votre charge de capacité.
Conseil
Power BI Report Server (PBIRS) est une solution de création de rapports simplifiée. Elle
s’adresse aux organisations qui souhaitent implémenter une approche hybride dans
laquelle le contenu Power BI peut être publié sur le portail Fabric cloud, sur Power BI
Report Server ou sur les deux. Vous pouvez installer Report Server sur une machine qui
s’exécute dans une infrastructure locale ou sur une machine virtuelle Azure (avec Azure
Hybrid Benefit).
7 Notes
Un auteur qui publie du contenu sur Report Server doit disposer d’une licence Pro.
Conseil
Effectuez une preuve de concept technique pour vous assurer que Power BI Report
Server répond à vos besoins. N’oubliez pas que la parité des fonctionnalités avec le
portail Fabric n’est pas un objectif. En outre, lors de la publication de contenu sur
Power BI Report Server, l’utilisation de Power BI Desktop pour Report Server
(différente de Power BI Desktop standard) est recommandée.
) Important
Les sujets suivants sont des actions qui peuvent être appropriées.
) Important
Redimensionner la capacité
Vous pouvez découvrir qu’il est nécessaire de redimensionner votre capacité lorsqu’une
taille plus petite ou plus grande répondrait mieux à vos besoins.
Vous pouvez vous appuyer sur les informations capturées à l’étape 1 en incluant les
détails suivants dans votre documentation.
Définissez le paramètre de locataire Activer les notifications pour les pannes ou les
incidents du service afin que Fabric vous avertisse lorsque la capacité devient
surchargée, ou lorsqu’une panne ou un incident se produit.
Configurez les alertes Azure Monitor pour être averti lorsque certaines métriques
de capacité dépassent un seuil. Cette fonctionnalité est disponible pour les
références SKU F et A, et la mise à l’échelle automatique pour les références SKU P.
Différences dans l’objectif : par exemple, vous pouvez choisir d’utiliser une plus
petite taille de capacité (par exemple, F16) pour les espaces de travail de test et
une plus grande taille de capacité (par exemple, F64) pour les espaces de travail de
production.
Utilisation efficace des ressources de calcul : utilisez l’application Métriques de
capacité Fabric pour déterminer si les ressources de calcul sont utilisées
efficacement et s’il est possible d’optimiser les coûts.
Supervision du coût de calcul : supervisez le coût de votre capacité et la
fréquence à laquelle les capacités sont mises à l’échelle. Envisagez d’utiliser
l’analyse des coûts, les limites de dépense ou les budgets avec Microsoft Cost
Management.
Coût de stockage facturable : vérifiez le stockage facturable pour chaque espace
de travail dans l’application Métriques de capacité Fabric. Pour les éléments Fabric,
le coût de stockage est calculé séparément du coût de calcul. Vérifiez également le
paramètre de capacité de récupération d’urgence. Ce paramètre aura un impact
sur les coûts de stockage facturables.
Effectuer un scale-up et un scale-down : créez un processus pour augmenter ou
réduire automatiquement la capacité (ou la suspendre, le cas échéant) lorsque la
charge de travail est intermittente et prévisible.
Rétrofacturations des coûts : lorsque vous devez distribuer des coûts à d’autres
services, créez un processus de rétrofacturation pour allouer des coûts
d’abonnement.
Conseil
Cette section se concentre sur l’audit des abonnements, des licences et des essais. Il
existe de nombreux aspects supplémentaires de l’audit et de la supervision de la
capacité, notamment la supervision de l’utilisation et des performances (et
l’identification des besoins de scale-up ou de scale-down) à l’aide de l’application
Métriques de capacité Fabric. Vous souhaiterez également analyser le journal
d’activité pour des situations telles que lorsque les paramètres de capacité
changent, que les administrateurs de capacité sont modifiés, que des contributeurs
de capacité sont ajoutés ou qu’une capacité est affectée à des espaces de travail.
Voici quelques actions permettant d’identifier quand auditer des abonnements, des
essais et des coûts pour les capacités.
Liste des capacités actives : l’API REST Get Capacities as Admin peuvent vous
fournir des informations telles que la référence SKU, l’état, les administrateurs et la
région pour toutes les capacités de votre locataire. Il s’agit d’une API
d’administration qui retourne un instantané à un point dans le temps. Si vous
capturez régulièrement ces données, vous pouvez comparer des instantanés (par
exemple, cette semaine et la semaine dernière) pour détecter les modifications qui
se sont produites.
Un nouvel essai de Fabric a été lancé par un utilisateur : recherchez l’activité
ChangeCapacityState dans le journal d’activité. La propriété CapacityState indique
qu’une nouvelle capacité Fabric a été approvisionnée. La propriété ItemName
indique qu’il s’agit d’une capacité d’essai, de la référence SKU et de son ID.
Une capacité Fabric a été créée ou une capacité existante a été redimensionnée :
recherchez l’opération Update Fabric Capacity Create dans le journal d’activité
Azure Monitor. Vous pouvez également afficher les capacités Fabric dans le portail
Azure.
Le moteur de calcul d’une capacité Fabric a été suspendu ou redémarré : dans le
journal d’activité Azure Monitor, recherchez l’opération Suspend ou Resume. Vous
pouvez également afficher l’état d’une capacité Fabric dans le portail Azure.
Une capacité Premium a été créée : dans le journal d’activité, recherchez l’activité
ChangeCapacityState. La propriété CapacityState indique qu’elle a été
approvisionnée en tant que nouvelle capacité. Vous pouvez également afficher les
produits qui ont un abonnement actif dans la zone de facturation du Centre
d’administration Microsoft 365.
Superviser le coût d’une capacité Fabric : utilisez les fonctionnalités Microsoft
Cost Management pour analyser les coûts des capacités Microsoft Fabric et
d’autres services Azure.
Superviser le coût de la capacité Premium : vous pouvez afficher les factures dans
la zone de facturation du Centre d’administration Microsoft 365.
Un espace de travail a été affecté à une capacité ou supprimé d’une capacité :
recherchez l’activité MigrateWorkspaceIntoCapacity ou
RemoveWorkspacesFromCapacity dans le journal d’activité.
Conseil
Lorsque vous naviguez sur le portail Azure, ne vous confondez pas avec les
ressources Service Fabric. Ces ressources sont des services différents de Microsoft
Fabric.
) Important
Les informations présentées dans cette étape ne sont pas destinées à être une liste
inclusive des moyens d’auditer les données. Au lieu de cela, elles sont destinées à
vous fournir des idées pour vous aider à débuter votre audit. Pour d’autres idées,
nous vous recommandons de consulter vos administrateurs de facturation.
Liste de vérification : voici les décisions et les actions clés pour planifier les licences de
capacité :
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
La gestion du service Power BI est un aspect clé de la surveillance du système. Pour plus
d'informations, voir Surveillance du système. Les activités de routine associées à la
surveillance du système sont communément appelées administration du système. Les
activités d’administration système sont essentielles pour garantir que les
consommateurs et les créateurs de contenu bénéficient systématiquement d’une bonne
expérience avec Power BI.
7 Notes
L’administration de la capacité Fabric (ou capacité Premium) et la gestion du
service Power BI sont des concepts différents. Alors que la plupart des
organisations n'ont qu'un seul locataire Power BI, une organisation peut
provisionner plusieurs capacités pour différentes charges de travail ou unités
commerciales.
) Important
Pour plus d’informations, consultez À propos des rôles d’administrateur dans le centre
d’administration de Microsoft 365.
" Identifier les administrateurs Fabric actuels : Vérifiez qui est actuellement affecté
au rôle d’administrateur Fabric. Tenez également compte des rôles d’administrateur
Power Platform et d’Administrateur d’entreprise dans cette revue.
" Nommer des administrateurs Fabric : Pour réduire les risques, nommez 2 à 4
personnes au rôle d’administrateur Fabric. Si plus de quatre personnes sont
actuellement affectées, réduisez le nombre de personnes affectées au rôle
d'administrateur Fabric.
" Utiliser PIM pour les administrateurs occasionnels : Identifiez si vous avez des
personnes qui ont légitimement, mais occasionnellement, besoin de droits
d’administrateur Fabric. Implémentez PIM pour attribuer des autorisations de rôle
juste à temps qui expirent après quelques heures. Documentez et communiquez le
fonctionnement du processus, ce qui pourrait inclure un flux de travail
d'approbation.
" Attribuer des sauvegardes et effectuer des formations croisées : Vérifiez l’état de
la formation croisée et la documentation en place pour gérer les responsabilités
d’administration de Fabric. Assurez-vous qu'une personne de secours est formée
afin que les besoins prioritaires des utilisateurs puissent être satisfaits en temps
opportun et de manière cohérente.
" Auditer régulièrement les administrateurs : Vérifiez régulièrement qui est affecté
au rôle d’administrateur Fabric.
Voici quelques raisons courantes pour lesquelles un administrateur Fabric collabore avec
d'autres administrateurs système.
Configuration et installations des appareils : Vous devrez peut-être travailler avec
le service informatique, une équipe d'infrastructure ou une équipe de support
technique pour installer, mettre à jour ou gérer les appareils des utilisateurs.
Souscription et achat de licences : Le rôle d’administrateur de facturation dans
Microsoft 365 est requis pour gérer les abonnements et acheter des licences. Un
administrateur de facturation peut également être responsable de l’analyse et de la
gestion des coûts. Pour plus d'informations sur les méthodes centralisées et
décentralisées (libre-service) de gestion des licences, voir Licences utilisateur.
Attribution de licences et gestion des utilisateurs : Le rôle d’administrateur de
licences dans Microsoft 365 est requis pour attribuer des licences (qui ont été
achetées) à des utilisateurs spécifiques. Le rôle Administrateur utilisateur est requis
pour gérer les propriétés d’un utilisateur. Il est utile de travailler avec un
administrateur d'utilisateurs lorsque vous envisagez de mettre en œuvre une
automatisation basée sur les propriétés de l'utilisateur (par exemple, attribution
automatique de licences ou attribution automatique de groupes). Pour plus
d’informations, consultez les rôles du centre d’administration Microsoft 365
couramment utilisés.
Administrateurs Microsoft Entra : Il existe plusieurs raisons pour lesquelles vous
devez travailler avec les administrateurs de Microsoft Entra (anciennement connu
sous le nom d'Azure Active Directory). Les raisons incluent souvent la nécessité de
configurer ou de gérer des utilisateurs, des groupes et des principaux de service.
Pour plus d’informations, consultez Plan de sécurité au niveau du locataire.
Accès aux données sources : Vous devrez peut-être travailler avec un
administrateur système ou un administrateur de base de données afin d'accéder
aux données au nom des créateurs de contenu. Parfois, il peut également être
nécessaire de demander l'accès au nom des consommateurs de contenu lorsque
des modèles sémantiques—anciennement appelés ensembles de données—
appliquent la sécurité des données en fonction de l'identité des consommateurs
de contenu.
Prévention des pertes de données et classification des données : Vous devrez
peut-être collaborer avec votre administrateur Microsoft Purview pour la
gouvernance et la protection des informations.
Intégration Teams : Lors de l'intégration de Power BI à Microsoft Teams, vous
devrez peut-être collaborer avec un administrateur Teams.
Intégration OneDrive et SharePoint : Lors de l'intégration de Power BI avec
OneDrive ou SharePoint, vous devrez peut-être collaborer avec d'autres
administrateurs.
Administration de l'espace de travail : Vous devrez peut-être collaborer avec un
administrateur d'espace de travail Fabric pour planifier, organiser ou sécuriser le
contenu dans des espaces de travail spécifiques.
La gestion du cycle de vie : Lors du déploiement et de la gestion des
modifications apportées au contenu, vous devrez peut-être collaborer avec un
administrateur de pipeline de déploiement ou un administrateur Azure DevOps.
Gestion de capacité premium : Vous devrez peut-être collaborer avec un
administrateur de capacité lors de la gestion d'une capacité Premium.
Gestion de la passerelle de données : Vous devrez peut-être collaborer avec un
administrateur de passerelle pour gérer et sécuriser une passerelle de données sur
site. Pour plus d’informations, consultez Gérer les passerelles.
Administration de la plate-forme Power : Vous devrez peut-être intégrer des
solutions entre Power BI et d'autres applications Power Platform (telles que Power
Automate ou Power Apps).
Administration Azure : Vous devrez peut-être travailler avec un administrateur
Azure pour configurer, accéder et sécuriser d’autres services Azure que vous
souhaitez intégrer à Power BI.
Administration et audit de la sécurité : Votre organisation peut avoir des
exigences spécifiques en matière de conformité, de sécurité ou de confidentialité.
Dans ce cas, vous devrez peut-être collaborer avec votre équipe de sécurité pour
identifier et atténuer les risques.
La mise en réseau : Lors de la connexion à différentes sources de données et
systèmes, vous devrez peut-être travailler avec vos administrateurs réseau pour
des raisons de performances et de sécurité.
Administration des appareils mobiles : Vous devrez peut-être collaborer avec un
Administrateur de service Intune afin de manager les stratégies et la sécurité des
appareils mobiles.
) Important
Paramètres du locataire
Domaines
Espaces de travail
Codes incorporés
Visuels organisationnels
Connexions Azure
Étant donné que les créateurs et les consommateurs de contenu peuvent facilement se
renseigner sur les fonctionnalités et capacités disponibles dans Power BI (à partir de la
documentation), cela peut entraîner de la frustration lorsqu'ils ne peuvent pas faire ce
qu'ils attendent. Cela peut également conduire au mécontentement des utilisateurs et à
une adoption organisationnelle, une adoption par les utilisateurs et une adoption de
solutions moins efficaces.
Voici quelques questions courantes posées par les utilisateurs confus et frustrés.
) Important
Le reste de cette section décrit le processus suivant pour gérer les paramètres du client.
Il est important que vous examiniez chaque paramètre de locataire pour comprendre
clairement l'état actuel de votre locataire. Bien que vous deviez examiner tous les
paramètres du client, vous pouvez donner la priorité à des paramètres critiques
spécifiques à examiner en premier en fonction d'une évaluation des risques.
7 Notes
Certains paramètres de locataire sont activés par défaut, tandis que d'autres sont
désactivés par défaut.
Vous pouvez compiler l’état actuel de vos paramètres de locataire de deux manières.
Le tableau suivant présente comment vous pouvez enregistrer l'état actuel de vos
paramètres de locataire.
ノ Agrandir le tableau
espaces de
travail
Pour d’autres considérations sur les groupes de sécurité, consultez Planification des
groupes Power BI.
Pour plus d'informations sur les états de paramètres de locataire autorisés, consultez
Comment utiliser les paramètres de locataire.
U Attention
Conseil
L’un des plus grands défis consiste à décider quoi faire lorsque vous rencontrez des
incohérences entre un environnement de locataire existant et vos objectifs et
décisions éclairées. Soyez prêt à résoudre ces conflits lorsque vous les rencontrez.
Le tableau suivant présente la manière dont vous pourriez enregistrer vos décisions.
ノ Agrandir le tableau
15 Le COE formera les COE et Ellis Turner Créer des Examiner les
octobre créateurs de contenu parties (sponsor espaces de membres
2023 agréés aux meilleures prenantes exécutif) et travail existants du
pratiques en matière Taylor Phillips groupe des
de création et de (responsable créateurs
gestion d'espaces de du COE) d’espace de
travail. Les créateurs travail Power
approuvés peuvent BI
provenir de
n’importe quelle
unité commerciale.
1er Le COE formera les COE et Ellis Turner Certification Examiner les
novembre créateurs de contenu parties (sponsor membres
2023 agréés sur le prenantes exécutif) et existants du
processus et les Taylor Phillips groupe PME
exigences de (responsable de
certification des du COE) certification
rapports et des actifs Power BI
de données. Les
créateurs approuvés
peuvent provenir de
n’importe quelle
unité commerciale.
7 Notes
Maintenant que vos paramètres de locataire existants et vos décisions pertinentes sont
disponibles, vous êtes prêt à mettre à jour vos paramètres de locataire.
7 Notes
Enfin, il est important de disposer d'un processus permettant d'auditer régulièrement les
paramètres des locataires. Voici quelques actions à identifier lorsque vous auditez les
paramètres du client.
Conseil
Les domaines Fabric décrits dans cette section sont un concept différent des
domaines de Microsoft 365.
Après avoir examiné vos domaines, il est temps d'examiner le processus de prise de
décision.
Pour les espaces de travail existants, réfléchissez à la manière dont ils peuvent être
regroupés pour former une seule limite de gestion. Pour plus d'informations et pour
savoir comment organiser les espaces de travail associés, consultez Domaines d'espace
de travail.
En fonction du nombre de domaines dont vous disposez, vous pouvez créer une
documentation pour compléter les informations disponibles sur le portail
d'administration. Votre documentation pourrait inclure :
Réfléchissez également à la manière dont vous allez gérer les demandes des utilisateurs
qui souhaitent créer un nouveau domaine, modifier un domaine existant ou ajouter des
espaces de travail à un domaine.
" Examiner les domaines actuels : Déterminez l'état actuel en examinant tous les
domaines dans le portail d'administration.
" Discutez et décidez : Déterminez quels groupes de domaines fonctionneront le
mieux pour répondre à vos besoins. Impliquez les décideurs et les parties prenantes
concernés lors de l’examen de la manière de gérer les domaines.
" Vérifier si l'approbation est requise : Déterminez s'il doit exister un processus pour
obtenir l'approbation des autres lors de la création d'un nouveau domaine.
" Créer un calendrier pour réexaminer : Établissez un calendrier pour réexaminer les
domaines régulièrement.
" Effectuer des mises à jour : Mettez à jour les domaines lorsque de nouveaux
besoins surviennent.
" Créer de la documentation : Si vous devez enregistrer d'autres informations, créez
une documentation pour vos domaines.
" Créer un processus pour gérer les requêtes des utilisateurs : Configurez un
processus permettant aux utilisateurs de demander un nouveau domaine.
" Configurer l'audit : Créez un processus d'audit afin de pouvoir suivre la création de
nouveaux domaines ou le moment où des modifications se produisent.
Voici plusieurs raisons pour lesquelles un administrateur Fabric peut s'impliquer dans la
gestion des espaces de travail.
7 Notes
Le niveau d'implication dans la gestion des espaces de travail dépend des rôles et
des responsabilités attribués à un administrateur Fabric. Votre stratégie de
propriété et de gestion du contenu peut également influencer la mesure dans
laquelle un administrateur Fabric s'implique dans la gestion de l'espace de travail.
Espaces de travail actuels : Passez en revue tous les espaces de travail qui existent
actuellement. Vous devez également examiner les attributions de rôles et les
paramètres de chaque espace de travail pour vous assurer qu'ils sont appropriés.
Paramètres du locataire actuel : Passez en revue la configuration actuelle du
paramètre de locataire Créer des espaces de travail.
Il existe deux manières de compiler une liste des espaces de travail actuels.
Après avoir examiné vos espaces de travail, il est temps d'examiner le processus de prise
de décision.
Plus de contexte ou de détails, tels que l'objectif prévu de l'espace de travail (si ce
n'est pas déjà mentionné dans la description de l'espace de travail).
Qui a approuvé l’espace de travail et quand.
Qui est désigné comme propriétaire de l’espace de travail, si le propriétaire est
différent du ou des administrateurs de l’espace de travail.
Exigences de conformité ou réglementaires liées au contenu stocké dans l’espace
de travail.
Si l'espace de travail contient des informations particulièrement sensibles.
Exigences de gouvernance pour l’espace de travail.
Processus de gestion du cycle de vie applicables à l’espace de travail.
) Important
Le rôle d'administrateur Fabric est un rôle à privilèges élevés qui peut exécuter de
nombreuses fonctions de haut niveau. Notamment, le rôle n’accorde pas
automatiquement l’accès à toutes les données du locataire. Toutefois, étant donné
que les administrateurs disposent des droits nécessaires pour gérer les espaces de
travail dans le locataire, ils peuvent accorder l'accès (via des rôles d'espace de
travail) à d'autres utilisateurs, y compris eux-mêmes.
Conseil
" Examiner les espaces de travail actuels : Déterminez l’état actuel en examinant tous
les espaces de travail et les paramètres de locataire associés dans le portail
d’administration.
" Discutez et décidez : Déterminez comment gouverner et gérer les espaces de
travail. Impliquez les décideurs et les parties prenantes concernés au moment de
décider qui est autorisé à gérer les espaces de travail.
" Vérifier si l'approbation est requise : Déterminez s’il doit exister un processus pour
obtenir l’approbation des autres lors de la création d’un nouvel espace de travail.
" Créer un calendrier pour réexaminer : Établissez un calendrier pour réexaminer
régulièrement les espaces de travail.
" Effectuer des mises à jour : Mettez à jour les espaces de travail, y compris les
attributions de rôles, lorsque de nouveaux besoins surviennent.
" Créer de la documentation : Si vous avez besoin de suivre des informations
supplémentaires, créez une documentation pour vos espaces de travail.
" Créer un processus pour gérer les requêtes des utilisateurs : Configurez un
processus permettant aux utilisateurs de demander un nouvel espace de travail.
" Configurer l'audit : Créez un processus d'audit afin de pouvoir suivre la création de
nouveaux espaces de travail ou le moment où des modifications se produisent.
Gouverner les codes d'intégration
Lorsque vous utilisez la fonctionnalité Publier sur le Web, Power BI génère un code
intégré. Un code d'intégration est utilisé pour intégrer un rapport dans une page Web
accessible à tous sur Internet. Cette fonctionnalité est disponible à des fins spécifiques :
elle est principalement destinée au journalisme de données ou aux rapports contenant
des données publiques pouvant être consultées par un public anonyme, sans nécessiter
d'authentification.
L'examen et la gestion réguliers des codes d'intégration sont une responsabilité clé de
l'administrateur Fabric. Il s'agit d'une responsabilité particulièrement critique car elle
implique de vérifier les rapports publiés publiquement sur Internet.
U Attention
Codes d'intégration actuels : Examinez chaque code d'intégration, dans tous les
espaces de travail, dans le portail d'administration. Notez l'état de chaque code
d'intégration (tel qu'actif ou bloqué).
Paramètres du locataire actuel : Vérifiez la configuration actuelle du paramètre du
locataire Publier sur le Web.
Après avoir examiné vos codes d'intégration, il est temps d'examiner le processus de
prise de décision. Impliquez les décideurs et les parties prenantes concernés dans les
discussions sur le contenu, le cas échéant, qui peut être publié sur le Web.
Déterminez également quels utilisateurs sont autorisés à publier des rapports sur le
Web. Lorsqu’une politique de gouvernance ou une politique de sécurité existe, référez-
vous-y autant que possible.
) Important
À ce stade, vos codes d'intégration existants et vos décisions ciblées sont disponibles.
Vous êtes maintenant prêt à apporter des modifications temporaires ou permanentes
aux codes d'intégration existants.
Pour déterminer quelles mises à jour sont nécessaires, vous devrez peut-être effectuer
des recherches plus approfondies.
Examinez tous les rapports comportant des codes d'intégration actifs pour
confirmer qu'aucune information inappropriée n'est publiée sur le Web. Vérifiez
également que les modèles sémantiques sous-jacents ne contiennent pas
d'informations confidentielles ou exclusives.
Contactez l'utilisateur qui a publié le rapport pour clarifier son objectif.
Travaillez avec le propriétaire du contenu pour déplacer le contenu, si nécessaire,
vers un espace de travail non personnel bien adapté à l'objectif. Pensez à utiliser
un espace de travail indiquant clairement qu'il contient du contenu accessible au
public. Par exemple, le nom d'un espace de travail Finance Reporting [Public]
indique clairement son objectif.
Vérifiez l'étiquette de sensibilité attribuée au contenu. Vérifiez que l'étiquette de
sensibilité indique que le public cible est un public public.
Les codes intégrés doivent être surveillés régulièrement dans le portail d’administration.
Réfléchissez également à la manière dont vous gérerez les demandes des utilisateurs
souhaitant publier leurs rapports sur le Web.
7 Notes
Tous les rapports ne sont pas pris en charge pour une utilisation avec Publier sur le
Web. Il est possible que les utilisateurs aient des questions d'assistance liées à
l'utilisation de la fonctionnalité.
Il est important de disposer d'un processus pour auditer régulièrement les codes
d'intégration. Voici quelques actions à identifier lorsque vous auditez les codes
d'intégration à l'aide du journal d'activité.
" Vérifier les codes d'intégration actuels : Déterminez l’état actuel en examinant tous
les codes d’intégration dans le portail d’administration.
" Vérifiez le paramètre actuel du locataire : Vérifiez la configuration du paramètre du
locataire Publier sur le Web.
" Discutez et décidez : Déterminez quel contenu, le cas échéant, peut être publié
publiquement et par quels utilisateurs. Impliquez les décideurs et les parties
prenantes concernés, le cas échéant. Référez-vous aux politiques de gouvernance
existantes lorsque cela est possible.
" Vérifiez si l'approbation est requise : Déterminez s'il doit exister un processus
permettant d'obtenir l'approbation des autres lors de la publication d'un rapport
sur le Web.
" Créez un calendrier pour réexaminer : Établissez un calendrier pour réexaminer
régulièrement les codes d’intégration.
" Effectuer des mises à jour : Mettez à jour les codes d'intégration actuels si
nécessaire. Mettez à jour le paramètre du locataire Publier sur le Web en fonction
des décisions prises (si elles diffèrent de ce qui est actuellement publié).
" Créer des documents : Si vous avez besoin de suivre des informations
supplémentaires, créez une documentation de vos codes d'intégration.
" Créez un processus pour gérer les requêtes des utilisateurs : Configurez un
processus permettant aux utilisateurs de demander la publication de leur rapport
sur le Web ou d'être autorisés à publier leurs propres rapports sur le Web.
" Configurer l'audit : Créez un processus d'audit afin de pouvoir suivre la création
d'un nouveau code d'intégration et la modification du paramètre du locataire
Publier sur le Web.
Visuels de base : Les visuels prêts à l’emploi par défaut, intégrés à Power BI
Desktop et au service Power BI.
Visuels personnalisés non certifiés d'AppSource : Visuels personnalisés
développés par des fournisseurs de logiciels tiers ou des membres de la
communauté mondiale Power BI.
Visuels personnalisés certifiés d'AppSource : Visuels personnalisés développés
par des fournisseurs de logiciels tiers ou des membres de la communauté
mondiale Power BI et qui ont réussi un processus de certification défini par
Microsoft.
Pour plus d’informations sur la distribution de visuels personnalisés sur les appareils
utilisateur (à utiliser dans Power BI Desktop), consultez Visuels personnalisés.
Visuels organisationnels actuels : examinez les visuels personnalisés qui ont été
ajoutés au référentiel de visuels organisationnels.
Paramètre de locataire actuel : vérifiez la configuration du paramètre de locataire
des visuels Power BI.
Vous devrez peut-être également modifier les paramètres du locataire liés aux visuels
personnalisés (si les créateurs de rapports sont autorisés à télécharger et à installer des
visuels personnalisés qui ne figurent pas dans le référentiel de visuels de l'organisation).
7 Notes
De temps en temps, vous devez également vérifier la date de la dernière mise à jour de
chaque visuel personnalisé. Vérifiez si une version plus récente est disponible.
Lorsqu'une version plus récente est disponible, vous pouvez mettre à jour le visuel de
l'organisation, à condition qu'il réussisse les tests.
Stockage de données pour les flux de données (Gen1). Vous pouvez accéder aux
données des flux de données Power BI (Gen1) directement dans Azure. Un espace
de travail peut être connecté à un compte de stockage défini au niveau du
locataire ou à un compte de stockage spécifique à l'espace de travail. Cette
technique est parfois appelée apportez votre propre lac (BYOL). La flexibilité d'une
stratégie BYOL est utile lorsque vous souhaitez réutiliser les données des flux de
données au-delà de Power BI en permettant à d'autres processus, ou à d'autres
utilisateurs, d'afficher ou d'accéder aux données. Pour plus d’informations,
consultez Configurer le stockage de flux de données pour utiliser Azure Data Lake
Storage Gen2 et le scénario d’utilisation de la préparation des données en libre-
service.
Sauvegarde et restauration de modèles sémantiques. Vous devrez peut-être
sauvegarder et restaurer un modèle sémantique à des fins de reprise après sinistre,
pour répondre aux exigences de conservation des données ou pour migrer un
modèle de données. Pour plus d’informations, consultez Sauvegarde Microsoft
Azure et restaurer des modèles sémantiques avec Power BI Premium.
7 Notes
Le reste de cette section se concentre sur la gouvernance des connexions Azure dans le
portail d’administration.
Après avoir examiné vos connexions Azure, il est temps d’examiner le processus de prise
de décision.
Pour plus d'informations, consultez Intégration de Workspace avec Azure Log Analytics.
Étape 3 : Mettre à jour les connexions Azure
À ce stade, vos connexions Azure existantes sont disponibles et vous avez pris des
décisions éclairées quant à savoir si vous envisagez d’intégrer un lac de données à
Power BI. Vous êtes maintenant prêt à ajuster les paramètres, si nécessaire, en fonction
de vos résultats.
Réfléchissez à la façon dont vous prendrez en charge plusieurs comptes ADLS Gen2
dans l’organisation (si les connexions Azure au niveau de l’espace de travail sont
autorisées).
Réfléchissez également à la façon dont vous allez gérer les demandes des utilisateurs
qui souhaitent connecter un espace de travail à Azure Log Analytics.
Il est important de disposer d’un processus pour auditer régulièrement les connexions
Azure. Il existe plusieurs actions à identifier lorsque vous auditez les connexions Azure à
l’aide du journal d’activité.
Pour plus d’informations sur l’audit des utilisateurs, des activités et des solutions dans
Power BI, consultez Audit au niveau du locataire.
Pour plus d’informations sur la surveillance de Power BI, consultez Surveillance au niveau
du locataire.
Contenu connexe
Pour plus de considérations, d’actions, de critères de prise de décision et de conseils
pour vous aider à prendre des décisions d’implémentation de Power BI, consultez
Planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur les espaces de travail présente les articles de planification de l’espace de
travail Fabric, qui mettent l’accent sur l’expérience de Power BI. Ces articles sont destinés
à plusieurs publics :
7 Notes
Le concept d’espace de travail provient de Power BI. Avec Fabric, l’objectif d’un
espace de travail est devenu plus large. Il en résulte qu’un espace de travail peut
désormais contenir des éléments d’une ou plusieurs expériences Fabric différentes
(également appelées charges de travail). Bien que l’étendue du contenu soit
devenue plus large que Power BI, la plupart des activités de planification de
l’espace de travail décrites dans ces articles peuvent être appliquées à la
planification de l’espace de travail Fabric.
Contenu connexe
Dans le prochain article de cette série, découvrez la planification au niveau de l'espace
de travail du locataire.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
En second lieu, cet article peut également être intéressant pour les créateurs en libre-
service qui doivent créer, publier et gérer du contenu dans les espaces de travail.
Étant donné que les espaces de travail peuvent être utilisés de différentes manières, la
plupart des décisions tactiques seront prises au niveau de l’espace de travail (décrites
dans l’article suivant). Toutefois, il existe également des décisions de planification
stratégiques à prendre au niveau du locataire.
7 Notes
Le concept d’espace de travail provient de Power BI. Avec Fabric, l’objectif d’un
espace de travail est devenu plus large. Il en résulte qu’un espace de travail peut
désormais contenir des éléments d’une ou plusieurs expériences Fabric différentes
(également appelées charges de travail). Bien que l’étendue du contenu soit
devenue plus large que Power BI, la plupart des activités de planification de
l’espace de travail décrites dans ces articles peuvent être appliquées à la
planification de l’espace de travail Fabric.
Tous les utilisateurs (ou la plupart) sont autorisés à créer de nouveaux espaces
de travail : Cette approche s’aligne généralement sur les décisions existantes pour
d’autres applications. Par exemple, lorsque les utilisateurs sont autorisés à créer
leurs propres sites SharePoint ou canaux Teams, il est logique que Power BI adopte
la même stratégie.
Limité à un ensemble sélectif d’utilisateurs autorisés à créer de nouveaux
espaces de travail : Cette approche indique généralement qu’un plan de
gouvernance est en place ou est planifié. La gestion de ce processus peut être
entièrement centralisée (par exemple, seul l’informatique est autorisé à créer un
espace de travail). Une approche plus souple et pratique est quand il s’agit d’une
combinaison de personnes centralisées et décentralisées. Dans ce cas, certains
membres satellites du Centre d’excellence (COE), des champions ou des utilisateurs
approuvés ont été formés pour créer et gérer des espaces de travail au nom de
leur unité commerciale.
Vous devez configurer le paramètre de locataire Créer des espaces de travail dans le
portail d’administration Fabric en fonction de votre décision sur qui est autorisé à créer
des espaces de travail. Si vous souhaitez obtenir plus d’informations, consultez Gérer les
espaces de travail.
Liste de contrôle : lorsque vous envisagez des autorisations pour qui peut créer des
espaces de travail, des décisions et des actions clés sont les suivantes :
But: Un nom d’espace de travail doit toujours inclure une description de son
contenu. Par exemple, Sales Quarterly Bonus Tracking.
Types d’éléments : Un nom d’espace de travail peut inclure une référence aux
types d’éléments qu’il contient. Par exemple, utilisez Sales Data pour indiquer que
l’espace de travail stocke des éléments tels qu’un lakehouse ou des modèles
sémantiques (précédemment appelés jeux de données). Sales Analytics peut
indiquer que l’espace de travail stocke des rapports analytiques et des tableaux de
bord.
Étape (environnement) : Un nom d’espace de travail peut inclure sa phase. Par
exemple, il est courant d’avoir des espaces de travail distincts (développement, test
et production) pour la gestion de cycle de vie.
Propriété et responsabilité : Un nom d’espace de travail peut inclure une
indication de qui est responsable de la gestion du contenu. Par exemple,
l’utilisation d’un préfixe ou suffixe SLS peut indiquer que l’équipe commerciale
possède et gère le contenu.
Conseil
Pour limiter les noms d’espace de travail, vous pouvez inclure des détails
supplémentaires dans la description de l’espace de travail. Toutefois, assurez-vous
que les informations les plus pertinentes sont incluses dans le nom de l’espace de
travail, en particulier si vous prévoyez que les utilisateurs rechercheront des
espaces de travail. Vous pouvez également utiliser une image d’espace de travail
pour augmenter le nom de l’espace de travail. Ces considérations sont décrites plus
loin dans la section paramètres de l’espace de travail dans l’article suivant.
Avoir des noms d’espace de travail cohérents aide tout le monde. L’expérience
utilisateur est améliorée, car les utilisateurs peuvent trouver du contenu plus facilement.
En outre, les administrateurs peuvent superviser le contenu plus facilement lorsque des
conventions d’affectation de noms prévisibles sont utilisées.
Utilisez des noms courts et descriptifs : Le nom de l’espace de travail doit refléter
avec précision son contenu, avec la partie la plus importante au début du nom.
Dans le portail Fabric, les noms d’espace de travail longs peuvent devenir tronqués
dans les interfaces utilisateur, ce qui oblige l’utilisateur à pointer le curseur sur le
nom de l’espace de travail pour révéler le nom complet dans une info-bulle. Voici
un exemple de nom court et descriptif : Financials trimestriels.
Utilisez un préfixe standard : Un préfixe standard peut organiser des espaces de
travail similaires lors du tri. Par exemple : Fin-Trimestrielle Financials.
Utilisez un suffixe standard : Vous pouvez ajouter un suffixe pour obtenir des
informations supplémentaires, telles que lorsque vous utilisez différents espaces de
travail pour le développement, le test et la production. Nous vous recommandons
d’ajouter le suffixe [Dev] ou [Test], mais de quitter la production en tant que nom
convivial sans suffixe. Par exemple : Fin-Trimestrielle Financials [Dev].
Soyez cohérent avec le nom de l’application Power BI : le nom de l’espace de
travail et son application Power BI peuvent être différents, en particulier s’il
améliore la facilité d’utilisation ou la compréhension des consommateurs
d’applications. Nous vous recommandons de conserver des noms similaires pour
éviter toute confusion.
Omettez les mots inutiles : les mots suivants peuvent être redondants. Évitez-les
dans vos noms d’espace de travail :
Mot espace de travail.
Les mots Fabric ou Power BI. De nombreux espaces de travail Fabric contiennent
des éléments de différentes charges de travail. Toutefois, vous pouvez créer un
espace de travail destiné à cibler uniquement une charge de travail spécifique
(par exemple, Power BI, Data Factory ou engineering données Synapse). Dans ce
cas, vous pouvez choisir un suffixe court afin que l’objectif de l’espace de travail
soit clair.
Nom de l’organisation. Toutefois, lorsque le public principal est des utilisateurs
externes, y compris le nom de l’organisation peut être utile.
7 Notes
" Déterminez les exigences ou les préférences pour les noms d’espace de travail :
Tenez compte de la façon dont vous souhaitez nommer vos espaces de travail.
Déterminez si vous souhaitez des exigences strictes de convention d’affectation de
noms ou des exigences plus flexibles guidées par des suggestions et des exemples.
" Passez en revue les noms d’espace de travail existants : Mettez à jour les noms
d’espace de travail existants selon les besoins afin qu’ils soient de bons exemples
pour que les utilisateurs suivent. Lorsque les utilisateurs voient l’espace de travail
existant renommé, ils interprètent cela comme une norme implicite à adopter.
" Créez une documentation pour les conventions d’affectation de noms d’espace
de travail : Fournissez une documentation de référence sur les exigences et les
préférences relatives aux conventions d’affectation de noms d’espace de travail.
Veillez à inclure des exemples qui montrent l’utilisation correcte des acronymes, des
préfixes et des suffixes. Rendre les informations disponibles dans votre portail
centralisé et les documents de formation.
L’une des façons de prendre en charge la propriété de l’espace de travail dans Fabric
consiste à utiliser des domaines. Un domaine est un moyen de regrouper logiquement
plusieurs espaces de travail qui ont des caractéristiques similaires. Par exemple, vous
pouvez créer un domaine pour regrouper tous vos espaces de travail de vente et un
autre domaine pour vos espaces de travail financiers.
Ils regroupent des espaces de travail similaires en une seule limite de gestion.
Ils permettent à certains paramètres de locataire d’être gérés au niveau du
domaine. Pour plus d’informations, consultez Remplacer les paramètres au niveau
du locataire.
Ils aident les utilisateurs à trouver des données pertinentes. Par exemple, ils
peuvent utiliser des filtres dans le hub de données OneLake.
ノ Agrandir le tableau
Méthode d’organisation des Exemple de domaine
espaces de travail
Par domaine d’objet/domaine/type Le domaine Finance inclut chaque espace de travail lié au
de contenu contenu financier.
Par l’équipe/le département qui Le domaine Enterprise BI inclut tous les espaces de travail
détient et gère le contenu que l’équipe est directement responsable de la gestion.
Par unité commerciale ou segment Le domaine de la division Européenne inclut tous les
organisationnel espaces de travail qui sont directement liés aux opérations
en Europe.
Voici quelques considérations lors du plan des domaines Fabric dans votre locataire.
Liste de vérification : voici les décisions et actions clés pour planifier les domaines
d’espace de travail :
Conseil
Le tableau suivant répertorie les informations à collecter dans une demande d’espace de
travail.
ノ Agrandir le tableau
Étapes nécessaires SLS-Field Sales Analytics [Dev], SLS-Field • Plusieurs espaces de travail
Sales Analytics [Test] et SLS-Field Sales sont-ils nécessaires pour
Analytics prendre correctement en
charge le contenu ?
Description Historique des ventes et des commandes • Y a-t-il une attente à ce que
client pour l’analyse mensuelle, les données sensibles ou les
trimestrielle et annuelle. données réglementées soient
stockées ?
Mode licence La capacité Fabric pour l’équipe de vente • Quel est le niveau de
affecté à l’espace est nécessaire, car un grand nombre de capacité Fabric requis ?
de travail vendeurs sont des spectateurs uniquement
et ils ont une licence gratuite
Il existe de nombreuses options technologiques que vous pouvez utiliser pour créer un
formulaire en ligne pour la demande de création d’espace de travail. Envisagez d’utiliser
Microsoft Power Apps, qui est une option logicielle à faible code idéale pour la création
de formulaires et d’applications web simples. La technologie que vous choisissez
d’utiliser pour créer un formulaire web dépend de qui sera responsable de la création et
de la maintenance du formulaire.
Conseil
Liste de contrôle : lorsque vous envisagez de demander un nouvel espace de travail, les
décisions clés et les actions sont les suivantes :
7 Notes
Pour plus d’informations sur les quatre principaux critères de décision, consultez
l’article sur la gouvernance qui fait partie de la Feuille de route d’adoption de
structure de Fabric.
Vous pouvez commencer par deux niveaux d’espaces de travail : régis et non gérés.
Nous vous recommandons de garder les niveaux de gouvernance aussi simples que
possible. Toutefois, selon vos circonstances spécifiques, vous devrez peut-être subdiviser
la classification régie. Par exemple, le contenu critique géré par l’équipe décisionnelle
d’entreprise peut avoir un ensemble d’exigences de gouvernance. Alors que le contenu
critique détenu et géré directement par les unités commerciales peut être soumis à un
ensemble d’exigences légèrement différent. Dans certains cas, les décisions seront
adaptées aux unités commerciales individuelles.
Le tableau suivant répertorie certaines des exigences les plus courantes lorsqu’un
espace de travail est considéré comme régi.
ノ Agrandir le tableau
Catégorie Exigences de gouvernance potentielles
Propriété et support • La propriété est attribuée avec des responsabilités claires pour le
propriétaire du contenu technique et/ou l’expert en matière.
Configuration de • L’espace de travail est bien organisé avec un objectif bien défini.
l’espace de travail
• Une convention d’affectation de noms spécifique est utilisée.
Distribution • Une application Power BI est utilisée pour distribuer des rapports et des
tableaux de bord.
Sécurité et protection • Les groupes de sécurité sont utilisés (au lieu de comptes individuels)
des données pour la gestion des rôles d’espace de travail.
Audit et supervision • Des processus d’audit et de surveillance actifs sont en place pour le
suivi de l’adoption, des modèles d’utilisation et des performances.
Conseil
Contenu connexe
Dans le prochain article de cette série, découvrez la planification au niveau de l'espace
de travail.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Le concept d’espace de travail provient de Power BI. Avec Fabric, l’objectif d’un
espace de travail est devenu plus large. Il en résulte qu’un espace de travail peut
désormais contenir des éléments d’une ou plusieurs expériences Fabric différentes
(également appelées charges de travail). Bien que l’étendue du contenu soit
devenue plus large que Power BI, la plupart des activités de planification de
l’espace de travail décrites dans ces articles peuvent être appliquées à la
planification de l’espace de travail Fabric.
Objectif de l’espace de travail
Lors de la planification des espaces de travail, il est important de prendre en compte
non seulement le type de contenu qu’il stocke, mais également les activités que l’espace
de travail est destiné à prendre en charge.
Prenez en compte les deux exemples suivants d’espaces de travail liés au financement.
Bien qu’ils soient tous deux dédiés à la même équipe, chaque espace de travail a un
objectif différent :
Avec ces deux exemples à l’esprit, tenez compte de deux aspects spécifiques de l’espace
de travail : l’intention pour la collaboration et l’intention d’affichage.
Intention de collaboration
L’objectif principal d’un espace de travail dans le portail de Fabric est de faciliter la
collaboration entre plusieurs personnes. Il existe de nombreuses façons que la
collaboration puisse se produire dans un espace de travail :
L’un des principaux domaines de la feuille de route d’adoption de Fabric est la propriété
et la gestion du contenu. Le type de collaboration qui se produit dans un espace de
travail diffère selon l’approche utilisée pour la propriété et la gestion du contenu :
Bl libre-service piloté par l’entreprise : tout le contenu est détenu et géré par les
créateurs et experts techniques au sein d’une division ou d’une unité commerciale.
Dans ce scénario, la plupart des collaborations dans l’espace de travail se
produisent parmi les utilisateurs de cette unité commerciale.
BI libre-service géré : les données sont détenues et gérées par une équipe
centralisée, tandis que les utilisateurs de l’entreprise ont la responsabilité des
rapports et des tableaux de bord. Dans ce scénario, il est très probable que
plusieurs espaces de travail soient nécessaires pour faciliter la collaboration en
toute sécurité par plusieurs équipes de personnes.
BI d’entreprise : tout le contenu est détenu et géré par une équipe centralisée
(service informatique, décisionnel d’entreprise, centre d’excellence, etc.). Dans ce
scénario, les efforts de collaboration dans l’espace de travail se produisent parmi
les utilisateurs de l’équipe centralisée.
Conseil
Lorsque vos besoins ne peuvent être satisfaits par une approche unique, soyez prêt
à faire preuve de souplesse et à utiliser une stratégie de propriété et de gestion du
contenu différente selon les espaces de travail. La stratégie peut être basée sur le
scénario ainsi que sur les membres de l’équipe impliqués.
BI personnel : Le contenu est destiné à être utilisé par le créateur. Étant donné que
le partage de contenu avec d’autres personnes n’est pas un objectif, la bi
personnelle est effectuée dans un espace de travail personnel (décrit dans la
rubrique suivante).
BI Équipe : Partage du contenu avec un nombre relativement faible de collègues
qui travaillent étroitement ensemble. Dans ce scénario, la plupart des espaces de
travail sont des espaces de travail informels et collaboratifs.
BI départementale : le contenu est distribué à de nombreux consommateurs qui
appartiennent à un grand département ou à une unité opérationnelle. Dans ce
scénario, l’espace de travail est principalement destiné aux efforts de collaboration.
Dans les scénarios décisionnels départementaux, le contenu est généralement
consulté dans une application Power BI (au lieu d’être directement consulté dans
l’espace de travail).
BI Entreprise : Distribue du contenu à l’échelle de l’entreprise, au plus grand
nombre de consommateurs cibles. Dans ce scénario, l’espace de travail est
principalement destiné aux efforts de collaboration. Dans les scénarios
décisionnels départementaux, le contenu est généralement consulté dans une
application Power BI (au lieu d’être directement consulté dans l’espace de travail).
Conseil
Lorsque vous planifiez vos espaces de travail, tenez compte des besoins de
l’audience lors de la détermination du mode de licence de l’espace de travail. Le
type de licence affecté à l’espace de travail aura un impact sur les fonctionnalités
disponibles, notamment celles qui peuvent afficher ou gérer le contenu de l’espace
de travail.
Liste de contrôle : lorsque vous envisagez vos attentes en ce qui concerne la façon dont
le contenu de l’espace de travail sera consulté, les décisions clés et les actions incluent :
Conseil
Soyez prêt à être flexible. Vous pouvez utiliser une stratégie d’affichage de contenu
différente pour les espaces de travail en fonction du scénario ainsi que des
membres de l’équipe impliqués. En outre, n’avez pas peur d’utiliser différentes
approches d’étendue de distribution de contenu pour les espaces de travail
lorsqu’il peut être justifié.
L’utilisation d’un espace de travail personnel pour tout autre que l’apprentissage d’une
BI personnelle, le contenu temporaire ou les fins de test peut être risqué, car le contenu
d’un espace de travail personnel est géré et géré par une personne. En outre, un espace
de travail personnel ne prend pas en charge la collaboration avec d’autres personnes.
Pour permettre la création de n’importe quel type d’élément Fabric (par exemple, un
lakehouse ou un entrepôt), un espace de travail doit être ajouté à une capacité Fabric.
Cela est vrai à la fois pour les espaces de travail standard et les espaces de travail
personnels. Par conséquent, vous pouvez déterminer qui est en mesure de créer certains
types d’éléments dans un espace de travail personnel par le biais de son affectation de
capacité.
Un espace de travail personnel est limité dans ses options pour partager du contenu
avec d’autres personnes. Vous ne pouvez pas publier une application Power BI à partir
d’un espace de travail personnel (et les applications Power BI sont un mécanisme
important pour distribuer du contenu à l’organisation). Les autorisations par élément
(liens ou accès direct) sont le seul moyen de partager le contenu de l’espace de travail
personnel avec d’autres personnes. Par conséquent, l’utilisation extensive des
autorisations par élément implique plus d’efforts et augmente le risque d’erreur. Pour
plus d’informations, consultez Plan de sécurité des consommateurs de rapports.
Liste de contrôle : lorsque vous envisagez vos attentes en ce qui concerne la façon dont
le contenu de l’espace de travail sera consulté, les décisions clés et les actions incluent :
7 Notes
Dans Fabric, la propriété décentralisée ou distribuée est activée par le biais des espaces
de travail. Différentes zones de l’organisation peuvent fonctionner indépendamment,
tout en contribuant à la même structure de données sous-jacente dans OneLake.
Chaque espace de travail peut avoir son propre administrateur, contrôle d’accès et
affectation de capacité (pour la facturation, l’emplacement des données géographiques
et le monitoring des performances).
Conseil
Conseil
Dans certains cas, vous avez peut-être déjà des groupes utiles, établis dans Microsoft
Entra ID (précédemment appelé Azure Active Directory). Vous pouvez ensuite les utiliser
pour gérer l’accès aux ressources pour la zone et l’étendue définies de l’objet. Toutefois,
vous devrez peut-être créer des groupes pour répondre à cet objectif. Pour plus
d’informations, consultez la section d’accès de l’espace de travail ci-dessous.
La création d’un espace de travail pour chaque zone ou projet sujet vous permet de
vous concentrer sur son objectif. Il vous permet d’adopter une approche équilibrée.
Un inconvénient de l’option 1 est que, selon la façon dont les espaces de travail étroits
ou larges sont définis, il existe toujours un risque que de nombreux espaces de travail
soient créés. La recherche de contenu peut être difficile pour les utilisateurs lorsque le
contenu est réparti sur de nombreux espaces de travail.
Conseil
Lorsqu’il est bien planifié et géré, un espace de travail par zone ou projet d’objet
entraîne généralement un nombre gérable d’espaces de travail.
Il est très facile de commencer à planifier. Tout le contenu nécessaire par les
personnes qui travaillent dans ce service résidera dans un espace de travail.
Il est facile pour les utilisateurs de savoir quel espace de travail utiliser, car tout
leur contenu est publié dans l’espace de travail associé à leur service ou à leur
équipe.
La gestion des rôles de sécurité peut être simple, en particulier lorsque des
groupes Microsoft Entra sont affectés aux rôles d’espace de travail (ce qui est une
bonne pratique).
Conseil
Lorsque vous créez des espaces de travail qui s’alignent sur votre organigramme,
vous avez souvent moins d’espaces de travail. Toutefois, il peut entraîner des
espaces de travail qui contiennent beaucoup de contenu. Nous vous
recommandons de ne pas aligner les espaces de travail par service ou par équipe
lorsque vous prévoyez d’avoir un nombre important d’éléments et/ou de nombreux
utilisateurs.
La création d’un espace de travail pour chaque rapport ou type d’analyse n’est pas
recommandée à l’exception de circonstances spécifiques.
S’il est trop utilisé, la création d’espaces de travail définis de manière étroite
entraîne un grand nombre d’espaces de travail.
Un grand nombre d’espaces de travail à utiliser implique davantage d’efforts. Bien
que les utilisateurs puissent s’appuyer sur la recherche, trouver le contenu
approprié dans l’espace de travail approprié peut être frustrant.
Lorsqu’un plus grand nombre d’espaces de travail existent, il y a plus de travail à
partir d’un point de vue d’audit et de surveillance.
Conseil
La création d’un espace de travail avec une étendue étroite, telle qu’un rapport
individuel, doit être effectuée uniquement pour des raisons spécifiques. Il doit s’agir
de l’exception plutôt que de la règle. Occasionnellement, la séparation des cartes
de performance dans leur propre espace de travail est une technique utile. Par
exemple, l’utilisation d’un espace de travail distinct est utile lorsqu’un tableau de
bord présente des objectifs qui couvrent plusieurs domaines d’objet. Il est
également utile de configurer des autorisations spécifiques pour la gestion et
l’affichage de la carte de performance.
Conseil
Chaque expérience Fabric vous permet de créer différents types d’éléments. Ces
éléments ne s’intègrent pas toujours parfaitement dans le concept de ce qui est
considéré comme des données et du contenu de création de rapports (ou
analytiques). Par exemple, un notebook Fabric peut être utilisé de différentes
manières, telles que le chargement et la transformation de données dans un
lakehouse, l’envoi de requêtes Spark SQL ou l’analyse et la visualisation de données
avec PySpark. Lorsque l’espace de travail contient des charges de travail mixtes,
nous vous recommandons de vous concentrer principalement sur l’objectif de
l’espace de travail et la propriété du contenu, comme décrit ailleurs dans cet article.
Les avantages de la séparation des espaces de travail de données des espaces de travail
de création de rapports sont les suivants :
Les inconvénients de la séparation des espaces de travail des données et des espaces de
travail des rapports sont les suivants :
Lorsque vous commencez à planifier des rôles d’espace de travail, il est utile de vous
poser les questions suivantes.
Quelles sont les attentes quant à la façon dont la collaboration se produira dans
l’espace de travail ?
L’espace de travail sera-t-il utilisé directement pour afficher du contenu par les
consommateurs ?
Qui sera responsable de la gestion du contenu dans l’espace de travail ?
Qui va afficher le contenu stocké dans l’espace de travail ?
L'intention est-elle d'assigner des utilisateurs individuels ou des groupes à des
rôles d'espace de travail ?
Il est recommandé d’utiliser des groupes pour attribuer des rôles d’espace de travail
chaque fois que cela est pratique. Il existe différents types de groupes que vous pouvez
affecter. Les groupes de sécurité, les groupes de sécurité à extension messagerie, les
groupes de distribution et les groupes Microsoft 365 sont tous pris en charge pour les
rôles d’espace de travail. Pour plus d’informations sur l’utilisation des groupes, consultez
l’article Plan de sécurité au niveau du locataire.
Lorsque vous envisagez d’utiliser des groupes, vous pouvez envisager de créer un
groupe par rôle par espace de travail. Par exemple, pour prendre en charge l’espace de
travail Financials trimestriels , vous pouvez créer les groupes suivants :
Administrateurs de l’espace de travail Power BI – Rapports financiers trimestriels
Membres de l’espace de travail Fabric – Rapports financiers trimestriels
Contributeurs de l’espace de travail Power BI – Rapports financiers trimestriels
Visionneuses de l’espace de travail Power BI – Rapports financiers trimestriels
Espace de travail Power BI visionneuses d’application – Rapports financiers
trimestriels
Conseil
La création des groupes répertoriés ci-dessus offre une flexibilité. Toutefois, elle
implique la création et la gestion de nombreux groupes. En outre, la gestion d’un
grand nombre de groupes peut être difficile lorsque les groupes sont créés et gérés
uniquement par le service informatique. Ce défi peut être atténué en permettant à
certains membres satellites de gérer des groupes en libre-service . Ces membres
peuvent inclure le Centre d’excellence (COE), les champions ou les utilisateurs
approuvés qui ont été formés pour gérer les appartenances aux rôles pour leur
unité commerciale. Pour plus d’informations, consultez Plan de sécurité au niveau
du locataire.
Lorsque les espaces de travail de données sont séparés des espaces de travail de
création de rapports, comme décrit précédemment dans cet article, il en résulte un
nombre encore plus important de groupes. Réfléchissez à la façon dont le nombre de
groupes double de cinq à 10 lorsque vous séparez les espaces de travail de données et
de création de rapports :
Conseil
L’utilisation efficace des groupes pour les rôles d’espace de travail peut nécessiter une
planification considérable. Soyez prêt à rencontrer des scénarios lorsque des groupes
existants (qui pourraient être alignés avec l’organigramme) ne répondent pas à tous vos
besoins en matière de gestion du contenu Fabric. Dans ce cas, nous vous
recommandons de créer des groupes spécifiquement à cet effet. C’est pourquoi les
mots Fabric ou Power BI sont inclus dans les exemples de noms de groupe présentés ci-
dessus. Si vous avez plusieurs outils décisionnels, vous pouvez choisir d’utiliser
uniquement BI comme préfixe. De cette façon, vous pouvez utiliser les mêmes groupes
sur plusieurs outils.
Enfin, les exemples montrent un espace de travail - Finances trimestrielles , mais il est
souvent possible de gérer une collection d’espaces de travail avec un ensemble de
groupes. Par exemple, plusieurs espaces de travail détenus et gérés par l’équipe
financière peuvent utiliser les mêmes groupes.
7 Notes
Vous planifiez souvent la sécurité plus largement, en tenant compte des exigences
d’autorisation de lecture et de génération des modèles sémantiques, ainsi que des
exigences de sécurité au niveau des lignes (RLS). Pour plus d’informations sur les
éléments à prendre en compte pour la prise en charge des consommateurs de
rapports et des créateurs de contenu, consultez les articles sur le plan de sécurité.
Pour les besoins de cet article, le focus est uniquement sur les rôles d’espace de
travail dans le cadre du processus de planification de l’espace de travail.
Liste de contrôle : lorsque vous envisagez d’accéder à l’espace de travail, les décisions
clés et les actions sont les suivantes :
" Reportez-vous aux rôles et responsabilités : Utilisez les informations sur les rôles
et responsabilités préparés précédemment pour planifier les rôles d’espace de
travail.
" Identifiez qui possédera et gérera le contenu : Vérifiez que tous les éléments que
vous prévoyez de stocker dans un seul espace de travail s’alignent sur les personnes
qui assument la responsabilité de posséder et de gérer le contenu. En cas
d’incompatibilité, reconsidérer la façon dont les espaces de travail peuvent être
mieux organisés.
" Identifiez les personnes qui affichent le contenu dans l’espace de travail :
Déterminez si les utilisateurs affichent le contenu directement à partir de l’espace
de travail.
" Planifiez les rôles d’espace de travail : Déterminez les personnes adaptées aux
rôles Administration, Membre, Contributeur et Visionneuse pour chaque espace
de travail.
" Déterminez les attributions de rôles de groupe ou individuelles : Déterminez si
vous envisagez d’affecter des utilisateurs ou des groupes individuels aux rôles
d’espace de travail. Vérifiez s’il existe des groupes existants que vous pouvez utiliser
pour les attributions de rôles d’espace de travail.
" Déterminez si de nouveaux groupes doivent être créés : Prenez soin de savoir si
vous devez créer un groupe par rôle d’espace de travail. Gardez à l’esprit qu’il peut
entraîner la création et la maintenance de nombreux groupes. Déterminez le
processus quand un nouvel espace de travail est créé et comment les groupes
associés seront créés.
" Configurez et testez les attributions de rôles d’espace de travail : Vérifiez que les
utilisateurs disposent des paramètres de sécurité appropriés pour qu’ils soient
productifs lors de la création, de la modification et de l’affichage du contenu.
Pour plus d’informations sur la planification des domaines dans votre locataire,
consultez Domaines d’espace de travail.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Liste de contrôle : lorsque vous envisagez le mode de licence de l’espace de travail, les
décisions clés et les actions sont les suivantes :
Lorsque vous combinez les fonctionnalités de gestion du cycle de vie, il existe des
meilleures pratiques à prendre en compte lors de votre processus de planification. Par
exemple, vous pourriez choisir d’utiliser l’intégration Git pour votre espace de travail de
développement et vos pipelines de déploiement afin de publier dans vos espaces de
travail de test et de production. Ces types de décisions nécessitent l’utilisation cohérente
de la pratique convenue. Nous vous recommandons d’effectuer une preuve de concept
pour tester entièrement votre modèle d’installation, de processus et d’autorisations.
) Important
7 Notes
Bien que les noms soient similaires, les données envoyées à Azure Log Analytics
sont différentes de celles capturées par le journal d’activité Power BI. Les données
envoyées à Azure Log Analytics concernent les événements générés par le moteur
Analysis Services (par exemple, les événements de début de requête et de fin de
requête ). À l’inverse, le journal d’activité est concerné par le suivi des activités
utilisateur (par exemple, Afficher le rapport ou modifier les événements de rapport
).
Pour plus d’informations sur les journaux des événements de modèle sémantique,
consultez Audit au niveau des données.
Pour plus d’informations sur la configuration d’Azure Log Analytics pour une utilisation
avec Power BI, consultez Configuration d’Azure Log Analytics pour Power BI. Veillez à
comprendre les conditions préalables que vous devez avoir en place pour que
l’intégration fonctionne.
Liste de contrôle : lors de l’intégration de l’espace de travail à Azure Log Analytics, les
décisions et les actions clés incluent :
Voici quelques suggestions pour savoir comment définir les paramètres clés pour
améliorer l’expérience de vos utilisateurs.
Liste de contrôle – Lors de l’examen des autres propriétés de l’espace de travail, les
décisions et actions clés sont les suivantes :
Liste de contrôle : lorsque vous envisagez d’autres facteurs techniques, les décisions
clés et les actions sont les suivantes :
" Soyez attentif aux facteurs techniques : Lorsque vous travaillez dans le processus
de planification, déterminez s’il existe une raison technique (par exemple, les limites
de stockage par espace de travail) qui peuvent influencer votre processus
décisionnel.
" Réorganiser le contenu de l’espace de travail : Si les limites de stockage peuvent
devenir un problème, créez des espaces de travail distincts maintenant et republiez
du contenu dans ces nouveaux espaces de travail.
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article présente une série d’articles qui vous aideront à planifier la gestion de cycle
de vie de votre contenu Power BI. Cet article s’adresse principalement aux :
Pour vous assurer que le contenu Power BI que vous proposez aux utilisateurs est fiable
et utile, il est important de suivre des pratiques efficaces de gestion de cycle de vie du
contenu. La gestion de cycle de vie fait référence à la façon dont vous gérez le contenu,
de sa création à sa publication (ou déploiement), y compris la mise hors service du
contenu lorsque les utilisateurs n’en ont plus besoin. La planification de votre stratégie
de gestion de cycle de vie du contenu Power BI est une étape essentielle pour mettre à
l’échelle et développer vos scénarios d’entreprise et d’analyse en libre-service.
7 Notes
Cette série fournit une vue d’ensemble de la gestion de cycle de vie du contenu
Power BI. Elle se concentre sur les considérations et conseils clés à prendre en
compte pour planifier une stratégie de gestion de cycle de vie du contenu. Ces
articles décrivent différentes approches en matière de gestion de cycle de vie, des
environnements en libre-service de petite taille jusqu’aux scénarios d’entreprise
plus sophistiqués.
Conseil
Pour obtenir des conseils sur la planification et la création de contenu Power BI,
consultez Planification de la solution BI.
Chacune de ces étapes est décrite en détail dans les articles de cette série sur la gestion
de cycle de vie du contenu. Les conseils fournis dans ces articles vous aideront à
déterminer votre approche pour gérer votre contenu Power BI.
Pour chaque étape du cycle de vie du contenu, le diagramme suivant présente quelques
exemples de composants que vous pouvez utiliser pour des approches de gestion de
cycle de vie simples ou avancées.
Le diagramme décrit les composants suivants pour chaque étape du cycle de vie du
contenu. Les composants sont des exemples. Le premier exemple illustre la mise en
place d’une approche de gestion de cycle de vie simple, tandis que le deuxième
exemple illustre la mise en place d’une approche de gestion de cycle de vie avancée.
ノ Agrandir le tableau
Article Description
Vous pouvez développer du contenu et gérer les modifications en utilisant soit OneDrive
Entreprise (également appelé OneDrive pour le travail ou l’école) pour effectuer le
contrôle de version des fichiers, soit Azure Repos dans Azure DevOps pour effectuer le
contrôle de code source de métadonnées.
Article Description
Vous pouvez valider le contenu en utilisant Power BI pour effectuer des tests manuels ou
Azure Test Plans dans Azure DevOps pour effectuer des tests automatisés.
Vous pouvez mettre hors service et archiver du contenu en utilisant soit OneDrive
Entreprise (également appelé OneDrive pour le travail ou l’école) pour archiver et stocker
des fichiers, soit Azure Repos dans Azure DevOps pour archiver des métadonnées.
La façon dont vous abordez la gestion de cycle de vie du contenu dépend de vos
besoins et d’autres facteurs. Voici quelques facteurs clés à prendre en compte à mesure
que vous explorez le contenu de cette série.
) Important
Il existe de nombreuses autres approches valides pour gérer le cycle de vie de votre
contenu Power BI. Sélectionnez et planifiez une approche qui correspond le mieux
à vos stratégies de propriété de contenu et d’étendue de livraison du contenu, et
qui vous aide à répondre à vos besoins et à atteindre vos objectifs BI.
Contenu connexe
Dans le prochain article de cette série, découvrez comment planifier et concevoir du
contenu dans le cadre de la gestion de cycle de vie du contenu.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à planifier et à concevoir du contenu dans le cadre de la gestion de
cycle de vie du contenu. Il est principalement destiné à :
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques
que vous utilisez pour gérer le contenu depuis sa création jusqu’à son retrait. Comme
décrit dans le premier article de cette série, la gestion de cycle de vie du contenu Power
BI est importante pour garantir une livraison fiable et cohérente du contenu aux
utilisateurs professionnels.
L’image suivante illustre le cycle de vie du contenu Power BI, et met en évidence la
première phase, au cours de laquelle vous planifiez et concevez le contenu.
7 Notes
Conseil
Cet article est axé sur les principales considérations et décisions relatives à la
planification et à la conception du contenu dans le contexte de la gestion de cycle
de vie.
Lors de la collecte des exigences, vous devez clairement décrire les aspects relatifs au
contenu qui affectent votre approche de la gestion de cycle de vie. Vous devez
documenter ces aspects dans le cadre de la planification et de la conception de votre
solution.
Les sections suivantes de cet article décrivent les principaux aspects et considérations
d’une solution qui motiveront votre approche de la gestion de cycle de vie durant la
planification et la conception de votre contenu.
7 Notes
Répondez aux questions suivantes sur votre contenu pour vous aider à prendre des
décisions en matière de gestion de cycle de vie ultérieurement.
Répondez aux questions suivantes pour vous aider à déterminer le type de contenu que
vous allez créer.
Conseil
Répondez aux questions suivantes pour vous aider à déterminer qui créera ou prendra
en charge le contenu.
) Important
Répondez aux questions suivantes pour vous aider à déterminer si le contenu est
critique.
Dans quelle mesure ce contenu est-il critique pour l’entreprise ? Quelle est
l’urgence de la demande de développement ?
Des décisions ou des actions critiques pour l’entreprise découleront-elles des
informations fournies par ce contenu ?
À quelle échelle prévoyez-vous de distribuer ce contenu (cela peut aller de
l’ensemble de l’organisation à une équipe locale limitée) ?
Les dirigeants ou d’autres décideurs stratégiques s’appuieront-ils sur ce contenu
pour leur travail ?
Quel est l’impact de ce contenu ? Par exemple, en cas d’indisponibilité soudaine du
contenu, quels seraient les impacts métier (, par exemple, perte de revenus ou
interruption de processus métier) ?
Une fois que vous avez suffisamment identifié et décrit le contenu que vous allez créer,
vous devez décider de la manière dont les créateurs de contenu doivent collaborer.
Décider de la manière dont les créateurs de
contenu doivent collaborer
À mesure qu’une solution augmente en étendue et en complexité, plusieurs créateurs et
propriétaires de contenu devront sans doute collaborer. Lors de la création de solutions
complexes, nous vous recommandons d’utiliser des outils efficaces qui aident à
structurer, à gérer et à prendre en charge la collaboration. Il existe de nombreuses
façons de collaborer lors de la production de contenu Power BI, par exemple à l’aide de
Microsoft Teams ou d’Azure DevOps.
Conseil
Microsoft Teams
Pour les projets plus petits ou plus simples, les créateurs de contenu peuvent collaborer
à l’aide de Microsoft Teams.
Conseil
Pour collaborer et communiquer dans Microsoft Teams, vous utilisez des services de
prise en charge tout au long du cycle de vie de votre contenu Power BI.
Azure DevOps
Les créateurs et les propriétaires de contenu peuvent également communiquer et
collaborer dans un hub central et organisé à l’aide d’Azure DevOps.
7 Notes
Azure DevOps est une suite de services qui s’intègrent à Power BI et Fabric pour
vous aider à planifier et à orchestrer la gestion de cycle de vie du contenu. Lorsque
vous utilisez Azure DevOps de cette façon, vous tirez généralement parti des
services suivants :
À l’aide d’Azure DevOps, les créateurs de contenu utilisent des projets pour structurer
leur communication, leur planification et leur travail. En outre, les créateurs de contenu
peuvent orchestrer la gestion de cycle de vie du contenu à partir d’Azure DevOps en
effectuant un contrôle de code source, une validation et un déploiement. Le contrôle de
code source est le processus qui consiste à gérer les modifications plus précises
apportées au code de contenu et aux métadonnées.
Azure DevOps est souvent un bon choix pour les scénarios de collaboration avancés, car
il existe des services et des options de prise en charge pour orchestrer la création et le
déploiement de contenu.
Conseil
Nous vous recommandons d’utiliser Azure DevOps pour faciliter la gestion efficace
du cycle de vie du contenu dans les scénarios d’entreprise avec distribution de
contenu centralisée. Dans des scénarios plus volumineux ou plus complexes, la
collaboration à l’aide d’Azure DevOps ou d’outils similaires est préférable à la
collaboration à l’aide de Microsoft Teams ou de SharePoint. Cela est dû au fait que
davantage d’outils et d’options sont disponibles pour faciliter une collaboration et
une automatisation plus robustes.
Comment le travail est délimité et comment les branches de contenu sont créées,
nommées et utilisées.
Comment les auteurs regroupent et commitent les modifications et les décrivent
avec des messages de commit.
Qui est responsable de la révision et de l’approbation des modifications à l’aide de
demandes de tirage.
Comment les conflits de fusion de demandes de tirage sont résolus, et qui les
résout.
Comment les modifications apportées dans différentes branches doivent être
fusionnées en une branche unique.
Comment le contenu est testé et qui effectue les tests avant le déploiement du
contenu.
Comment et quand les modifications sont déployées dans les espaces de travail de
développement, de test et de production.
Comment et quand les modifications déployées ou les versions de la solution
peuvent être restaurées.
7 Notes
Vous pouvez également utiliser Microsoft Teams avec Azure DevOps, car il existe
différentes façons d’intégrer ces services. Par exemple, vous pouvez afficher et
gérer Azure Boards, et surveiller des événements dans Azure Pipelines à partir de
Microsoft Teams.
Ce qui est le plus important, c’est que vous utilisiez des outils et des services qui
simplifient la collaboration et qui correspondent le mieux aux besoins de votre
équipe et à la façon dont elles travaillent.
Une fois que vous avez décidé si et comment les créateurs de contenu doivent
collaborer, vous devez décider où vous allez stocker vos fichiers. Une grande partie de
ces fichiers seront stockés à l’emplacement où vous choisissez de collaborer.
Conseil
U Attention
Certains fichiers de contenu, tels que les fichiers .pbix et .pbip, sont susceptibles de
contenir des données sensibles importées à partir de sources de données. En outre,
les fichiers de métadonnées tels que les fichiers .pbit ou TMDL peuvent également
contenir des informations sensibles. Veillez à prendre les précautions nécessaires
pour stocker ces fichiers à des emplacements sécurisés, et à implémenter une
protection efficace contre la perte de données.
Différentes options s’offrent à vous pour le stockage des fichiers. Veillez à sélectionner
l’emplacement approprié, en fonction du type de fichier, de son contenu et de la façon
dont il sera utilisé.
Lorsque vous stockez des fichiers dans SharePoint, tenez compte des points suivants.
Organisation : veillez à maintenir une structure cohérente et logique afin qu’il soit
facile de trouver des fichiers spécifiques. Utilisez de bonnes conventions
d’affectation de noms, organisez les fichiers dans des dossiers, et archivez les
fichiers qui ne sont plus pertinents pour les projets en cours.
Actualisation OneDrive : vous pouvez lier un modèle sémantique ou un rapport
publié à un fichier .pbix stocké dans un site SharePoint ou OneDrive Entreprise
(également appelé OneDrive professionnel ou scolaire). Avec cette approche, vous
n’avez plus besoin de publier le modèle sémantique pour que les modifications
entrent en vigueur. Au lieu de cela, vos modifications sont visibles après une
actualisation OneDrive automatique, qui se produit toutes les heures. Bien qu’elle
soit pratique, sachez que cette approche implique quelques mises en garde et
défis. Quand un problème survient, il est difficile de revenir en arrière.
Aperçus de rapports : dans SharePoint, il est possible d’afficher des rapports
Power BI sans avoir à installer Power BI Desktop ou à télécharger le fichier .pbix
localement. Lorsque vous ouvrez des rapports de cette façon, ils sont affichés dans
le navigateur. Cette capacité peut être une alternative pratique à l’affichage des
rapports à partir du portail Fabric. Elle est activée par défaut dans les paramètres
du locataire Fabric.
Conseil
U Attention
2 Avertissement
OneLake
Si vous disposez d’une capacité Fabric, OneLake peut être un bon choix pour stocker des
fichiers de source de données. Vous pouvez charger ou synchroniser des fichiers vers
OneLake à l’aide de l’explorateur de fichiers OneLake, où ils peuvent être transformés en
tables en vue d’une utilisation dans des charges de travail en aval telles que Power BI.
Pour les sources de données plus volumineuses ou régulièrement mises à jour, vous
pouvez charger des fichiers vers OneLake automatiquement à l’aide de Fabric Data
Factory ou d’autres applications qui utilisent l’API Azure Data Lake Storage (ADLS) Gen2
ou le kit de développement logiciel (SDK) Python Stockage Azure.
U Attention
En outre, les fichiers accessibles par les utilisateurs avec l’explorateur de fichiers
OneLake sont vulnérables aux modifications accidentelles ou à la perte. Nous
vous recommandons d’éviter d’utiliser l’explorateur de fichiers OneLake pour les
solutions critiques pour l’entreprise.
2 Avertissement
Conseil
Dépôt distant
Les créateurs de contenu peuvent commiter et enregistrer du travail à partir de leur
machine locale dans un référentiel distant, tel qu’un dépôt Git Azure Repos, à intervalles
réguliers pendant le développement. Un référentiel distant contient la dernière version
de la solution, et il est accessible à l’ensemble de l’équipe de développement. En règle
générale, un référentiel distant facilite des approches de gestion de cycle de vie plus
avancées que l’utilisation de Teams, SharePoint ou OneDrive. Cela est dû au fait qu’en
utilisant un référentiel distant, les créateurs de contenu peuvent bénéficier d’options
plus sophistiquées pour collaborer sur des fichiers, ou suivre et gérer les modifications
de fichiers. Par exemple, les créateurs de contenu peuvent travailler sur leur propre
branche du référentiel distant pour apporter des modifications, et demander à fusionner
ces modifications dans la branche principale lorsqu’ils sont prêts.
Conseil
Lorsque vous utilisez un référentiel distant, il peut être préférable de stocker les
rapports Power BI et les modèles sémantiques en tant que fichiers de projets
Power BI Desktop (.pbip) plutôt que fichiers .pbix. En effet, les modifications
enregistrées ne peuvent pas être identifiées dans un fichier .pbix.
U Attention
Vous ne pouvez pas télécharger en tant que fichier du contenu créé dans le portail
Fabric. Par exemple, les rapports créés dans le portail Fabric ne peuvent pas être
téléchargés en tant que fichiers .pbix.
Lors de la création de contenu dans le portail Fabric, vous devez plutôt utiliser les
API Fabric ou l’intégration Git pour sauvegarder les définitions de contenu. En
sauvegardant les définitions de contenu, vous réduisez les interruptions dans le cas
où ce contenu est supprimé accidentellement ou modifié involontairement. Si du
contenu est accidentellement supprimé ou modifié, vous pouvez le remplacer à
l’aide de la sauvegarde.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment développer du contenu et gérer
les modifications dans le cadre de la gestion de cycle de vie du contenu.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à développer du contenu et à gérer les modifications dans le cadre
de la gestion de cycle de vie du contenu. Il est principalement destiné à :
La gestion de cycle de vie est l’ensemble des processus et des pratiques que vous
utilisez pour gérer le contenu depuis sa création jusqu’à son retrait éventuel. Dans la
première étape de la gestion de cycle de vie, vous planifiez et concevez du contenu, qui
implique planification de la solution et prendre des décisions clés qui affectent votre
approche de la gestion de cycle de vie. Dans la deuxième étape, vous développez du
contenu et gérez les modifications.
Il est important de gérer les changements de contenu au cours de son cycle de vie pour
garantir une collaboration efficace entre les créateurs de contenu et une diffusion stable
et cohérente du contenu aux consommateurs.
L’image suivante illustre le cycle de vie du contenu Power BI, en mettant l’accent sur la
deuxième étape, au cours de laquelle vous développez le contenu et gérez les
modifications.
7 Notes
Conseil
Cet article se concentre sur les décisions et considérations clés qui vous aideront à
développer le contenu et à gérer les changements tout au long de son cycle de vie.
Pour plus d’informations sur la manière de développer le contenu et de gérer les
modifications, voir :
Qu’est-ce que la gestion de cycle de vie dans Microsoft Fabric ? : Cet article
fournit une introduction technique et un didacticiel aux pipelines
d’intégration et de déploiement Git Fabric.
bonnes pratiques de gestion de cycle de vie : Cet article contient des conseils
pratiques et des conseils sur l’utilisation des caractéristiques de gestion de
cycle de vie de Fabric et de Power BI pour développer du contenu et gérer les
modifications.
l’intégration de OneDrive et SharePoint Power BI Desktop : Cet article
contient une vue d’ensemble des options permettant d’utiliser et de stocker
des fichiers enregistrés dans OneDrive Entreprise et Scolaire ou SharePoint
lorsque vous effectuez un contrôle de version avec des fichiers .pbix.
Bien démarrer avec Git dans Azure Repos : Cette série d’articles contient des
conseils pratiques, des didacticiels et des conseils pour effectuer le contrôle
de code source à l’aide d’un référentiel Git dans Azure Repos.
Conseil
Nous vous recommandons d’utiliser le contrôle des versions pour tous les contenus
que vous créez, dans la mesure du possible. L’utilisation du contrôle des versions
présente des avantages considérables tant pour les créateurs de contenu que pour
les consommateurs et réduit le risque d’interruption due à la perte de fichiers ou à
l’impossibilité de restaurer des modifications.
Conseil
Les formats .pbip et TMDL facilitent le suivi et la fusion des modifications au niveau
des objets. Cela signifie que vous pouvez visualiser et gérer les modifications
apportées à des objets individuels, tels que des mesures DAX ou des tableaux.
Power BI Desktop
Vous pouvez utiliser Power BI Desktop pour créer des modèles sémantiques ou des
rapports, que vous pouvez enregistrer sous forme de fichiers .pbix ou .pbip. Il existe
d’autres fichiers de contenu personnalisés que vous pouvez également utiliser lorsque
vous utilisez Power BI Desktop.Lorsque vous utilisez Power BI Desktop pour créer du
contenu, vous devez prendre certaines décisions clés :
Conseil
Lorsque vous développez des flux de données et des cartes de performance, nous
vous recommandons de récupérer les définitions des éléments afin de gérer les
modifications et de conserver une copie de sauvegarde. Vous pouvez automatiser
la récupération de flux de données et de carte de performance à l’aide des API
REST Fabric. Plus précisément, vous pouvez utiliser les Obtenir des de flux de
données et obtenir des cartes de performance points de terminaison,
respectivement.
U Attention
Autres outils
Vous pouvez utiliser d’autres outils pour créer ou gérer certains types de contenu. Ces
outils peuvent apporter des avantages supplémentaires, mieux s’adapter à votre flux de
travail ou être nécessaires pour gérer des caractéristiques ou des types de contenu
spécifiques. Vous pouvez utiliser d’autres outils Microsoft ou des outils tiers pour créer
et gérer du contenu. D’autres outils que vous pouvez utiliser pour créer ou gérer du
contenu sont les suivants.
Lorsque vous créez du contenu à l’aide d’autres outils, vous devez prendre certaines
décisions importantes :
Comment gérer les licences : Autres outils peuvent nécessiter des licences
supplémentaires que vous devez gérer.
Comment publier du contenu : Autres outils peuvent nécessiter des étapes
supplémentaires pour publier du contenu, par exemple à l’aide de points de
terminaison XMLA ou des API REST Power BI.
Une fois que vous avez décidé de la manière dont vous allez créer le contenu, vous
devez choisir l’endroit où vous allez le publier et le tester pendant que vous le
développez.
Dans Fabric et Power BI, nous vous recommandons d’utiliser des espaces de travail
Fabric distincts, comme décrit dans le au niveau du locataire et articles de planification
au niveau de l’espace de travail.
) Important
Il existe plusieurs façons d’utiliser les espaces de travail Fabric pour séparer les
environnements. En général, en plus de votre environnement local, vous utilisez deux
espaces de travail ou plus pour gérer le contenu pendant son cycle de vie.
Les sections suivantes fournissent une vue d’ensemble des différentes approches que
vous pouvez adopter pour séparer les espaces de travail afin de faciliter la gestion de
cycle de vie.
7 Notes
ノ Agrandir le tableau
Article Description
Lorsqu’ils sont prêts, les créateurs de contenu publient le contenu dans un espace de
travail test. Les créateurs de contenu peuvent développer du contenu qui ne peut être
produit qu’avec la création web et effectuer la validation du contenu dans l’espace de
travail de test.
Lorsqu’ils sont prêts, les créateurs de contenu déploient le contenu dans un espace de
travail de production. Dans l’espace de travail de production, les créateurs de contenu
distribuent le contenu en publiant une application Power BI ou en partageant le contenu
de l’espace de travail.
7 Notes
ノ Agrandir le tableau
Article Description
Lorsqu’ils sont prêts, les créateurs de contenu publient le contenu dans un espace de
travail de développement. Dans l’espace de travail de développement, les créateurs de
contenu peuvent développer du contenu qui ne peut être produit qu’avec la création
web. Les créateurs de contenu peuvent également valider le contenu dans l’espace de
travail de développement.
Lorsqu’ils sont prêts, les créateurs de contenu déploient le contenu dans un espace de
travail de test. Dans l’espace de travail de test, les utilisateurs valident le contenu, soit
dans l’espace de travail, soit dans une application.
Lorsqu’ils sont prêts, les créateurs de contenu déploient le contenu dans un espace de
travail de production. Dans l’espace de travail de production, les créateurs de contenu
distribuent le contenu en publiant une application Power BI ou en partageant le contenu
de l’espace de travail.
7 Notes
Vous pouvez utiliser jusqu’à dix environnements différents avec les pipelines de
déploiement. Par exemple, vous pouvez souhaiter disposer d’un environnement de
pré-production entre le test et la production, spécifiquement destiné à des types
de validation particuliers, tels que les tests de performances.
7 Notes
Azure DevOps est une suite de services qui s’intègrent à Power BI et Fabric pour
vous aider à planifier et à orchestrer la gestion de cycle de vie du contenu. Lorsque
vous utilisez Azure DevOps de cette façon, vous tirez généralement parti des
services suivants :
7 Notes
Le diagramme décrit les processus et composants suivants pour séparer les espaces de
travail dans le cadre de cette approche.
ノ Agrandir le tableau
Article Description
Lorsqu’ils sont prêts, les créateurs de contenu engagent et poussent leurs modifications
vers un référentiel distant, tel qu’un référentiel Azure Repos Git.
Dans le référentiel Git distant, les créateurs de contenu suivent et gèrent les
modifications de contenu en utilisant le contrôle de la source, et ils ramifient et
fusionnent le contenu pour faciliter la collaboration.
Dans les espaces de travail privés, les créateurs de contenu peuvent développer du
contenu à l’aide de la création web et valider leurs propres modifications. Les
modifications apportées au contenu par la création web peuvent être synchronisées avec
la branche du référentiel Git lorsque le créateur de contenu valide et transfère ces
modifications à partir de l’espace de travail. Les différents créateurs de contenu
travaillent dans leurs propres espaces de travail privés.
Lorsqu’ils sont prêts, les créateurs de contenu effectuent une demande de tirage (pull
request) pour fusionner leurs modifications dans la branche principale de la solution.
Après la fusion des modifications, la branche principale est synchronisée avec l’espace de
travail de développement.
Lorsqu’ils sont prêts, les créateurs de contenu déploient le contenu dans un espace de
travail de test. Dans l’espace de travail de test, les utilisateurs effectuent des tests
d’acceptation du contenu.
Lorsqu’ils sont prêts, les créateurs de contenu déploient le contenu dans un espace de
travail de production. Dans l’espace de travail de production, les créateurs de contenu
distribuent le contenu en publiant une application Power BI ou en partageant le contenu
de l’espace de travail.
Une fois que vous avez décidé de la manière dont vous allez configurer et utiliser les
espaces de travail, l’étape suivante consiste à décider de la manière dont vous allez
effectuer le contrôle de version pour suivre et gérer les modifications de contenu.
Les sections suivantes décrivent chaque approche et les éléments clés à prendre en
compte pour choisir celle que vous devez utiliser.
Conseil
Le diagramme suivant présente une vue d’ensemble de la manière dont vous effectuez
le contrôle des versions en utilisant SharePoint ou OneDrive.
Le diagramme décrit les processus et composants suivants.
ノ Agrandir le tableau
Article Description
Les créateurs de contenu développent des modèles sémantiques et des rapports dans
leur environnement local et les enregistrent sous forme de fichiers .pbix.
Lorsqu’ils sont prêts, les créateurs de contenu enregistrent leurs modifications, qu’ils
synchronisent avec une bibliothèque SharePoint ou OneDrive for Work and School
distante.
Dans l’espace de travail Fabric, les créateurs de contenu voient les modifications
apportées au contenu Power BI une fois l’actualisation OneDrive terminée.
) Important
Bien qu’il soit facile à mettre en place et à gérer, le contrôle des versions avec
SharePoint ou OneDrive a plus de limites. Par exemple, il n’est pas possible d’afficher les
modifications dans le contenu, et il n’est pas également possible de comparer les
versions. En outre, il n’est pas possible de configurer des processus plus sophistiqués
pour gérer ces modifications (comme les demandes de branchement ou de tirage,
décrites plus loin dans cet article).
Envisagez d’utiliser SharePoint ou OneDrive pour suivre et gérer les modifications dans
les scénarios suivants :
7 Notes
Évitez d’utiliser SharePoint ou OneDrive pour suivre et gérer les modifications dans les
scénarios suivants :
Le contenu consiste en des types d’éléments autres que les modèles sémantiques
et les rapports.
Le contenu est complexe ou volumineux dans l’étendue.
Les créateurs de contenu doivent travailler en collaboration sur le même élément
en même temps.
Vous pouvez utiliser les bibliothèques de documents de Microsoft Teams si les créateurs
de contenu l’utilisent pour leur collaboration. Les bibliothèques de documents sont des
sites SharePoint, et l’utilisation des bibliothèques de documents (au lieu d’un site
SharePoint ou d’un dossier OneDrive séparé) garantit la centralisation du contenu, des
fichiers et de la collaboration.
Pour un contrôle de version plus sophistiqué, vous pouvez stocker des fichiers dans un
référentiel distant comme Azure Repos et gérer les modifications en utilisant le contrôle
de code source.
7 Notes
Le diagramme suivant présente une vue d’ensemble de la manière dont vous effectuez
le contrôle de code source en
ノ Agrandir le tableau
Article Description
Les créateurs de contenu développent des modèles sémantiques et des rapports dans
leur environnement local et les enregistrent sous forme de fichiers .pbip. Les créateurs
de contenu peuvent également développer des modèles sémantiques et enregistrer les
métadonnées des modèles.
Article Description
Lorsqu’ils sont prêts, les créateurs de contenu enregistrent leurs modifications, qui sont
ensuite validées et transférées à intervalles réguliers vers un référentiel Git distant.
Dans le référentiel Git distant, les créateurs de contenu suivent les modifications au
niveau de l’objet, ce qui facilite le contrôle des versions. Les créateurs de contenu
peuvent également créer des branches pour travailler sur le contenu et fusionner leurs
modifications dans une branche unique à l’aide de demandes demande de tirage (pull
request).
Dans l’espace de travail Fabric, les créateurs de contenu voient les modifications
apportées au contenu Power BI une fois la synchronisation ou le déploiement terminé.
Les créateurs de contenu peuvent créer du contenu comme des flux de données ou des
notebooks dans l’espace de travail. S’ils utilisent l’intégration Git, les créateurs de
contenu relient cet espace de travail à une branche spécifique du référentiel distant.
Les créateurs de contenu peuvent valider et pousser les modifications d’un espace de
travail vers le référentiel distant en utilisant l’intégration Git. Ces modifications peuvent
importer des définitions d’éléments pour le contenu pris en charge rédigé dans l’espace
de travail, comme les flux de données et les notebooks.
En résumé, les créateurs de contenu stockent les fichiers .pbip, les fichiers de
métadonnées et la documentation dans un référentiel central Azure Repos. Ces fichiers
sont organisés par un propriétaire technique. Alors qu’un créateur de contenu développe
une solution, un propriétaire technique est responsable de la gestion de la solution, de
l’examen des modifications et de leur fusion en une seule solution. Azure Repos offre
des options plus sophistiquées de suivi et de gestion des modifications que SharePoint
et OneDrive. Il est essentiel de maintenir un référentiel documenté et bien organisé, car
il constitue la base de tout le contenu et de la collaboration.
Envisagez d’utiliser le contrôle de code source pour suivre et gérer les modifications
dans les scénarios suivants :
Conseil
Pour faciliter le contrôle de code source avec le développement local, nous vous
recommandons d’utiliser une application cliente comme Visual Studio Code .
Vous utilisez Power BI Desktop pour développer du contenu, puis vous pouvez
utiliser Visual Studio Code pour effectuer la gestion du contrôle de code source de
ce contenu, en mettant en scène, en validant et en poussant les modifications vers
votre référentiel distant.
2 Avertissement
L’intégration Git Fabric a certaines limitations avec les éléments et scénarios pris
en charge. Assurez-vous d’abord de valider si l’intégration Git de Fabric convient le
mieux à votre scénario spécifique, ou si vous devriez adopter une approche
différente pour implémenter le contrôle de code source.
7 Notes
ノ Agrandir le tableau
Item Description
appelée branche de fonctionnalité, car elle est utilisée pour développer une fonctionnalité
spécifique ou résoudre un problème spécifique.
Le créateur de contenu lie ses modifications aux éléments de travail gérés dans Azure
Boards. Les éléments de travail décrivent des développements, des améliorations ou des
correctifs de bogues spécifiques qui s’étendent à leur branche.
Pour tester ses modifications, le créateur de contenu déploie sa solution dans un espace
de travail isolé pour son développement (non illustré dans ce diagramme). Le créateur de
contenu peut également synchroniser la branche de la fonctionnalité avec l'espace de
travail en utilisant l'intégration Fabric Git.
Lorsqu'il est prêt, le créateur de contenu ouvre une demande d'extraction pour fusionner
la branche de fonctionnalité avec la branche principale.
Les utilisateurs testent et valident le contenu dans l'espace de travail de test. Lors de
l'utilisation de l'intégration Git avec Azure Pipelines pour le déploiement, l'espace de
travail de test n'est synchronisé avec aucune branche.
Item Description
Une fois que les utilisateurs ont accepté et validé les modifications, le responsable de la
mise en production procède à un examen final et approuve la solution à déployer dans
l'espace de travail de production.
Les utilisateurs visualisent le contenu publié dans l'espace de travail de production. Lors de
l'utilisation de l'intégration Git avec Azure Pipelines pour le déploiement, l'espace de
travail de production n'est synchronisé avec aucune branche.
) Important
L’utilisation efficace des branches, des validations, des demandes de tirage et des
fusions est essentielle pour tirer le meilleur parti du contrôle de code source
lorsque vous gérez le cycle de vie de votre contenu Power BI.
Lorsque vous utilisez une stratégie de branching pour gérer le contenu Fabric, prenez en
compte les facteurs suivants.
Quels créateurs de contenu de branche doivent cloner pour leur propre travail. Par
exemple, si ces branches sont un clone de la branche principale (appelée
développement basé sur les jonctions ) ou s’ils sont d’autres branches, comme les
branches de mise en production pour des versions spécifiques et planifiées du
contenu.
Indique si vous allez étendre des tâches spécifiques aux versions de contenu
distinctes à l’aide de branches de mise en production.
Quelles branches se connectent à quel espace de travail lorsque vous utilisez
l’intégration de Fabric Git.
Conseil
Consultez Adopter une stratégie de branchement Git pour obtenir des conseils et
des recommandations spécifiques sur l’utilisation optimale d’une stratégie de
branchement pour faciliter efficacement la collaboration.
Lorsque vous mettez en scène et validez les modifications apportées au contenu Power
BI, tenez compte des facteurs suivants.
Que vous ayez l’étape et la validation des modifications à partir d’un référentiel
local ou de l’espace de travail Fabric.
Placez des fichiers .pbip dans des dossiers de niveau supérieur lorsque vous
stockez plusieurs modèles ou rapports dans un seul référentiel. Cela facilite
l’identification et le groupe des modifications que vous apportez.
Ignorez les modifications de métadonnées innocues ou inutiles à l’aide d’un fichier
gitignore ou d’un fichier .gitattributes . Cela garantit que toutes les modifications
que vous validez sont significatives.
Conseil
Consultez Enregistrer votre travail avec des validations pour obtenir des conseils
et des recommandations spécifiques sur l’étape et la validation de votre travail
dans un référentiel Git.
Pour fusionner les modifications, un créateur de contenu ouvre une demande de tirage.
Une demande de tirage est une soumission pour examen par les pairs qui peut entraîner
la fusion du travail effectué en une seule solution. La fusion peut entraîner des conflits,
qui doivent être résolus avant que la branche puisse être fusionnée. Les révisions des
demandes de tirage sont importantes pour s’assurer que les créateurs respectent les
normes et pratiques organisationnelles en matière de développement, de qualité et de
conformité.
Lorsque vous utilisez des demandes de tirage pour fusionner des modifications dans le
contenu Power BI, prenez en compte les facteurs suivants.
Quelles sont les normes et les pratiques que vous utiliserez pour effectuer votre
évaluation, le cas échéant. Par exemple, vous pouvez utiliser des règles à partir de
l’analyseur de meilleures pratiques pour les modèles sémantiques.
Comment évaluer les modifications apportées aux métadonnées de rapport, ce qui
n’est pas facile à lire et à comprendre sans utiliser d’outils tiers.
Comment résoudre les conflits de fusion.
Conseil
Contenu connexe
Dans l’article suivant de cette série, découvrez comment valider le contenu dans le cadre
de la gestion de cycle de vie du contenu.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à valider du contenu dans le cadre de la gestion de cycle de vie du
contenu. Il est principalement destiné à :
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques
que vous utilisez pour gérer le contenu depuis sa création jusqu’à sa mise hors service.
Dans la deuxième phase de la gestion de cycle de vie, vous développez du contenu et
gérez les modifications qui impliquent les décisions clés sur la façon dont vous allez
développer du contenu et configurer le contrôle de version et les espaces de travail.
Dans la troisième phase, vous validez du contenu pour vérifier s’il est prêt pour le
déploiement.
7 Notes
Vous itérez généralement via les étapes deux et trois dans les cycles de
développement et de validation successifs.
La validation de contenu est critique pour veiller à la qualité et à la fiabilité de vos
solutions. C’est la raison pour laquelle il est essentiel de tester les modifications de
contenu avant de les déployer en production.
7 Notes
Migrer vers Power BI : valider du contenu : cet article présente les décisions
et considérations clés pour la validation lorsque vous effectuez une migration
vers Power BI à partir d’autres technologies.
Planification de solution BI : valider du contenu : cet article présente
comment planifier des cycles de développement itératif et de validation
lorsque vous planifiez votre solution Power BI ou Fabric.
La validation de contenu implique la prise d’actions ou de mesures spécifiques pour
veiller à ce que le contenu s’exécute comme prévu.
Vous validez du contenu en effectuant plusieurs types de tests. Les sections suivantes
présentent les principales considérations à prendre en compte concernant les décisions
sur la façon dont les créateurs et les consommateurs de contenu effectuent des tests.
7 Notes
7 Notes
Il est indispensable que les créateurs de contenu valident leur contenu avant de le
mettre à la disposition des utilisateurs. Si une solution ayant des problèmes
évidents est fournie à des utilisateurs de test, la confiance vis-à-vis de la solution se
détériore. Les utilisateurs s’attendent à voir une représentation acceptable du
produit final, même lors des tests. En outre, une solution fonctionnelle permet aux
utilisateurs de se concentrer sur l’identification des problèmes liés à leur domaine
d’activé.
Tests manuels : les tests manuels impliquent une validation manuelle du contenu
par une personne, via une évaluation subjective ou en comparant quelques critères
objectifs de test. Les tests manuels sont faciles à effectuer, mais ils peuvent faire
l’objet de partialités ou d’erreurs humaines. De plus, l’exécution correcte de tests
manuels peut devenir fastidieuse lorsque du contenu atteint une certaine échelle.
Vous pouvez effectuer des tests manuels de deux manières.
L’évaluation indépendante qui implique le test de votre contenu, tel que des
modèles sémantiques et des rapports.
L’évaluation par un confrère qui implique une évaluation subjective du contenu
afin de mesurer la solution de manière critique et offrir des suggestions pour
l’améliorer.
Tests automatiques : les tests automatiques impliquent un test préparé à l’avance
et évalué automatiquement sans intervention humaine. Les tests automatisés
vérifient généralement des parties du code de la solution par rapport à des points
de référence ou à des bases de références spécifiques. Les tests automatisés sont
plus difficiles à effectuer et leur configuration exige du temps et des efforts.
Cependant, les tests automatisés sont essentiels dans des scénarios d’entreprise
afin de veiller à la qualité et à la fiabilité d’implémentations plus importantes et de
solutions vitales pour l'entreprise.
Voici quelques considérations à prendre en compte lorsque vous testez votre contenu.
Les sections suivantes présentent d’autres considérations importantes pour les tests
manuels.
Les modèles sémantiques constituent une partie importante de solution dans Fabric et
Power BI, car ils sont une source en amont pour des rapports, tableaux de bord et
d’autres outils clients et charges de travail Fabric. C’est pourquoi il est important de
valider vos modèles sémantiques avant un déploiement.
Répondez à des questions telles que celles qui suivent pour vous permettre de valider
votre modèle sémantique.
Vous pouvez utiliser divers outils et approches pour vous aider à valider vos modèles
sémantiques.
Power BI Desktop : Power BI Desktop vous permet de valider divers aspects de vos
modèles sémantiques en utilisant des fonctionnalités variées. Des exemples de
fonctionnalités Power BI Desktop facilitant les tests de modèles sémantiques
incluent :
Canevas de visuels : testez l’exactitude et la fonctionnalité du modèle avec des
visuels de type glisser-déplacer.
Affichage de requête DAX : tester l’exactitude d’un modèle et du code DAX
avec des requêtes DAX que vous pouvez enregistrer et réutiliser plus tard.
Diagnostics de requête : testez le niveau de performance des actualisations en
obtenant des informations de diagnostic sur la manière dont les requêtes sont
évaluées dans Power Query.
Fabric : les fonctionnalités et les éléments du portail Fabric vous permettent de
valider des aspects de votre modèle sémantique après son déploiement sur un
espace de travail.
Sécurité : testez la sécurité du modèle en empruntant l’identité des utilisateurs
ou des rôles de sécurité.
Notebooks : testez l’exactitude et la fonctionnalité du modèle en utilisant un
lien sémantique.
Hub de surveillance : testez et surveillez l’actualisation des données de modèles
sémantiques et d’autres éléments de données Fabric.
Pools tiers : les outils tiers vous permettent de valider d’autres aspects de votre
modèle sémantique, soit en offrant plus d’informations ou d’autres fonctionnalité
qui facilitent la validation. Des exemples d’outils tiers facilitant les tests de modèles
sémantiques incluent :
DAX Studio : testez et optimisez le niveau de performance du code DAX en
recevant des décompositions détaillées des plans de requêtes et des minutages
de requêtes DAX.
Éditeur tabulaire : testez et déboguez l’exactitude du code DAX en recevant des
décompositions détaillées sur la façon dont les requêtes DAX sont évaluées et
sur le type de contexte d’évaluation actif.
Conseil
En outre, vous pouvez utiliser l’affichage de requête DAX et des outils tiers tels que
DAX Studio pour valider et optimiser des requêtes DAX pour des rapports paginés
et des cartes de performance.
Répondez à des questions telles que celles qui suivent pour vous permettre de valider
vos rapports.
Power BI Desktop : Power BI Desktop vous permet de valider divers aspects de vos
rapports en utilisant des fonctionnalités variées. Des exemples de fonctionnalités
Power BI Desktop facilitant les tests de rapports incluent :
Canevas de visuel : testez la fonctionnalité du rapport en utilisant des
segments, des filtres et d’autres éléments interactifs.
Analyseur du niveau de performance : testez le niveau de performance du
rapport en mesurant le rendu du visuel et les heures de requête DAX. Vous
pouvez copier des requêtes DAX de visuel à partir de l’analyseur du niveau de
performance pour les utiliser dans d’autres outils et enregistrer les résultats du
niveau de performance pour la documentation.
Interroger des simulations de limites : testez le niveau de performance du
rapport en simulant les limites de mémoire de la capacité où il va être déployé.
Fabric : les fonctionnalités et les éléments du portail Fabric vous permettent de
valider des aspects de votre rapport après son déploiement sur un espace de
travail.
Mettre à jour l’application : testez la sécurité et la fonctionnalité du rapport lors
de la distribution de rapports dans les applications Power BI et de la définition
des audiences d’application différentes pour déterminer les utilisateurs pouvant
consulter et le type de contenu. Quand vous utilisez des audiences
d’application, vous pouvez prévisualiser les rapports auxquels elles ont accès et
tester vous-même l’expérience d’application.
Mode Lecture dans l’espace de travail ou l’application : testez l’exactitude et la
fonctionnalité du rapport en l’utilisant dans le même environnement qu’un
utilisateur.
7 Notes
Vous pouvez également développer et valider des tableaux de bord dans le portail
Fabric.
) Important
Il est indispensable de tester vos rapports dans Power BI Desktop et, après de
déploiement, dans le portail Fabric. Le rendu du visuel peut se comporter
différemment sur votre ordinateur local par rapport à des rapports dans un espace
de travail Fabric. De plus, notez que l’expérience utilisateur lors de l’utilisation d’un
rapport à partir d’un espace de travail ou d’une application diffère
considérablement par rapport à l’utilisation d’un rapport dans Power BI Desktop.
Tests manuels via l’exécution d’une évaluation par un confrère
L’exécution d’une évaluation par un confrère consiste une autre façon de valider du
contenu manuellement. Lors d’une évaluation par un confrère, le créateur de contenu
fournit la solution ou une partie de la solution à un collègue pour qu’il l’évalue. L’objectif
d’une évaluation par un confrère consiste à améliorer une solution en utilisant
l’expérience collective et les connaissances de plusieurs créateurs de contenu. Vous
pouvez effectuer une évaluation par un confrère pendant ou après des tests manuels et
automatisés.
7 Notes
L’évaluation par un confrère est une approche classique utilisée dans plusieurs
secteurs d’activité. Cette approche est bien connue pour améliorer la qualité du
contenu, des produits et des processus.
Conseil
Conseil
Après l’exécution d’un cycle d’évaluation par un confrère, vous devez documenter et
incorporer toutes les modifications recommandées. Le cas échéant, vous devez
soumettre à nouveau les modifications pour approbation avant de passer au test
utilisateur. En général, plusieurs itérations d’évaluation par un confrère sont uniquement
nécessaires lorsqu’il existe de nombreuses modifications ou quelques modifications
complexes à tester.
L’objectif d’un test automatisé consiste à réduire le temps et les efforts nécessaires pour
valider des modifications de contenu, tout en améliorant la cohérence des tests et la
fiabilité de leurs résultats. Lorsqu’un contenu ne réussit pas un test automatisé, son
déploiement est généralement empêché jusqu’à la résolution des problèmes par le
créateur du contenu.
) Important
Pour effectuer des tests automatisés de manière efficace, vous devez créer des tests
bien conçus. La création de ces tests peut demander beaucoup de temps et
d’efforts. Si vous définissez les conditions et attentes de vos tests de manière
incorrecte, vos tests automatisés ne pourront pas valider les aspects appropriés de
votre contenu et vous tirerez peu d’avantages à automatiser ces tests.
Conseil
Les tests automatisés sont plus avantageux lorsque vous les intégrez à votre
déploiement de solution dans des scénarios de publication de contenu
d’entreprise. Par exemple, vous pouvez automatiser des tests en utilisant Azure
Pipelines dans le cadre d’un pipeline de validation, ce qui veille à ce que le contenu
soit prêt pour le déploiement. Pour obtenir plus d’informations, voir Étape 4 :
Déployer le contenu.
Les tests automatisés de modèles sémantiques sont possibles, bien qu’ils nécessitent
généralement une installation personnalisée avec des infrastructures et des outils tiers.
Vous pouvez utiliser divers outils et approches pour automatiser les tests de modèles
sémantiques.
Best Practice Analyzer (BPA) : le Best Practice Analyzer vous permet de spécifier
des règles que vous pouvez utiliser pour évaluer un modèle sémantique. Vous
pouvez exécuter le BPA en utilisant l’Éditeur tabulaire qui identifie toutes les
violations de règle dans un modèle sémantique. Vous pouvez automatiser les
vérifications pour les violations de règle du BPA en tirant parti de l’interface de
ligne de commande (CLI) de l’Éditeur tabulaire avec Azure DevOps, ou dans le
cadre d’un autre processus planifié.
Lien sémantique et notebooks Fabric :les notebooks dans Fabric vous permettent
d’utiliser un lien sémantique pour interagir de manière programmatique avec des
modèles sémantiques. Vous pouvez utiliser des notebooks afin d’exécuter des
infrastructures telles que Great Expectations (GX) pour valider des données. Vous
pouvez en outre évaluer des mesures et des requêtes DAX, puis tester les résultats
par rapport à des bases de références connues.
Power Automate :Power Automate vous permet d’exécuter des requêtes sur des
modèles sémantiques et d’exporter des rapports en utilisant les API REST Power BI.
Vous pouvez vérifier les résultats de la requête par rapport à des bases de
référence connues, puis effectuer des actions en aval, comme le déclenchement
d’alertes aux propriétaires de contenu.
Conseil
Il existe des options limitées disponibles pour automatiser les tests de rapports. Ces
options s’appuient sur des outils externes ou des solutions de la communauté pour
valider automatiquement les propriétés des visuels ou des rapports, telles que la
validation des métadonnées de rapport ou la simulation des interactions des utilisateurs
avec des rapports.
Vous pouvez utiliser divers outils et approches pour automatiser les tests de rapports.
Analyseurs des meilleures pratiques de rapport : il existe divers outils tiers qui
prennent en charge une fonctionnalité de type Best Practice Analyzer pour
automatiser la détection de problèmes dans des rapports via l’examen de la
définition de rapport. Deux outils prenant en charge cette fonctionnalité sont PBI
Explorer et PBI Inspector .
Power Automate Desktop : les outils d’automatisation d’interface utilisateur tels
que Selenium for Python ou Power Automate Desktop vous permettent de
simuler des interactions par souris de l’utilisateur avec des rapports. La définition
d’un flux utilisateur vous permet de tester la navigation et les interactions. Ces
tests réussissent lorsqu’ils peuvent terminer le flux et échouent quand ils détectent
des images ou des mots spécifiques à l’écran (comme un message d’erreur ou un
visuel vide).
Décider de la façon dont les utilisateurs
valident du contenu
Une fois qu’un contenu réussit un test manuel, un test automatisé et une évaluation par
un confrère, il peut passer au test utilisateur. Lorsque des utilisateurs testent du contenu,
ils fournissent des commentaires subjectifs sur le respect des besoins métier par ce
contenu et sur le fait que son fonctionnement répond à leurs attentes, notamment en
termes de renvoi de résultats exacts.
) Important
Quand vous déployez du contenu dans un espace de travail de test, vous devez
mettre à jour manuellement l’application avant que les utilisateurs puissent afficher
les modifications apportées aux rapports et tableaux de bord.
7 Notes
Vous ne pouvez pas déployer ou copier des applications d’un espace de travail
dans un autre. Vous devez apporter manuellement des modifications à l’application
dans la configuration de cet espace de travail.
Tests observatoires : les tests observatoires sont des sessions courtes où les
créateurs de contenu regardent un ou plusieurs utilisateurs faire usage du contenu
sans conseils ou instructions. Lors de ces sessions, les créateurs de contenu
utilisent leurs observations pour identifier des défauts, problèmes éventuels ou des
améliorations à apporter à la solution. Ces tests peuvent être de grande valeur, car
leur organisation nécessite peu de temps et d’efforts et ils sont limités à des
fonctionnalités spécifiques ou à des éléments d’une solution. Les tests
observatoires sont plus avantageux pour obtenir des commentaires anticipés sur
une conception ou une approche, comme avec une preuve de concept (POC).
Tests de groupes de discussion : les tests de groupes de discussion sont des
sessions limitées organisées avec un petit groupe d’utilisateurs qui passe en revue
le contenu ensemble. Ces groupes de discussion sont organisés de manière à
sélectionner des parties prenantes clés et des experts techniques qui peuvent
fournir les meilleurs commentaires sur certaines caractéristiques ou fonctionnalités.
Les tests de groupes de discussion peuvent se produire au cours de plusieurs
sessions interactives. Les tests de groupes de discussion nécessitent davantage de
temps et d’efforts que les tests observatoires, mails ils fournissent des
commentaires plus détaillés sur une solution.
Tests d’acceptation utilisateur :les tests d’acceptation utilisateur (UAT) constituent
un processus formel où un groupe plus important d’individus de la communauté
des utilisateurs valide et fournit des commentaires asynchrones sur une solution.
L’organisation des UAT exige le plus de temps et d’efforts, mais il s’agit de la façon
la plus approfondie d’effectuer un test utilisateur. Une fois que les utilisateurs test
acceptent la solution et que les problèmes liés aux commentaires sont résolus, le
contenu peut être déployé dans l’espace de travail de production.
Après avoir pris votre décision sur la procédure de validation du contenu, vous pouvez
planifier la façon de le déployer sur et entre les espaces de travail.
Liste de vérification : voici les décisions et actions clés pour planifier la validation de
contenu :
" Concevoir et documenter les conditions de test : décrivez les tests que vous allez
effectuer, ce qu’ils vont tester et la manière dont vous allez les réaliser.
" Choisir un processus d’évaluation par un confrère : décrivez la ou les autres
personnes qui vont valider le contenu, hormis vous.
" Choisir une approche pour les tests manuels : déterminez les outils et
fonctionnalités que vous allez utiliser pour valider le contenu que vous créez.
" Déterminer si vous allez utiliser des tests automatisés : identifiez si la mise à
l’échelle et l’étendue de votre contenu justifient votre configuration de tests
automatisés. Dans l’affirmative, veillez à planifier le temps et les ressources
nécessaires pour concevoir et implémenter ces tests afin qu’ils valident ce que vous
prévoyez.
" Déployer du contenu à partir de l’espace de développement vers l’espace de
travail de test : déployez les modifications de l’espace de travail de développement
vers l’espace de travail de test afin que les utilisateurs puissent voir les
modifications. Vérifiez que vous avez effectué les activités postérieures au
déploiement nécessaires dans l’espace de travail de test, telles que la configuration
et la mise à jour d’une application test.
" Déterminer une approche pour le test utilisateur : choisissez la façon dont les
utilisateurs vont valider le contenu.
" Identifier les utilisateurs test : déterminez la ou les personnes au sein la
communauté des utilisateurs qui vont effectuer la validation du contenu. Parvenez à
un accord avec ces individus sur l’étendue de leurs attentes et de leur participation.
" Collecter les commentaires des utilisateurs : configurez des outils et des processus
afin de recueillir automatiquement des commentaires. Par exemple, vous pouvez
utiliser Tâches et Planificateur dans Microsoft Teams ou Microsoft Forms.
" Documenter les résultats de test : documentez les résultats de la totalité de la
validation de contenu et toute modification apportée du fait des résultats de test.
Veillez à ce que cette documentation soit facile à trouver.
" Planifier votre déploiement en production : une fois que le test utilisateur se
termine, préparez le déploiement du contenu de l’espace de travail test vers
l’espace de travail de production.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment déployer du contenu dans le
cadre de la gestion de cycle de vie du contenu.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à déployer du contenu dans le cadre de la gestion de cycle de vie
du contenu. Il est principalement destiné à :
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques
que vous utilisez pour gérer le contenu depuis sa création jusqu’à sa mise hors service. À
la troisième étape de la gestion du cycle de vie, vous validez les modifications de
contenu, ce qui implique une validation effectuée à la fois par les créateurs de contenu
et les utilisateurs. Dans la quatrième étape, vous déployez du contenu pour que les
consommateurs l’utilisent.
Pour partager du contenu Power BI avec des consommateurs, vous devez d’abord
publier (ou déployer) le contenu dans un espace de travail Fabric. Le déploiement de
contenu implique également le déplacement de ce contenu entre les environnements,
comme le déploiement d'un espace de travail de développement vers un espace de
travail de test, ou d'un espace de travail de test vers un espace de travail de production.
7 Notes
Vous déployez du contenu à deux moments clés pendant le cycle de vie du contenu :
Les sections suivantes décrivent les approches que vous pouvez adopter pour publier ou
promouvoir du contenu.
7 Notes
Le contenu créé dans le portail Fabric (par exemple, les flux de données, les
tableaux de bord et les cartes de performance) est créé directement dans l’espace
de travail de développement et n’a pas besoin d’être publié.
Les sections suivantes décrivent les approches que vous pouvez adopter pour publier ou
promouvoir du contenu.
Publier avec Power BI Desktop
Power BI Desktop permet aux utilisateurs de publier des modèles sémantiques et des
rapports de leur ordinateur local vers un espace de travail dans le portail Fabric. Cette
approche est la façon la plus simple de publier du contenu. Toutefois, elle ne peut pas
être automatisée.
Pour plus d’informations sur l’utilisation d’outils tiers pour déployer des modèles
sémantiques, consultez le scénario d’utilisation de la gestion avancée des modèles
de données.
Pour plus d’informations sur la façon dont vous pouvez activer et utiliser les points
de terminaison de lecture/écriture XMLA, consultez Connectivité de modèle
sémantique avec le point de terminaison XMLA.
Pour plus d'informations sur l'utilisation de OneDrive for Work and School avec du
contenu Power BI, consultez le scénario d’utilisation de publication de contenu en
libre-service.
Azure DevOps est une suite de services qui s’intègrent à Power BI et Fabric pour
vous aider à planifier et à orchestrer la gestion de cycle de vie du contenu. Lorsque
vous utilisez Azure DevOps de cette façon, vous tirez généralement parti des
services suivants :
Pour plus d’informations sur l’utilisation de l’intégration Git de Fabric pour déployer
du contenu Power BI, consultez le scénario d’utilisation de la publication de
contenu d’entreprise.
7 Notes
La façon dont vous utilisez l’intégration Git pour déployer et gérer du contenu
dépend fortement de vos stratégies de branchement et de fusion, que vous
décidez à l’étape 2 de la gestion du cycle de vie.
Publier avec Azure Pipelines
Azure Pipelines automatise par programmation le test, la gestion et le déploiement du
contenu. Lorsqu’un pipeline est exécuté, les étapes du pipeline s’exécutent
automatiquement. Azure Pipelines est plus complexe et nécessite plus de temps et
d’efforts pour la configuration par rapport à d’autres approches, mais il permet le plus
de contrôle et de flexibilité pour orchestrer le processus de déploiement.
Conseil
Vous pouvez déployer du contenu en utilisant Azure Pipelines et les API REST
Power BI vers des espaces de travail qui ne se trouvent pas sur Fabric ou une
capacité Premium. Toutefois, les API REST Fabric fonctionnent uniquement avec
Fabric et les points de terminaison XMLA fonctionnent uniquement avec Fabric ou
une capacité Premium.
Pour plus d’informations sur l’intégration d’Azure DevOps à Power BI, consultez
Intégration de projets Power BI Desktop à Azure DevOps et Pipelines de build.
Envisagez d’utiliser Azure Pipelines pour orchestrer le déploiement de contenu dans les
cas suivants :
Les créateurs de contenu connaissent Azure DevOps et les API REST Fabric.
Les créateurs de contenu utilisent Azure DevOps pour la collaboration et le
contrôle de code source.
Les créateurs de contenu n’utilisent pas l’intégration Git Fabric.
Azure Pipelines et d’autres outils basés sur le code peuvent déployer du contenu de
manière programmatique en utilisant un ou plusieurs des API ou points de terminaison
suivants :
Les API REST Power BI : il existe différents points de terminaison d’API REST Power
BI que vous pouvez utiliser pour déployer du contenu. Les API REST Power BI
prennent uniquement en charge les types d’éléments Power BI.
Importer : vous pouvez publier des éléments pris en charge à l’aide des API REST
Power BI pour importer un fichier source valide dans un espace de travail (tel
qu’un fichier .pbix).
Déployer : vous pouvez déployer des éléments pris en charge, en les
promouvant d'un espace de travail à un autre s'ils sont des étapes dans un
pipeline de déploiement.
Les API REST Fabric : il existe différents points de terminaison d’API REST Fabric
que vous pouvez utiliser pour déployer du contenu. Les API REST Fabric prennent
en charge les types d’éléments Power BI et Fabric.
Créer : vous pouvez créer des éléments pris en charge à l’aide des API REST
Fabric avec une définition d’élément valide.
Mise à jour depuis Git : vous pouvez mettre à jour un espace de travail avec du
contenu à partir d’un référentiel distant connecté à l’aide de l’intégration Git.
Points de terminaison de lecture/écriture XMLA : vous pouvez créer ou modifier
des modèles sémantiques à l’aide de points de terminaison XMLA avec un fichier
model.bim valide. Les points de terminaison XMLA vous permettent de déployer
des modifications sur des objets de modèle spécifiques au lieu de l’ensemble du
modèle. Azure Pipelines peut utiliser des outils tiers (comme l’interface de ligne de
commande de l’éditeur tabulaire) pour déployer des modèles sémantiques à l’aide
des points de terminaison XMLA.
Conseil
Lorsque vous utilisez les API REST Fabric ou Power BI, vous devez d’abord créer une
inscription d’application dans Azure (décrite ici pour Power BI Embedded). Cela
nécessite un locataire Microsoft Entra ID et un utilisateur de l’organisation, et peut
être un processus complexe pour configurer les autorisations appropriées.
Toutefois, vous pouvez exécuter les API REST Fabric dans les notebooks sans créer
d’inscription d’application. Cela simplifie l’installation et l’utilisation des API dans
vos solutions, afin que vous n’ayez pas à gérer les informations d’identification ni à
configurer une configuration avant d’utiliser les API.
Pour utiliser les API REST Fabric sans enregistrer une application, utilisez un lien
sémantique dans un notebook Fabric avec la classe FabricRestClientClass de
sempy pour appeler l’API.
En plus des tests automatisés, l’intégration d’Azure Pipelines à Power BI vous aide à
atteindre l’intégration continue et le déploiement continu (CI/CD).
Il existe trois types d’Azure Pipelines que vous pouvez configurer pour tester, gérer et
déployer votre solution Power BI.
Pipelines de validation
Pipelines de build
Pipelines de mise en production
7 Notes
Il n’est pas nécessaire d’avoir ces trois types de pipelines dans votre solution de
publication. En fonction de votre workflow et de vos besoins, vous pourriez
configurer une ou plusieurs des variantes des pipelines décrites dans cet article
pour automatiser la publication de contenu. Cette possibilité de personnaliser les
pipelines est un avantage d’Azure Pipelines par rapport aux pipelines de
déploiement Fabric intégrés.
Pipelines de validation
Les pipelines de validation effectuent des vérifications de qualité de base des modèles
de données avant leur publication dans un espace de travail de développement. En
règle générale, les modifications d’une branche du référentiel distant déclenchent la
validation par le pipeline de ces modifications à l’aide de tests automatisés.
U Attention
Le contenu est déployé vers des espaces de travail avec un mode de licence de
capacité PPU, Premium ou Fabric.
Les types et scénarios d’éléments de contenu sont pris en charge par les pipelines
de déploiement.
Envisagez une autre approche que les pipelines de déploiement dans les cas suivants :
Vous préférez déployer du contenu à partir d’un référentiel distant, par exemple à
l’aide d’Azure Pipelines.
Vous envisagez d’utiliser l’intégration Git pour synchroniser différentes étapes avec
différentes branches de votre référentiel distant, au lieu de déployer le contenu.
Conseil
Lorsque vous séparez le contenu par type d’élément dans différents espaces de travail,
vous allez utiliser des pipelines de déploiement distincts pour déployer ce contenu. Vous
pouvez lier du contenu entre des espaces de travail avec plusieurs pipelines de
déploiement en utilisant la liaison automatique. La liaison automatique entre les
pipelines de déploiement garantit que le contenu reste lié à l’élément approprié à
l’étape correspondante. Par exemple, le rapport de l’étape de développement reste lié
au modèle à l’étape de développement de l’autre pipeline de déploiement. Toutefois,
vous pouvez également éviter le comportement de liaison automatique si votre scénario
nécessite de lier du contenu entre les espaces de travail avec un modèle différent.
Le diagramme suivant illustre cette deuxième approche pour déployer du contenu à
l’aide de plusieurs pipelines de déploiement.
Les pipelines de déploiement sont un outil flexible et simple qui permet d’améliorer la
gestion du cycle de vie du contenu pour les scénarios en libre-service et d’entreprise.
Conseil
Si vous utilisez la liaison automatique pour lier des éléments entre les pipelines de
déploiement, vérifiez également que vous passez en revue les traçabilités
d’éléments pour identifier les ruptures de liaison automatique provoquées par une
personne qui publie du contenu lié à l’étape incorrecte.
U Attention
Lorsque vous effectuez un déploiement manuel, vous pouvez comparer les étapes pour
identifier les modifications de contenu dans la fenêtre révision des modifications. Cette
approche est particulièrement utile lorsque vous n’utilisez pas de référentiel distant Git
pour le contrôle de code source.
Envisagez une autre approche que Azure Pipelines dans les cas suivants :
Il existe deux approches différentes pour déployer du contenu avec Azure Pipelines. Soit
elles orchestrent des pipelines de déploiement, soit elles déploient du contenu dans un
espace de travail sans pipeline de déploiement.
En résumé, les créateurs de contenu publient du contenu dans l’espace de travail dans la
première étape du pipeline de déploiement. Ensuite, un gestionnaire de versions
approuve le déploiement, ce qui déclenche un pipeline Azure. Ce pipeline utilise les API
REST Power BI pour promouvoir du contenu entre les étapes, afin que les métadonnées
soient déployées sur un autre espace de travail. L’un des avantages de cette approche
est que vous pouvez orchestrer le déploiement de plusieurs types d’éléments Fabric via
des pipelines de déploiement, car certains types d’éléments sont développés dans le
portail Fabric et ne peuvent donc pas être déployés uniquement par Azure Pipelines.
Vous pouvez également déployer du contenu dans un espace de travail à partir d’Azure
DevOps à l’aide d’Azure Pipelines. Cette approche n’utilise pas de pipelines de
déploiement. Au lieu de cela, elle utilise des pipelines de mise en production pour
déployer des fichiers sources ou des fichiers de métadonnées à l’aide des API REST
Fabric ou Power BI, ou des points de terminaison XMLA en lecture/écriture. En règle
générale, ces fichiers sont stockés dans un dépôt Git Azure Repos.
Cette approche ne nécessite pas de licences Fabric ou Premium lorsque vous publiez
uniquement des fichiers Power BI Desktop avec les API REST Power BI. Toutefois, cela
implique davantage d’efforts et de complexité de configuration, car vous devez gérer le
déploiement en dehors de Power BI. Les équipes de développement qui utilisent déjà
DevOps pour des solutions de données en dehors de Power BI connaîtront sans doute
cette approche. Les équipes de développement qui utilisent cette approche peuvent
consolider le déploiement de solutions de données dans Azure DevOps.
Déployer avec l’intégration de Fabric Git
Lorsque vous utilisez l’intégration Git, vous pouvez synchroniser différentes branches
vers différents espaces de travail au lieu de publier ou de déployer du contenu,
explicitement. De cette façon, vous pouvez avoir des branches distinctes pour les
espaces de travail de développement, de test et de production. Dans ce scénario, la
branche principale se synchronise avec l’espace de travail de production. Vous déployez
ensuite du contenu entre les espaces de travail en effectuant une demande de tirage
pour fusionner la branche de développement dans la branche de test (pour effectuer le
déploiement sur l’espace de travail de test) ou pour fusionner la branche de test dans la
branche principale (pour effectuer le déploiement dans l’espace de travail de
production).
7 Notes
Une fois que vous avez planifié la façon dont vous allez déployer du contenu, vous
devez ensuite prendre en compte la façon dont vous allez le prendre en charge et le
surveiller.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à prendre en charge et à superviser du contenu dans le cadre de la
gestion de cycle de vie de ce contenu. Il est principalement destiné à :
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques
que vous utilisez pour gérer le contenu depuis sa création jusqu’à sa mise hors service.
Dans la quatrième étape de la gestion du cycle de vie, vous déployez du contenu, ce qui
implique la publication initiale du contenu dans un espace de travail de développement
et la promotion du contenu dans un espace de travail de test et de production. À la fin
de la quatrième étape, les consommateurs de contenu utilisent déjà votre contenu. Dans
la cinquième étape, vous prenez en charge ce contenu et supervisez son utilisation pour
faciliter l’adoption et résoudre les problèmes.
L’image suivante illustre le cycle de vie du contenu Power BI, et met en évidence la
cinquième phase, au cours de laquelle vous prenez en charge et supervisez le contenu.
7 Notes
Cet article se concentre sur les considérations et décisions clés de prise en charge
et de supervision du contenu via son cycle de vie. Pour obtenir plus de conseils sur
la façon de prendre en charge et de superviser du contenu, consultez :
À ce stade, le contenu a été déployé et est utilisé par les consommateurs. Votre
prochaine action consiste à prendre suffisamment en charge le contenu tout au long de
son cycle de vie.
Conseil
7 Notes
7 Notes
Conseil
Une fois que vous avez défini votre modèle de support pour les consommateurs et les
créateurs de contenu, vous devez ensuite planifier la façon dont vous allez prendre en
charge le contenu. En règle générale, cela implique l’audit et la surveillance réguliers du
contenu.
Conseil
Liste de vérification : voici les décisions et actions clés lorsque vous planifiez la prise en
charge et la supervision de contenu :
" Évaluer la façon dont la prise en charge des utilisateurs est gérée : examinez la
façon dont la prise en charge est actuellement gérée pour se familiariser avec l’état
actuel.
" Décider comment gérer la prise en charge : déterminez la façon dont vous allez
prendre en charge le contenu tout au long de son cycle de vie. Décidez comment
prendre en charge les consommateurs et les auteurs.
" Clarifier les rôles et responsabilités de support : confirmez qui est censé faire quoi,
et quand, pour prendre en charge le contenu après sa publication. Clarifiez les
attentes spécifiques des propriétaires de contenu (y compris les auteurs en libre-
service). Précisez également les attentes du Centre d’excellence (COE), de l’équipe
informatique, de l’équipe décisionnel et du personnel du support technique.
" Créer un modèle de support pour les consommateurs : créez des processus
spécifiques et une documentation de prise en charge destinée aux consommateurs
de contenu.
" Créer un modèle de support pour les créateurs : créez des processus spécifiques et
une documentation de prise en charge destinée aux auteurs.
" Configurer un système de suivi du support : créez un système pour accepter et
suivre l’état des demandes des utilisateurs.
" Former le personnel du support : organisez des sessions de transfert des
connaissances ou des sessions de formation pour préparer le personnel du support
technique.
" Communiquer le modèle de support aux utilisateurs : assurez-vous que vos
consommateurs et auteurs savent quelles ressources sont disponibles pour eux,
ainsi que les processus à suivre. Dans les paramètres de locataire Fabric,
personnalisez les liens du menu d’aide afin de diriger les utilisateurs vers vos
ressources internes.
" Déterminer les besoins spécifiques en matière d’audit et de surveillance : tenez
compte des activités d’audit et de surveillance au niveau du rapport, au niveau des
données et au niveau du locataire.
" Hiérarchiser les efforts d’audit : identifiez plusieurs questions clé auxquelles
répondre. Déterminez l’objectif et les priorités de vos efforts d’audit et de
surveillance initiaux.
" Clarifier les rôles et responsabilités d’audit : confirmez qui est censé faire quoi, et
quand, pour auditer le contenu. Clarifiez les attentes spécifiques des propriétaires
de contenu (y compris les auteurs en libre-service) ainsi que le CEO et l’équipe
informatique.
" Prendre des décisions relatives à l’architecture d’audit initiale : consultez les
équipes informatiques en fonction des besoins pour déterminer l’existence de
processus permettant d’extraire et de stocker des données d’audit. Si possible,
accédez aux données existantes plutôt que de créer un nouveau processus.
Lorsqu’un nouveau processus est nécessaire, prenez en compte les décisions
d’architecture pour l’extraction, le stockage et la sécurisation des données.
" Créer des rapports analytiques d’audit initiaux : identifiez les exigences et
l’audience de chaque rapport d’audit. Créez des rapports indiquant clairement
l’objectif, l’action qui doit être effectuée et par qui elle doit être effectuée. Obtenez
des commentaires et itérez selon les besoins.
" Créer une documentation et une formation pour les auteurs de contenu :
fournissez des conseils aux administrateurs et aux créateurs de contenu pertinents
pour les fonctionnalités de support et d’audit applicables à leur rôle de travail.
Incluez des recommandations et des informations sur la façon de répondre aux
exigences d’audit interne de prise en charge et l’audit.
Contenu connexe
Dans le prochain article de cette série, vous apprendrez à mettre hors service et à
archiver du contenu à la fin de son cycle de vie.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous permet de mettre hors service et d’activer du contenu à la fin de son
cycle de vie. Cet article est principalement destiné aux :
La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques
que vous utilisez pour gérer le contenu depuis sa création jusqu’à son retrait. Dans la
cinquième phase de la gestion de cycle de vie, vous prenez en charge et surveillez le
contenu, ce qui implique la prise en charge des utilisateurs et du contenu publié pour
faciliter l’adoption et traiter des problèmes. Finalement, vous arrivez à la sixième et
dernière phase du cycle de vie du contenu où il est possible que vous identifiez du
contenu qui n’est plus utilisé ou nécessaire. Lors de cette dernière phase, vous mettez
hors service et archivez le contenu.
La mise hors service et l’archivage de contenu sont importants une fois que le contenu a
atteint son objectif. Ils veillent à ce que les ressources ne soient pas gaspillées en
prenant en charge du contenu inutile et ils permettent aux créateurs et aux
administrateurs de piloter plus facilement le contenu nécessaire. Lorsque vous mettez
hors service et archivez du contenu à la fin de son cycle de vie, ils vous permettent
d’améliorer la gouvernance et l’efficacité, car vous concentrez les efforts et les
ressources sur du contenu pertinent et des domaines actifs de votre tenant.
7 Notes
Enfin, les consommateurs n’ont plus besoin ou n’utilisent plus le contenu. Il est possible
qu’il existe d’autres raisons, telles qu’un remplacement de contenu déployé, divers
objectifs d’entreprise ou un changement de priorités.
La mise hors service de contenu vous permet de gouverner Power BI de différentes
façons.
Conseil
Une fois que vous avez conçu la manière dont vous effectuez une analyse de nettoyage
du contenu, vous devez ensuite identifier le contenu que vous allez mettre hors service.
Envisagez les actions suivantes pour rechercher du contenu peu utilisé et qui n’est plus
tenu à jour.
Analyser les vues : vous devez vous concentrer sur le nombre de vues pour des
éléments visuels tels que les rapports et les applications.
Triez les éléments par nombre total de vues dans votre fenêtre temporelle
(décrit dans la section précédente). Ciblez la recherche d’éléments inutilisés ou
uniquement utilisés de manière occasionnelle.
Analysez l’utilisation récente en fonction de votre fenêtre temporelle.
Recherchez une tendance baissière par rapport à des périodes passées.
Analyser des requêtes : vous devez cibler des requêtes soumises pour des
éléments de données, comme des modèles sémantiques.
Triez les éléments par nombre total de requêtes dans votre fenêtre temporelle.
Ciblez la recherche de contenu inutilisé ou uniquement utilisé de manière
occasionnelle.
Analysez l’utilisation récente en fonction de votre fenêtre temporelle.
Recherchez une tendance baissière par rapport à des périodes passées.
Analyser les visiteurs : le nombre total de visiteurs du contenu dans votre fenêtre
temporelle peut parfois être pertinent quand il est également comparé aux vues et
aux requêtes.
Triez les éléments par nombre total de visiteurs dans votre fenêtre temporelle.
Filtrez les visiteurs qui sont des créateurs de contenu, des propriétaires ou des
membres de l’équipe du support afin de pouvoir vous concentrer sur les
consommateurs ayant une activité d’affichage uniquement.
Filtrez les visiteurs ayant utilisé le rapport une ou deux fois seulement pour
découvrir l’effet sur la tendance de l’utilisation. Il est possible que ces
utilisateurs aient accidentellement ouvert un rapport.
Analyser les dates d’actualisation : pour les éléments de données (comme des
modèles sémantiques ou des flux de données), vérifiez la dernière actualisation du
contenu. S’il n’a pas été actualisé récemment, il étaye probablement la conclusion
que les éléments de données n’ont plus été utilisés.
Vérifier les dates de mise à jour du contenu : il peut être utile de consulter la
dernière date de mise à jour ou de republication du contenu. Le contenu n’ayant
pas été mis à jour récemment renforce la possibilité qu’il soit prêt pour la mise
hors service.
Vérifier la documentation : avant de vous appuyer exclusivement sur les données
des statistiques d’utilisation, passez en revue la documentation ou les
métadonnées disponibles.
Localisez la documentation qui existe pour le contenu. Dans l’idéal, un rapport
inclura une page de présentation pour documenter son utilisation cible et son
public cible. Ce genre d’informations aident les visiteurs et elles sont
particulièrement utiles lorsque le contenu est utilisé de façon irrégulière.
Passez en revue les métadonnées disponibles. Une description d’espace de
travail peut contenir des informations pertinentes sur ses modèles d’utilisation
prévus. Un nom d’espace de travail peut inclure des suffixes [Dev] ou [Test] qui
vont clarifier la raison pour laquelle l’utilisation varie considérablement.
Communiquer avec le propriétaire du contenu : lorsque vous trouver un élément
candidat à la mise hors service, demandez des renseignements sur le contenu
auprès du contact ou de son propriétaire. Il est possible qu’il ait d’autres
informations sur les modèles d’utilisation attendus qui ne sont pas facilement
apparentes à partir des données des statistiques sur l’utilisation. Il est également
possible que vous deviez parfois discuter avec des experts techniques ou les
consommateurs du contenu afin de comprendre leurs besoins futurs.
Conseil
L’API REST Get Unused Artifacts as Admin (Obtenir des artefacts inutilisés en tant
qu’administrateur) constitue une façon de rechercher des éléments inutilisés.
Toutefois, notez que l’API effectue des recherches sur les 30 derniers jours
d’historique. Dans la plupart des cas, vous voyez une fenêtre temporelle plus
grande afin de pouvoir analyser les tendances au fil du temps. Pour obtenir plus
d’informations, consultez Données d’activité utilisateur et Inventaire du locataire.
7 Notes
Liste de vérification : voici les décisions et actions clés lorsque vous planifiez la mise
hors service et l’archivage de contenu :
Contenu connexe
Pour découvrir plus de considérations, d’actions, de critères décisionnels et de
suggestions pour vous aider lors de l’implémentation de Power BI, consultez
Planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article présente une série d’articles sur la sécurité Power BI. La série d’articles
s’adresse aux points suivants :
La série d’articles est destinée à approfondir le contenu du Livre blanc sur la sécurité de
Power BI. Bien que le livre blanc Sécurité dans Power BI se concentre sur des sujets
techniques clés tels que l’authentification, la résidence des données et l’isolement
réseau, l’objectif principal de la série est de vous fournir des considérations et décisions
pour vous aider à planifier la sécurité et la confidentialité.
Il est important de planifier pour relever les défis liés à la sécurité, notamment :
Conseil
Consultez également l’article Protection des informations et prévention de la
perte de données. Ils contiennent des informations complémentaires à cette série
d’articles.
Cette série d’articles porte sur la sécurité et la confidentialité. Elles sont organisées en
plusieurs articles :
7 Notes
Contenu connexe
Dans le prochain article de cette série, découvrez la planification au niveau de la sécurité
du locataire.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article pourrait également être intéressant pour les créateurs Power BI en libre-
service qui doivent créer, publier et gérer du contenu dans les espaces de travail.
La série d’articles est destinée à approfondir le contenu du Livre blanc sur la sécurité de
Power BI. Bien que le livre blanc Sécurité dans Power BI se concentre sur des sujets
techniques clés tels que l’authentification, la résidence des données et l’isolement
réseau, l’objectif principal de la série est de vous fournir des considérations et décisions
pour vous aider à planifier la sécurité et la confidentialité.
Administration Power BI
L’administrateur Power BI est un rôle à privilèges élevés qui a un contrôle significatif sur
Power BI. Nous vous recommandons d’examiner attentivement qui est affecté à ce rôle,
car un administrateur Power BI peut remplir de nombreuses fonctions de haut niveau,
notamment :
Conseil
À titre de bonne pratique, vous devez affecter à des utilisateurs (entre deux et
quatre) le rôle Administrateur Fabric. De cette façon, vous pouvez réduire les
risques tout garantissant une couverture adéquate et une formation croisée.
7 Notes
Alors qu’un administrateur Power Platform peut gérer le service Power BI, l’inverse
n’est pas vrai. Une personne affectée au rôle administrateur Fabric ne peut pas
gérer d’autres applications dans Power Platform.
Check-list : lors de la détermination des personnes qui seront administrateurs Power BI,
les décisions et actions clés incluent :
" Identifier qui est actuellement affecté au rôle Administrateur : vérifiez qui est
affecté à un des rôles Administration Power BI : Administration Fabric,
Administrateur Power Platform et Administrateur d’entreprise.
" Déterminer qui doit gérer le service Power BI : s’il y a trop d’administrateurs
Power BI, créez un plan pour en réduire le nombre total. S’il existe des utilisateurs
affectés en tant qu’administrateurs Power BI qui ne sont pas bien adaptés à un rôle
avec privilèges élevés, créez un plan pour résoudre le problème.
" Clarifier les rôles et les responsabilités : pour chaque administrateur Power BI,
vérifiez que ses responsabilités sont clairement établies. Vérifiez qu’un entraînement
croisé approprié s’est produit.
Votre culture des données. L’objectif est d’encourager une culture des données qui
fait comprendre que la sécurité et la protection des données sont de la
responsabilité de chacun.
Vos stratégies de gestion et de propriété des contenus. Le niveau de gestion
centralisée et décentralisée des contenus affecte considérablement la façon dont la
sécurité est gérée.
Vos stratégies d’étendue de distribution des contenus. Le nombre de personnes
qui verront le contenu va influencer la façon dont la sécurité doit être gérée pour
le contenu.
Vos exigences de conformité aux réglementations mondiales,
nationales/régionales et sectorielles.
Voici quelques exemples de stratégies générales de sécurité. Vous pouvez choisir de
prendre des décisions qui ont un impact sur l’ensemble de l’organisation.
Exigences pour la sécurité au niveau des lignes : vous pouvez utiliser la sécurité
au niveau des lignes (RLS) pour restreindre l’accès aux données pour des
utilisateurs spécifiques. Cela signifie que différents utilisateurs verront des données
différentes en accédant au même rapport. Un modèle sémantique (précédemment
appelé « jeu de données ») Power BI ou une source de données (lors de l’utilisation
de l’authentification unique) peut appliquer la sécurité au niveau des lignes. Pour
plus d’informations, consultez la section Appliquer la sécurité des données en
fonction de l’identité du consommateur dans l’article Planifier la sécurité des
consommateurs de rapport.
Découvrabilité des données : déterminez dans quelle mesure la découvrabilité des
données doit être encouragée dans Power BI. La découvrabilité affecte qui peut
trouver des modèles sémantiques ou des datamarts dans le hub de données, et si
les créateurs de contenu sont autorisés à demander l’accès à ces éléments (en
utilisant le workflow Demander l’accès). Pour plus d’informations, consultez le
scénario d’utilisation Décisionnel en libre-service géré et personnalisable.
Données autorisées à être stockées dans Power BI : déterminez s’il existe certains
types de données qui ne doivent pas être stockés dans Power BI. Par exemple, vous
pouvez spécifier que certains types d’informations sensibles, comme les numéros
de compte bancaire ou les numéros de sécurité sociale, ne sont pas autorisés à
être stockés dans un modèle sémantique. Pour plus d’informations, consultez
l’article Protection des informations et prévention de la perte de données.
Réseau privé pour le trafic entrant : déterminez s’il existe des exigences pour
l’isolation réseau en utilisant des points de terminaison privés pour accéder à
Power BI. Quand vous utilisez Azure Private Link, le trafic de données est envoyé en
utilisant le backbone du réseau privé Microsoft au lieu de passer par Internet.
Réseau privé pour le trafic sortant : déterminez si davantage de sécurité est
nécessaire lors de la connexion à des sources de données. La passerelle de
données de réseau virtuel (VNet) permet une connectivité sortante sécurisée de
Power BI vers des sources de données au sein d’un réseau virtuel. Vous pouvez
utiliser une passerelle de données de réseau virtuel Azure quand du contenu est
stocké dans un espace de travail Premium.
) Important
Conseil
Consultez les autres articles de cette série pour obtenir d’autres suggestions
relatives à la planification de la sécurité pour les consommateurs de rapport et les
créateurs de contenu.
Il sera sans doute difficile de trouver le bon équilibre entre l’accès sans restriction et
l’accès trop restrictif (qui frustre les utilisateurs). La meilleure stratégie consiste à vous
rapprocher de votre administrateur Microsoft Entra pour bien comprendre ce qui est
actuellement configuré. Essayez de rester réactif aux besoins de l’entreprise tout en
gardant à l’esprit les restrictions nécessaires.
Conseil
) Important
Le Livre blanc Microsoft Entra B2B est la meilleure ressource pour découvrir les
stratégies de prise en charge des utilisateurs externes. Cet article se limite à décrire
les considérations les plus importantes qui sont pertinentes pour la planification.
Il existe des avantages quand un utilisateur externe provient d’une autre organisation où
Microsoft Entra ID est également configuré.
) Important
Cet article fait parfois référence à Power BI Premium ou à ses abonnements de
capacité (SKU P). Sachez que Microsoft regroupe actuellement des options d’achat
et met hors service les SKU Power BI Premium par capacité. Les clients nouveaux et
existants doivent plutôt envisager l’achat d’abonnements de capacité Fabric (SKU
F).
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Paramètres importants
L’activation et la gestion de l’accès utilisateur externe présentent deux aspects :
Conseil
Toutes les options de sécurité du service Power BI ne prennent pas en charge le
déclenchement d’une invitation ad hoc. Pour cette raison, il existe une expérience
utilisateur incohérente lors de l’attribution d’autorisations (par exemple, la sécurité
de l’espace de travail et les autorisations accordées par élément par rapport aux
autorisations d’application). Dans la mesure du possible, nous vous recommandons
d’utiliser l’approche d’invitation planifiée, car elle aboutit à une expérience
utilisateur cohérente.
ID du locataire du client
Chaque locataire Microsoft Entra dispose d’un identificateur global unique (GUID) connu
sous le nom d’ID de locataire. Dans Power BI, il s’agit de l’ID de locataire client (CTID). Le
CTID permet au service Power BI de localiser du contenu du point de vue d’un autre
locataire de l’organisation. Vous devez ajouter le CTID aux URL lors du partage de
contenu avec un utilisateur externe.
Quand vous devez fournir le CTID pour votre organisation à un utilisateur externe, vous
pouvez le trouver dans le service Power BI en ouvrant la boîte de dialogue À propos de
Power BI. Il est disponible dans le menu Aide et support (?) qui se trouve en haut à
droite du service Power BI. Le CTID est ajouté à la fin de l’URL du locataire.
Personnalisation de l’organisation
Quand un accès d’invités externes se produit fréquemment dans votre organisation, il
est judicieux d’utiliser une marque personnalisée. Il permet aux utilisateurs d’identifier le
locataire de l’organisation auquel ils accèdent. Les éléments de personnalisation incluent
un logo, une image de couverture et une couleur de thème.
Il existe plusieurs aspects de sécurité pour que le partage de modèles sémantiques sur
place fonctionne.
) Important
En règle générale, le terme consommateur est utilisé pour désigner les utilisateurs
en visualisation uniquement qui consomment du contenu produit par d’autres
membres de l’organisation. Toutefois, avec le partage de modèles sémantiques sur
place, il existe un producteur du modèle sémantique et un consommateur du
modèle sémantique. Dans cette situation, le consommateur du modèle sémantique
est généralement un créateur de contenu dans l’autre organisation.
Si la sécurité au niveau des lignes est spécifiée pour votre modèle sémantique, elle est
respectée pour les utilisateurs externes. Pour plus d’informations, consultez la section
Appliquer la sécurité des données en fonction de l’identité du consommateur dans l’article
Planifier la sécurité des consommateurs de rapport.
" Identifier les exigences pour les utilisateurs externes dans Power BI : déterminez
les cas d’usage pour la collaboration externe. Clarifiez les scénarios d’utilisation de
Power BI avec Microsoft Entra B2B. Déterminez si la collaboration avec des
utilisateurs externes est un événement courant ou rare.
" Déterminez les paramètres Microsoft Entra actuels : rapprochez-vous de votre
administrateur Microsoft Entra pour déterminer comment la collaboration externe
est actuellement configurée. Déterminez quel sera l’impact sur l’utilisation de B2B
avec Power BI.
" Décidez comment inviter les utilisateurs externes : rapprochez-vous de vos
administrateurs Microsoft Entra pour décider de la façon dont les comptes Invité
seront créés dans Microsoft Entra ID. Décidez si les invitations ad hoc seront
autorisées. Décidez dans quelle mesure l’approche d’invitation planifiée sera
utilisée. Vérifiez que l’ensemble du processus est compris et documenté.
" Créer et publier des directives pour les utilisateurs sur les utilisateurs externes :
créez une documentation pour vos créateurs de contenu qui va les guider sur la
façon de partager du contenu avec des utilisateurs externes (en particulier quand le
processus d’invitation planifiée est nécessaire). Incluez des informations sur les
limitations auxquelles les utilisateurs externes seront confrontés s’ils ont l’intention
de permettre à des utilisateurs externes de modifier et de gérer du contenu. Publiez
ces informations sur votre portail centralisé et vos supports de formation.
" Déterminer comment gérer le partage de données externes : déterminez si le
partage de données externe doit être autorisé et s’il est limité à un ensemble
spécifique de créateurs de contenu approuvés. Définissez le paramètre du locataire
Autoriser les utilisateurs invités à travailler avec des modèles sémantiques partagés
dans leurs propres locataires et le paramètre Autoriser des utilisateurs spécifiques à
activer le partage de données externes pour les aligner sur votre décision. Fournissez
des informations sur le partage de données externes pour vos créateurs de modèles
sémantiques. Publiez ces informations sur votre portail centralisé et vos supports de
formation.
" Déterminer comment gérer les licences Power BI pour les utilisateurs externes : si
l’utilisateur invité ne dispose pas d’une licence Power BI existante, décidez du
processus pour lui attribuer une licence. Vérifiez que le processus est documenté.
" Incluez votre CTID dans la documentation utilisateur appropriée : Enregistrez
l’URL qui ajoute l’ID de locataire (CTID) dans la documentation utilisateur. Incluez
des exemples pour les créateurs et les consommateurs sur l’utilisation des URL avec
ajout du CTID.
" Configurer la personnalisation dans Power BI : dans le portail d’administration,
configurez une personnalisation pour aider les utilisateurs externes à identifier le
locataire de l’organisation auquel ils accèdent.
" Vérifier ou mettre à jour les paramètres du locataire : vérifiez comment les
paramètres du locataire sont configurés actuellement dans le service Power BI.
Mettez-les à jour si nécessaire en fonction des décisions prises pour la gestion de
l’accès des utilisateurs externes.
Il peut y avoir un risque associé aux fichiers Power BI Desktop et aux classeurs Excel, car
ils peuvent contenir des données importées. Ces données peuvent inclure des
informations sur les clients, des informations d’identification personnelle, des
informations propriétaires, ou des données soumises à des exigences réglementaires ou
de conformité.
Conseil
Il est facile de négliger les fichiers qui sont stockés en dehors du service Power BI.
Nous vous recommandons de les prendre en compte quand vous planifiez la
sécurité.
Voici quelques types de fichiers qui seront sans doute impliqués dans une
implémentation de Power BI.
Fichiers sources
Fichiers Power BI Desktop : les fichiers d’origine (.pbix) pour le contenu publié
dans le service Power BI. Quand le fichier contient un modèle de données, il
peut contenir des données importées.
Classeurs Excel : les classeurs Excel (.xlsx) incluent parfois des connexions à des
modèles sémantiques dans le service Power BI. Ils peuvent également contenir
des données exportées. Il s’agit même parfois de classeurs d’origine pour le
contenu publié sur le service Power BI (en tant qu’élément de classeur dans un
espace de travail).
Fichiers de rapport paginés : les fichiers de rapport d’origine (.rdl) pour le
contenu publié sur le service Power BI.
Fichiers de données sources : fichiers plats (par exemple .csv ou .txt) ou
classeurs Excel contenant des données sources qui ont été importées dans un
modèle Power BI.
Fichiers exportés et autres fichiers
Fichiers Power BI Desktop : fichiers .pbix qui ont été téléchargés à partir du
service Power BI.
Fichiers PowerPoint et PDF : les présentations PowerPoint (.pptx) et les
documents PDF téléchargés à partir du service Power BI.
Fichiers Excel et CSV : données exportées à partir de rapports dans le service
Power BI.
Fichiers de rapport paginés : fichiers exportés à partir de rapports paginés dans
le service Power BI. Excel, PDF et PowerPoint sont pris en charge. D’autres
formats de fichiers d’exportation existent également pour les rapports paginés,
y compris Word, XML ou archive web. Lors de l’utilisation de l’API d’exportation
de fichiers vers des rapports, les formats d’image sont également pris en
charge.
Fichiers d’e-mail : Images et pièces jointes d’e-mail provenant des
abonnements.
Vous devez prendre des décisions sur les emplacements où les utilisateurs peuvent ou
non stocker des fichiers. En règle générale, ce processus implique la création d’une
stratégie de gouvernance à laquelle les utilisateurs peuvent se référer. Les
emplacements des fichiers sources et des fichiers exportés doivent être sécurisés pour
garantir un accès approprié par les utilisateurs autorisés.
Stocker des fichiers dans une bibliothèque partagée : Utilisez un site Teams, une
bibliothèque SharePoint ou OneDrive pour une bibliothèque partagée
professionnelle ou scolaire. Évitez d’utiliser des bibliothèques et des lecteurs
personnels. Vérifiez que l’emplacement de stockage est sauvegardé. Vérifiez
également que le contrôle de version est activé pour l’emplacement de stockage
pour qu’il soit possible de revenir à une version précédente.
Utilisez le service Power BI autant que possible : dans la mesure du possible,
utilisez le service Power BI pour partager et distribuer du contenu. De cette façon, il
y a toujours un audit complet des accès. Le stockage et le partage de fichiers sur
un système de fichiers doivent être réservés au petit nombre d’utilisateurs qui
collaborent sur du contenu.
N’utilisez pas l’e-mail : découragez l’utilisation de l’e-mail pour partager des
fichiers. Quand une personne envoie par e-mail un classeur Excel ou un fichier
Power BI Desktop à 10 utilisateurs, il en résulte 10 copies du fichier. Il y a toujours
le risque d’inclure une adresse e-mail incorrecte (interne ou externe). En outre, le
risque est plus grand que le fichier soit transféré à quelqu’un d’autre. (Pour réduire
ce risque, collaborez avec votre administrateur Exchange Online afin
d’implémenter des règles pour bloquer les pièces jointes en fonction de conditions
de taille ou de type d’extension de fichier. D’autres stratégies de protection contre
la perte de données pour Power BI sont décrites dans les articles Protection des
informations et prévention de la perte de données.)
Utilisez des fichiers de modèle : parfois, il est légitime de partager un fichier
Power BI Desktop avec quelqu’un d’autre. Dans ce cas, envisagez de créer et de
partager un fichier de modèle Power BI Desktop (.pbit). Un fichier de modèle
contient seulement des métadonnées, de sorte qu’il est d’une taille inférieure à
celle du fichier source. Cette technique oblige le destinataire à entrer les
informations d’identification de la source de données pour actualiser les données
du modèle.
Il existe des paramètres de locataire dans le portail d’administration qui contrôlent les
formats d’exportation que les utilisateurs sont autorisés à utiliser lors de l’exportation à
partir du service Power BI. Il est important de passer en revue et de définir ces
paramètres. C’est une activité complémentaire à la planification des emplacements de
fichiers qui doivent être utilisés pour les fichiers exportés.
Conseil
" Identifier où les fichiers doivent se trouver : décidez où les fichiers doivent être
stockés. Déterminez s’il existe des emplacements spécifiques qui ne doivent pas
être utilisés.
" Créer et publier une documentation sur les emplacements des fichiers : créez une
documentation utilisateur qui clarifie les responsabilités pour la gestion et la
sécurisation des fichiers. Elle doit également décrire les emplacements où les
fichiers doivent (ou non) être stockés. Publiez ces informations sur votre portail
centralisé et vos supports de formation.
" Définir les paramètres du locataire pour les exportations : passez en revue et
définissez chaque paramètre du locataire lié aux formats d’exportation que vous
voulez prendre en charge.
Conseil
ノ Agrandir le tableau
Cas d’usage Description Exemple de nom de
groupe
• Propriétaires de
sources de données
de passerelle dans
Power BI
• Utilisateurs de
source de données
de la passerelle
Power BI
Gérer les capacités Inclut les utilisateurs autorisés à gérer une • Contributeurs de
Premium capacité Premium. Il y a parfois plusieurs capacité Power BI
groupes de ce type quand il existe plusieurs
capacités ou quand des équipes décentralisées
gèrent les capacités.
• Contributeurs
d’espaces de travail
Power BI
• Viewers d’espaces
de travail Power BI
• Viewers
d’applications Power
BI
Cas d’usage Description Exemple de nom de
groupe
Créateurs d’espaces de travail Power BI : Utile quand vous devez limiter les
personnes autorisées à créer des espaces de travail. Il est utilisé pour configurer le
paramètre de locataire Créer des espaces de travail.
Experts en matière de certification Power BI : Utile pour spécifier qui est autorisé
à utiliser l’approbation certifiée pour le contenu. Il est utilisé pour configurer le
paramètre de locataire Certification.
Créateurs de contenu Power BI approuvé : Utile quand vous exigez une
approbation, une formation ou un accusé de réception de stratégie pour
l’installation de Power BI Desktop, ou pour obtenir une licence Power BI Pro ou
PPU. Il est utilisé par les paramètres de locataire qui encouragent les
fonctionnalités de création de contenu, comme Autoriser les connexions
DirectQuery aux modèles sémantiques Power BI, Envoyer des applications aux
utilisateurs finaux, Autoriser les points de terminaison XMLA, etc.
Utilisateurs d’outils externes Power BI : Utile quand vous autorisez l’utilisation
d’outils externes pour un groupe sélectionné d’utilisateurs. Il est utilisé par la
stratégie de groupe, ou quand les installations ou les demandes de logiciels
doivent être contrôlées avec soin.
Développeurs personnalisés Power BI : Utile quand vous devez contrôler qui est
autorisé à incorporer du contenu dans d’autres applications en dehors de Power BI.
Il est utilisé pour configurer le paramètre de locataire Incorporer du contenu dans
les applications.
Publication publique Power BI : Utile quand vous devez limiter les personnes
autorisées à publier des données publiquement. Il est utilisé pour configurer le
paramètre de locataire Publier sur le web.
Partage Power BI avec l’ensemble de l’organisation : Utile quand vous devez
restreindre les personnes autorisées à partager un lien avec tous les membres de
l’organisation. Il est utilisé pour configurer le paramètre de locataire Autoriser les
liens partageables pour accorder l’accès à tous les membres de votre organisation.
Partage de données externes Power BI : utile quand vous devez autoriser certains
utilisateurs à partager des modèles sémantiques avec des utilisateurs externes. Il
est utilisé pour configurer le paramètre de locataire Autoriser des utilisateurs
spécifiques à activer le locataire de partage de données externe.
Accès des utilisateurs invités Power BI avec licence : Utile quand vous devez
regrouper des utilisateurs externes approuvés auxquels une licence est octroyée
par votre organisation. Il est utilisé pour configurer le paramètre de locataire
Autoriser les utilisateurs invités Microsoft Entra à accéder à Power BI.
Accès BYOL des utilisateurs invités Power BI : Utile quand vous devez regrouper
des utilisateurs externes approuvés qui apportent leur propre licence (BYOL)
depuis l’organisation à laquelle ils appartiennent. Il est utilisé pour configurer le
paramètre de locataire Autoriser les utilisateurs invités Microsoft Entra à accéder à
Power BI.
Conseil
Type de groupe
Vous pouvez créer différents types de groupes.
Quand vous demandez un nouveau groupe ou que vous avez l’intention d’utiliser un
groupe existant, il est important de connaître son type. Le type de groupe peut
déterminer comment il est utilisé et géré.
Autorisations Power BI : tous les types de groupes ne sont pas pris en charge pour
chaque type d’opération de sécurité. Les groupes de sécurité (y compris les
groupes de sécurité à extension messagerie) offrent la couverture la plus étendue
quand il s’agit de définir des options de sécurité Power BI. La documentation
Microsoft recommande généralement les groupes Microsoft 365. Cependant, dans
le cas de Power BI, ils n’ont pas autant de capacités que les groupes de sécurité.
Pour plus d’informations sur les autorisations Power BI, consultez les articles
suivants de cette série sur la planification de la sécurité.
Paramètres du locataire Power BI : Vous pouvez utiliser des groupes de sécurité (y
compris des groupes de sécurité à extension messagerie) seulement quand vous
autorisez ou interdisez aux groupes d’utilisateurs de travailler avec des paramètres
du locataire Power BI.
Fonctionnalités Microsoft Entra avancées : certains types de fonctionnalités
avancées ne sont pas pris en charge pour tous les types de groupes. Par exemple,
vous pouvez gérer l’appartenance à un groupe dynamiquement en fonction d’un
attribut dans Microsoft Entra ID (comme le département pour un utilisateur ou
même un attribut personnalisé). Seuls les groupes Microsoft 365 et les groupes de
sécurité prennent en charge les appartenances dynamiques aux groupes. Si vous
voulez imbriquer un groupe au sein d’un groupe, notez que les groupes
Microsoft 365 ne prennent pas en charge cette fonctionnalité.
Géré différemment : votre demande de création ou de gestion d’un groupe peut
être routée vers un autre administrateur en fonction du type de groupe (les
groupes de sécurité à extension messagerie et les groupes de distribution sont
gérés dans Exchange). Par conséquent, votre processus interne diffère en fonction
du type de groupe.
Préfixe : utilisé pour regrouper tous les groupes Power BI. Quand le groupe est
utilisé pour plusieurs outils analytiques, votre préfixe peut être simplement BI, au
lieu de Power BI. Dans ce cas, le texte qui décrit l’objectif sera plus générique afin
d’être associé à plusieurs outils analytiques.
Objectif : l’objectif va varier. Il peut s’agir d’un rôle d’espace de travail,
d’autorisations d’application, d’autorisations au niveau d’un élément, de sécurité
au niveau des lignes ou d’un autre objectif. Parfois, plusieurs objectifs peuvent être
atteints avec un seul groupe.
Rubrique/Étendue/Département : utilisé pour clarifier à qui le groupe s’applique.
Il décrit souvent l’appartenance au groupe. Il peut également faire référence à la
personne qui gère le groupe. Parfois, un même groupe peut être utilisé pour
plusieurs objectifs. Par exemple, une collection d’espaces de travail pour la finance
peut être gérée avec un seul groupe.
Environnement : facultatif. Utile pour différencier entre le développement, le test
et la production.
Conseil
Les groupes existants basés sur l’organigramme ne fonctionnent pas toujours bien
pour les objectifs de Power BI. Utilisez des groupes existants quand ils répondent à
vos besoins. Cependant, soyez prêt à créer des groupes spécifiques à Power BI en
cas de besoin.
Check-list : lors de la création de votre stratégie d’utilisation des groupes, les décisions
et actions clés incluent :
" Décider de la stratégie d’utilisation des groupes : Déterminez les cas d’usage et les
objectifs dont vous aurez besoin pour utiliser des groupes. Précisez bien quand la
sécurité doit être appliquée avec des comptes d’utilisateurs ou quand un groupe
est nécessaire ou préférable.
" Créer une convention de nommage pour les groupes spécifiques à Power BI :
vérifiez qu’une convention de nommage cohérente est utilisée pour les groupes qui
prennent en charge la communication, les fonctionnalités, l’administration ou la
sécurité de Power BI.
" Décider qui est autorisé à créer des groupes : indiquez clairement si la création des
groupes doit nécessairement passer par le département informatique, ou si
certaines personnes (comme des membres satellites du Centre d’excellence)
peuvent être autorisés à créer des groupes pour leur unité opérationnelle.
" Créer un processus pour demander un nouveau groupe : créez un formulaire pour
permettre aux utilisateurs de demander la création d’un nouveau groupe. Vérifiez
qu’un processus est en place pour répondre rapidement aux nouvelles demandes.
Gardez à l’esprit que si les demandes sont retardées, les utilisateurs peuvent être
tentés de commencer à attribuer des autorisations à des comptes individuels.
" Déterminer quand la gestion de groupe décentralisée est autorisée : Pour les
groupes qui s’appliquent à une équipe spécifique, déterminez quand il est
acceptable pour un propriétaire de groupe (en dehors du département
informatique) de gérer les membres du groupe.
" Décider si l’appartenance à un groupe juste-à-temps sera utilisée : déterminez si
Privileged Identity Management sera utile. Si c’est le cas, déterminez les groupes
pour lesquels il peut être utilisé (par exemple le groupe Administrateurs Power BI).
" Passer en revue les groupes qui existent actuellement : déterminez quels groupes
existants peuvent être utilisés et quels groupes doivent être créés.
" Passer en revue chaque paramètre de locataire : pour chaque paramètre de
locataire, déterminez s’il sera autorisé ou interdit pour un ensemble spécifique
d’utilisateurs. Déterminez si un nouveau groupe doit être créé pour configurer le
paramètre de locataire.
" Créer et publier des conseils pour les utilisateurs sur les groupes : incluez une
documentation pour les créateurs de contenu qui inclut les exigences ou les
préférences pour l’utilisation de groupes. Vérifiez qu’ils savent ce qu’il faut spécifier
quand ils demandent un nouveau groupe. Publiez ces informations sur votre portail
centralisé et vos supports de formation.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment fournir du contenu de façon
sécurisée aux consommateurs de rapports en lecture seule.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur la planification de la sécurité décrit les stratégies pour les consommateurs
en lecture seule. L’accent est mis sur les autorisations des viewers pour les rapports et
les applications, et sur la façon de déployer la sécurité des données. Il est
principalement destiné à :
La série d’articles est destinée à approfondir le contenu du Livre blanc sur la sécurité de
Power BI. Bien que le livre blanc Sécurité dans Power BI se concentre sur des sujets
techniques clés tels que l’authentification, la résidence des données et l’isolement
réseau, l’objectif principal de la série est de vous fournir des considérations et décisions
pour vous aider à planifier la sécurité et la confidentialité.
Lorsque vous échangez parlez avec d’autres personnes, vous devez déterminer si elles
utilisent le terme partage de manière générale ou littérale. L’utilisation du terme partage
peut s’interpréter de deux façons.
Le terme partage est souvent utilisé de manière générale pour désigner le partage
de contenus avec des collaborateurs. Cet article décrit les différentes techniques
qui permettent de fournir des contenus en lecture seule.
Le partage est également une fonctionnalité spécifique de Power BI. Cette
fonctionnalité permet d’accorder l’accès à un seul élément à un utilisateur ou un
groupe. Cet article décrit également le partage de liens et le partage d’accès direct.
) Important
afficher l’élément Power BI qui contient les visualisations (par exemple, un rapport
ou un tableau de bord) et à
Lisez les données sous-jacentes (modèle sémantique, précédemment appelé jeu
de données) ou autre source.
Conseil
Lorsque vous examinerez les paramètres de sécurité d’un élément, vous constaterez
sans doute que ses autorisations sont soit :
Dans la capture d’écran suivante, les autorisations d’accès direct sont affichées pour un
rapport. Dans cette instance, les rôles « Admins » (Administrateurs) et « Members »
(Membres) de l’espace de travail sont chacun attribués à un groupe. Ces rôles sont
affichés pour un rapport, car l’accès au niveau du rapport est hérité de l’espace de
travail. Un utilisateur dispose également d’autorisations de lecture appliquées
directement au rapport.
La stratégie que vous choisissez pour les consommateurs en lecture seule peut être
différente. Elle doit être basée sur la solution individuelle, les préférences de qui gère la
solution ou les besoins du consommateur. La suite de cette section décrit quand il
convient d’utiliser chacune des techniques disponibles.
Liste de vérification : voici les décisions et les actions clés pour créer une stratégie liée à
la fourniture de contenus aux consommateurs en lecture seule :
7 Notes
Dans cet article, toutes les références à une application renvoient à une application
Power BI. Il s’agit d’un concept différent de celui de Power Apps. Il s’agit également
d’un concept différent de celui des applications mobiles Power BI. Cette section se
concentre mis sur les applications d’organisation plutôt que sur les applications
modèles.
Vous pouvez créer une application pour chaque espace de travail. Vous disposez ainsi
d’un moyen formel pour distribuer une partie ou l’intégralité des contenus de l’espace
de travail. Les applications sont un moyen efficace de distribuer des contenus à grande
échelle au sein d’une organisation, en particulier si vous ne connaissez pas ou ne
collaborez pas étroitement avec certains utilisateurs.
Conseil
Pour savoir comment utiliser une application Power BI pour distribuer des contenus
à grande échelle, consultez le scénario d’utilisation du décisionnel d’entreprise.
Nous recommandons aux créateurs de contenus à distribuer d’opter de préférence
pour la création d’une application.
Vous gérez les autorisations d’application séparément des rôles de l’espace de travail. La
séparation des autorisations présente deux avantages. Elle encourage :
L’octroi d’un accès à l’espace de travail aux créateurs de contenus. Cela comprend
les utilisateurs qui collaborent activement aux contenus, comme les créateurs de
modèle sémantique, les créateurs de rapports et les testeurs.
L’octroi d’autorisations d’application aux consommateurs. Contrairement aux
autorisations d’espace de travail, les autorisations d’application sont toujours en
lecture seule (ou inexistantes).
Tous les utilisateurs disposant d’un accès à l’espace de travail peuvent automatiquement
afficher l’application (lorsqu’une application Power BI a été publiée pour l’espace de
travail). En raison de ce comportement, vous pouvez théoriquement considérer les rôles
de l’espace de travail comme hérités par chaque audience d’application. Certains
utilisateurs disposant d’un accès à l’espace de travail peuvent également mettre à jour
l’application Power BI, en fonction du rôle de l’espace de travail qui leur est attribué.
Conseil
Pour plus d’informations sur les rôles de l’espace de travail, consultez l’article sur la
planification de la sécurité du créateur de contenus.
Vous souhaitez que les utilisateurs puissent afficher uniquement certains éléments
réservés à l’audience (et non tous les éléments de l’espace de travail sous-jacent).
Vous souhaitez gérer les autorisations d’application en lecture seule séparément
de celles de l’espace de travail.
Vous souhaitez que la gestion des autorisations pour les utilisateurs en lecture
seule soit plus simple que celle des autorisations par élément.
Vous souhaitez vous assurer que la sécurité au niveau des lignes (SNL) est
déployée pour les consommateurs (lorsqu’ils disposent d’une autorisation de
lecture seule sur le modèle sémantique sous-jacent).
Vous souhaitez vous assurer que les consommateurs ne peuvent pas afficher les
nouveaux rapports ni les rapports modifiés tant que l’application n’a pas été
republiée.
S’il est vrai que les modifications apportées aux rapports et aux tableaux de bord ne
sont pas visibles par les utilisateurs de l’application tant que l’application n’a pas été
republiée, deux cas de figure imposent la prudence.
Audience d’application
Chaque espace de travail du service Power BI ne peut compter qu’une seule application
Power BI. Toutefois, vous pouvez créer une ou plusieurs audiences au sein de
l’application. Considérons le scénario suivant.
Cette capacité à combiner les contenus et les audiences présente les avantages suivants.
Certains rapports peuvent être consultés par plusieurs audiences. Par conséquent,
créer plusieurs audiences permet de ne plus avoir à dupliquer des contenus dans
différents espaces de travail.
Certains rapports ne doivent être disponible que pour une seule audience. Ainsi,
les contenus qui lui sont réservés peuvent se trouver dans le même espace de
travail que d’autres contenus connexes.
La capture d’écran suivante représente une application avec deux audiences : Sales
Leadership (Direction commerciale) et Sales Reps (Représentants commerciaux). Le
volet Manage Audience Access (Gérer l’accès à l’audience) permet à deux groupes de
sécurité d’accéder au groupe d’audience Sales Leadership (Direction commerciale), à
savoir Sales Leadership-North America (Direction commerciale Amérique du Nord) et
Sales Leadership-Europe (Direction commerciale Europe). Le rapport Gross Margin
Analysis (Analyse de la marge brute) visible dans la capture d’écran du groupe
d’audience Sales Leadership (Direction commerciale) ne peut pas être consulté par le
groupe d’audience Sales Reps (Représentants commerciaux).
7 Notes
Le terme groupe d’audience est parfois utilisé. Il ne s’agit pas d’une référence
directe à l’utilisation des groupes de sécurité. Il comprend les membres de
l’audience cible pour lesquels la collection de contenus est visible dans l’application
Power BI. Même si vous pouvez affecter des utilisateurs individuels à une audience,
la meilleure pratique consiste à affecter des groupes de sécurité, des groupes
Microsoft 365 ou des groupes de distribution dès que cela est possible. Pour plus
d’informations, consultez la stratégie d’utilisation des groupes dans l’article
Planification de la sécurité au niveau du locataire.
Lorsque vous gérez les autorisations d’une application, vous pouvez afficher les
membres de chaque audience dans la page Accès direct. Vous pouvez également
afficher les utilisateurs disposant d’un rôle d’espace de travail sous l’audience Tous. Vous
ne pouvez pas mettre à jour les autorisations d’application depuis la page Accès direct.
Pour cela, vous devez republier l’application. Vous pouvez toutefois mettre à jour les
autorisations d’application depuis la page En attente lorsque des demandes d’accès ont
été ouvertes pour l’application.
Conseil
Le principal cas d’usage concernant l’utilisation des audiences d’application
consiste à définir des autorisations spécifiques pour différents ensembles
d’utilisateurs. Toutefois, vous pouvez faire preuve d’un peu de créativité pour
l’utilisation des audiences. Un utilisateur peut être membre de plusieurs audiences.
Chaque audience est présentée aux viewers de l’application sous la forme d’un
ensemble secondaire de menus. Par exemple, vous pouvez créer une audience
nommée Pour démarrer qui contient des informations pour utiliser l’application,
savoir qui contacter, transmettre ses commentaires et obtenir de l’aide. Vous
pouvez également créer une audience nommée Définition des KPI qui inclut un
dictionnaire de données. Ce type d’informations aide les nouveaux utilisateurs et
améliore les efforts d’adoption des solutions.
Accorder l’accès à. Pour chaque audience, vous pouvez accorder l’accès à des
utilisateurs et des groupes individuels. Vous pouvez publier l’application sur
l’ensemble de l’organisation lorsqu’elle est activée par le paramètre de locataire
Publier les applications sur l’ensemble de l’organisation et que l’application n’est pas
installée automatiquement. Dans la mesure du possible, nous recommandons
d’affecter des groupes à des audiences, car l’ajout ou la suppression d’utilisateurs
impose de republier l’application. Tout utilisateur disposant d’un accès à l’espace
de travail a automatiquement l’autorisation d’afficher ou de mettre à jour
l’application en fonction de son rôle d’espace de travail.
Autorisations de modèle sémantique : Vous pouvez accorder deux types
d’autorisations de modèle sémantique lors de la publication d’une application :
Repartage du modèle sémantique : lorsque cette option est activée, les
utilisateurs de l’application bénéficient d’une autorisation de repartage avec
d’autres utilisateurs sur le ou les modèles sémantiques sous-jacents. Il est
logique d’activer cette option lorsque le ou les modèles sémantiques sous-
jacents peuvent être facilement partagés. Nous recommandons d’obtenir
l’approbation du ou des propriétaires du modèle sémantique avant d’accorder
une autorisation de repartage à une audience d’application.
Build du modèle sémantique : lorsque cette option est activée, les utilisateurs
de l’application bénéficient de l’autorisation de génération pour les modèles
sémantiques. L’autorisation de génération permet aux utilisateurs de créer de
nouveaux rapports, d’exporter des données sous-jacentes à partir des rapports,
etc. Nous recommandons d’obtenir l’approbation du ou des propriétaires du
modèle sémantique avant d’accorder une autorisation de génération à une
audience d’application.
Conseil
Pour savoir quand utiliser des espaces de travail de données et des espaces de
travail de rapports distincts, consultez l’article Planification au niveau de l’espace
de travail.
Pour installer une application, vous pouvez aussi adresser une transmission de type push
aux consommateurs d’applications. Cela entraîne la préinstallation de l’application, de
sorte qu’elle apparaît automatiquement dans la page Applications du service Power BI.
Cette approche est pratique pour les consommateurs, car ils n’ont pas besoin de
rechercher ni d’installer l’application. Toutefois, les applications préinstallées peuvent
gêner les utilisateurs submergés par un trop grand nombre d’applications qui ne sont
pas toujours pertinentes.
Le paramètre de locataire Effectuer une transmission de type push des applications pour
les utilisateurs finaux identifie les personnes autorisées à installer automatiquement des
applications. Nous recommandons d’utiliser cette fonctionnalité pour son aspect
pratique. Toutefois, nous recommandons d’indiquer aux créateurs de contenus quand ils
peuvent l’utiliser, afin d’éviter tout abus.
Conseil
Liste de vérification : voici les décisions et les actions clés pour créer une stratégie liée à
l’utilisation des applications par les viewers de contenus :
Vous pouvez attribuer le rôle Viewer de l’espace de travail aux consommateurs. Il peut
être judicieux pour les petites équipes et les équipes informelles qui travaillent en étroite
collaboration d’autoriser les consommateurs à accéder directement aux contenus d’un
espace de travail.
Organisez les contenus dans chaque espace de travail afin que les consommateurs
de rapports localisent facilement les éléments et qu’ils soient cohérents en termes
de sécurité. L’organisation de l’espace de travail par domaine ou projet fonctionne
généralement bien.
Séparez les contenus de développement et de test des contenus de production
afin que les viewers ne puissent pas accéder aux éléments de travail en cours.
Utilisez les applications (ou des autorisations par élément, le cas échéant) lorsque
vous prévoyez de traiter de nombreuses demandes d’accès. Il n’existe pas de
workflow de demande d’accès pour les espaces de travail.
Liste de vérification : voici les décisions et les actions clés pour créer une stratégie liée à
l’utilisation des espaces de travail par les viewers de contenus :
Il est pertinent d’utiliser les autorisations par élément dans les cas suivants :
Vous souhaitez octroyer un accès en lecture seule à un élément (rapport ou
tableau de bord).
Vous ne souhaitez pas que le consommateur puisse consulter tous les contenus
publiés dans un espace de travail.
Vous ne souhaitez pas que le consommateur puisse consulter tous les contenus
publiés dans une audience d’application.
Utilisez les autorisations par élément avec parcimonie, car le partage n’accorde
l’autorisation de lecture qu’à un seul élément. D’une certaine façon, vous pouvez
considérer que les autorisations par élément viennent en remplacement des rôles de
l’espace de travail ou des autorisations d’application.
Conseil
Le partage de nombreux éléments avec autorisations par élément peut être fastidieux et
sujet aux erreurs, en particulier lorsque le partage concerne des utilisateurs individuels
et non des groupes. Examinez ce scénario : vous avez partagé 40 rapports avec vos
collaborateurs en utilisant leurs comptes d’utilisateur individuels. Quand un
collaborateur est transféré dans un autre service, vous devez révoquer son accès. Cela
implique de modifier les autorisations pour les 40 rapports.
) Important
L’utilisation des autorisations par élément pour les rapports et les tableaux de bord peut
être pertinente avec des scénarios informels, lorsque les contenus sont partagés avec un
petit nombre d’utilisateurs. Il est judicieux de former les utilisateurs à utiliser les
applications et les espaces de travail pour gérer les autorisations, en particulier lorsqu’ils
partagent des contenus avec un grand nombre d’utilisateurs ou en dehors de leur
équipe. Il convient de souligner les points ci-dessous.
Déterminer quels contenus ont été partagés avec quels utilisateurs devient plus
difficile. En effet, les autorisations pour chaque rapport et tableau de bord doivent
être examinées individuellement.
Dans de nombreux cas, l’autorisation de repartage est configurée, car l’expérience
utilisateur active cette option par défaut. Il existe donc un risque que les contenus
soient partagés avec un ensemble d’utilisateurs plus large que prévu. Pour
empêcher cela, décochez l’option Autoriser les destinataires à partager ce rapport
lors du partage. Cette méthode pour réduire le partage excessif de cette façon
relève de la formation des utilisateurs. Un créateur de contenus qui configure les
autorisations de partage doit toujours étudier un tel choix.
Toutes les modifications apportées aux rapports et aux tableaux de bord sont
visibles immédiatement par les autres utilisateurs, ce qui risque de les perturber
lorsqu’un contenu est en cours de modification. Pour atténuer ce problème,
distribuez les contenus dans une application ou utilisez des espaces de travail
distincts pour dissocier les contenus de développement, de test et de production.
Pour plus d’informations, consultez le scénario d’utilisation sur la publication de
contenus en libre-service.
Lorsqu’un utilisateur partage des contenus depuis son espace de travail personnel
et qu’il quitte l’organisation, l’équipe informatique désactive généralement son
compte d’utilisateur. Dans ce cas, tous les destinataires des contenus partagés
perdent aussitôt l’accès à ces contenus.
Il existe trois types de partage spécifiques : le partage par lien, le partage avec accès
direct et les vues partagées.
Utilisateurs de votre organisation : lorsque cette option est activée dans les
paramètres de locataire Power BI, ce type de liens de partage offre un moyen
simple pour octroyer un accès en lecture seule à tous les membres de
l’organisation. Toutefois, le lien de partage ne fonctionne pas pour les utilisateurs
externes. Cette option est la plus adaptée lorsque tous les collaborateurs peuvent
consulter le contenu et que le lien peut être partagé librement dans l’ensemble de
l’organisation. Sauf s’il est désactivé par le paramètre de locataire Autoriser les liens
partageables pour accorder l’accès à tous les membres de votre organisation, il s’agit
du type de partage par défaut.
Utilisateurs qui ont déjà un accès : cette option ne crée pas de lien de partage. Au
lieu de cela, elle permet de récupérer l’URL pour l’envoyer à une personne qui y a
déjà accès.
Personnes spécifiques : cette option génère un lien de partage pour des
utilisateurs ou des groupes spécifiques. Nous recommandons d’utiliser cette
option dans la plupart des cas, car elle fournit un accès spécifique. Si vous
collaborez couramment avec des utilisateurs externes, vous pouvez utiliser ce type
de lien pour des utilisateurs invités qui existent déjà dans Microsoft Entra ID
(précédemment appelé Azure Active Directory). Pour plus d’informations sur le
processus d’invitation planifiée permettant de créer des utilisateurs invités,
consultez l’article sur la planification de la sécurité au niveau du locataire.
) Important
Conseil
Les liens de partage sont plus faciles à gérer que les partages avec accès direct, en
particulier lorsque vous effectuez des modifications en bloc. Ils offrent un net avantage
lorsque les autorisations de partage sont accordées à des utilisateurs individuels et non
à des groupes. (Cela se produit généralement lorsque les utilisateurs en libre-service
sont responsables de la gestion des autorisations.) Voici un comparatif :
Vous pouvez également définir des autorisations par élément en utilisant l’accès direct.
L’accès direct implique de configurer les autorisations pour un élément unique. Vous
pouvez également déterminer les autorisations héritées à partir des rôles de l’espace de
travail.
Vues partagées
Utilisez une vue partagée pour partager la perspective filtrée d’un rapport avec un autre
utilisateur. Vous pouvez publier une vue partagée à l’aide d’un lien de partage ou d’un
accès direct.
Liste de vérification : voici les décisions et les actions clés pour créer une stratégie liée à
utilisation des autorisations par élément :
D’autres techniques permettent aux consommateurs d’interroger les données Power BI.
Chacune des techniques de requête ci-dessous exige une autorisation de génération
pour un modèle sémantique ou un datamart.
Analyser dans Excel : les consommateurs qui préfèrent utiliser Excel peuvent
interroger un modèle sémantique Power BI avec l’option Analyser dans Excel. Cette
fonctionnalité offre une excellente alternative à l’exportation de données vers
Excel, car celles-ci ne sont pas dupliquées. Avec une connexion active au modèle
sémantique, les utilisateurs peuvent créer des tableaux croisés dynamiques, des
graphiques et des segments. Ils peuvent ensuite publier le classeur dans un espace
de travail du service Power BI. Cela permet aux consommateurs de l’ouvrir et
d’interagir avec lui.
Point de terminaison XMLA : les consommateurs peuvent interroger un modèle
sémantique en se connectant au point de terminaison XMLA. Une application
compatible XMLA peut se connecter à un modèle sémantique stocké dans un
espace de travail Premium pour l’interroger et l’utiliser. Cette fonctionnalité est
utile lorsque les consommateurs souhaitent utiliser un modèle sémantique
Power BI comme source de données d’un outil de visualisation des données en
dehors de l’écosystème Microsoft.
Éditeur de datamart : les consommateurs peuvent interroger un datamart
Power BI à l’aide de l’éditeur de datamart. Il s’agit d’un éditeur de requêtes
visuelles basé sur le web qui permet de créer des requêtes sans code. Les
consommateurs qui préfèrent écrire leurs requêtes SQL disposent également d’un
éditeur SQL basé sur le web. Les deux éditeurs interrogent la base
Azure SQL Database managée, laquelle est sous-jacente au datamart Power BI
(plutôt qu’au modèle sémantique intégré).
Point de terminaison SQL : les consommateurs peuvent interroger un datamart
Power BI à l’aide du point de terminaison SQL. Ils peuvent utiliser des outils
comme Azure Data Studio ou SQL Server Management Studio (SSMS) pour
exécuter les requêtes SQL. Le point de terminaison SQL interroge la base
Azure SQL Database managée, laquelle est sous-jacente au datamart Power BI
(plutôt qu’au modèle sémantique intégré).
Pour plus d’informations sur les autorisations de génération, consultez l’article sur la
planification de la sécurité du créateur de contenus.
Liste de vérification : voici les décisions et les actions clés pour planifier la stratégie
d’utilisation des techniques de requête par les consommateurs :
" Créer des instructions pour les utilisateurs sur l’utilisation de l’analyse dans Excel.
Communiquez les documents et les formations aux consommateurs concernant la
réutilisation optimale des modèles sémantiques existants avec Excel.
" Créer des instructions pour les utilisateurs sur l’utilisation du point de
terminaison XMLA. Communiquez les documents et les formations aux
consommateurs concernant la réutilisation optimale des modèles sémantiques
existants avec le point de terminaison XMLA.
" Créer des instructions pour les utilisateurs sur l’utilisation des requêtes de
datamart. Communiquez les documents et les formations aux consommateurs
concernant les techniques d’interrogation des datamarts Power BI.
Les demandes d’accès en attente pour une application affichent le message fourni par
l’utilisateur. Chaque demande en attente peut être approuvée ou refusée. Lorsque vous
approuvez une demande, vous devez sélectionner une audience d’application.
Lorsque vous publiez une application, les contenus et les autorisations sont publiés en
même temps. Comme indiqué précédemment, vous ne pouvez pas publier uniquement
les autorisations d’application (sans les modifications de contenu). Cependant, un cas
fait figure d’exception : lorsque vous approuvez une demande d’accès en attente
(comme celle présentée dans la capture d’écran ci-dessus), la modification des
autorisations est effective sans que le contenu le plus récent soit publié dans l’espace de
travail.
Email : le ou les contacts de l’élément reçoivent une notification par e-mail. Pour
une prise en charge optimale des rapports critiques, nous recommandons de
définir ce contact sur un groupe capable de répondre rapidement aux demandes
d’accès.
Menu Gérer les autorisations : les administrateurs et les membres de l’espace de
travail peuvent accéder à la page Gérer les autorisations de chaque élément. Ils
peuvent afficher, approuver ou refuser les demandes d’accès en attente.
Pour sécuriser les contenus, nous recommandons d’utiliser les groupes (plutôt que les
utilisateurs individuels) dès que possible. Pour plus d’informations sur les groupes,
consultez l’article sur la planification de la sécurité au niveau du locataire.
Pour octroyer un accès à des groupes plutôt qu’à des utilisateurs individuels, le
propriétaire de contenus ou l’administrateur qui traite la demande d’accès doit
décomposer la demande en plusieurs étapes :
1. Refusez la demande en attente dans Power BI (car elle est associée à un utilisateur
individuel).
2. Ajoutez le demandeur au groupe qui convient, conformément au processus en
place.
3. Informez le demandeur qu’il dispose maintenant d’un accès.
Conseil
Pour plus d’informations sur la réponse aux demandes d’accès en génération des
créateurs de contenus, consultez le workflow de demande d’accès pour les
créateurs. Vous y trouverez également des recommandations sur l’utilisation d’un
formulaire pour les demandes d’accès.
Check-list : voici les décisions et actions clés pour planifier le workflow de demande
d’accès :
Par exemple, vous pouvez partager un même rapport commercial avec l’ensemble des
commerciaux (consommateurs), en sachant que chaque commercial accédera
uniquement aux résultats de sa région. Cette approche simplifie le processus, puisque
vous n’avez pas à créer différents rapports par région, ni à les partager avec les
commerciaux de la région commerciale en question.
Modèle sémantique Power BI : en tant que créateur de données Power BI, vous
pouvez déployer la sécurité au niveau des lignes (SNL) et la sécurité au niveau des
objets (SNO). La SNL implique de définir les rôles et les règles qui filtrent les lignes
du modèle de données. De son côté, la SNO limite l’accès à des tables ou des
colonnes spécifiques. Ces règles SNL et OLS définies ne s’appliquent pas aux
références stockées en dehors du modèle sémantique, comme les sélections de
segment et de filtre. Les techniques RLS et OLS sont décrites plus loin dans cette
section.
Analysis Services : vous pouvez connecter un modèle sémantique avec une
connexion active à un modèle de données distant, qui est hébergé par
Azure Analysis Services (AAS) ou SQL Server Analysis Services (SSAS). Le modèle
distant peut déployer la SNL ou la SNO en fonction de l’identité des
consommateurs.
Source de données : certaines sources de données (comme Azure SQL Database)
peuvent déployer la SNL. Dans ce cas, le modèle Power BI peut exploiter la sécurité
existante plutôt que de la redéfinir. Cette approche présente un net avantage
lorsque la SNL définie dans la source est complexe. Pour activer l’authentification
unique (SSO), vous pouvez développer et publier un modèle DirectQuery, puis
définir les informations d’identification de la source de données du modèle
sémantique dans le service Power BI. Lorsqu’un consommateur de rapports ouvre
un rapport, Power BI transmet son identité à la source de données. La source de
données applique ensuite RLS en fonction de l’identité du consommateur de
rapports. Pour plus d’informations sur la SNL Azure SQL Database, consultez cet
article.
7 Notes
Les systèmes sources (Azure SQL Database, par exemple) peuvent aussi employer
certaines techniques comme les vues pour limiter ce que l’utilisateur peut afficher.
Même s’il s’agit d’une technique valide, elle ne relève pas de la présente section.
Conseil
Faites attention, car si un rapport Power BI fait référence à une ligne avec SNL configuré,
le même message s’affiche comme pour un champ supprimé ou non existant. Pour ces
utilisateurs, le rapport semble corrompu.
Deux étapes permettent de configurer la SNL : les règles et les mappages de rôles.
Règles RLS
Pour les modèles sémantiques, vous pouvez utiliser un modélisateur de données pour
configurer la SNL dans Power BI Desktop en créant un ou plusieurs rôles. Un rôle a un
nom unique dans le modèle et comprend généralement une ou plusieurs règles. Les
règles appliquent des filtres au niveau des tables du modèle en utilisant des expressions
de filtre DAX (Data Analysis Expressions). Par défaut, un modèle de données n’a pas de
rôles.
) Important
Les expressions des règles sont évaluées dans le contexte de ligne. Cela signifie que
l’expression est évaluée pour chaque ligne, selon les valeurs de colonne de la ligne en
question. Quand l’expression retourne TRUE , l’utilisateur peut voir la ligne. Vous pouvez
définir des règles statiques ou dynamiques.
Règles statiques : elles utilisent des expressions DAX qui renvoient à des
constantes, comme [Region] = "Midwest" .
Règles dynamiques : elles utilisent des fonctions DAX spécifiques qui renvoient
des valeurs environnementales (et non des constantes). Les valeurs
environnementales sont renvoyées pour les trois fonctions DAX suivantes :
USERNAME, USERPRINCIPALNAME et CUSTOMDATA. La définition de règles
dynamiques est simple et efficace quand une table de modèle stocke les valeurs de
nom d’utilisateur. Ils vous permettent d’appliquer une conception de sécurité au
niveau des lignes pilotée par les données.
Une fois le modèle publié sur le service Power BI, vous devez configurer les mappages
de rôles avant que les utilisateurs accèdent aux rapports associés. Le mappage de rôles
implique l’attribution d’objets de sécurité Microsoft Entra aux rôles. Les objets de
sécurité peuvent être des comptes d’utilisateurs ou des groupes de sécurité.
La meilleure pratique consiste à mapper les rôles vers des groupes de sécurité dès que
possible. Cela permet de réduire le nombre de mappages et de confier la gestion des
appartenances au groupe au propriétaire du groupe.
Conseil
Il est possible de définir un rôle sans règles. Dans ce cas, le rôle donne accès à
l’ensemble des lignes de toutes les tables du modèle. La configuration de ce type
de rôles est adaptée lorsqu’un administrateur ou un utilisateur est autorisé à
afficher toutes les données dans le modèle.
Lorsque la SNL n’est pas définie pour le modèle sémantique : les créateurs et les
consommateurs qui disposent au moins d’une autorisation de lecture sur le
modèle sémantique peuvent consulter toutes les données du modèle sémantique.
Lorsque la SNL est définie pour le modèle sémantique : les créateurs et les
consommateurs qui disposent uniquement d’une autorisation de lecture sur le
modèle sémantique ne peuvent consulter que les données qu’ils sont autorisés à
afficher (en fonction de mappage de rôles de SNL).
7 Notes
Conseil
Autre différence, les datamarts appliquent la SNL sur le modèle sémantique et sur la
base de données Azure SQL managée associée au datamart. Le déploiement de la SNL
sur ces deux couches garantit cohérence et flexibilité. Quelle que soit la façon dont
l’utilisateur interroge les données (en se connectant au modèle sémantique ou à la base
de données Azure SQL managée), les mêmes filtres de SNL sont utilisés.
Pour plus d’informations, consultez l’article sur la SNL pour les datamarts.
Examinez cet un exemple de table d’un collaborateur. Elle comporte des colonnes qui
stockent le nom et le numéro de téléphone du collaborateur, ainsi que son salaire. Vous
pouvez utiliser la SNO pour vous assurer que seuls certains utilisateurs, (comme les
membres seniors des ressources humaines) peuvent accéder aux valeurs concernant le
salaire. Pour les utilisateurs qui ne peuvent pas afficher ces valeurs, la colonne ne semble
pas exister.
Attention, si un visuel de rapport Power BI inclut un salaire, les utilisateurs qui n’ont pas
accès à ce champ reçoivent un message d’erreur. Celui-ci les informe que l’objet n’existe
pas. Pour ces utilisateurs, le rapport semble corrompu.
7 Notes
Vous pouvez également définir des perspectives dans un modèle de données. Une
perspective définit des sous-ensembles visibles d’objets de modèle pour offrir un
focus spécifique aux créateurs de rapport. Les perspectives ne sont pas destinées à
restreindre l’accès aux objets de modèle. L’utilisateur peut toujours interroger une
table ou une colonne, et ce même s’il ne peut pas l’afficher. Par conséquent,
abordez les perspectives comme un outil pratique pour l’utilisateur (et non une
fonctionnalité de sécurité).
Pour plus d’informations sur la SNO, consultez l’article sur comment restreindre l’accès
aux objets de modèle Power BI.
Liste de vérification : voici les décisions et les actions clés pour planifier la SNL et la
SNO :
Contenu connexe
Dans le prochain article de cette série, découvrez la planification de la sécurité pour les
créateurs de contenus chargés de créer des modèles sémantiques, des flux de données,
des datamarts, des rapports ou des tableaux de bord.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur la planification de la sécurité décrit des stratégies pour les créateurs de
contenu chargés de créer des modèles sémantiques (auparavant appelés jeux de
données), des flux de données, des datamarts, des rapports ou des tableaux de bord. Il
est principalement destiné à :
La série d’articles est destinée à approfondir le contenu du Livre blanc sur la sécurité de
Power BI. Bien que le livre blanc Sécurité dans Power BI se concentre sur des sujets
techniques clés tels que l’authentification, la résidence des données et l’isolement
réseau, l’objectif principal de la série est de vous fournir des considérations et décisions
pour vous aider à planifier la sécurité et la confidentialité.
Dans une organisation, de nombreux utilisateurs sont créateurs de contenu. Les créateurs
de contenu produisent et publient du contenu qui est consulté par d’autres personnes.
Les créateurs de contenu sont l’objet de cet article.
Conseil
Nous vous recommandons de consulter d’abord l’article Planification de la sécurité
des consommateurs de rapports. Il décrit des stratégies pour fournir du contenu
de manière sécurisée aux consommateurs en lecture seule, notamment comment
appliquer la sécurité des données.
Conseil
Nous vous recommandons de favoriser une culture des données qui intègre la
sécurité et la protection des données naturellement dans le rôle de chacun. Pour
atteindre cet objectif, l’éducation, le soutien et la formation des utilisateurs sont
essentiels.
Pour des raisons de sécurité et d’autorisations, considérez qu’il existe deux types de
créateurs de contenu : les créateurs de données et les créateurs de rapports. Ils peuvent
être chargés de la création et de la gestion du contenu BI d’entreprise ou BI libre-
service.
Créateurs de données
Un créateur de données est un utilisateur Power BI qui crée des modèles sémantiques,
des flux de données ou des datamarts.
Les créateurs de données sont souvent présents dans les équipes BI d’entreprise et dans
le Centre d’excellence. Ils ont également un rôle clé à jouer dans les divisions
décentralisées, et les services qui entretiennent et gèrent leurs propres données.
Créateurs de rapports
Les créateurs de rapports créent des rapports et des tableaux de bord pour visualiser les
données des modèles sémantiques existants.
Conseil
Bien que tous les modèles sémantiques ne soient pas des modèles sémantiques
partagés, il est toujours utile d’adopter une stratégie de décisionnel libre-service
managé. Cette stratégie réutilise les modèles sémantiques partagés dans la mesure
du possible. De cette façon, la création de rapports et la création de données sont
dissociées. N’importe quel créateur de contenu de n’importe quelle division peut
utiliser efficacement cette stratégie.
Cette section ne présente pas la liste complète de toutes les autorisations possibles. Elle
est plutôt destinée à vous aider à planifier votre stratégie pour prendre en charge les
différents types de créateur de contenu. Vous devez suivre le principe du moindre
privilège. Ce principe autorise suffisamment d’autorisations pour que les utilisateurs
soient productifs, sans toutefois en donner trop.
Création de contenu
Les autorisations suivantes sont généralement nécessaires pour créer du contenu.
ノ Agrandir le tableau
ノ Agrandir le tableau
Les autorisations suivantes sont généralement nécessaires pour actualiser les données.
ノ Agrandir le tableau
Permission Créateur Créateur de Créateur de Créateur de
de modèle flux de datamarts
rapports sémantique données
Le reste de cet article décrit les considérations relatives aux autorisations du créateur de
contenu.
Conseil
Check-list : voici les décisions et actions clés pour planifier votre stratégie de sécurité
pour les créateurs de contenu :
" Déterminez qui sont vos créateurs de données : vérifiez que vous savez qui sont
les personnes qui créent des modèles sémantiques, des flux de données et des
datamarts. Vérifiez que vous comprenez quels sont leurs besoins avant de
commencer vos activités de planification de la sécurité.
" Déterminez qui sont vos créateurs de rapports : vérifiez que vous savez qui sont
les personnes qui créent des rapports, des tableaux de bord, des classeurs et des
cartes de performance. Vérifiez que vous comprenez quels sont leurs besoins avant
de commencer vos activités de planification de la sécurité.
7 Notes
La découverte de données dans Power BI n’est pas une autorisation de sécurité des
données. Il s’agit d’un paramètre qui permet aux créateurs de rapports de lire les
métadonnées, pour pouvoir découvrir des données et en demander l’accès.
Le message de demande d’accès est le suivant : Pour les rapports de ventes standard
(cumul mensuel, trimestriel ou annuel), ce modèle sémantique est la source faisant
autorité et certifiée. Demandez l’accès au modèle sémantique en remplissant le formulaire
situé à l’adresse https://COE.contoso.com/RequestAccess . Vous serez invité à fournir une
brève justification commerciale, et le responsable du Centre d’excellence devra également
approuver la demande. L’accès sera audité tous les six mois.
7 Notes
Votre culture des données et votre position sur la démocratisation des données
doivent fortement influencer l’activation de la découverte des données. Pour plus
d’informations sur la découverte des données, consultez le scénario d’utilisation BI
libre-service managé personnalisable.
Check-list : voici les décisions et actions clés pour planifier la découverte de données
pour vos créateurs de contenu :
Les créateurs de contenu, afin qu’ils sachent à quoi s’attendre quand ils
demandent l’accès.
Les propriétaires et administrateurs de contenu, afin qu’ils sachent comment gérer
les demandes envoyées.
Conseil
Pour plus d’informations sur la réponse aux demandes d’accès en lecture des
consommateurs, consultez Workflow de demande d’accès pour les
consommateurs. Il comprend également des informations sur l’utilisation de
groupes (au lieu d’utilisateurs individuels).
Check-list : voici les décisions et actions clés pour planifier le workflow de demande
d’accès :
7 Notes
Pour les consommateurs qui consultent les rapports, les tableaux de bord et les
cartes de performance, consultez l’article Planification de la sécurité des
consommateurs de rapports. Les considérations relatives aux autorisations
d’application sont également abordées dans cet article.
7 Notes
Comme l’objectif principal d’un espace de travail est la collaboration, l’accès à l’espace
de travail est principalement pertinent pour les utilisateurs qui en sont propriétaires et
qui gèrent son contenu. Lorsque vous commencez à planifier des rôles d’espace de
travail, il est utile de vous poser les questions suivantes.
Quelles sont les attentes quant à la façon dont la collaboration se produira dans
l’espace de travail ?
Qui sera responsable de la gestion du contenu dans l’espace de travail ?
L'intention est-elle d'assigner des utilisateurs individuels ou des groupes à des
rôles d'espace de travail ?
Les autorisations des quatre rôles d’espace de travail sont imbriquées. Cela signifie que
les administrateurs d’espace de travail ont accès à toutes les fonctionnalités des
membres, des contributeurs et des lecteurs. De même, les membres ont accès à toutes
les fonctionnalités des contributeurs et des lecteurs. Les contributeurs ont accès à toutes
les fonctionnalités des lecteurs.
Conseil
Conseil
Vérifiez que seules les personnes approuvées et fiables sont administrateurs d’espace de
travail. Un administrateur d’espace de travail a des privilèges élevés. Il peut voir et gérer
tout le contenu de l’espace de travail. Il peut ajouter et supprimer des utilisateurs (y
compris d’autres administrateurs) dans n’importe quel rôle d’espace de travail. Il peut
également supprimer l’espace de travail.
Nous vous recommandons de désigner au moins deux administrateurs pour que l’un
d’eux puisse remplacer l’administrateur principal s’il n’est pas disponible. Un espace de
travail qui n’a pas d’administrateur est appelé espace de travail orphelin. L’état orphelin
se produit quand un utilisateur quitte l’organisation et qu’aucun autre administrateur
n’est attribué à l’espace de travail. Pour plus d’informations sur la détection et la
rectification des espaces de travail orphelins, consultez l’article Voir les espaces de
travail.
Dans l’idéal, vous devez pouvoir déterminer qui est responsable du contenu de l’espace
de travail en regardant qui sont les administrateurs et membres de l’espace de travail (et
des contacts spécifiés pour l’espace de travail). Toutefois, certaines organisations
adoptent une stratégie de propriété et gestion du contenu qui limite la création
d’espace de travail à des utilisateurs ou des groupes spécifiques. Ils ont généralement
un processus de création d’espace de travail établi et gérable par le service
informatique. Dans ce cas, les administrateurs d’espace de travail seraient des membres
du service informatique plutôt que les utilisateurs qui créent, puis publient directement
le contenu.
Les membres de l’espace de travail doivent être limités aux utilisateurs qui doivent gérer
la création du contenu de l’espace de travail et publier l’application. Dans certains cas,
les administrateurs de l’espace de travail remplissent cet objectif et vous n’avez pas
besoin d’attribuer des utilisateurs ou des groupes au rôle Membre. Quand les
administrateurs d’espace de travail ne sont pas directement liés au contenu de l’espace
de travail (par exemple, parce que le service informatique gère le processus de création
de l’espace de travail), les membres de l’espace de travail peuvent être les véritables
propriétaires chargés du contenu de l’espace de travail.
Le rôle Lecteur est pertinent pour les consommateurs en lecture seule dans les petites
équipes et les scénarios informels. Il est entièrement décrit dans l’article Planification de
la sécurité des consommateurs de rapports.
Il existe deux variantes pour les quatre rôles d’espace de travail (décrits précédemment).
Par défaut, seuls les administrateurs et les membres de l’espace de travail peuvent
créer, publier et mettre à jour l’application pour l’espace de travail. Le paramètre
Autoriser les contributeurs à mettre à jour l’application pour cet espace de travail
s’applique au niveau de l’espace de travail et permet aux administrateurs d’espace
de travail de déléguer la possibilité de mettre à jour l’application pour l’espace de
travail aux contributeurs. Toutefois, les contributeurs ne peuvent pas publier une
nouvelle application ni changer les personnes autorisées à la modifier. Ce
paramètre est utile si vous voulez que les contributeurs puissent mettre à jour
l’application (quand il en existe une pour l’espace de travail), sans accorder les
autres autorisations des membres.
Le paramètre de locataire Bloquer la republication et désactiver l’actualisation du
package autorise uniquement les propriétaires de modèles sémantiques à publier
des mises à jour. Quand ce paramètre est activé, les administrateurs, les membres
et les contributeurs de l’espace de travail ne peuvent pas publier de changements,
sauf s’ils prennent d’abord le contrôle du modèle sémantique en tant que
propriétaire. Comme ce paramètre s’applique à l’ensemble de l’organisation,
activez-le avec précaution, car il affecte tous les modèles sémantiques du locataire.
Veillez à communiquer à vos créateurs de modèles sémantiques les effets de ce
paramètre, car il change le comportement normal des rôles d’espace de travail.
) Important
Les autorisations par élément peuvent également être considérées en
remplacement des rôles d’espace de travail standard. Pour plus d’informations sur
les autorisations par élément, consultez l’article Planification de la sécurité des
consommateurs de rapports.
Check-list : voici les décisions et actions clés pour planifier les rôles d’espace de travail :
" Créez une matrice de responsabilité : Mapper qui doit gérer chaque fonction lors
de la création, de la maintenance, de la publication, de la sécurisation et de la prise
en charge du contenu. Utilisez ces informations pendant la planification de vos
rôles d’espace de travail.
" Choisir votre stratégie d’attribution de rôles d’espace de travail pour les créateurs
de contenu : déterminez les utilisateurs qui doivent être administrateurs, membres
ou contributeurs, et dans quelles circonstances (par exemple, en fonction du poste
ou du domaine). En cas d’incompatibilités entraînant un problème de sécurité,
réfléchissez à la façon de réorganiser au mieux vos espaces de travail.
" Déterminer quand utiliser des groupes de sécurité ou des utilisateurs individuels
pour les rôles d’espace de travail : déterminez les cas d’usage et les raisons pour
lesquels vous avez besoin d’utiliser des groupes. Précisez bien quand la sécurité
doit être appliquée avec des comptes d’utilisateurs ou quand un groupe est
nécessaire ou préférable.
" Fournir des conseils aux créateurs de contenu sur la gestion des rôles d’espace de
travail : ajoutez de la documentation pour les créateurs de contenu indiquant
comment gérer les rôles d’espace de travail. Publiez ces informations sur votre
portail centralisé et vos supports de formation.
" Configurer et tester les attributions de rôle d’espace de travail : vérifiez que les
créateurs de contenu ont les fonctionnalités dont ils ont besoin pour modifier et
publier du contenu.
Conseil
Check-list : voici les décisions et actions clés pour planifier les autorisations du créateur
d’applications :
" Choisir votre stratégie concernant qui peut créer et publier des applications
Power BI : précisez qui doit être autorisé à créer et publier des applications
Power BI.
" Déterminer quand les contributeurs peuvent mettre à jour les applications
Power BI : précisez les situations dans lesquelles un contributeur doit être autorisé
à mettre à jour des applications Power BI. Mettez à jour le paramètre de l’espace de
travail quand cette fonctionnalité est nécessaire.
Conseil
Conseil
S’il vous est difficile de fournir aux créateurs de données libre-service un accès
direct à la source de données, utilisez une approche indirecte. Vous pouvez créer
des flux de données dans le service Power BI et autoriser les créateurs de données
libre-service à en extraire des données. Cette approche présente les avantages
supplémentaires de réduire la charge des requêtes sur la source de données et de
fournir un instantané cohérent des données. Pour plus d’informations, consultez les
scénarios d’utilisation Préparation de données libre-service et Préparation de
données avancée.
Conseil
Si vous avez déjà entré les informations d’identification d’une source de données
de modèle sémantique, le service Power BI associe automatiquement ces
informations d’identification à d’autres sources de données de modèles
sémantiques en cas de correspondance exacte entre la chaîne de connexion et le
nom de la base de données. Le service Power BI et Power BI Desktop font comme si
vous aviez entré des informations d’identification pour chaque source de données.
Toutefois, ils peuvent appliquer les mêmes informations d’identification aux sources
de données correspondantes qui ont le même propriétaire. Dans ce contexte, les
informations d’identification du modèle sémantique sont limitées au propriétaire.
Niveaux de confidentialité
Les niveaux de confidentialité des données spécifient des niveaux d’isolement qui
définissent le degré d’isolement d’une source de données par rapport aux autres
sources de données. Quand ils sont correctement définis, ils garantissent que Power
Query transmet uniquement des données compatibles entre les sources. Quand Power
Query peut transmettre des données entre des sources de données, les requêtes sont
plus efficaces et le volume de données envoyées à Power BI est réduit. Quand il ne peut
pas transmettre des données entre des sources de données, les performances peuvent
être plus lentes.
Privé : comprend des données sensibles ou confidentielles qui doivent être isolées
de toutes les autres sources de données. Ce niveau est le plus restrictif. Les
données de sources de données privées ne peuvent pas être partagées avec
d’autres sources de données. Par exemple, une base de données des Ressources
Humaines qui contient la valeur des salaires des employés doit être définie sur le
niveau de confidentialité Privé.
Organisationnel : les données sont isolées des sources de données publiques,
mais visibles par les autres sources de données organisationnelles. Ce niveau est le
plus courant. Les données de sources de données organisationnelles peuvent être
partagées avec des sources de données privées ou d’autres sources de données
organisationnelles. La plupart des bases de données opérationnelles internes
peuvent être définies avec le niveau de confidentialité Organisationnel.
Public : données non sensibles qui peuvent être vues par n’importe quelle source
de données. Ce niveau est le moins restrictif. Les données de sources de données
publiques peuvent être partagées avec toutes les autres sources de données. Par
exemple, un rapport de recensement obtenu à partir d’un site web du
gouvernement peut être défini sur le niveau de confidentialité Public.
Quand vous combinez des requêtes de différentes sources de données, veillez à définir
les niveaux de confidentialité appropriés. Quand les niveaux de confidentialité sont
correctement définis, les données d’une source de données peuvent être transmises à
une autre source de données pour une interrogation efficace des données.
Des niveaux de confidentialité peuvent être définis pour chaque source de données :
) Important
Les niveaux de confidentialité que vous définissez dans Power BI Desktop ne sont
pas transférés au service Power BI.
Il existe une option de sécurité Power BI Desktop qui permet d’ignorer les niveaux de
confidentialité pour améliorer les performances. Vous pouvez utiliser cette option pour
améliorer les performances des requêtes pendant le développement d’un modèle de
données quand il n’y a aucun risque de violation de la sécurité des données (parce que
vous utilisez des données de développement ou de test qui ne sont pas sensibles).
Toutefois, ce paramètre n’est pas suivi par le service Power BI.
Pour créer des requêtes Power Query efficaces, vous pouvez utiliser une requête native
pour accéder aux données. Une requête native est une instruction écrite dans un
langage pris en charge par la source de données. Les requêtes natives sont uniquement
prises en charge par des sources de données spécifiques, qui sont généralement des
bases de données relationnelles comme Azure SQL Database.
Les requêtes natives peuvent présenter un risque de sécurité, car elles peuvent exécuter
une instruction SQL malveillante. Une instruction malveillante peut effectuer des
modifications de données ou supprimer des enregistrements de base de données
(quand l’utilisateur a les autorisations nécessaires sur la source de données). Pour cette
raison, par défaut, les requêtes natives nécessitent l’approbation de l’utilisateur pour
s’exécuter dans Power BI Desktop.
Il existe une option de sécurité Power BI Desktop qui vous permet de désactiver
l’exigence de pré-approbation. Nous vous recommandons de garder le paramètre par
défaut qui demande l’approbation de l’utilisateur, en particulier si le fichier Power BI
Desktop doit être actualisé par d’autres utilisateurs.
Connecteurs personnalisés
Les développeurs peuvent utiliser le SDK Power Query pour créer des connecteurs
personnalisés. Les connecteurs personnalisés autorisent l’accès aux sources de données
propriétaires ou implémentent une authentification spécifique avec des extensions de
données personnalisées. Certains connecteurs personnalisés sont certifiés et distribués
par Microsoft en tant que connecteurs certifiés. Les connecteurs certifiés ont été audités
et passés en revue pour vérifier qu’ils répondent à certaines exigences de code
spécifiées que Microsoft a testées et approuvées.
Il existe une option de sécurité d’extension de données Power BI Desktop qui limite
l’utilisation des connecteurs non certifiés. Par défaut, une erreur est générée en cas de
tentative de chargement d’un connecteur non certifié. Quand vous définissez cette
option pour autoriser les connecteurs non certifiés, les connecteurs personnalisés sont
chargés sans validation ni avertissement.
7 Notes
Rôle d’espace de travail : l’attribution à l’un des rôles d’espace de travail donne
accès à tous les modèles sémantiques de l’espace de travail. La possibilité de voir
ou de modifier un modèle sémantique existant dépend du rôle d’espace de travail
que vous attribuez. Les administrateurs, les membres et les contributeurs peuvent
publier ou modifier du contenu au sein d’un espace de travail.
Liens d’autorisation par élément : si un lien de partage a été créé pour un rapport,
l’autorisation de lecture du modèle sémantique (et éventuellement, de génération,
d’écriture et/ou de repartage) est également indirectement octroyée par le lien.
Autorisations d’accès direct par élément : vous pouvez attribuer l’autorisation
d’accès direct à un modèle sémantique spécifique.
Conseil
Conseil
Souvent, les utilisateurs qui consultent un rapport ou une application Power BI sont
différents de ceux qui créent du contenu à partir des modèles sémantiques sous-
jacents. La plupart des consommateurs sont des lecteurs uniquement, ils n’ont
donc pas besoin de créer du contenu. Nous vous recommandons d’indiquer à vos
créateurs de contenu d’accorder le moins d’autorisations nécessaires.
Autorisation de modèle sémantique Écrire
En règle générale, la définition des autorisations pour modifier et gérer des modèles
sémantiques est effectuée en attribuant des utilisateurs au rôle d’espace de travail
Administrateur, Membre ou Contributeur. Toutefois, vous pouvez aussi définir
l’autorisation Écrire pour un modèle sémantique spécifique.
Nous vous recommandons d’utiliser des rôles d’espace de travail si possible, car c’est le
moyen le plus simple de gérer et d’auditer les autorisations. Utilisez les autorisations de
modèle sémantique Écrire par élément quand vous avez choisi de créer moins d’espaces
de travail, et qu’un espace de travail contient des modèles sémantiques pour différents
domaines qui nécessitent une gestion différente des autorisations.
Conseil
Pour obtenir des conseils sur l’organisation des espaces de travail, consultez les
articles sur la planification des espaces de travail.
L’implémentation de RLS et OLS est destinée aux consommateurs de rapports. Pour plus
d’informations, consultez l’article Planification de la sécurité des consommateurs de
rapports. Il décrit comment et quand les sécurités SNL et OLS sont appliquées pour les
consommateurs qui sont uniquement autorisés à afficher le modèle sémantique.
Pour les sécurités RLS et OLS ciblant d’autres créateurs de rapports, consultez la sécurité
des données dans la section Autorisations des créateurs de rapports plus loin dans cet
article.
7 Notes
Dans certains cas, vous pouvez exécuter une requête DAX avec l’API REST Power BI. Par
exemple, si vous voulez effectuer des validations de qualité des données. Pour plus
d’informations, consultez Jeux de données - Exécuter des requêtes.
Le paramètre de locataire API REST Exécuter des requêtes de jeu de données permet aux
administrateurs Power BI de définir les groupes d’utilisateurs qui peuvent envoyer des
requêtes DAX avec l’API REST Power BI. Dans la plupart des cas, vous pouvez laisser ce
paramètre activé pour l’ensemble de l’organisation, et utiliser l’accès à l’espace de travail
et les autorisations de modèle sémantique. Dans certains cas, vous envisagerez sans
doute de restreindre cette fonctionnalité aux créateurs de contenu approuvés.
Check-list – Voici les décisions et actions clés pour planifier les autorisations du créateur
de métriques :
Contrairement aux modèles sémantiques, il n’y a pas d’autorisation Écrire pour les
rapports. Pour prendre en charge les créateurs de rapports, vous devez utiliser les rôles
d’espace de travail. Pour cette raison, une conception optimale des espaces de travail
est importante pour équilibrer les besoins en matière d’organisation et de sécurité du
contenu.
Conseil
Il existe également le paramètre de locataire Autoriser les connexions actives, qui permet
aux administrateurs Power BI de configurer les groupes d’utilisateurs qui peuvent créer
des connexions actives à des modèles sémantiques dans Power BI Desktop ou Excel. Il
s’adresse spécifiquement aux créateurs de rapports et nécessite également qu’ils aient
les autorisations Lire et Générer sur le modèle sémantique que le rapport utilise. Nous
vous recommandons de laisser ce paramètre activé pour l’ensemble de l’organisation, et
d’utiliser l’accès à l’espace de travail et les autorisations de modèle sémantique. De cette
façon, vous pouvez encourager l’utilisation des modèles sémantiques existants. Dans
certains cas, vous envisagerez sans doute de restreindre cette fonctionnalité aux
créateurs de contenu approuvés uniquement.
Les types de sécurité RLS et OLS (décrits précédemment dans cet article) s’adressent aux
consommateurs de rapports. Toutefois, ils doivent parfois également être appliqués
pour les créateurs de rapports. La création d’espaces de travail distincts est justifiée
quand la sécurité RLS doit être appliquée aux créateurs de rapports et aux
consommateurs de rapports.
Pour plus d’informations sur RLS et OLS, consultez l’article Planification de la sécurité
des consommateurs de rapports. Il décrit comment et quand les sécurités SNL et OLS
sont appliquées pour les consommateurs qui sont uniquement autorisés à afficher le
modèle sémantique.
Cette fonctionnalité est appelée partage de modèles sémantiques sur place (ou partage
de modèles sémantiques entre locataires). Les rapports créés par le créateur de rapports
(ou les modèles composites créés par un créateur de modèles sémantiques) sont
stockés et sécurisés dans votre locataire Power BI en utilisant votre processus normal. Le
modèle sémantique partagé d’origine reste dans son locataire Power BI d’origine et
toutes les autorisations y sont gérées.
Tables recommandées
Dans Power BI Desktop, les créateurs de modèles sémantiques peuvent définir une table
modèle pour qu’elle devienne une table recommandée. Quand le modèle sémantique
est publié sur le service Power BI, les créateurs de rapports peuvent utiliser la galerie de
types de données dans Excel pour rechercher la table recommandée, ce qui leur permet
d’ajouter les données de la table recommandée pour augmenter leurs feuilles de calcul
Excel.
Le paramètre de locataire Autoriser les connexions aux tables recommandées permet aux
administrateurs Power BI de configurer les groupes d’utilisateurs qui peuvent accéder
aux tables recommandées. Il s’adresse aux utilisateurs Excel qui souhaitent accéder aux
tables recommandées Power BI dans les types de données d’organisation Excel. Nous
vous recommandons de laisser ce paramètre activé pour l’ensemble de l’organisation, et
d’utiliser l’accès à l’espace de travail et les autorisations de modèle sémantique. De cette
façon, vous pouvez encourager l’utilisation des tables recommandées.
Le paramètre de locataire Autoriser les visuels créés par Power BI SDK permet aux
administrateurs Power BI de contrôler les groupes d’utilisateurs qui peuvent utiliser des
visuels personnalisés.
7 Notes
Si vous empêchez l’utilisation des visuels non certifiés, cela s’applique uniquement
au service Power BI. Si vous souhaitez restreindre leur utilisation dans Power BI
Desktop, demandez aux administrateurs système d’utiliser un paramètre de
stratégie de groupe pour empêcher leur utilisation dans Power BI Desktop. Cette
étape garantit que les créateurs de rapports ne perdent pas de temps et d’énergie
à créer un rapport voué à l’échec s’il est publié sur le service Power BI. Nous vous
recommandons vivement de configurer vos utilisateurs pour qu’ils aient des
expériences cohérentes dans le service Power BI (avec le paramètre de locataire) et
Power BI Desktop (avec la stratégie de groupe).
Utilisez une stratégie équilibrée qui active uniquement des visuels personnalisés certifiés
dans votre organisation (avec le paramètre de locataire et la stratégie de groupe décrits
précédemment), tout en déployant des visuels organisationnels pour gérer les
exceptions.
Check-list : voici les décisions et actions clés pour planifier les autorisations du créateur
de rapports :
Pour consommer un flux de données (par exemple, à partir d’un nouveau modèle de
données créé dans Power BI Desktop ou dans un autre espace de travail), un créateur de
modèles sémantiques peut appartenir à n’importe quel rôle d’espace de travail, y
compris le rôle Lecteur. Il n’y a pas de concept de RLS pour les flux de données.
En plus des rôles d’espace de travail, le paramètre de locataire Créer et utiliser des flux
de données doit être activé. Ce paramètre de locataire s’applique à toute l’organisation.
Pour plus d’informations sur l’utilisation des flux de données, consultez les scénarios
d’utilisation Préparation de données libre-service et Préparation de données avancée.
Check-list : voici les décisions et actions clés pour planifier les autorisations du créateur
de flux de données :
Les datamarts fournissent une expérience simple utilisant peu de code pour ingérer des
données à partir de différentes sources de données, et extraire, transformer et charger
(ETL) les données avec Power Query Online. Les données sont chargées dans une base
de données Azure SQL qui est complètement managée et ne nécessite aucun
paramétrage ni optimisation. Le modèle sémantique généré automatiquement est
toujours synchronisé avec la base de données managée, car il est en mode DirectQuery.
Partage de datamart
Pour les datamarts, le terme partage prend une signification différente que pour les
autres types de contenu Power BI. En règle générale, une opération de partage s’adresse
à un consommateur, car elle fournit une autorisation en lecture seule sur un élément,
comme un rapport.
Quelle que soit la façon dont un utilisateur choisit de se connecter au datamart (au
modèle sémantique ou à la base de données), des autorisations SNL identiques sont
appliquées.
Check-list : voici les décisions et actions clés pour planifier les autorisations du créateur
de datamarts :
Les cartes de performance peuvent être sécurisées avec trois niveaux d’autorisations :
Espace de travail.
Autorisations de carte de performance (par élément).
Métriques (dans la carte de performance).
Un utilisateur qui crée ou gère entièrement une carte de performance doit être
Administrateur, Membre ou Contributeur de l’espace de travail.
Comme les métriques couvrent souvent plusieurs domaines, nous vous recommandons
de créer un espace de travail distinct afin de pouvoir gérer indépendamment les
autorisations des créateurs et des consommateurs.
Conformément aux autres types de contenu dans le service Power BI, les autorisations
par élément sont utiles quand l’intention est de partager un élément avec un autre
utilisateur. Nous vous recommandons d’utiliser des rôles d’espace de travail et des
autorisations d’application dans la mesure du possible.
Qui peut voir des métriques individuelles sur une carte de performance.
Qui peut mettre à jour des métriques individuelles en :
Mettant à jour l’état pendant un archivage.
Ajoutant des notes pendant un archivage.
Mettant à jour la valeur actuelle pendant un archivage.
Pour réduire le niveau de la maintenance future, vous pouvez définir des autorisations
par défaut dont héritent les sous-paramètres que vous créez par la suite.
Check-list : voici les décisions et actions clés pour planifier les autorisations du créateur
de métriques :
Publication de contenu
Cette section comprend des rubriques de publication de contenu destinées aux
créateurs de contenu.
Espaces de travail
Les créateurs de contenu ont besoin d’un accès au rôle Administrateur, Membre ou
Contributeur pour publier du contenu sur un espace de travail. Pour plus d’informations,
consultez les rôles d’espace de travail décrits plus haut dans cet article.
Vous pouvez créer une solution Power Apps qui comprend des rapports Power BI
incorporés. Le processus Power Apps crée automatiquement un espace de travail
Power BI dédié pour stocker et sécuriser les rapports et modèles sémantiques Power BI.
Pour gérer les éléments qui existent à la fois dans Power Apps et Power BI, il existe un
processus de synchronisation.
Le processus synchronise les rôles de sécurité pour que Power BI puisse hériter des rôles
initialement configurés dans Power Apps. Il permet également au créateur de contenu
de gérer les autorisations de lecture des rapports Power BI (et des modèles sémantiques
associés) incorporés dans une application Power Apps.
Pour plus d’informations sur la synchronisation des rôles Power Apps avec les rôles
d’espace de travail Power BI, consultez Synchronisation des autorisations entre
l’environnement Power Apps et l’espace de travail Power BI.
Accès du pipeline de déploiement
Les créateurs et les propriétaires de contenu peuvent utiliser des pipelines de
déploiement Power BI pour la publication de contenu libre-service. Les pipelines de
déploiement simplifient le processus de publication et améliorent le niveau de contrôle
en cas de publication de nouveau contenu.
Vous gérez les autorisations de pipeline (pour les utilisateurs qui peuvent déployer du
contenu avec un pipeline de déploiement) séparément des rôles d’espace de travail.
L’accès à l’espace de travail et au pipeline de déploiement est nécessaire pour les
utilisateurs effectuant un déploiement.
Les créateurs de contenu peuvent également avoir besoin des autorisations suivantes :
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Le point de terminaison XMLA fournit également une connectivité. Vous pouvez vous
connecter à un modèle sémantique uniquement quand l’espace de travail a un mode de
licence Premium par utilisateur, Premium par capacité ou Embedded. Une fois qu’une
connexion est établie, un outil XMLA peut opérer sur le modèle de données pour lire ou
écrire des données. Pour plus d’informations sur l’utilisation du point de terminaison
XMLA pour gérer un modèle sémantique, consultez le scénario d’utilisation de la gestion
avancée des modèles de données.
L’accès par le point de terminaison XMLA respecte les autorisations existantes. Les
administrateurs, membres et contributeurs de l’espace de travail ont implicitement
l’autorisation de modèle sémantique Écrire, ce qui signifie qu’ils peuvent déployer de
nouveaux modèles sémantiques à partir de Visual Studio et exécuter des scripts TMSL
(Tabular Modeling Scripting Language) dans SQL Server Management Studio (SSMS).
Le paramètre de locataire Autoriser les points de terminaison XMLA et l’analyse dans Excel
avec les modèles sémantiques locaux fait référence à deux fonctionnalités : il contrôle les
groupes d’utilisateurs qui peuvent utiliser le point de terminaison XMLA pour interroger
et/ou gérer des modèles sémantiques dans le service Power BI. Il détermine également
si Analyser dans Excel peut être utilisé avec des modèles locaux SQL Server Analysis
Services (SSAS).
7 Notes
Publier sur le web est une fonctionnalité qui fournit l’accès aux rapports Power BI à
toute personne sur Internet. Elle ne nécessite pas d’authentification et d’accès n’est pas
journalisée à des fins d’audit. Étant donné que les consommateurs de rapports n’ont pas
besoin d’appartenir à l’organisation ou d’avoir une licence Power BI, cette technique est
bien adaptée au journalisme de données, un processus où les rapports sont incorporés
dans des billets de blog, des sites web, des e-mails ou des médias sociaux.
U Attention
Publier sur le web peut exposer des données sensibles ou confidentielles, que ce
soit accidentellement ou intentionnellement. C’est la raison pour laquelle elle est
désactivée par défaut. Publier sur le web doit être utilisé seulement pour les
rapports qui contiennent des données consultables par le public.
7 Notes
7 Notes
L’image peut être utile quand l’utilisateur destinataire n’a pas encore le
complément ou quand que le complément n’est pas connecté au service Power BI
pour récupérer des données. Dès que l’utilisateur est connecté, seules les données
que l’utilisateur peut voir (en appliquant une règle RLS) sont récupérées sur
Power BI.
Applications modèles
Les applications modèles permettent aux partenaires Power BI et aux fournisseurs de
logiciels de créer des applications Power BI avec peu ou pas de code, et de les déployer
pour n’importe quel client Power BI.
Il existe certaines limitations concernant les pièces jointes qui dépendent des restrictions
de licences et des paramètres de locataire. Pour plus d’informations, consultez
Abonnements aux e-mails de rapports et de tableaux de bord dans le service Power BI.
Check-list : voici les décisions et actions clés pour planifier la publication de contenu :
Power BI peut obtenir les informations d’identification de deux façons pour actualiser un
modèle sémantique.
Le propriétaire du modèle sémantique stocke les informations d’identification dans
les paramètres du modèle sémantique.
Le propriétaire du modèle sémantique référence une passerelle dans les
paramètres du modèle sémantique (qui contient une source de données avec des
informations d’identification stockées).
U Attention
Check-list : voici les décisions et actions clés pour planifier la sécurité des processus
d’actualisation des données :
" Choisir la stratégie pour les propriétaires de modèles sémantiques : déterminez
les préférences et les exigences qui existent pour gérer les propriétaires de modèles
sémantiques.
" Choisir la stratégie pour les propriétaires de flux de données : déterminez les
préférences et les exigences qui existent pour gérer les propriétaires de flux de
données.
" Ajouter de la documentation et une formation pour les créateurs de modèles
sémantiques : ajoutez des conseils pour indiquer à vos créateurs de données
comment gérer les propriétaires pour chaque type d’élément.
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
afin de vous aider à prendre des décisions concernant l’implémentation de Power BI,
consultez les domaines correspondants.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article présente les articles sur la protection des informations Power BI et la
protection contre la perte de données (DLP). Ces articles sont destinés à plusieurs
publics :
) Important
En tant que personne qui gère Power BI pour votre organisation, vous n’êtes
généralement pas directement responsable de la plupart des aspects de la protection
des informations et de la protection contre la perte de données. Il est probable que ces
responsabilités incombent à l’équipe de sécurité des informations et aux autres
administrateurs système.
Cet ensemble d’articles se concentre sur les éléments suivants :
) Important
La protection des données est un sujet complexe. À un niveau général, les sujets
pertinents pour Power BI sont les suivants :
Actions responsables prises par les utilisateurs : Les utilisateurs qui ont reçu des
conseils et de la formation, et qui comprennent clairement ce que l’on attend
d’eux, peuvent agir de manière éthique. Ils peuvent adopter une culture qui
valorise la sécurité, la confidentialité et la conformité dans le cours normal de leur
travail.
Autorisations de sécurité utilisateur dimensionnées : Dans Power BI, la
sécurisation des données et des rapports est distincte des activités de protection
des informations et DLP décrites dans ces articles. Les méthodes de sécurité dans
Power BI incluent des techniques telles que les rôles d’espace de travail, le partage,
les autorisations d’application et la sécurité au niveau des lignes (SNL). Les
techniques de sécurité, telles que les rôles d’espace de travail, les autorisations
d’application, le partage par élément et la sécurité au niveau des lignes, sont
traitées dans les articles de planification de la sécurité.
Gestion du cycle de vie des données : Les processus tels que les sauvegardes et le
contrôle de version sont importants pour la protection des données. La
configuration des clés de chiffrement et des emplacements géographiques pour le
stockage des données est également à prendre en compte.
Protection des informations : L’étiquetage et la classification du contenu à l’aide
d’étiquettes de confidentialité constituent la première étape pour pouvoir le
protéger. La protection des informations est abordée dans cette série d’articles.
Stratégies de protection contre la perte de données : DLP fait référence aux
contrôles et aux stratégies qui réduisent le risque de fuite de données. La
protection contre la perte de données est traitée dans cette série d’articles.
La série d’articles protection des informations et DLP se concentre sur les deux dernières
puces : la protection des informations et la protection contre la perte de données, et en
particulier leur relation avec Power BI.
Conseil
Conseil
La fuite de données fait référence au risque que des données soient consultées par
des utilisateurs non autorisés. Le terme est souvent utilisé lorsqu’il s’agit
d’utilisateurs externes. Toutefois, elle peut également s’appliquer aux utilisateurs
internes. La réduction du risque de fuite de données est généralement une priorité
absolue pour la protection des informations et les efforts DLP. Tous les cas d’usage
répertoriés dans cette section peuvent aider à réduire les fuites de données.
Cette section inclut des cas d’usage courants qui obligeraient une organisation à
implémenter la protection des informations et la protection contre la perte de données.
Les cas d’usage se concentrent principalement sur Power BI, bien que les avantages de
l’organisation soient beaucoup plus larges.
Une fois que vous avez affecté une étiquette de confidentialité au contenu dans Power
BI, vous pouvez acquérir des connaissances et des insights sur :
Si des données sensibles sont contenues dans un espace de travail Power BI.
Si un élément Power BI particulier, tel qu’un modèle sémantique – précédemment
appelé jeu de données, est considéré comme confidentiel.
Qui peut accéder aux éléments Power BI considérés comme sensibles.
Qui a accédé aux données sensibles dans le service Power BI.
Lorsqu’elles sont exportées à partir du service Power BI, les étiquettes de confidentialité
sont conservées lorsque le contenu est exporté vers des types de fichiers pris en charge.
La rétention de l’étiquette lors de l’exportation du contenu est un autre facteur clé pour
réduire les fuites de données.
Étant donné que les étiquettes de confidentialité sont clairement affichées en texte brut,
elles servent de rappels utiles aux utilisateurs. Dans le cadre normal de leur travail, les
étiquettes sensibilisent les utilisateurs à la manière dont ils doivent interagir avec les
données conformément aux lignes directrices et aux stratégies de l'organisation.
Pour plus d’informations, consultez Protection des informations pour Power BI.
Lorsqu’un jeu de données a été publié dans le service Power BI et qu’il se trouve dans un
espace de travail Premium, vous pouvez utiliser DLP pour Power BI afin de détecter
l’existence de certains types d’informations sensibles qu’il contient. Cette fonctionnalité
est utile pour trouver des données sensibles (telles que des données financières ou
personnelles) stockées dans des modèles sémantiques Power BI.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Conseil
) Important
Pour plus d’informations sur les types de contrôles que vous pouvez implémenter pour
réduire les fuites de données, consultez Defender for Cloud Apps pour Power BI.
Par exemple, vous pouvez empêcher les utilisateurs de télécharger des données et des
rapports hautement sensibles à partir du service Power BI. Ce type de contrôle en temps
réel est utile lorsqu’une personne est autorisée à afficher du contenu elle-même, mais
elle doit être empêchée de le télécharger et de le distribuer à d’autres personnes.
Pour plus d’informations sur les types de contrôles que vous pouvez implémenter,
consultez Defender for Cloud Apps pour Power BI.
Conseil
Les fonctionnalités et services les plus pertinents pour cette série d’articles sont les
suivants :
La liste ci-dessus n’est pas exhaustive. Microsoft Purview inclut un large ensemble de
fonctionnalités qui dépassent de loin la portée de cette série d’articles. Par exemple, les
fonctionnalités de catalogage et de gouvernance des données Microsoft Purview sont
importantes ; toutefois, elles ne sont pas directement dans l’étendue de cette série
d’articles.
Conseil
Si vous avez des questions sur les services, les fonctionnalités ou les licences,
contactez votre équipe de compte Microsoft. Ils sont les mieux placés pour clarifier
ce qui est disponible pour votre organisation.
Le reste du contenu relatif à la protection des informations et à la DLP est organisé dans
les articles suivants :
Contenu connexe
Dans l’article suivant de cette série, découvrez comment bien démarrer avec la
protection des informations avec les activités de planification au niveau de l’organisation
pour Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
) Important
ノ Agrandir le tableau
Item Description
Les étiquettes de confidentialité peuvent être appliquées aux sites Teams, aux sites
SharePoint et aux groupes Microsoft 365.
Dans le diagramme, notez que les éléments du service Power BI et les fichiers Power BI
Desktop ne sont que quelques-unes des nombreuses ressources qui permettent
d’attribuer des étiquettes de confidentialité. Les étiquettes de confidentialité sont
définies de manière centralisée dans la protection des informations de Microsoft
Purview. Une fois définies, les mêmes étiquettes sont utilisées par toutes les applications
prises en charge au sein de l’organisation. Il n’est pas possible de définir des étiquettes à
utiliser dans une seule application, telle que Power BI. Par conséquent, votre processus
de planification doit prendre en compte un ensemble plus large de scénarios
d’utilisation pour définir des étiquettes qui peuvent être utilisées dans plusieurs
contextes. Étant donné que la protection des informations est destinée à être utilisée de
manière cohérente entre les applications et les services, il est essentiel de commencer
par évaluer les étiquettes de confidentialité actuellement en place.
7 Notes
Personnel d’équipe
Comme indiqué précédemment, la plupart des fonctionnalités de protection des
informations et de protection contre la perte de données qui seront configurées auront
un impact sur l’ensemble de l’organisation (bien au-delà de Power BI). C’est pourquoi il
est essentiel de constituer une équipe qui comprend toutes les personnes pertinentes.
L’équipe sera cruciale pour définir les objectifs (décrits dans la section suivante) et
guider l’effort global.
Lorsque vous définissez les rôles et les responsabilités de votre équipe, nous vous
recommandons d’inclure des personnes capables de traduire les exigences et de bien
communiquer avec les parties prenantes.
Votre équipe doit inclure des parties prenantes pertinentes, impliquant différentes
personnes et différents groupes dans l’organisation, notamment :
Conseil
La clarté des rôles et des responsabilités est nécessaire pour éviter les malentendus et
les retards lorsque l’on travaille avec des équipes interfonctionnelles au-delà des
frontières de l’organisation.
Objectifs et exigences
Il est important de prendre en compte vos objectifs en matière d’implémentation de la
protection des informations et de la protection contre la perte de données. Les
différentes parties prenantes de l’équipe que vous avez réunies sont susceptibles d’avoir
des points de vue et des domaines de préoccupation différents.
À ce stade, nous vous recommandons de vous concentrer sur les objectifs stratégiques.
Si votre équipe a commencé par définir les détails du niveau d’implémentation, nous
vous suggérons de revenir en arrière et de définir les objectifs stratégiques. Des
objectifs stratégiques bien définis vous aideront à fournir une implémentation plus
fluide.
N’oubliez pas qu’une initiative visant à introduire la protection des informations est
complémentaire à d’autres approches connexes qui impliquent la sécurité et la
confidentialité. Coordonnez les initiatives de protection des informations avec d’autres
efforts, tels que :
Accéder aux rôles, autorisations, partage et sécurité au niveau des lignes pour le
contenu Power BI
Exigences de résidence des données
Exigences de sécurité du réseau
Cryptage des données
Initiatives de catalogage des données
Pour plus d’informations sur la sécurisation des contenus dans Power BI, consultez les
articles Planification de la sécurité.
Contenu connexe
Dans l’article suivant de cette série, découvrez l’étiquetage et la classification des
ressources de données à utiliser avec Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
) Important
Pour plus de cas d’usage pour la protection des informations, consultez Protection des
informations et protection contre la perte de données (cas d’usage courants).
Conseil
Une étiquette de confidentialité est une brève description en texte clair. D’un point de
vue conceptuel, vous pouvez penser à une étiquette de confidentialité comme une
étiquette. Une seule étiquette peut être attribuée à chaque élément (comme un modèle
sémantique Power BI, précédemment appelé jeu de données, dans le service Power BI)
ou à chaque fichier (comme un fichier Power BI Desktop).
État actuel : l’état actuel de la protection des informations dans votre organisation.
Vous devez savoir si les étiquettes de confidentialité sont déjà utilisées pour les
fichiers Microsoft Office. Dans ce cas, l’étendue du travail pour ajouter Power BI est
beaucoup plus petite que si vous apportez la protection des informations à
l’organisation pour la première fois.
Objectifs et exigences : les objectifs stratégiques de l’implémentation de la
protection contre la perte de données dans votre organisation. La compréhension
des objectifs et des exigences servira de guide pour vos efforts d’implémentation.
Si la protection des informations n’est pas utilisée par votre organisation, le reste de
cette section fournit des informations pour vous aider à collaborer avec d’autres
personnes pour introduire la protection des informations dans votre organisation.
Si la protection des informations est activement utilisée dans votre organisation, nous
vous recommandons d’utiliser cet article pour vérifier que les conditions préalables sont
remplies. Si les étiquettes de confidentialité sont activement utilisées, la plupart (ou
toutes) les activités des phases de déploiement 1 à 4 (dans la section suivante) sont déjà
terminées.
Phases de déploiement
Nous vous recommandons d’adopter un plan de déploiement progressif pour
l’implémentation et le test de la protection des informations. L’objectif d’un plan de
déploiement progressif est de vous préparer à apprendre, à ajuster et à itérer au fur et à
mesure. L’avantage est que moins d’utilisateurs sont impactés au cours des premières
phases (lorsque les modifications sont plus probables), jusqu’à ce que la protection des
informations soit finalement déployée pour tous les utilisateurs de l’organisation.
L’introduction de la protection des informations est une entreprise importante. Comme
décrit dans l’article Planification de la protection des informations au niveau de
l’organisation, si votre organisation a déjà implémenté la protection des informations
pour les documents Microsoft Office, bon nombre de ces tâches sont déjà effectuées.
Cette section fournit une vue d’ensemble des phases que nous vous recommandons
d’inclure dans votre plan de déploiement progressif. Cela devrait vous donner une idée
de ce à quoi vous attendre. Le reste de cet article décrit d’autres critères de prise de
décision pour les aspects clés qui affectent Power BI le plus directement.
Le plus tôt possible, précisez où les tests initiaux auront lieu. Ce choix aura un impact sur
l’emplacement où vous allez initialement configurer, publier et tester. Pour les tests
initiaux, vous pouvez utiliser un locataire hors production (si vous y avez accès).
Conseil
La plupart des organisations ont un locataire, il peut donc être difficile d’explorer
de nouvelles fonctionnalités de manière isolée. Pour les organisations qui ont un
locataire de développement ou de test distinct, nous vous recommandons de
l’utiliser pour la phase de test initiale. Pour plus d’informations sur la gestion des
locataires et sur la création d’un locataire d’évaluation pour tester de nouvelles
fonctionnalités, consultez Configuration du locataire.
Il est important d’avoir une partie de la documentation utilisateur publiée tôt. Il est
également important que l’équipe de support utilisateur soit préparée à l’avance.
7 Notes
) Important
Vous devez définir les paramètres du locataire après avoir configuré et publié les
étiquettes dans le portail de conformité Microsoft Purview.
) Important
Même si seuls quelques membres de l’équipe sont autorisés à définir une étiquette
de confidentialité, tous les utilisateurs pourront voir les étiquettes attribuées au
contenu. Si vous utilisez votre locataire de production, les utilisateurs peuvent se
demander pourquoi ils voient des étiquettes attribuées à des éléments dans un
espace de travail dans le service Power BI. Soyez prêt à prendre en charge et à
répondre aux questions des utilisateurs.
À cette fin, vous devez publier (ou republier) la stratégie d’étiquette pour un petit sous-
ensemble d’utilisateurs qui sont prêts à fournir des commentaires.
Conseil
Veillez à prendre suffisamment de temps dans votre plan de projet. Pour les
étiquettes et les paramètres de stratégie d’étiquette, la documentation du produit
recommande d’attendre 24 heures pour que les modifications prennent effet. Ce
temps est nécessaire pour garantir que toutes les modifications se propagent aux
services associés.
Souvent, l’objectif initial est d’atteindre un état où tout le contenu Power BI a une
étiquette de confidentialité attribuée. Pour atteindre cet objectif, vous pouvez introduire
une stratégie d’étiquette obligatoire ou une stratégie d’étiquette par défaut. Vous
pouvez également utiliser les API d’administration de protection des informations pour
définir ou supprimer des étiquettes de confidentialité par programme.
La protection des informations peut également être utilisée pour créer des stratégies
dans les applications Microsoft Defender pour le cloud. Pour plus d’informations, y
compris une description des fonctionnalités qui peuvent vous être utiles, consultez
Applications Microsoft Defender pour le cloud pour Power BI.
Cette section n’est pas une liste exhaustive de toutes les considérations possibles
relatives aux étiquettes de confidentialité pour toutes les applications possibles. Au lieu
de cela, elle se concentre sur les considérations et les activités qui affectent directement
la classification du contenu Power BI. Veillez à travailler avec d’autres parties prenantes
et administrateurs système pour prendre des décisions qui fonctionnent bien pour
toutes les applications et les cas d’usage.
Conseil
La plupart des organisations commencent par attribuer des étiquettes aux fichiers
Microsoft Office. Elles évoluent ensuite pour classifier d’autres contenus, tels que
les éléments et fichiers Power BI.
Conseil
Bien que les sous-étiquettes offrent de la flexibilité, elles doivent être utilisées avec
modération uniquement pour répondre aux exigences critiques. La création d’un
trop grand nombre de sous-étiquettes entraîne une gestion accrue. Elles peuvent
également submerger les utilisateurs avec trop d’options.
Parfois, le contenu Power BI contient des données qui s’étendent sur plusieurs
étiquettes. Par exemple, un modèle sémantique pourrait contenir des informations sur
l’inventaire des produits (Usage interne général) et les chiffres de ventes du trimestre
actuel (Restreinte). Lors du choix de l’étiquette à attribuer au modèle sémantique Power
BI, les utilisateurs doivent apprendre à appliquer l’étiquette la plus restrictive.
Conseil
) Important
Soyez délibéré avec les étiquettes que vous créez, car il est difficile de supprimer ou
d’éliminer une étiquette une fois que vous avez progressé au-delà de la phase de test
initiale. Étant donné que les sous-étiquettes peuvent (éventuellement) être utilisées pour
un ensemble particulier d’utilisateurs, elles peuvent changer plus souvent que les
étiquettes.
Utiliser des termes intuitifs et non ambigus : il est important de faire preuve de
clarté pour que les utilisateurs sachent ce qu’ils doivent choisir lorsqu’ils classent
leurs données. Par exemple, avoir une étiquette Top Secret et une étiquette
Hautement confidentiel est ambigu.
Créer un ordre hiérarchique logique : l’ordre des étiquettes est crucial pour que
tout fonctionne correctement. N’oubliez pas que la dernière étiquette de la liste
est la plus sensible. L’ordre hiérarchique, en combinaison avec des termes bien
sélectionnés, doit être logique et intuitif pour les utilisateurs. Une hiérarchie claire
facilite également la création et la maintenance des stratégies.
Créer seulement quelques étiquettes qui s’appliquent à l’ensemble de
l’organisation : le fait d’avoir trop d’étiquettes parmi lesquelles les utilisateurs
peuvent choisir est déroutant. Cela entraînera également une sélection d’étiquette
moins précise. Nous vous recommandons de créer seulement quelques étiquettes
pour l’ensemble initial.
Utiliser des noms génériques explicites : évitez d’utiliser le jargon ou les
acronymes du secteur dans les noms de vos étiquettes. Par exemple, au lieu de
créer une étiquette nommée Informations d’identification personnelle, utilisez
plutôt des noms comme Hautement restreinte ou Hautement confidentielle.
Utiliser des termes facilement localisés dans d’autres langues : pour les
organisations mondiales ayant des activités dans plusieurs pays/régions, il est
important de choisir des termes d’étiquette qui ne seront pas confus ou ambigus
lorsqu’ils sont traduits dans d’autres langues.
Conseil
Si vous vous trouvez à planifier de nombreuses étiquettes qui sont très spécifiques,
prenez du recul et réévaluez votre approche. La complexité peut entraîner la
confusion des utilisateurs, une adoption réduite et une protection des informations
moins efficace. Nous vous recommandons de commencer par un ensemble initial
d’étiquettes (ou d’utiliser ce que vous avez déjà). Une fois que vous avez acquis
plus d’expérience, développez prudemment l’ensemble d’étiquettes en ajoutant
des étiquettes plus spécifiques si nécessaire.
Éléments (tels que les éléments publiés sur le service Power BI, les fichiers et les e-
mails)
Groupes et sites (tels qu’un canal Teams ou un site SharePoint)
Ressources de données schématisées (sources prises en charge qui sont inscrites
dans le mappage de données Purview)
) Important
Il n’est pas possible de définir une étiquette de confidentialité avec une étendue de
Power BI uniquement. Bien que certains paramètres s’appliquent spécifiquement à
Power BI, l’étendue n’en fait pas partie. L’étendue des éléments est utilisée pour le
service Power BI. Les étiquettes de confidentialité sont gérées différemment des
stratégies de protection des informations et protection contre la perte de données,
qui sont décrites dans l’article Protection contre la perte de données pour la
planification Power BI, de sorte que certains types de stratégies de protection des
informations et protection contre la perte de données peuvent être définies
spécifiquement pour Power BI. Si vous envisagez d’utiliser l’héritage d’étiquettes de
confidentialité à partir de sources de données dans Power BI, il existe des
exigences spécifiques pour l’étendue de l’étiquette.
Les événements liés aux étiquettes de confidentialité sont enregistrés dans l’explorateur
d’activités. Les détails journalisés de ces événements seront considérablement plus
riches lorsque l’étendue est plus large. Vous serez également mieux préparé à protéger
les données dans un large éventail d’applications et de services.
Conseil
Seuls les utilisateurs autorisés (par exemple, les utilisateurs internes au sein de
votre organisation) peuvent ouvrir, déchiffrer et lire un fichier protégé.
Le chiffrement reste avec un fichier protégé, même lorsque le fichier est envoyé en
dehors de l’organisation ou est renommé.
Le paramètre de chiffrement est obtenu à partir du contenu étiqueté d’origine.
Considérez qu’un rapport dans le service Power BI a une étiquette de
confidentialité de Hautement restreinte. Si elle est exportée vers un chemin
d’exportation pris en charge, l’étiquette reste intacte et le chiffrement est appliqué
sur le fichier exporté.
Le service Azure Rights Management (Azure RMS) est utilisé pour la protection des
fichiers avec chiffrement. Certaines conditions préalables importantes doivent être
remplies pour utiliser le chiffrement Azure RMS.
) Important
Les étiquettes chiffrées sont gérées différemment selon l’endroit où l’utilisateur travaille.
Dans le service Power BI : le paramètre de chiffrement n’a pas d’effet direct sur
l’accès utilisateur dans le service Power BI. Les autorisations Power BI standard
(telles que les rôles d’espace de travail, les autorisations d’application ou les
autorisations de partage) contrôlent l’accès utilisateur dans le service Power BI. Les
étiquettes de confidentialité n’affectent pas l’accès au contenu dans le service
Power BI.
Fichiers Power BI Desktop : une étiquette chiffrée peut être attribuée à un fichier
Power BI Desktop. L’étiquette est également conservée lorsqu’elle est exportée à
partir du service Power BI. Seuls les utilisateurs autorisés peuvent ouvrir, déchiffrer
et afficher le fichier.
Fichiers exportés : les fichiers Microsoft Excel, Microsoft PowerPoint et PDF
exportés à partir du service Power BI conservent leur étiquette de confidentialité, y
compris la protection contre le chiffrement. Pour les formats de fichiers pris en
charge, seuls les utilisateurs autorisés peuvent ouvrir, déchiffrer et afficher le
fichier.
) Important
Il est essentiel que les utilisateurs comprennent les distinctions entre le service
Power BI et les fichiers, qui sont facilement confondus. Nous vous recommandons
de fournir un document FAQ, ainsi que des exemples, pour aider les utilisateurs à
comprendre les différences.
Pour ouvrir un fichier Power BI Desktop protégé ou un fichier exporté, un utilisateur doit
répondre aux critères suivants.
Conseil
Le paramètre de locataire Autoriser les administrateurs de l’espace de travail à
remplacer les étiquettes de confidentialité appliquées automatiquement permet
aux administrateurs de l’espace de travail de modifier une étiquette qui a été
automatiquement appliquée, même si la protection (chiffrement) est activée pour
l’étiquette. Cette fonctionnalité est particulièrement utile lorsqu’une étiquette a été
automatiquement attribuée ou héritée, mais que l’administrateur de l’espace de
travail n’est pas un utilisateur autorisé.
La protection des étiquettes est définie dans le portail de conformité Microsoft Purview
lorsque vous configurez l’étiquette.
" Déterminer les étiquettes qui doivent être chiffrées : pour chaque étiquette de
confidentialité, déterminez si elle doit être chiffrée (protégée). Examinez
attentivement les limitations impliquées.
" Identifier les autorisations RMS pour chaque étiquette : déterminez les
autorisations de l’utilisateur pour accéder aux fichiers chiffrés et interagir avec eux.
Créez un mappage d’utilisateurs et de groupes pour chaque étiquette de
confidentialité pour faciliter le processus de planification.
" Passer en revue et résoudre les prérequis de chiffrement RMS : assurez-vous que
les conditions techniques requises pour utiliser le chiffrement Azure RMS sont
remplies.
" Prévoir d’effectuer des tests approfondis du chiffrement : en raison des
différences entre les fichiers Office et les fichiers Power BI, assurez-vous que vous
vous engagez dans une phase de test approfondie.
" Inclure dans la documentation utilisateur et la formation : veillez à inclure des
lignes directrices dans votre documentation et une formation sur ce que les
utilisateurs doivent attendre pour les fichiers auxquels une étiquette de
confidentialité est chiffrée.
" Effectuer le transfert des connaissances avec le support : planifiez des sessions de
transfert de connaissances spécifiques avec l’équipe de support. En raison de la
complexité du chiffrement, elle recevra probablement des questions de la part des
utilisateurs.
Héritage des étiquettes à partir de sources de
données
Lors de l’importation de données à partir de sources de données prises en charge (telles
que Azure Synapse Analytics, Azure SQL Database ou un fichier Excel), un modèle
sémantique Power BI peut éventuellement hériter de l’étiquette de confidentialité
appliquée aux données sources. L’héritage permet de :
Conseil
Vous pouvez attribuer des étiquettes de confidentialité à une source de données prise
en charge de différentes manières.
2 Avertissement
Conseil
L’utilisation de plusieurs stratégies d’étiquette peut être utile lorsque vous devez cibler
différents ensembles d’utilisateurs. Vous pouvez définir une étiquette de confidentialité
une seule fois, puis l’inclure dans une ou plusieurs stratégies d’étiquette.
Conseil
Nous vous recommandons d’attribuer des groupes au lieu d’individus dans la mesure du
possible. L’utilisation de groupes simplifie la gestion de la stratégie et réduit la
fréquence à laquelle elle doit être republiée.
2 Avertissement
Les utilisateurs et les groupes autorisés pour une étiquette sont différents des
utilisateurs attribués à Azure RMS pour une étiquette protégée (chiffrée). Si un
utilisateur rencontre des problèmes lors de l’ouverture d’un fichier chiffré, examinez
les autorisations de chiffrement pour des utilisateurs et des groupes spécifiques
(qui sont configurées dans la configuration de l’étiquette, plutôt que dans la
stratégie d’étiquette). Dans la plupart des cas, nous vous recommandons d’attribuer
les mêmes utilisateurs aux deux. Cette cohérence permet d’éviter toute confusion
et de réduire les tickets de support.
Les utilisateurs et les groupes autorisés sont définis dans le portail de conformité
Microsoft Purview lors de la publication de la stratégie d’étiquette.
Conseil
Bien que vous puissiez définir différentes étiquettes par défaut (pour le contenu
Power BI et non Power BI), déterminez s’il s’agit de la meilleure option pour les
utilisateurs.
Les options d’étiquette par défaut sont définies dans le portail de conformité Microsoft
Purview lors de la publication de la stratégie d’étiquette.
Une stratégie d’étiquette obligatoire garantit que l’étiquette ne sera pas vide
Une stratégie d’étiquette obligatoire oblige les utilisateurs à choisir ce que doit
être l’étiquette
Une stratégie d’étiquette obligatoire empêche les utilisateurs de supprimer
entièrement une étiquette
Une stratégie d’étiquette par défaut est moins intrusive pour les utilisateurs, car
elle n’exige pas qu’ils agissent
Une stratégie d’étiquette par défaut peut entraîner un contenu mal étiqueté, car un
utilisateur n’a pas expressément fait le choix
L’activation d’une stratégie d’étiquette par défaut et d’une stratégie d’étiquette
obligatoire peut fournir des avantages complémentaires
Conseil
Conseil
Une licence Protection des données Microsoft Purview est requise pour :
Vous disposez peut-être déjà de ces fonctionnalités, car elles sont incluses dans
certaines suites de licences, telles que Microsoft 365 E5 . Par ailleurs, les fonctionnalités
de Microsoft 365 E5 Conformité peuvent être achetées sous forme de licence
autonome.
Une licence Power BI Pro ou Premium par utilisateur est également requise pour les
utilisateurs qui appliquent et gèrent les étiquettes de confidentialité dans le service
Power BI ou le Power BI Desktop.
Conseil
Si vous avez besoin de clarifications sur les exigences de licence, contactez votre
équipe de compte Microsoft. N’oubliez pas que la licence Microsoft 365 E5
Conformité inclut des fonctionnalités supplémentaires qui n’entrent pas dans le
cadre de cet article.
Liste de vérification : lors de l’évaluation des exigences de licence pour les étiquettes de
confidentialité, les décisions et actions clés incluent :
" Passer en revue les exigences de licence des produits : vérifiez que vous avez
examiné toutes les exigences de licence.
" Passer en revue les conditions requises pour les licences utilisateur : vérifiez que
tous les utilisateurs auxquels vous prévoyez d’attribuer des étiquettes disposent de
licences Power BI Pro ou PPU.
" Se procurer des licences supplémentaires : le cas échéant, achetez d’autres
licences pour déverrouiller la fonctionnalité que vous envisagez d’utiliser.
" Attribuer des licences : attribuez une licence à chaque utilisateur qui affectera,
mettra à jour ou gérera les étiquettes de confidentialité. Attribuez une licence à
chaque utilisateur qui interagira avec les fichiers chiffrés.
) Important
) Important
2 Avertissement
Conseil
7 Notes
Voici quelques-unes des informations clés que vous pouvez inclure dans votre stratégie
de classification et de protection des données.
Conseil
Vous pouvez publier les lignes directrices dans le cadre de la page d’aide personnalisée
de l’étiquette de confidentialité. Une page SharePoint ou une page wiki dans votre
portail centralisé peut fonctionner correctement, car elle sera facile à gérer. Un
document chargé sur une bibliothèque partagée ou un site Teams est également une
bonne approche. L’URL de la page d’aide personnalisée est spécifiée dans le portail de
conformité Microsoft Purview lorsque vous publiez la stratégie d’étiquette.
Conseil
La page d’aide personnalisée est une ressource importante. Des liens vers celle-ci
sont mis à disposition dans divers applications et services.
Les questions fréquentes (FAQ) et les exemples sont particulièrement utiles pour la
documentation utilisateur.
Conseil
" Identifier les informations à inclure : déterminez les informations à inclure afin que
tous les publics concernés comprennent ce qui est attendu d’eux lorsqu’il s’agit de
protéger les données pour le compte de l’organisation.
" Publier la page d’aide personnalisée : créez et publiez une page d’aide
personnalisée. Incluez des lignes directrices sur l’étiquetage sous forme de FAQ et
d’exemples. Incluez un lien pour accéder à la stratégie de classification et de
protection des données.
" Publier la stratégie de classification et de protection des données : publiez le
document de stratégie qui définit exactement ce qui peut ou ne peut pas être fait
avec le contenu affecté à chaque étiquette.
" Déterminer si une formation spécifique est nécessaire : créez ou mettez à jour
votre formation utilisateur pour inclure des informations utiles, en particulier s’il
existe une exigence réglementaire.
Service client
Il est important de vérifier qui sera responsable du support utilisateur. Il est fréquent
que les étiquettes de confidentialité soient prises en charge par un support technique
informatique centralisé.
Vous devrez peut-être créer des conseils pour le support technique (parfois appelé
runbook). Vous allez peut-être devoir également organiser des sessions de transfert de
connaissances pour vous assurer que le support technique est prêt à répondre aux
demandes de support.
" Identifier qui fournira le support utilisateur : lorsque vous définissez des rôles et
des responsabilités, veillez à inclure la façon dont les utilisateurs obtiendront de
l’aide sur les problèmes liés à la protection des informations.
" Vérifier que l’équipe de support utilisateur est prête : créez de la documentation
et organisez des sessions de transfert des connaissances pour vous assurer que le
support technique est prêt à prendre en charge la protection des informations.
Mettez l’accent sur les aspects complexes qui peuvent perturber les utilisateurs, tels
que la protection du chiffrement.
" Communiquer entre les équipes : discutez du processus et des attentes avec
l’équipe de support technique, ainsi que vos administrateurs Power BI et le Centre
d’excellence. Assurez-vous que toutes les personnes impliquées sont préparées aux
questions potentielles des utilisateurs Power BI.
Récapitulatif de l’implémentation
Une fois les décisions prises et les conditions préalables remplies, il est temps de
commencer à implémenter la protection des informations conformément à votre plan
de déploiement progressif.
" Vérifier l’état actuel et les objectifs : assurez-vous que l’état actuel de la protection
des informations dans l’organisation soit clair. Tous les objectifs et exigences pour
l’implémentation de la protection des informations doivent être clairs et activement
utilisés pour diriger le processus de prise de décision.
" Prendre des décisions : passez en revue et discutez de toutes les décisions requises.
Cette tâche doit se produire avant de configurer quoi que ce soit en production.
" Passer en revue les exigences de licence : assurez-vous de bien comprendre les
exigences relatives aux licences de produits et aux licences utilisateur. Procurez-
vous et attribuez davantage de licences, si nécessaire.
" Publier la documentation utilisateur : publiez votre stratégie de classification et de
protection des données. Créez une page d’aide personnalisée qui contient les
informations pertinentes dont les utilisateurs auront besoin.
" Préparer l’équipe de support technique : organisez des sessions de transfert des
connaissances pour vous assurer que l’équipe de support technique est prête à
répondre aux questions des utilisateurs.
" Créer les étiquettes de confidentialité : configurez chacune des étiquettes de
confidentialité dans le portail de conformité Microsoft Purview.
" Publier une stratégie d’étiquette de confidentialité : créez et publiez une stratégie
d’étiquette dans le portail de conformité Microsoft Purview. Commencez par tester
avec un petit groupe d’utilisateurs.
" Définir les paramètres locataires Power BI : dans le portail d’administration Power
BI, définissez les paramètres locataires de la protection des informations.
" Effectuer des tests initiaux : effectuez un ensemble de tests initiaux pour vérifier
que tout fonctionne correctement. Utilisez un locataire hors production pour les
tests initiaux, si disponible.
" Recueillir les commentaires des utilisateurs : publiez la stratégie d’étiquette pour
un petit sous-ensemble d’utilisateurs prêts à tester la fonctionnalité. Obtenez des
commentaires sur le processus et l’expérience utilisateur.
" Poursuivre les mises en production itératives : publiez la stratégie d’étiquette sur
d’autres groupes d’utilisateurs. Intégrez davantage de groupes d’utilisateurs jusqu’à
ce que l’intégralité de l’organisation soit incluse.
Conseil
Ces éléments de liste de vérification sont résumés à des fins de planification. Pour
plus d’informations sur ces éléments de la liste de vérification, consultez les
sections précédentes de cet article.
Surveillance continue
Une fois l’implémentation terminée, vous devrez vous concentrer sur la surveillance et le
réglage des étiquettes de confidentialité.
Conseil
Contenu connexe
Dans l’article suivant de cette série, découvrez la protection contre la perte de données
pour Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
) Important
Objectif de la DLP
La protection contre la perte de données (DLP) fait référence aux activités et aux
pratiques qui protègent les données dans l’organisation. L’objectif de la protection
contre la perte de données est de réduire le risque de fuite de données, ce qui peut se
produire lorsque des personnes non autorisées partagent des données sensibles. Bien
que le comportement responsable des utilisateurs soit un élément essentiel de la
protection des données, DLP fait généralement référence aux stratégies automatisées.
Services DLP
D'une manière générale, il existe deux services différents qui peuvent mettre en œuvre
la prévention de la perte de données.
) Important
Cet article fait parfois référence à Power BI Premium ou à ses abonnements de
capacité (SKU P). Sachez que Microsoft regroupe actuellement des options d’achat
et met hors service les SKU Power BI Premium par capacité. Les clients nouveaux et
existants doivent plutôt envisager l’achat d’abonnements de capacité Fabric (SKU
F).
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
L’objectif de ce type de stratégie DLP est de sensibiliser les utilisateurs et d’informer les
administrateurs de l’emplacement où les données sensibles sont stockées. La stratégie
DLP peut générer des notifications utilisateur et des alertes administrateur basées sur
des types d’informations sensibles ou des étiquettes de confidentialité. Par exemple,
vous pouvez déterminer si les informations de carte de crédit ou les informations
d’identification personnelle (PII) sont stockées dans un modèle sémantique.
7 Notes
L’article Defender for Cloud Apps pour Power BI traite de l’utilisation de Defender for
Cloud Apps pour la surveillance des service Power BI. Le reste de cet article se concentre
sur la DLP pour Power BI.
) Important
Une stratégie DLP pour Power BI, configurée dans le portail de conformité
Microsoft Purview, peut être appliquée uniquement pour le contenu stocké dans un
espace de travail Power BI Premium. Toutefois, les stratégies configurées dans
Defender for Cloud Apps n’ont pas de Power BI Premium conditions préalables
similaires. N’oubliez pas que les fonctionnalités, l’objectif et les actions disponibles
diffèrent pour les deux ensembles d’outils. Pour obtenir un effet maximal, nous
vous recommandons d’utiliser les deux ensembles d’outils.
État actuel : L’état actuel de DLP dans votre organisation. Vous devez comprendre
dans quelle mesure DLP est déjà utilisé et qui est responsable de sa gestion.
Objectifs et exigences : Les objectifs stratégiques de l’implémentation de DLP
dans votre organisation. La compréhension des objectifs et des exigences servira
de guide pour vos efforts d’implémentation.
L’avantage de définir des règles distinctes au sein d’une stratégie DLP unique est que
vous pouvez activer des alertes personnalisées ou des notifications utilisateur.
Il existe une priorité hiérarchique pour la liste des stratégies DLP, ainsi que pour les
règles de stratégie DLP, à prendre en compte. La priorité affecte la stratégie qui est
appelée lorsqu’elle est rencontrée en premier.
U Attention
Cette section n’est pas une liste exhaustive de toutes les décisions DLP possibles
pour toutes les applications possibles. Veillez à travailler avec d’autres parties
prenantes et administrateurs système pour prendre des décisions qui fonctionnent
bien pour toutes les applications et les cas d’usage. Par exemple, nous vous
recommandons d’examiner d’autres stratégies DLP pour protéger les fichiers
sources et les fichiers exportés qui sont stockés dans OneDrive ou SharePoint. Cet
ensemble d’articles se concentre uniquement sur le contenu du service Power BI.
) Important
Bien que vous puissiez affecter des étiquettes de confidentialité à la plupart des
types d’éléments dans Power BI, les stratégies DLP décrites dans cet article se
concentrent spécifiquement sur les modèles sémantiques. Le modèle sémantique
doit être publié dans un espace de travail Premium.
Étiquette de sensibilité
Vous pouvez utiliser des étiquettes de confidentialité pour classifier le contenu, allant de
moins sensible à plus sensible.
Lorsqu’une stratégie DLP pour Power BI est appelée, une règle d’étiquette de
confidentialité vérifie les modèles sémantiques (publiés sur le service Power BI) pour la
présence d’une étiquette de confidentialité spécifique. Comme décrit dans l’article
Protection des informations pour Power BI, une étiquette peut être affectée par un
utilisateur ou par un processus automatisé (par exemple, une étiquette héritée ou une
étiquette par défaut).
Voici quelques exemples de cas où vous pouvez créer une règle DLP basée sur une
étiquette de confidentialité.
D’autres considérations relatives aux notifications et alertes utilisateur sont décrites dans
cette section suivante de cet article.
" Vérifiez l’état actuel de la protection des informations : Vérifiez que les étiquettes
de confidentialité sont déployées dans l’organisation et qu’elles sont prêtes à être
utilisées par les stratégies DLP.
" Compilez les cas d’usage pour DLP en fonction des étiquettes de confidentialité :
Déterminez quelles étiquettes de confidentialité tireraient parti de la mise en place
de stratégies DLP. Tenez compte de vos objectifs, de vos réglementations et de vos
exigences internes.
" Hiérarchisez la liste des cas d’usage pour DLP en fonction des étiquettes de
confidentialité : Discutez des principales priorités avec votre équipe. Identifiez les
éléments à hiérarchiser dans votre plan de projet.
7 Notes
Les stratégies DLP sont généralement automatisées. Toutefois, les actions utilisateur
responsables jouent également un rôle crucial dans la protection des données.
Pour plus d’informations, consultez Protection des informations pour Power BI (stratégie
de classification et de protection des données). Il décrit une stratégie de gouvernance
interne qui fournit des conseils sur ce que les utilisateurs peuvent et ne peuvent pas
faire avec le contenu affecté à une certaine étiquette de confidentialité.
Conseil
Les SIT sont des classifieurs basés sur des modèles. Ils recherchent un modèle connu
dans le texte à l’aide d’expressions régulières.
Si les SIT préconfigurés ne répondent pas à vos besoins ou si vous avez des modèles de
données propriétaires, vous pouvez créer un SIT personnalisé. Par exemple, vous pouvez
créer un SIT personnalisé pour correspondre au modèle de votre numéro d’ID
d’employé.
Une fois le SIT configuré, une stratégie DLP pour Power BI est appelée lorsqu’un modèle
sémantique est chargé ou actualisé. À ce stade, une règle de type d’informations
sensibles vérifie les modèles sémantiques (dans le service Power BI) pour la présence de
types d’informations sensibles.
Voici quelques exemples de cas où vous pouvez créer une règle DLP basée sur un type
d’informations sensibles.
Liste de vérification - Lorsque vous envisagez les besoins pour les types d’informations
sensibles, les décisions et actions clés sont les suivantes :
" Compilez les cas d’usage pour DLP en fonction des types d’informations
sensibles : Déterminez les types d’informations sensibles qui tireraient parti de la
mise en place de stratégies DLP. Tenez compte de vos objectifs, de vos
réglementations et de vos exigences internes.
" Testez les types d’informations sensibles existants : Collaborez avec l’équipe de
sécurité des informations pour vérifier que les SIT préconfigurés répondent à vos
besoins. Utilisez les données de test pour vérifier que les modèles et les mots clés
sont correctement détectés.
" Créez des types d’informations sensibles personnalisés : Le cas échéant, collaborez
avec votre équipe de sécurité des informations pour créer des SIT afin qu’ils
puissent être utilisés dans DLP pour Power BI.
" Hiérarchisez la liste des cas d’usage : Discutez des principales priorités avec votre
équipe. Identifiez les éléments à hiérarchiser dans votre plan de projet.
Notifications à l’utilisateur
Lorsque vous avez identifié des cas d’usage pour DLP avec des étiquettes de
confidentialité et des SIT, vous devez ensuite examiner ce qui se passe lorsqu’une
correspondance de règle DLP se produit. En règle générale, il s’agit d’une notification
utilisateur.
Les notifications utilisateur pour les stratégies DLP sont également appelées conseils de
stratégie. Ils sont utiles lorsque vous souhaitez fournir davantage d’aide et de
sensibilisation à vos utilisateurs pendant le cours normal de leur travail. Il est plus
probable que les utilisateurs lisent et absorbent les notifications utilisateur s’ils sont :
Pour DLP dans Power BI, les notifications utilisateur apparaissent dans les paramètres du
modèle sémantique. Ils apparaissent également en haut de la page de détails du
modèle sémantique dans le hub de données, comme illustré dans la capture d’écran
suivante. Dans cette instance, la notification indique : Ces données contiennent des cartes
de crédit. Ce type de données n’est pas autorisé dans Power BI conformément à la stratégie
Classification, protection et utilisation des données.
Vous pouvez définir une ou plusieurs règles pour chaque stratégie DLP. Chaque règle
peut éventuellement avoir un conseil de stratégie différent qui sera affiché aux
utilisateurs.
Prenons l’exemple suivant de la façon dont vous pouvez définir une stratégie DLP pour
détecter les données financières stockées dans des modèles sémantiques dans le service
Power BI. La stratégie DLP utilise des SIT et elle a deux règles.
Règle 1 : La première règle détecte les nombres carte de crédit. Le texte de conseil
de stratégie personnalisé indique : ces données contiennent des nombres carte de
crédit. Ce type de données n’est pas autorisé dans Power BI conformément à la
stratégie de classification et de protection des données.
Règle 2 : La deuxième règle détecte les comptes financiers. Le texte de conseil de
stratégie personnalisé indique : ces données contiennent des informations
financières sensibles. Il nécessite l’utilisation de l’étiquette Hautement restreinte.
Reportez-vous à la Politique de classification et de protection des données pour
connaître les exigences lors du stockage des données financières.
La règle 1 est plus urgente que la règle 2. La règle 1 est destinée à indiquer qu’il existe
un problème qui nécessite une action. La deuxième règle est plus informative. Pour les
problèmes urgents, il est judicieux de configurer l’alerte. La section suivante décrit la
création d’alertes pour les administrateurs.
Lorsque vous décidez des notifications que les utilisateurs doivent recevoir, nous vous
recommandons de vous concentrer sur l’affichage uniquement des notifications très
importantes. S’il y a trop de notifications concernant la stratégie, les utilisateurs peuvent
en être submergés. Il en résulte que certaines notifications peuvent être ignorées.
Liste de vérification - Lors de l’examen des notifications utilisateur DLP, les décisions et
actions clés sont les suivantes :
Alertes d’administrateur
L’alerte est utile pour certaines règles DLP lorsque vous souhaitez suivre les incidents
lorsqu’une violation de stratégie s’est produite. Lorsque vous définissez des règles de
stratégie DLP, déterminez si des alertes doivent être générées.
Conseil
Les alertes sont conçues pour attirer l’attention d’un administrateur sur certaines
situations. Elles sont les mieux adaptées lorsque vous envisagez d’examiner et de
résoudre activement des alertes importantes. Vous trouverez toutes les
correspondances de règle DPS dans l’explorateur d’activités dans le portail de
conformité Microsoft Purview.
Chaque alerte peut être définie par un niveau de gravité, qui peut être faible, moyen ou
élevé. Le niveau de gravité permet de hiérarchiser l’examen des alertes ouvertes.
Exemple 1 : vous avez défini une stratégie DLP pour détecter les données financières
stockées dans des modèles sémantiques dans le service Power BI. La stratégie DLP
utilise des types d’informations sensibles. Il existe deux règles.
Règle 1 : La première règle détecte les nombres carte de crédit. Les alertes sont
activées avec une gravité élevée. Un e-mail est également généré.
Règle 2 : La deuxième règle détecte les comptes financiers. Les alertes sont
activées avec une gravité élevée.
Exemple 2 : vous avez défini une stratégie DLP appelée lorsque l’étiquette de
confidentialité Hautement restreint\Membres du comité exécutif et Membres du conseil
est affectée à un modèle sémantique dans le service Power BI. Elle ne génère pas de
notification utilisateur. Dans ce cas, vous ne souhaitez peut-être pas générer une alerte,
mais uniquement journaliser l’occurrence. Si nécessaire, vous pouvez obtenir plus
d’informations à partir de l’Explorateur d’activités.
Lorsqu’une alerte par e-mail est requise, nous vous recommandons d’utiliser un groupe
de sécurité à extension messagerie. Par exemple, vous pouvez utiliser un groupe nommé
Alertes administratives de sécurité et de confidentialité.
Conseil
N’oubliez pas que les règles DLP pour Power BI sont vérifiées chaque fois qu’un
modèle sémantique est chargé ou actualisé. Cela signifie qu’une alerte peut être
générée chaque fois que le modèle sémantique est actualisé. Des actualisations de
données régulières ou fréquentes peuvent entraîner un nombre écrasant
d’événements et d’alertes journalisés.
Liste de vérification - Lorsque vous envisagez de créer des alertes DLP pour les
administrateurs, les décisions et les actions clés sont les suivantes :
" Déterminez quand les alertes sont requises : Pour chaque règle DLP que vous
envisagez de créer, déterminez les situations qui justifient l’utilisation d’alertes.
" Clarifiez les rôles et les responsabilités : Déterminez les attentes et les actions
spécifiques qui doivent être effectuées lorsqu’une alerte est générée.
" Déterminez qui recevra les alertes : Déterminez quels administrateurs de sécurité
et de conformité géreront les alertes ouvertes. Vérifiez que les autorisations et les
conditions de licence sont remplies pour chaque administrateur qui utilisera le
portail de conformité Microsoft Purview.
" Créez des groupes de messagerie : Si nécessaire, créez des groupes de sécurité à
extension messagerie pour gérer les alertes.
Vous pouvez configurer la stratégie DLP pour analyser tous les espaces de travail
Premium. Si vous le souhaitez, vous pouvez choisir d’inclure ou d’exclure des espaces de
travail spécifiques. Par exemple, vous pouvez exclure certains espaces de travail de
développement ou de test considérés comme moins risqués (en particulier s’ils ne
contiennent pas de données de production réelles). Vous pouvez également créer des
stratégies distinctes pour certains espaces de travail de développement ou de test.
Conseil
Si vous décidez que seul un sous-ensemble de vos espaces de travail Premium sera
inclus pour DLP, tenez compte du niveau de maintenance. Les règles DLP sont plus
faciles à gérer lorsque tous les espaces de travail Premium sont inclus. Si vous
décidez d’inclure uniquement un sous-ensemble d’espaces de travail Premium,
vérifiez qu’un processus d’audit est en place afin de pouvoir identifier rapidement si
un nouvel espace de travail est manquant dans la stratégie DLP.
Pour plus d’informations sur l’espace de travail, consultez les articles sur la planification
d’espace de travail.
Liste de vérification - Lorsque vous envisagez les espaces de travail à inclure dans
l’étendue de la DLP, les décisions et actions clés sont les suivantes :
" Déterminez les espaces de travail Premium auxquels la DLP doit être appliquée :
Déterminez si les stratégies DLP doivent affecter tous les espaces de travail Power
BI Premium ou seulement un sous-ensemble d’entre eux.
" Créez la documentation pour les affectations d’espace de travail : Le cas échéant,
indiquez quels espaces de travail sont soumis à la DLP. Incluez les critères et les
raisons pour lesquelles les espaces de travail sont inclus ou exclus.
" Mettre en corrélation les décisions DLP avec la gouvernance de votre espace de
travail : Le cas échéant, mettez à jour la documentation de gouvernance de votre
espace de travail pour inclure des détails sur la façon dont la DLP est gérée.
" Considérez d’autres emplacements de fichiers importants : En plus des services
Power BI, déterminez s’il est nécessaire de créer d’autres stratégies DLP pour
protéger les fichiers sources et les fichiers exportés stockés dans OneDrive ou
SharePoint.
En outre, les stratégies DLP pour Power BI nécessitent Power BI Premium. Cette exigence
de licence peut être satisfaite avec une capacité Premium ou une licence Premium par
utilisateur (PPU).
Conseil
Si vous avez besoin de clarifications sur les exigences de licence, contactez votre
équipe de compte Microsoft. Notez que la licence Microsoft 365 E5 Conformité
inclut d’autres fonctionnalités DLP qui sont hors de portée pour cet article.
Liste de vérification - Voici les décisions et actions clés à prendre en compte pour
identifier les exigences et les priorités :
" Passez en revue les exigences de licence des produits : Vérifiez que vous avez
examiné toutes les exigences de licence pour DLP.
" Passez en revue les conditions requises pour les licences Premium : Vérifiez que
les espaces de travail que vous souhaitez configurer pour DLP sont des espaces de
travail Premium.
" Procurez-vous des licences supplémentaires : Le cas échéant, achetez d’autres
licences pour déverrouiller la fonctionnalité que vous envisagez d’utiliser.
" Attribuez des licences : Attribuez une licence à chacun de vos administrateurs de
sécurité et de conformité qui en auront besoin.
Incluez des informations sur les personnes à contacter lorsque les utilisateurs ont des
questions ou des problèmes techniques. Étant donné que la protection des informations
est un projet à l’échelle de l’organisation, la prise en charge est souvent fournie par le
service informatique.
Les questions fréquentes (FAQ) et les exemples sont particulièrement utiles pour la
documentation utilisateur.
Conseil
Service client
Il est important de vérifier qui sera responsable du support utilisateur. Il est courant que
la DLP soit prise en charge par un support technique informatique centralisé.
Vous allez peut-être devoir créer des conseils pour le support technique (parfois appelé
runbook). Vous allez peut-être devoir également organiser des sessions de transfert de
connaissances pour vous assurer que le support technique est prêt à répondre aux
demandes de support.
" Identifiez qui fournira le support utilisateur : Lorsque vous définissez des rôles et
des responsabilités, veillez à prendre en compte la façon dont les utilisateurs
obtiendront de l’aide sur les problèmes liés à la protection contre la perte de
données.
" Vérifiez que l’équipe de support utilisateur est prête : Créez de la documentation
et organisez des sessions de transfert des connaissances pour vous assurer que le
support technique est prêt à prendre en charge DLP.
" Communiquez entre les équipes : Discutez des notifications utilisateur et du
processus de résolution des alertes DLP avec l’équipe de support technique, ainsi
que vos administrateurs Power BI et le Centre d’excellence. Assurez-vous que toutes
les personnes impliquées sont préparées aux questions potentielles des utilisateurs
Power BI.
Les stratégies DLP pour Power BI sont configurées dans le portail de conformité
Microsoft Purview (anciennement centre de conformité Microsoft 365) dans le Centre
d'administration Microsoft 365.
Conseil
Liste de vérification - Lors de la mise en œuvre de la DLP pour Power BI, les décisions et
actions clés sont les suivantes :
" Vérifiez l’état actuel et les objectifs : Assurez-vous que vous êtes clair sur l’état
actuel de DLP à utiliser avec Power BI. Tous les objectifs et exigences pour
l’implémentation de la DLP doivent être clairs et activement utilisés pour diriger le
processus de prise de décision.
" Prenez des décisions : Passez en revue et discutez de toutes les décisions requises.
Cette tâche doit se produire avant de configurer quoi que ce soit en production.
" Passez en revue les exigences de licence : Assurez-vous de bien comprendre les
exigences relatives aux licences de produits et aux licences utilisateur. Si nécessaire,
procurez-vous et attribuez plus de licences.
" Publiez la documentation utilisateur : Publiez les informations dont les utilisateurs
auront besoin pour répondre aux questions et clarifier leurs attentes. Fournissez des
conseils, des communications et de la formation à vos utilisateurs afin qu’ils soient
prêts.
" Créez des stratégies DLP : Dans le portail de conformité Microsoft Purview, créez et
configurez chaque stratégie DLP. Reportez-vous à toutes les décisions prises
précédemment pour configurer les règles DLP.
" Effectuez des tests initiaux : Effectuez un ensemble initial de tests pour vérifier que
tout est configuré correctement. Utilisez le mode test avec des exemples de
données pour déterminer si tout se comporte comme prévu, tout en réduisant
l’impact sur les utilisateurs. Utilisez initialement un petit sous-ensemble d’espaces
de travail Premium. Envisagez d’utiliser un locataire hors production lorsque vous
avez accès à un locataire.
" Recueillez les commentaires des utilisateurs : Obtenez des commentaires sur le
processus et l’expérience utilisateur. Identifiez les zones de confusion ou les
résultats inattendus avec des types d’informations sensibles et d’autres problèmes
techniques.
" Continuez les versions itératives : Ajoutez progressivement d’autres espaces de
travail Premium à la stratégie DLP jusqu’à ce qu’ils soient tous inclus.
" Surveillez, réglez et ajustez : Investissez des ressources pour examiner
fréquemment les alertes de correspondance de stratégie et les journaux d’audit.
Examinez les faux positifs et ajustez les stratégies si nécessaire.
Conseil
Ces éléments de liste de vérification sont résumés à des fins de planification. Pour
plus d’informations sur ces éléments de liste de vérification, consultez les sections
précédentes de cet article.
Pour obtenir d’autres étapes à suivre au-delà du déploiement initial, consultez Defender
for Cloud Apps avec Power BI.
Surveillance continue
Une fois l’implémentation terminée, vous devez vous intéresser à la supervision, à
l’application et à l’ajustement des stratégies DLP en fonction de leur utilisation.
2 Avertissement
La surveillance des stratégies DLP pour Power BI ne se produit pas en temps réel,
car la génération des journaux et des alertes DLP prend du temps. Si votre objectif
est l’application en temps réel, consultez Defender for Cloud Apps pour Power BI
(stratégies en temps réel).
Liste de vérification - Lors de la surveillance de la DLP pour Power BI, les décisions et
actions clés sont les suivantes :
" Vérifiez les rôles et les responsabilités : Assurez-vous que vous êtes clair sur qui est
responsable des actions. Informez vos administrateurs Power BI ou administrateurs
de sécurité et communiquez avec eux s’ils sont directement responsables de
certains aspects de la surveillance DLP.
" Créez ou validez votre processus de révision de l’activité : Assurez-vous que les
administrateurs de la sécurité et de la conformité sont clairs sur les attentes en
matière de révision régulière de l’explorateur d’activités.
" Créez ou validez votre processus de résolution des alertes : Assurez-vous que vos
administrateurs de sécurité et de conformité disposent d’un processus pour
examiner et résoudre les alertes DLP lorsqu’une correspondance de stratégie se
produit.
Conseil
Contenu connexe
Dans l’article suivant de cette série, découvrez comment utiliser Defender for Cloud
Apps avec Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article décrit les activités de planification liées à l’implémentation de Defender for
Cloud Apps en ce qui concerne la surveillance de Power BI. Il cible :
) Important
Voici quelques exemples de surveillance en temps réel que vous pouvez implémenter.
Bloquer les téléchargements à partir du service Power BI : vous pouvez créer une
stratégie de session pour bloquer certains types d’activités utilisateur. Par exemple,
lorsqu’un utilisateur tente de télécharger un rapport à partir du service Power BI
auquel une étiquette de confidentialité hautement restreinte a été attribuée,
l’action de téléchargement est bloquée.
Bloquer l’accès aux service Power BI par un appareil non managé : vous pouvez
créer une stratégie d’accès pour empêcher les utilisateurs d’accéder à certaines
applications, sauf s’ils utilisent un appareil managé. Par exemple, lorsqu’un
utilisateur tente d’accéder au service Power BI à partir de son téléphone mobile
personnel, cette action peut être bloquée.
Voici quelques exemples d’autres fonctionnalités qui ne sont pas en temps réel.
Détecter et alerter certaines activités dans le service Power BI : vous pouvez créer
une stratégie d’activité pour générer une alerte lorsque certains types d’activités se
produisent. Par exemple, lorsqu’une activité administrative se produit dans le
service Power BI (indiquant qu’un paramètre de locataire a été modifié), vous
pouvez recevoir une alerte par e-mail.
Surveiller les activités de sécurité avancées : Vous pouvez afficher et surveiller les
connexions et les activités de sécurité, les anomalies et les violations. Des alertes
peuvent être déclenchées pour des situations telles que des activités suspectes,
des emplacements inattendus ou un nouvel emplacement.
Surveiller les activités des utilisateurs : Vous pouvez afficher et surveiller les
activités des utilisateurs. Par exemple, un administrateur Power BI peut se voir
attribuer l’autorisation d’afficher le journal d’activité Power BI, en plus de la
fréquence de connexion utilisateur dans Defender for Cloud Apps.
Détecter et alerter les comportements inhabituels dans le service Power BI : il
existe des stratégies intégrées pour la détection des anomalies. Par exemple,
lorsqu’un utilisateur télécharge ou exporte du contenu à partir du service Power BI
beaucoup plus souvent que les modèles normaux, vous pouvez recevoir une alerte
par e-mail.
Rechercher les applications non approuvées : vous pouvez trouver des
applications non approuvées en cours d’utilisation dans l’organisation. Par
exemple, vous pouvez vous inquiéter du partage de fichiers par des utilisateurs
(comme des fichiers Power BI Desktop ou des fichiers Excel) sur un système de
partage de fichiers tiers. Vous pouvez bloquer l’utilisation d’une application non
approuvée, puis contacter les utilisateurs pour les renseigner sur les façons
appropriées de partager et de collaborer avec d’autres utilisateurs.
Conseil
Le portail dans Defender for Cloud Apps est un endroit pratique pour voir les
activités et les alertes sans avoir besoin de créer un script pour extraire et
télécharger les données. Cet avantage inclut l’affichage des données du journal
d’activité Power BI.
Power BI est l’une des nombreuses applications et services qui peuvent être intégrés à
Defender for Cloud Apps. Si vous utilisez déjà Defender for Cloud Apps à d’autres fins,
vous pouvez également l’utiliser pour surveiller Power BI.
Les stratégies créées dans Defender for Cloud Apps sont une forme de DLP. L’article
Protection contre la perte de données pour Power BI couvre les stratégies DLP pour
Power BI qui sont configurées dans le portail de conformité Microsoft Purview. Nous
vous recommandons d’utiliser des stratégies DLP pour Power BI avec les fonctionnalités
décrites dans cet article. Bien qu’il existe des chevauchements conceptuels, les
fonctionnalités sont différentes.
U Attention
Cet article se concentre sur les fonctionnalités de Microsoft Defender for Cloud
Apps qui peuvent être utilisées pour surveiller et protéger le contenu Power BI. Il
existe de nombreuses autres fonctionnalités dans Defender for Cloud Apps qui ne
sont pas couvertes dans cet article. Veillez à collaborer avec d’autres parties
prenantes et administrateurs système pour prendre des décisions qui fonctionnent
bien pour toutes les applications et les cas d’usage.
État actuel : L’état actuel de DLP dans votre organisation. Vous devez comprendre
dans quelle mesure DLP est déjà utilisé et qui est responsable de sa gestion.
Objectifs et exigences : Les objectifs stratégiques de l’implémentation de DLP
dans votre organisation. La compréhension des objectifs et des exigences servira
de guide pour vos efforts d’implémentation.
Vous avez peut-être déjà implémenté DLP pour Power BI (décrit dans l’article Protection
contre la perte de données pour Power BI ). Ces fonctionnalités DLP sont différentes des
fonctionnalités gérées dans le portail de conformité Microsoft Purview. Toutes les
fonctionnalités DLP décrites dans cet article sont gérées dans le portail Defender for
Cloud Apps.
Les décisions relatives aux stratégies Defender for Cloud Apps doivent prendre en
charge directement les objectifs et les exigences en matière de protection des données
que vous avez précédemment identifiées.
Pour fournir des contrôles en temps réel, les stratégies d’accès et les stratégies de
session fonctionnent avec Microsoft Entra ID (précédemment appelé Azure Active
Directory) en s’appuyant sur les fonctionnalités de proxy inverse du Contrôle
d’application par accès conditionnel. Au lieu que les requêtes et réponses des
utilisateurs passent par l’application (le service Power BI dans ce cas), ils passent par un
proxy inverse (Defender for Cloud Apps).
) Important
Stratégies d’accès
Une stratégie d’accès créée dans Defender for Cloud Apps contrôle si un utilisateur est
autorisé à se connecter à une application cloud comme le service Power BI. Les
organisations qui se trouvent dans des secteurs hautement réglementés seront
concernées par les stratégies d’accès.
Voici quelques exemples de la façon dont vous pouvez utiliser des stratégies d’accès
pour bloquer l’accès au service Power BI.
Utilisateur inattendu : Vous pouvez bloquer l’accès pour un utilisateur qui n’est
pas membre d’un groupe de sécurité spécifique. Par exemple, cette stratégie peut
être utile lorsque vous disposez d’un processus interne important qui effectue le
suivi des utilisateurs Power BI approuvés via un groupe spécifique.
Appareil non géré : Vous pouvez bloquer l’accès pour un appareil personnel qui
n’est pas géré par l’organisation.
Mises à jour nécessaire : Vous pouvez bloquer l’accès pour un utilisateur qui utilise
un navigateur ou un système d’exploitation obsolète.
Emplacement: Vous pouvez bloquer l’accès à un emplacement où vous n’avez pas
de bureaux ou d’utilisateurs, ou à partir d’une adresse IP inconnue.
Conseil
Si vous avez des utilisateurs externes qui accèdent à votre locataire Power BI ou des
employés qui voyagent fréquemment, cela peut affecter la façon dont vous
définissez vos stratégies de contrôle d’accès. Ces types de stratégies sont
généralement gérés par le service informatique.
Stratégies de session
Une stratégie de session est utile lorsque vous ne souhaitez pas autoriser ou bloquer
complètement l’accès (ce qui peut être fait avec une stratégie d’accès comme décrit
précédemment). Plus précisément, il autorise l’accès pour l’utilisateur tout en surveillant
ou en limitant ce qui se produit activement pendant sa session.
Voici quelques exemples de façons d’utiliser des stratégies de session pour surveiller,
bloquer ou contrôler les sessions utilisateur dans le service Power BI.
Conseil
Il est également possible de contrôler les chargements de fichiers avec des stratégies de
session. Toutefois, vous souhaitez généralement encourager les utilisateurs bi en libre-
service à charger du contenu sur le service Power BI (au lieu de partager Power BI
Desktop fichiers). Par conséquent, réfléchissez soigneusement au blocage des
téléchargements de fichiers.
" Identifiez les cas d’usage pour bloquer l’accès : Compilez une liste de scénarios
pour quand le blocage de l’accès au service Power BI est approprié.
" Identifiez les cas d’usage pour surveiller les connexions : Compilez une liste de
scénarios pour quand la surveillance des connexions à l’service Power BI est
appropriée.
" Identifiez les cas d’usage pour bloquer les téléchargements : Déterminez quand
les téléchargements à partir du service Power BI doivent être bloqués. Déterminez
les étiquettes de confidentialité à inclure.
Vous pouvez configurer une stratégie d’activité pour vérifier les événements enregistrés
dans le journal d’activité Power BI. La stratégie peut agir sur une seule activité ou sur des
activités répétées d’un seul utilisateur (lorsqu’une activité spécifique se produit plus d’un
nombre défini de fois dans un nombre défini de minutes).
Vous pouvez utiliser des stratégies d’activité pour surveiller l’activité dans le service
Power BI de différentes manières. Voici quelques exemples de ce que vous pouvez
réaliser.
Les types d’alertes de stratégie d’activité décrits dans cette section sont généralement
gérés par les administrateurs Power BI dans le cadre de leur supervision de Power BI.
Lorsque vous configurez des alertes dans Defender for Cloud Apps, nous vous
recommandons de vous concentrer sur les situations qui représentent un risque
important pour le organisation. En effet, chaque alerte doit être examinée et fermée par
un administrateur.
2 Avertissement
Étant donné que les événements de journal d’activité Power BI ne sont pas
disponibles en temps réel, ils ne peuvent pas être utilisés pour la surveillance ou le
blocage en temps réel. Vous pouvez toutefois utiliser les opérations du journal
d’activité dans les stratégies d’activité. Veillez à travailler avec votre équipe de
sécurité des informations pour vérifier ce qui est techniquement possible avant
d’aller trop loin dans le processus de planification.
Utilisateurs affectés
L’une des raisons convaincantes d’intégrer Power BI à Defender for Cloud Apps est de
tirer parti des contrôles en temps réel lorsque les utilisateurs interagissent avec le
service Power BI. Ce type d’intégration nécessite un contrôle d’application par accès
conditionnel dans Microsoft Entra ID.
Conseil
Certains types de stratégies dans Defender for Cloud Apps peuvent s’appliquer à
certains utilisateurs et groupes. Le plus souvent, ces types de stratégies s’appliquent à
tous les utilisateurs. Toutefois, il est possible que vous rencontriez une situation où vous
devrez exclure délibérément certains utilisateurs.
Liste de vérification - Lorsque vous envisagez quels utilisateurs sont concernés, les
décisions et actions clés sont les suivantes :
" Déterminez les utilisateurs qui sont inclus : vérifiez si tous les utilisateurs sont
inclus dans votre stratégie de contrôle d’application par accès conditionnel
Microsoft Entra.
" Identifiez les comptes administrateur qui doivent être exclus : déterminez quels
comptes administrateur spécifiques doivent être volontairement exclus de la
stratégie de contrôle d’application par accès conditionnel Microsoft Entra.
" Déterminez si certaines stratégies Defender s’appliquent à des sous-ensembles
d’utilisateurs : Pour les cas d’usage valides, déterminez s’ils doivent s’appliquer à
tous ou à certains utilisateurs (si possible).
Messagerie utilisateur
Après avoir identifié des cas d’usage, vous devez tenir compte de ce qui doit se produire
lorsque l’activité de l’utilisateur correspond à la stratégie.
Lorsqu’une activité est bloquée en temps réel, il est important de fournir à l’utilisateur
un message personnalisé. Le message est utile lorsque vous souhaitez fournir davantage
d’aide et de sensibilisation à vos utilisateurs pendant leur flux de travail normal. Il est
plus probable que les utilisateurs lisent et absorbent les notifications utilisateur lorsqu’ils
sont :
Certains types de stratégies dans Defender for Cloud Apps peuvent avoir un message
personnalisé. Voici deux exemples de notifications utilisateur.
Exemple 1 : Vous pouvez définir une stratégie de contrôle de session en temps réel qui
empêche les exportations et téléchargements lorsque l’étiquette de confidentialité de
l’élément Power BI (comme un rapport ou un modèle sémantique–précédemment
appelé jeu de données) est définie sur Hautement restreint. Le message de bloc
personnalisé dans Defender for Cloud Apps indique : Les fichiers avec une étiquette
hautement restreinte ne sont pas autorisés à être téléchargés à partir du service Power BI.
Consultez le contenu en ligne dans le service Power BI. Contactez l’équipe du support
technique Power BI pour toute question.
Exemple 2 : Vous pouvez définir une stratégie d’accès en temps réel qui empêche un
utilisateur de se connecter au service Power BI lorsqu’il n’utilise pas une machine gérée
par l’organisation. Le message de bloc personnalisé dans Defender for Cloud Apps
indique ce qui suit : le service Power BI n’est peut-être pas accessible sur un appareil
personnel. Veuillez utiliser l’appareil fourni par l’organisation. Contactez l’équipe du
support technique Power BI si vous avez des questions.
Liste de vérification - Lorsque vous envisagez les messages utilisateur dans Defender
for Cloud Apps, les décisions et actions clés sont les suivantes :
Alertes d’administrateur
L’alerte est utile lorsque vous souhaitez informer vos administrateurs de la sécurité et de
la conformité qu’une violation de stratégie s’est produite. Lorsque vous définissez des
stratégies dans Defender for Cloud Apps, déterminez si des alertes doivent être
générées. Pour plus d’informations, consultez Types d’alerte dans Defender for Cloud
Apps.
Si vous le souhaitez, vous pouvez configurer une alerte pour envoyer un e-mail à
plusieurs administrateurs. Lorsqu’une alerte par e-mail est requise, nous vous
recommandons d’utiliser un groupe de sécurité à extension messagerie. Par exemple,
vous pouvez utiliser un groupe nommé Alertes administratives de sécurité et de
confidentialité.
Pour les situations à haute priorité, il est possible d’envoyer des alertes par sms. Il est
également possible de créer une automatisation et des workflows d’alerte personnalisés
en s’intégrant à Power Automate.
Vous pouvez configurer chaque alerte avec une gravité faible, moyenne ou élevée. Le
niveau de gravité est utile lors de la hiérarchisation de l’examen des alertes ouvertes. Un
administrateur doit passer en revue et actionner chaque alerte. Une alerte peut être
fermée comme étant vraie positive, fausse positive ou bénigne.
Exemple 2 : Vous pouvez définir une stratégie d’activité qui vérifie si un utilisateur
externe a consulté un rapport hautement privilégié fourni au conseil d’administration.
Une alerte de gravité élevée peut être configurée pour garantir que l’activité est
rapidement examinée.
Conseil
" Déterminez quand les alertes sont requises : Pour chaque règle DLP que vous
envisagez de créer, déterminez les situations qui justifient l’utilisation d’alertes.
" Clarifiez les rôles et les responsabilités : Déterminez les attentes et les actions
spécifiques qui doivent être effectuées lorsqu’une alerte est générée.
" Déterminez qui recevra les alertes : Déterminez quels administrateurs de sécurité
et de conformité géreront les alertes ouvertes. Vérifiez que les autorisations et les
licences requises sont remplies pour chaque administrateur qui utilisera Defender
for Cloud Apps.
" Créez un groupe : Le cas échéant, créez un nouveau groupe de sécurité avec
fonction de messagerie à utiliser pour les notifications par courrier électronique.
Conseil
ノ Agrandir le tableau
Stratégie Non Power BI - Rapport exécutif sur les vues d’un utilisateur externe
d’activité
Il existe d’autres attributs qui n’ont pas besoin d’être inclus dans le nom de la stratégie.
Ces attributs incluent le niveau de gravité (faible, moyen ou élevé) et la catégorie (par
exemple, détection des menaces ou DLP). Les deux attributs peuvent être filtrés sur la
page alertes.
Conseil
Vous pouvez renommer une stratégie dans Defender for Cloud Apps. Toutefois, il
n’est pas possible de renommer les stratégies intégrées de détection des
anomalies. Par exemple, le partage de rapports Power BI suspects est une stratégie
intégrée qui ne peut pas être renommée.
Microsoft Defender for Cloud Apps : Fournit des fonctionnalités Defender for
Cloud Apps pour toutes les applications prises en charge (y compris les service
Power BI).
Sécurité des applications cloud Office 365 : Fournit des fonctionnalités Defender
for Cloud Apps pour les applications Office 365 qui font partie de la suite Office
365 E5 (y compris le service Power BI).
En outre, si des utilisateurs doivent utiliser des stratégies d’accès en temps réel ou des
stratégies de session dans Defender for Cloud Apps, ils auront besoin d’une licence
Microsoft Entra ID P1.
Conseil
Si vous avez besoin de clarifications sur les exigences de licence, contactez votre
équipe de compte Microsoft.
Liste de vérification - Voici les décisions et actions clés à prendre en compte pour
identifier les exigences et les priorités :
" Passez en revue les exigences de licence des produits : Vérifiez que vous avez
examiné toutes les exigences de licence pour travailler avec Defender for Cloud
Apps.
" Procurez-vous des licences supplémentaires : Le cas échéant, achetez d’autres
licences pour déverrouiller la fonctionnalité que vous envisagez d’utiliser.
" Attribuez des licences : Attribuez une licence à chacun de vos administrateurs de
sécurité et de conformité qui en auront besoin.
Incluez des informations sur les personnes à contacter lorsque les utilisateurs ont des
questions ou des problèmes techniques.
Les questions fréquentes (FAQ) et les exemples sont particulièrement utiles pour la
documentation utilisateur.
Service client
Il est important de vérifier qui sera responsable du support utilisateur. Il est courant que
l’utilisation de Defender for Cloud Apps pour surveiller Power BI est effectuée par un
support technique informatique centralisé.
Récapitulatif de l’implémentation
Une fois que les décisions ont été prises et qu’un plan de déploiement a été préparé, il
est temps de commencer l’implémentation.
Lorsque le contrôle d’application par accès conditionnel Microsoft Entra est configuré et
testé, vous pouvez ensuite créer des stratégies dans Defender for Cloud Apps.
) Important
Liste de vérification - Lors de la mise en œuvre de Defender for Cloud Apps pour Power
BI, les décisions et actions clés sont les suivantes :
" Vérifiez l’état actuel et les objectifs : Assurez-vous que vous êtes clair sur l’état
actuel de DLP à utiliser avec Power BI. Tous les objectifs et exigences pour
l’implémentation de la DLP doivent être clairs et activement utilisés pour diriger le
processus de prise de décision.
" Effectuez le processus de prise de décision : Passez en revue et discutez de toutes
les décisions requises. Cette tâche doit se produire avant de configurer quoi que ce
soit en production.
" Passez en revue les exigences de licence : Assurez-vous de bien comprendre les
exigences relatives aux licences de produits et aux licences utilisateur. Si nécessaire,
procurez-vous et attribuez plus de licences.
" Publiez la documentation utilisateur : Publiez les informations dont les utilisateurs
auront besoin pour répondre aux questions et clarifier leurs attentes. Fournissez des
conseils, des communications et de la formation à vos utilisateurs afin qu’ils soient
prêts.
" Créez une stratégie d’accès conditionnel Microsoft Entra : créez une stratégie
d’accès conditionnel dans Microsoft Entra ID afin d’activer des contrôles en temps
réel pour la supervision du service Power BI. Dans un premier temps, activez la
stratégie d’accès conditionnel Microsoft Entra pour quelques utilisateurs test.
" Définissez Power BI en tant qu’application connectée dans Defender for Cloud
Apps : Ajoutez ou vérifiez que Power BI apparaît en tant qu’application connectée
dans Defender for Cloud Apps pour le contrôle d’application à accès conditionnel.
" Effectuez les tests initiaux : Connectez-vous au service Power BI en tant
qu’utilisateur de test. Vérifiez que l’accès fonctionne. Vérifiez également que le
message affiché vous informe que le service Power BI est surveillé par Defender for
Cloud Apps.
" Créez et testez une stratégie en temps réel : À l’aide des cas d’usage déjà
compilés, créez une stratégie d’accès ou une stratégie de session dans Defender for
Cloud Apps.
" Effectuez les tests initiaux : En tant qu’utilisateur de test, effectuez une action qui
déclenchera la stratégie en temps réel. Vérifiez que l’action est bloquée (le cas
échéant) et que les messages d’alerte attendus sont affichés.
" Recueillez les commentaires des utilisateurs : Obtenez des commentaires sur le
processus et l’expérience utilisateur. Identifiez les zones de confusion, les résultats
inattendus avec des types d’informations sensibles et d’autres problèmes
techniques.
" Poursuivez les mises en production itératives : Ajoutez progressivement d’autres
stratégies dans Defender for Cloud Apps jusqu’à ce que tous les cas d’usage soient
traités.
" Passez en revue les stratégies intégrées : Recherchez les stratégies de détection
d’anomalie intégrées dans Defender for Cloud Apps (qui ont Power BI dans leur
nom). Mettez à jour les paramètres d’alerte pour les stratégies intégrées, si
nécessaire.
" Procédez à un déploiement plus large : Continuez à utiliser votre plan de
déploiement itératif. Mettez à jour la stratégie d’accès conditionnel Microsoft Entra
pour qu’elle s’applique à un ensemble plus large d’utilisateurs, le cas échéant.
Mettez à jour les stratégies individuelles dans Defender for Cloud Apps pour
qu’elles s’appliquent à un ensemble plus large d’utilisateurs, le cas échéant.
" Surveillez, réglez et ajustez : Investissez des ressources pour examiner
fréquemment les alertes de correspondance de stratégie et les journaux d’audit.
Examinez les faux positifs et ajustez les stratégies si nécessaire.
Conseil
Ces éléments de liste de vérification sont résumés à des fins de planification. Pour
plus d’informations sur ces éléments de liste de vérification, consultez les sections
précédentes de cet article.
Surveillance continue
Une fois l’implémentation terminée, vous devez vous intéresser à la supervision, à
l’application et à l’ajustement des stratégies Defender for Cloud Apps en fonction de
leur utilisation.
Administrateurs Power BI : En plus des alertes générées par Defender for Cloud
Apps, les activités du journal d’activité Power BI sont également affichées dans le
portail Defender for Cloud Apps.
Administrateurs de la sécurité et de la conformité : Les administrateurs de la
sécurité et de la conformité de l’organisation utilisent généralement des alertes
Defender for Cloud Apps.
Il est possible de fournir à vos administrateurs Power BI une vue limitée dans Defender
for Cloud Apps. Il utilise un rôle délimité pour afficher le journal d’activité, les
événements de connexion et les événements liés au service Power BI. Cette
fonctionnalité est pratique pour les administrateurs Power BI.
Liste de vérification - Lors de la surveillance de Defender for Cloud Apps, les décisions
et actions clés sont les suivantes :
" Vérifiez les rôles et les responsabilités : Assurez-vous que vous êtes clair sur qui est
responsable des actions. Informez vos administrateurs Power BI et communiquez
avec eux s’ils sont responsables de n’importe quel aspect de la surveillance.
" Gérer l’accès pour les administrateurs Power BI : Ajoutez vos administrateurs
Power BI au rôle d’administrateur étendu dans Defender for Cloud Apps.
Communiquez avec eux afin qu’ils sachent ce qu’ils peuvent faire avec ces
informations supplémentaires.
" Créez ou validez votre processus de révision de l’activité : Assurez-vous que vos
administrateurs de la sécurité et de la conformité sont clairs sur les attentes en
matière de révision régulière de l’explorateur d’activités.
" Créez ou validez votre processus de résolution des alertes : Assurez-vous que vos
administrateurs de sécurité et de conformité disposent d’un processus pour
examiner et résoudre les alertes ouvertes.
Contenu connexe
Dans l’article suivant de cette série, découvrez l’audit pour la protection des
informations et la protection contre la perte de données pour Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article décrit le type d’audit que vous pouvez effectuer après l’implémentation de la
protection des informations et de la protection contre la perte de données (DLP). Il cible
:
" Déterminez ce qui est le plus important pour l’audit : Examinez ce qui est le plus
important du point de vue de l’audit. Hiérarchisez les domaines de risque,
d’inefficacité majeure ou de non-conformité aux exigences réglementaires.
Lorsqu’une situation qui pourrait être améliorée se présente, informez les
utilisateurs sur les façons appropriées de faire les choses.
" Implémentez des processus d’audit pertinents : Mettez en place des processus
pour extraire, intégrer, modéliser et créer des rapports afin que l’audit puisse être
effectué.
" Prenez les mesures appropriées : En utilisant les informations obtenues à partir des
processus d’audit, assurez-vous que quelqu’un dispose de l’autorité et du temps
nécessaire pour prendre les mesures appropriées. Selon la situation, cela peut
impliquer un ajustement des étiquettes de confidentialité affectées au contenu.
D’autres situations peuvent impliquer l’éducation ou la formation des utilisateurs.
Le reste de cet article décrit les processus d’audit et les suggestions utiles.
Lorsque vous avez implémenté DLP pour Power BI, le journal d’activité effectue le suivi
d’une correspondance de règle DLP.
Conseil
Par exemple, vous pouvez découvrir que le contenu d’un espace de travail financier a
été affecté à trois étiquettes de confidentialité différentes. Si l’une de ces étiquettes
n’est pas appropriée pour les données financières, vous pouvez appliquer des étiquettes
plus appropriées.
Conseil
Conseil
Il n’est pas possible de voir Power BI Desktop fichiers (.pbix) dans l’Explorateur de
contenu. Toutefois, vous pouvez utiliser l’Explorateur de contenu pour afficher
certains types de fichiers pris en charge qui ont été exportés à partir du service
Power BI, tels que les fichiers Excel.
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez les
domaines de planification de l'implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à planifier et à implémenter des passerelles de données locales et
des passerelles de données de réseau virtuel (VNet) pour Microsoft Fabric. Il est
principalement destiné à :
Pour accéder aux données sources de modèles sémantiques Power BI, de flux de
données et d’autres éléments de données Fabric, vous pouvez avoir besoin d’une
passerelle de données. Une passerelle de données transfère de manière sécurisée des
données entre des réseaux privés ou des sources de données locales et des services
cloud, notamment Fabric.
7 Notes
Cet article présente une vue d’ensemble des passerelles. Il se concentre sur les
considérations et actions clés qui sont associées à la planification et à
l’implémentation de passerelles pour prendre en charge votre contenu Fabric.
Réside dans un centre de données au sein d’un réseau privé, notamment le réseau
organisationnel (ou se trouve derrière un pare-feu).
Est une machine virtuelle basée sur le cloud au sein d’un VNet (appelée «
infrastructure as a service » ou IaaS).
Est un service de base de données basé sur le cloud au sein d’un VNet (appelé «
platform as a service » ou PaaS).
7 Notes
C’est une idée reçue de croire que les sources de données cloud ne nécessitent pas
de passerelle. Lorsqu’une source de données cloud réside dans un réseau
organisationnel privé, une passerelle est requise.
Vous pouvez parfois avoir besoin d’une passerelle pour héberger des éléments
complémentaires nécessaires à l’établissement d’une connexion à votre source de
données. Ce logiciel peut inclure des connecteurs de données personnalisés, des pilotes
ou des bibliothèques que vous installez sur la machine de passerelle. Le service Power BI
n’ayant pas accès à ce logiciel, il doit obligatoirement passer par une passerelle pour
actualiser les sources de données qui utilisent ce logiciel, même si vous vous connectez
à une source de données cloud.
Ce scénario s’applique lorsque vous vous connectez à une source de données à l’aide de
connecteurs tels que les suivants :
) Important
Lorsque des créateurs de contenu utilisent un outil client tel que Power BI Desktop
et que leurs solutions reposent sur des pilotes, des connecteurs ou des
fournisseurs, vous devez installer les mêmes composants sur la machine de la
passerelle que sur les machines des créateurs de contenu. Il arrive fréquemment
que l’actualisation des données de contenu publié échoue en raison de
composants manquants ou mal assortis entre les machines de création et les
passerelles de données. Pour plus d’informations, consultez Outils et appareils
utilisateur.
Vous avez besoin d’une passerelle pour utiliser certains connecteurs ou fonctions de
Power Query, notamment le connecteur Web ou la fonction Web.BrowserContents. Ces
connecteurs et fonctions nécessitent une passerelle pour de nombreuses raisons,
notamment l’isolation de la sécurité.
Conseil
Si vous vous connectez à des sources de données sur une page web, prenez en
compte les alternatives suivantes.
Ce scénario s’applique lorsque vous vous connectez à une source de données à l’aide de
connecteurs et de pilotes tels que les suivants :
Le type de passerelle que vous choisissez dépend de vos besoins et des sources de
données. Les sections suivantes décrivent les trois types de passerelles.
) Important
ノ Agrandir le tableau
Article Description
Une passerelle de données en mode standard est requise pour les sources de données
cloud dans des scénarios spécifiques (décrits dans la section précédente).
La passerelle de données en mode standard est installée sur une machine virtuelle
toujours active. Les administrateurs gèrent de manière centralisée la machine virtuelle et
la passerelle de données. Si nécessaire, les administrateurs de passerelles installent le
logiciel requis pour les connexions aux sources de données.
Les utilisateurs peuvent utiliser la passerelle de données pour les éléments publiés dans
des espaces de travail Fabric, notamment des modèles sémantiques, des flux de
données, des pipelines ou des rapports paginés.
Les utilisateurs peuvent utiliser la passerelle de données pour d’autres services cloud
Power Platform, notamment des flux de données Power Platform.
Une passerelle en mode standard est requise dans les situations spécifiques suivantes.
Passerelle Personal
Une passerelle locale (mode personnel), communément appelée passerelle personnelle,
permet à un utilisateur de se connecter à des sources de données locales qui résident
sur la même machine. En général, un utilisateur installe et gère une passerelle
personnelle sur sa propre machine. Les utilisateurs disposant d’une passerelle
personnelle ne peuvent pas se connecter aux données d’autres services Power Platform.
Ils ne peuvent pas non plus partager la passerelle ou les connexions avec d’autres
utilisateurs.
Une passerelle personnelle est conçue pour être utilisée de manière limitée et
personnelle par une seule personne. En général, les créateurs de contenu installent et
utilisent ces passerelles pour prendre en charge le décisionnel personnel. Ces passerelles
sont limitées au décisionnel personnel, car elles ne peuvent pas être partagées. Une
passerelle personnelle exige également que l’utilisateur dispose de droits sur la machine
et de l’approbation accordée par la stratégie pour télécharger et installer le logiciel de la
passerelle personnelle .
Conseil
Dans la plupart des scénarios où vous vous connectez à des données locales, vous
devez utiliser une passerelle en mode standard (décrite dans la section
précédente). En effet, une passerelle en mode standard prend en charge les
requêtes DirectQuery et les connexions actives, propose davantage d’options pour
centraliser la gouvernance et la gestion de la passerelle, et prend en charge le
partage avec plusieurs utilisateurs.
U Attention
) Important
Ce diagramme ne représente pas l’architecture d’une passerelle de données
locale.
ノ Agrandir le tableau
Article Description
Une passerelle personnelle est généralement installée sur la machine d’un utilisateur.
La passerelle personnelle est généralement gérée par l’utilisateur qui l’a installée.
Une passerelle personnelle ne peut être utilisée que pour les éléments publiés dans un
espace de travail Power BI, notamment des modèles sémantiques ou des flux de
données Power BI.
Pour rappel, une passerelle personnelle est destinée à une utilisation limitée et
personnelle par une seule personne. Toutefois, vous êtes dans l’obligation d’utiliser une
passerelle personnelle dans deux scénarios spécifiques.
Conseil
Une passerelle VNet est un service géré par Microsoft. Si votre organisation utilise des
réseaux privés, vous avez besoin d’une passerelle VNet.
) Important
Une passerelle VNet est uniquement prise en charge pour les capacités Power BI
Fabric ou Premium. La passerelle VNet est facturée en tant que supplément d’une
infrastructure Premium pour cette capacité.
) Important
) Important
ノ Agrandir le tableau
Article Description
Vous utilisez une passerelle de réseau virtuel (VNet) pour vous connecter à des sources
de données sur un réseau privé, comme celles d’un VNet Azure.
La passerelle de données VNet est un service géré par Microsoft. Vous gérez de manière
centralisée la passerelle de données VNet à partir du portail Azure et du portail
d’administration Power Platform.
Les utilisateurs peuvent utiliser une passerelle de données VNet pour les éléments
publiés dans un espace de travail Fabric, notamment des modèles sémantiques.
Article Description
Les utilisateurs peuvent utiliser une passerelle de données VNet pour d’autres services
Power Platform, notamment des flux de données Power Platform.
2 Avertissement
Selon vos besoins, plusieurs passerelles peuvent être requises. Tenez compte des
facteurs suivants lorsque vous décidez du nombre de passerelles à installer et à utiliser.
Disponibilité et performances
Il est important d’utiliser des passerelles haute disponibilité pour éviter les interruptions
provoquées par des retards dans les actualisations ou les requêtes. Une façon de
garantir la disponibilité des passerelles consiste à en installer plusieurs dans un cluster
de passerelles haute disponibilité. Un cluster de passerelles est une collection de
passerelles que vous installez sur différentes machines virtuelles et qui sont logiquement
associées entre elles pour former une seule unité fonctionnelle (le cluster). Chaque
machine de passerelle est parfois appelée un nœud.
) Important
Nous vous recommandons vivement d’utiliser des clusters de passerelles pour les
charges de travail vitales pour l’entreprise.
Pour obtenir plus d’informations et des conseils sur la configuration d’un cluster de
passerelles, consultez Planifier, mettre à l’échelle et maintenir une solution de passerelle
critique pour l’entreprise.
Environnements
) Important
Nous vous recommandons d’avoir des clusters de passerelles distincts pour les
charges de travail de production. Le fait d’avoir un cluster de passerelles dans tous
les environnements peut présenter un risque supplémentaire. Pour réduire les coûts
et les efforts de gestion, il est courant d’allouer moins de ressources (notamment
en mémoire et en processeur) à un cluster de passerelles de développement.
Régions
U Attention
) Important
Pour réduire la latence, nous vous recommandons d’installer des passerelles sur des
machines situées dans la même région que vos sources de données. Par ailleurs,
pour les passerelles VNet, les passerelles et les sources de données doivent se
trouver sur le même sous-réseau.
7 Notes
Une passerelle VNet étant un service géré, vous ne la téléchargez pas et vous ne
l’installez pas. Au lieu de cela, vous approvisionnez et configurez une passerelle
VNet dans le portail Azure , puis vous la liez à une capacité Fabric ou Power BI
Premium . Pour plus d’informations, consultez Créer des passerelles de données
de réseau virtuel.
Propriétaires de passerelles
En général, le propriétaire de passerelle est une personne membre de l’équipe
technique qui installe, détient et gère la passerelle. Les propriétaires de passerelles sont
responsables de diverses activités.
Planification : prend des décisions clés, comme décrit précédemment, et définit les
spécifications techniques d’une machine de passerelle, y compris les ressources
système initiales. Le propriétaire de passerelle doit également s’assurer qu’un plan
de support est en place.
Installation : sélectionne une machine appropriée pour installer le logiciel de la
passerelle et effectue les opérations d’installation et de configuration initiales.
Gestion : modifie les paramètres ou les préférences de la passerelle à des fins
d’optimisation (par exemple, en configurant la diffusion en continu à la place de la
mise en file d’attente des données) ou de monitoring (par exemple, en configurant
la journalisation des performances). Le propriétaire de passerelle décide également
quand effectuer un scale-up (ajouter d’autres ressources aux machines de
passerelle) ou un scale-out (installer plus de passerelles dans le cluster).
Test : valide l’utilisation de la passerelle lors de la configuration initiale en
s’assurant que les machines de passerelle disposent de ressources suffisantes. Le
propriétaire de passerelle doit également tester les mises à jour mensuelles avant
de les installer.
Mise à jour : met à jour et installe le logiciel de la passerelle et les éléments
complémentaires (comme le logiciel du connecteur) en temps opportun.
Monitoring :surveille la durée de bon fonctionnement et l’intégrité de la
passerelle, notamment en collectant les fichiers journaux de la passerelle pour
rechercher d’éventuels problèmes et activités anormales.
Migration : stocke les clés de récupération dans un endroit sûr et accessible à une
équipe plus importante. Le propriétaire de passerelle doit également être la
personne qui utilise ces clés pour migrer, restaurer ou déplacer la passerelle si
nécessaire.
) Important
Conseil
Certaines organisations autorisent avec succès la propriété de passerelles au sein
d’unités commerciales et de services, tandis que d’autres la réservent à une équipe
centralisée (par exemple, l’équipe informatique). Une solution consiste à former un
partenariat entre l’équipe informatique (qui gère les nœuds du cluster de
passerelles) et l’unité commerciale (qui gère les connexions aux sources de
données).
2 Avertissement
Les propriétaires de passerelles exercent un contrôle total sur les passerelles qu’ils
gèrent. Cela signifie que des propriétaires de passerelles malveillants peuvent
potentiellement intercepter des informations qui transitent par une passerelle de
données locale. Pour cette raison, il est essentiel de réserver la possibilité d’installer
des passerelles à des personnes approuvées.
Pour les passerelles en mode standard, vous gérez les programmes d’installation de
passerelles à partir du portail Fabric ou du Centre d’administration Power Platform. Vous
gérez également qui peut créer des passerelles de données VNet à l’aide du paramètre
du programme d’installation de passerelle.
Page des connexions et passerelles Fabric : vous pouvez gérer les programmes
d’installation de passerelles à partir de la page des connexions et passerelles du
portail Fabric.
Centre d’administration Power Platform : vous pouvez également gérer les
programmes d’installation de passerelles à partir du Centre d’administration Power
Platform . Les paramètres que vous modifiez ici affectent les passerelles que vous
utilisez à partir de Fabric.
) Important
Les sections suivantes décrivent ces considérations clés pour planifier l’installation d’une
passerelle.
Voici les facteurs clés qui vous aideront à déterminer où installer une passerelle.
Conseil
Pour éviter la contention des ressources, n’installez pas de logiciels sans aucun lien
avec la passerelle sur une machine de passerelle. La machine de passerelle doit être
entièrement dédiée à l’hébergement de la passerelle de données locale.
Voici les facteurs clés pour déterminer les ressources de la machine de passerelle.
Conseil
Lorsque vous définissez vos conventions d’affectation de noms, tenez compte des
points suivants.
DataGW-Prod-Node1
Gateway-DevTest-Node1
Gateway-FinanceTeam-Prod-Node1
7 Notes
Quand vous installez et configurez des passerelles, tenez compte des facteurs suivants.
) Important
Lorsque vous ajoutez des connexions, tenez compte des points suivants.
7 Notes
Vous pourrez modifier le nom de la source de données par la suite, mais vous ne
pourrez pas modifier les noms du serveur et de la base de données une fois ceux-ci
configurés. Pour éviter les erreurs, vérifiez que les informations sur la source de
données correspondent à celles qui seront utilisées dans Power BI Desktop.
Conseil
Les créateurs de contenu ont besoin d’accéder à une connexion de passerelle pour se
connecter à une source de données. L’accès des utilisateurs aux connexions de
passerelle est configuré pour chaque connexion. Pensez donc aux personnes qui ont
besoin d’accéder à chaque connexion de passerelle et à la façon dont vous allez gérer
cet accès. Nous vous conseillons de gérer l’accès à l’aide de rôles de sécurité pour les
passerelles et les connexions.
Rôles de passerelle
Les rôles de passerelle permettent de contrôler qui peut gérer la passerelle et ses
connexions aux sources de données. Ces rôles fonctionnent de manière similaire aux
rôles d’espace de travail et accordent différentes autorisations en fonction du rôle.
L’utilisation de rôles vous permet de gérer plus efficacement l’accès aux passerelles.
Conseil
) Important
Il existe trois rôles de passerelle pour gérer une passerelle standard locale.
7 Notes
Conseil
Pour éviter les risques en termes de gouvernance en cas de partage excessif, vous
devez réserver le partage des passerelles et des connexions à des personnes
spécifiques capables d’accomplir cette tâche de manière efficace et responsable.
) Important
7 Notes
Conseil
Quand vous utilisez l’expérience Power Query Online, le moteur Power Query
utilise la dernière version de Power Query disponible. Toutefois, quand vous utilisez
une passerelle pour appliquer des transformations, il utilise la version installée sur
la machine de passerelle. Pour garantir une expérience utilisateur cohérente, il est
important de maintenir vos machines de passerelle à jour.
Il est important de maintenir vos passerelles à jour pour éviter toute interruption
inattendue, mais aussi pour bénéficier des dernières améliorations. Néanmoins, les
mises à jour peuvent avoir des conséquences inattendues sur les performances et le
fonctionnement de votre passerelle. Pour éviter d’impacter les solutions vitales pour
l’entreprise, vous devez d’abord installer les mises à jour du logiciel de la passerelle sur
une passerelle de développement ou de test (avant de les appliquer aux passerelles
prenant en charge les environnements de production).
Tenez compte des points suivants lors de la validation des mises à jour de passerelle.
Définir des conditions de test reproductibles : vous devez définir une liste de
conditions de test reproductibles pour vous assurer que vous testez toutes les
opérations de passerelle et sources de données pertinentes. Par exemple, vous
pouvez identifier les rapports et les modèles sémantiques jugés critiques et exiger
leur validation. Il est possible que vous deviez également respecter certaines
exigences de conformité qui constituent des conditions de test reproductibles.
Utiliser un ensemble de rapports de test : conservez un ensemble de rapports à
utiliser pour les tests fonctionnels chaque fois que la passerelle est mise à jour. Ces
rapports vous aideront à valider rapidement vos conditions de test reproductibles.
Ces rapports de test ne présentent souvent que des totaux et des décomptes.
Votre objectif est de vous assurer que vous testez l’accès, le rendu et l’actualisation
pour :
Chaque source de données couramment utilisée.
Chaque type d’élément de données clé, comme les modèles sémantiques les
plus critiques.
Différents modes de stockage, comme l’importation et DirectQuery.
Identifier les rapports vitaux pour l’entreprise : veillez à avoir accès aux rapports
vitaux pour l’entreprise (ou à des copies de ceux-ci) afin de les tester avec la
nouvelle mise à jour. Vous pourrez ainsi vous assurer que les données sont
actualisées et que les rapports DirectQuery fonctionnent comme prévu.
Automatiser les processus de test : utilisez les API REST Power BI pour tester
l’actualisation des données pour les éléments de données importés et évaluer les
requêtes DAX. Vérifiez que vous pouvez détecter et consigner les échecs
d’actualisation ou les erreurs liées aux requêtes.
) Important
Nous vous recommandons vivement de tester les mises à jour de passerelle sur le
cluster de développement et de test avant de les appliquer à la production. Il est
important de tester les mises à jour, car il n’existe aucun processus de restauration.
En guise d’alternative, avant de démarrer la mise à jour, vous pouvez créer une
image de machine virtuelle, c’est-à-dire une copie complète de la structure du
système de fichiers et des données sur la machine.
Créer des connexions aux sources de données : configurez les connexions aux
sources de données organisationnelles courantes. Assurez-vous que les
connexions suivent des conventions d’affectation de noms claires et cohérentes.
Documenter les passerelles et les sources de données : créez une documentation
concise sur les passerelles et les connexions. Vérifiez que cette documentation est
facilement accessible à partir de votre portail centralisé pour les propriétaires et
administrateurs de passerelles.
Gérer les demandes de connexion : créez un processus pour collecter et gérer les
demandes de connexion. Déterminez si un processus d’approbation est requis
pour les demandes de connexion. Envisagez d’automatiser le processus à l’aide des
API REST Power BI.
Approvisionner les rôles de passerelle : utilisez le principe des privilèges minimum
pour attribuer des rôles de passerelle à des individus. Envisagez d’ajouter des
gestionnaires de sources de données au rôle Créateur de connexion ou Créateur de
connexion avec partage pour qu’ils puissent contribuer à la gestion des connexions.
Approvisionner les rôles de connexion : attribuez aux créateurs de contenu (et
aux consommateurs, le cas échéant) des rôles de connexion pour qu’ils puissent
utiliser la passerelle. Limitez le partage aux utilisateurs qui partageront la
connexion de manière responsable et qui contribueront régulièrement à la passer
en revue et à gérer son accès.
Créer une documentation utilisateur concise : documentez les éléments clés dont
les créateurs de contenu ont besoin pour trouver et utiliser la passerelle et ses
connexions. Placez la documentation dans un emplacement central et facilement
accessible à la communauté des utilisateurs, comme un portail centralisé ou un site
de support SharePoint.
Documenter et stocker soigneusement les clés de récupération : stockez les clés
de récupération dans un emplacement sûr, sécurisé et accessible à plusieurs
membres de l’équipe. Assurez-vous de pouvoir facilement les localiser au cas où
vous seriez amené à récupérer la passerelle.
Créer un processus d’installation des mises à jour : déterminez la fréquence à
laquelle vous installerez les mises à jour du logiciel de la passerelle et le processus
à suivre. Prévoyez de mettre à jour les passerelles dans un délai d’un à trois mois
après la publication de la mise à jour.
Installer d’abord les mises à jour sur des passerelles de développement et de test
: vérifiez que les passerelles de développement et de test sont mises à jour avant
les passerelles de production et utilisées pour les tests initiaux.
Tester les mises à jour de la passerelle avant de les appliquer aux passerelles de
production : configurez un processus pour tester les mises à jour mensuelles de la
passerelle à l’aide de conditions et d’éléments de test reproductibles.
Installer rapidement et régulièrement les mises à jour sur les passerelles de
production : veillez à ce que les passerelles de production soient à jour.
Mettre à jour les informations d’identification de connexion : si nécessaire,
mettez à jour les informations d’identification stockées utilisées par les connexions.
Le tableau suivant offre une vue d’ensemble des problèmes courants associés à la
gestion d’un cluster de passerelles de données. Il indique également comment
monitorer ou investiguer ces problèmes.
ノ Agrandir le tableau
• Journaux de passerelle
• Journaux de passerelle
7 Notes
Conseil
Si vous utilisez la capacité Fabric, les outils de Fabric peuvent vous fournir les
composants idéaux pour créer et orchestrer une solution de monitoring de
passerelle au niveau de l’organisation. Par exemple, vous pouvez :
Utilisez Data Factory pour copier les journaux de passerelle et les transférer
vers OneLake.
Utilisez des notebooks pour collecter par programmation des informations sur
la passerelle à l’aide des API REST Power BI et transformer les fichiers
journaux de la passerelle en tables.
Utilisez Power BI pour créer un modèle sémantique et générer un rapport sur
l’intégrité de la passerelle.
Utilisez Data Activator pour envoyer des alertes aux propriétaires et
administrateurs de passerelles en cas d’anomalies ou d’interruptions.
7 Notes
Vous pouvez également récupérer par programmation une liste des passerelles à
l’aide des applets de commande PowerShell ou des API REST Power BI. Vous
pouvez aussi identifier les événements d’installation de passerelle à l’aide du
journal d’activité.
Envisagez de combiner ces informations avec des analyses agrégées sur le nombre
et le type de sources de données de passerelle. Vous pouvez présenter ces
informations dans des rapports consolidés de gouvernance ou d’audit et de
monitoring à l’échelle du locataire.
Lors du monitoring de la prévalence de la passerelle, concentrez-vous sur les métriques
suivantes.
Pour éviter d’introduire des retards de mise en réseau, nous vous recommandons
d’autoriser l’écriture des journaux de passerelle sur la machine de passerelle locale.
Toutefois, vous pouvez choisir de modifier le chemin d’accès dans lequel les journaux
d’activité sont écrits avec les fichiers de configuration de la passerelle. Vous pouvez
également mettre à jour la durée de conservation des journaux. Faites toujours une
copie des fichiers de configuration avant de les modifier.
Créez une solution d’intégration de données pour collecter et consolider les fichiers
journaux à partir de chaque machine de passerelle afin de pouvoir analyser les données.
Dans l’idéal, ce processus doit être automatisé et présenté dans un rapport analytique
pour visualiser facilement toutes les passerelles et identifier les anomalies.
Conseil
Envisagez d’utiliser des alertes de données pour avertir les administrateurs de
passerelle et les créateurs de connexions à des sources de données d’une activité
anormale sur leurs passerelles et leurs connexions, respectivement. De cette façon,
ils pourront prendre immédiatement des mesures correctives.
Conseil
Les passerelles VNet ont une configuration matérielle unique qui ne peut ni être
mise à l’échelle ni modifiée.
7 Notes
Monitorer les machines de passerelle : vérifiez que les passerelles sont installées
sur des machines monitorées par des solutions de monitoring d’entreprise. Sinon,
assurez-vous de pouvoir détecter quand ces machines ne fonctionnent pas
correctement.
Mesurer la prévalence des passerelles : monitorez l’évolution du nombre de
passerelles installées dans votre locataire au fil du temps.
Collecter et analyser les journaux des passerelles : créez une solution pour
collecter et combiner automatiquement les fichiers journaux des différentes
machines de passerelle. Analysez ces fichiers pour extraire des informations utiles.
Envisagez de configurer deux types de solutions de monitoring analytique : une
pour les alertes et les actions, et une autre pour l’analyse exploratoire des causes
racines lorsque des problèmes se produisent.
Vérifier les rôles et les responsabilités : assurez-vous que des rôles et des
responsabilités sont définis pour le monitoring, l’optimisation et la résolution des
problèmes.
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article introduit les articles sur l’audit et la supervision de Power BI. Ces articles sont
destinés à plusieurs publics :
L’objectif principal de cette série d’articles sur l’audit et la supervision est de vous aider à
comprendre comment Power BI est utilisé pour superviser et régir votre implémentation
de Power BI.
) Important
Cet article décrit quelques méthodes utiles pour utiliser les données d’audit.
Tous les types de données d’audit peuvent être utilisés de plusieurs façons pour évaluer
les actions qui améliorent chaque aspect de l’adoption et y contribuer.
) Important
Si vous n’avez pas déjà commencé à extraire et stocker les données d’activité
utilisateur, faites-en une priorité urgente. Même si vous n’êtes pas prêt à créer une
solution d’audit de bout en bout, veillez à extraire et à stocker toutes les données
du journal d’activité. Pour plus d’informations sur les décisions et les activités
impliquées, ainsi que sur les différentes façons d’obtenir les données, consultez la
section Accéder aux données d’activité utilisateur.
Les sections ci-dessous décrivent certains des modèles d’utilisation les plus courants
que vous devez comprendre.
Utilisation du contenu
Il est utile de comprendre dans quelle mesure le contenu est utilisé. Voici les types de
questions à se poser :
Activités de l’utilisateur
Il est utile de comprendre quels sont les utilisateurs les plus actifs. Voici les types de
questions à se poser :
Conseil
Conseil
Pour plus d’informations sur l’inventaire du locataire, consultez la section Accéder aux
données d’inventaire du locataire.
En fonction des données utilisateur réelles, voici quelques exemples des types d’actions
que vous pouvez prendre.
Fournir des informations utiles aux utilisateurs : quand vous voyez une activité
pour la première fois (par exemple, la première fois qu’un utilisateur publie un
rapport), vous pouvez envoyer à l’utilisateur concerné un e-mail contenant des
informations sur vos meilleures pratiques internes en matière d’espaces de travail
et de sécurité.
Apprendre aux utilisateurs une meilleure façon de faire : quand vous constatez
certaines activités qui vous concernent (par exemple, un nombre important et
récurrent d’exportations de rapports), vous pouvez contacter l’utilisateur. Vous
pouvez alors lui expliquer les inconvénients de ses actions et lui proposer une
meilleure solution.
Tenir compte des heures de bureau : en fonction des activités récentes, vous
pouvez choisir de discuter d’un sujet pertinent pendant les heures de bureau.
Améliorer le programme de formation : pour mieux préparer les nouveaux
utilisateurs (et éviter les mêmes erreurs que celles qui se produisent avec les
utilisateurs existants), vous pouvez améliorer ou développer votre contenu de
formation. Vous pouvez également organiser des séances de formation croisée
pour votre équipe de support.
Améliorer le portail centralisé : pour améliorer la cohérence, vous pouvez investir
du temps en ajoutant ou en modifiant les instructions et les ressources disponibles
dans votre portail centralisé.
Améliorer la conformité
L’audit des données est essentiel pour renforcer votre état de conformité et répondre
aux demandes formelles dans différents scénarios.
ノ Agrandir le tableau
Les API d’analyse des métadonnées sont une autre option pour
localiser des données personnelles. Par exemple, vous pouvez
vérifier certains noms de colonne ou de mesure qui existent
dans les modèles sémantiques publiés.
Exigences contractuelles : vous Vous avez un client qui fournit des données à votre
avez des exigences organisation. Selon le contrat passé avec le client, les données
contractuelles avec des doivent être stockées dans une région géographique
partenaires, des fournisseurs ou spécifique. Vous pouvez utiliser l’API Get Capacities pour
des clients. connaître la région à laquelle une capacité est attribuée. Vous
pouvez utiliser les API d’analyse des métadonnées ou l’API
GetGroupsAsAdmin pour connaître la capacité à laquelle un
espace de travail est attribué.
Demandes d’audit interne : Votre organisation effectue un audit de sécurité interne chaque
vous devez répondre aux trimestre. Vous pouvez utiliser plusieurs API pour auditer les
demandes effectuées par des demandes d’informations sur les autorisations dans Power BI.
auditeurs internes. Par exemple, les API d’analyse des métadonnées, l’API
GetUserArtifactAccessAsAdmin pour le partage de rapports,
l’API GetGroupUsersAsAdmin pour les rôles d’espace de travail
et l’API GetAppUsersAsAdmin pour les autorisations
d’application Power BI.
Demandes d’audit externe : Vous recevez une demande des auditeurs pour résumer la
vous devez répondre aux classification de toutes vos ressources de données Power BI.
demandes effectuées par des Les API d’analyse des métadonnées sont un moyen de compiler
auditeurs externes. les étiquettes de confidentialité appliquées au contenu
Power BI.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Les niveaux d’utilisation des modèles sémantiques, quand et par quels utilisateurs.
Les requêtes envoyées par les utilisateurs qui ouvrent des rapports de connexion
active.
Les modèles composites qui dépendent d’un modèle sémantique partagé.
Les détails des opérations d’actualisation des données.
Les cas d’utilisation d’une passerelle de données pour les requêtes ou les
opérations d’actualisation des données.
Les sources de données utilisées, à quelle fréquence et par quels utilisateurs.
Lorsque la mise en cache des requêtes est activée pour les modèles sémantiques.
Les cas où le pliage des requêtes (Query Folding) n’a pas lieu.
Le nombre de connexions DirectQuery actives pour les sources de données.
Le/Les modes de stockage de données utilisés par des modèles sémantiques.
Audit au niveau des rapports : techniques que les créateurs de rapports peuvent
utiliser pour comprendre quels utilisateurs se servent des rapports qu’ils créent,
publient et partagent.
Audit au niveau des données : méthodes que les créateurs de données peuvent
utiliser pour suivre les modèles de performances et d’utilisation des ressources de
données qu’ils créent, publient et partagent.
Audit au niveau du locataire : décisions et actions clés que les administrateurs
peuvent prendre pour créer une solution d’audit de bout en bout.
Supervision au niveau du locataire : actions tactiques que les administrateurs
peuvent entreprendre pour surveiller les service, les mises à jour et les annonces
Power BI.
Contenu connexe
Dans le prochain article de cette série, vous allez découvrir l’audit au niveau des
rapports.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur l’audit au niveau du rapport est destiné à plusieurs publics :
Les concepts abordés dans cet article s’appliquent principalement aux solutions créées
pour trois étendues de distribution de contenu, en particulier la BI d’entreprise, la BI
départementale et la BI d’équipe. Les créateurs de solutions décisionnelles personnelles
peuvent également trouver les informations de cet article utiles, mais ils ne constituent
pas la cible principale.
Cet article se concentre sur l’audit et la surveillance des rapports et des visuels.
Toutefois, l’obtention de bonnes performances pour un rapport et ses visuels n’est pas
possible lorsque le modèle sémantique sous-jacent (précédemment appelé jeu de
données) et/ou la source de données ne fonctionne pas correctement. Pour plus
d’informations sur l’audit et la surveillance des modèles sémantiques, des flux de
données et des datamarts, consultez Audit au niveau des données.
Cet article est le premier article de la série d’audit et de surveillance, car il décrit les
outils intégrés que les créateurs de contenu sont susceptibles de découvrir en premier.
Dans l’idéal, vous créez des modèles sémantiques partagés (destinés à être réutilisés
dans de nombreux rapports) avant que les utilisateurs ne créent des rapports. Par
conséquent, nous vous recommandons de lire cet article avec l’article Audit au niveau
du rapport.
Conseil
Que vous conversiez avec des collègues ou que vous lisiez en ligne, vous devez
déterminer si le terme rapport est utilisé de manière littérale ou plus générale.
Souvent, il est utilisé de manière générale pour faire référence à un seul fichier
Power BI Desktop (.pbix). Le fichier peut contenir un modèle de données (qui, une
fois publié, devient un modèle sémantique), un rapport ou les deux. Le terme peut
être utilisé littéralement pour faire référence à un rapport uniquement (par
exemple, un rapport avec une Connexion active à un modèle sémantique). Dans cet
article, le terme est utilisé littéralement.
Dans l’idéal, les performances sont une préoccupation principale pendant le processus
de conception du rapport. Voici plusieurs situations dans lesquelles vous pouvez choisir
de définir des objectifs de performances.
Vous pouvez choisir de créer une cible de performances standard destinée à s’appliquer
à tous les rapports de l’organisation. Par exemple, la première page de rapport doit
s’afficher en moins de cinq secondes. Toutefois, étant donné qu’il existe de nombreuses
considérations différentes, il n’est généralement pas réaliste de s’attendre à ce que
chaque solution atteigne la même cible. Tenez compte des plages pour vos objectifs de
performances qui prennent en compte le niveau de complexité de la solution.
Liste de contrôle : lorsque vous envisagez comment les créateurs de rapports doivent
vérifier les performances des rapports, les décisions et actions clés sont les suivantes :
Le reste de cet article décrit les techniques que vous pouvez utiliser pour auditer et
surveiller les performances des rapports.
L’objectif principal des rapports de métriques d’utilisation est d’évaluer l’impact d’un
rapport ou de tous les rapports d’un espace de travail. Étant donné qu’il est axé sur les
vues de rapport et les performances des rapports et des tableaux de bord (plutôt que
d’autres éléments, tels que les modèles sémantiques et les flux de données), il cible les
créateurs de rapports.
Conseil
Power BI capture les métriques d’utilisation pour l’activité qui se produit pour le
contenu qui a été publié sur le service Power BI (y compris lorsqu’il est rendu à
l’aide de Power BI Embedded). L’accès aux métriques d’utilisation n’est qu’une
raison pour encourager les créateurs de rapports à publier leurs rapports sur le
service Power BI, plutôt que de partager des fichiers Power BI Desktop.
Les métriques d’utilisation sont intégrées au service Power BI, ce qui constitue un
avantage clé, car les créateurs de rapports n’ont pas besoin de configurer un processus
pour extraire et stocker les données d’utilisation. Il est rapide et simple pour eux de
commencer.
Un autre avantage des métriques d’utilisation est que le modèle sémantique interne (qui
contient les données de métriques d’utilisation) inclut des informations qui ne sont pas
facilement trouvées ailleurs. Par exemple, il inclut des affichages par page de rapport et
la durée d’ouverture du rapport. Les vues de page de rapport sont obtenues à l’aide de
la télémétrie cliente, qui présente des limites. La télémétrie cliente (utilisée par les
métriques d’utilisation des rapports) est différente des données de télémétrie côté
serveur (utilisées par le journal d’activité).
) Important
Le journal d’activité Power BI est une meilleure alternative lorsque vous souhaitez :
Les rapports de métriques d’utilisation sont disponibles pour les créateurs et les
propriétaires de rapports affectés au rôle Contributeur, Membre ou Administration de
l’espace de travail. Pour rendre les rapports de métriques d’utilisation visibles pour les
visionneuses de l’espace de travail (consommateurs de contenu), vous pouvez créer une
copie du rapport d’utilisation et le personnaliser.
Conseil
Pour plus d’informations sur les rôles d’espace de travail, consultez l’article
Planification de la sécurité du créateur de contenu .
Les paramètres de locataire liés aux métriques d'utilisation sont au nombre de deux.
Check-list : voici les décisions et actions clés pour planifier l’utilisation du rapport des
métriques d'utilisation :
Analyseur de performances
Analyseur de performances est un outil disponible dans Power BI Desktop pour vous
aider à examiner et à surveiller les performances des rapports. Il peut aider les créateurs
de rapports à comprendre les performances des visuels et des formules DAX.
Conseil
) Important
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Les données sont enregistrées lorsqu’un utilisateur interagit avec un élément de rapport.
Les données journalisées incluent plus que les éléments d’affichage visuel. Il comprend
également :
Certaines organisations ont des exigences spécifiques pour les rapports approuvés
(certifiés ou promus). C’est particulièrement vrai pour les rapports qui sont largement
utilisés tout au long de l’organisation. Dans ce cas, vous pouvez être amené (ou
encouragé) à vérifier Analyseur de performances résultats avant de publier le rapport,
ou avant qu’il soit certifié.
Conseil
Des rapports performants ont un impact positif sur l’adoption de la solution. Nous
vous recommandons d’encourager les créateurs de rapports à tester les
performances des rapports avant de publier une nouvelle solution sur le service
Power BI. Vous devez également les encourager à retester les performances lorsque
des modifications significatives sont apportées à une solution existante (rapport ou
modèle sémantique).
Contenu connexe
Dans le prochain article de cette série, vous allez découvrir l’audit au niveau des
données.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur l’audit au niveau des données est destiné à plusieurs publics :
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Les concepts abordés dans cet article s’appliquent principalement aux solutions créées
pour trois étendues de distribution de contenu, en particulier la BI d’entreprise, la BI
départementale et la BI d’équipe. Les créateurs de solutions décisionnelles personnelles
peuvent également trouver les informations de cet article utiles, mais ils ne constituent
pas la cible principale.
Il n’est pas possible d’obtenir de bonnes performances dans les rapports et les visuels
lorsque le modèle sémantique et/ou la source de données sous-jacents ne fonctionnent
pas correctement. Cet article se concentre sur l’audit et le monitoring des modèles
sémantiques, des flux de données et des datamarts. Il s’agit du deuxième article de la
série Audit et supervision, car les outils et techniques sont plus complexes que ceux
décrits dans l’article Audit au niveau du rapport. Dans l’idéal, vous créez des modèles
sémantiques partagés (destinés à être réutilisés dans de nombreux rapports) avant que
les utilisateurs ne créent des rapports. Par conséquent, nous vous recommandons de lire
cet article avec l’article Audit au niveau du rapport.
Étant donné que les modèles sémantiques Power BI reposent sur le moteur tabulaire
Analysis Services, vous pouvez vous connecter à un modèle de données local (dans
Power BI Desktop) ou à un modèle sémantique Premium (dans le service Power BI)
comme s’il s’agit d’une base de données Analysis Services. Par conséquent, la plupart
des fonctionnalités d’audit et de monitoring d’Analysis Services sont prises en charge
pour les modèles sémantiques Power BI Premium.
7 Notes
Pour plus d’informations sur les modèles hébergés dans Analysis Services, consultez
Vue d’ensemble de la supervision.
Le reste de cet article se concentre principalement sur les modèles publiés sur le service
Power BI.
7 Notes
La modification du nom des jeux de donnéesa été déployée dans le service Power
BI et dans la documentation. Il se peut toutefois que dans certains cas, comme
pour les opérations du journal des événements, la modification n'ait pas encore été
effectuée.
Les événements générés par un modèle sémantique Power BI sont dérivés des journaux
de diagnostic existants disponibles pour Azure Analysis Services. Il existe de nombreux
types d’événements de trace que vous pouvez capturer et analyser, qui sont décrits dans
les sections suivantes.
Les journaux d’un ou de plusieurs espaces de travail Power BI sont envoyés vers un
espace de travail Log Analytics cible. Voici quelques façons parmi lesquelles choisir pour
organiser les données.
Un espace de travail cible pour toutes les données d’audit : stockez toutes les
données dans un espace de travail Log Analytics. Cette opération est utile lorsque
le même administrateur ou les mêmes utilisateurs accèdent à toutes les données.
Espaces de travail cibles organisés par zone de sujet : organisez le contenu par
zone de sujet. Cette technique est particulièrement utile lorsque divers
administrateurs ou utilisateurs sont autorisés à accéder aux données d’audit à
partir d’Azure Log Analytics. Par exemple, lorsque vous devez séparer des données
de ventes des données d’opérations.
Un espace de travail cible pour chaque espace de travail Power BI : configurez
une relation un-à-un entre un espace de travail Power BI et un espace de travail
Azure Log Analytics. Cette opération est utile lorsque vous avez du contenu
particulièrement sensible ou lorsque les données sont soumises à des exigences de
conformité ou réglementaires spécifiques.
Conseil
) Important
Bien que les noms soient similaires, les données capturées par Azure Log Analytics
ne sont pas identiques au journal d’activité Power BI. Azure Log Analytics capture
les événements de trace au niveau des détails à partir du moteur Analysis Services.
Son seul objectif est de vous aider à analyser et à résoudre les problèmes de
performances du modèle sémantique. Son étendue est au niveau de l’espace de
travail. À l’inverse, l’objectif du journal d’activité est de vous aider à comprendre la
fréquence à laquelle certaines activités utilisateur se produisent (telles que la
modification d’un rapport, l’actualisation d’un modèle sémantique ou la création
d’une application). Son étendue est l’intégralité du locataire Power BI.
Pour plus d’informations sur les activités utilisateur que vous pouvez auditer pour
votre locataire Power BI, consultez Audit au niveau du locataire.
Le paramètre de locataire Connexion Azure Log Analytics pour les administrateurs
d’espace de travail contrôle les groupes d’utilisateurs (qui ont également le rôle
d’administrateur d’espace de travail nécessaire) qui peuvent connecter un espace de
travail Power BI à un espace de travail Azure Log Analytics existant.
Avant de pouvoir configurer l’intégration, vous devez respecter les prérequis de sécurité.
Par conséquent, envisagez d’activer le paramètre de locataire Power BI uniquement pour
les administrateurs d’espace de travail Power BI qui disposent également des
autorisations requises dans Azure Log Analytics ou qui peuvent obtenir ces autorisations
sur demande.
Conseil
Les journaux de modèle sémantique capturés par Azure Log Analytics incluent les
requêtes de modèle sémantique, les statistiques de requête, l’activité d’actualisation
détaillée, le temps processeur consommé sur les capacités Premium, etc. Étant donné
qu’il s’agit de journaux au niveau des détails du moteur Analysis Services, les données
peuvent être détaillées. Les volumes de données importants sont courants pour les
espaces de travail volumineux qui connaissent une activité de modèle sémantique
élevée.
Pour optimiser les coûts lors de l’utilisation d’Azure Log Analytics avec Power BI :
Il existe plusieurs façons d’accéder aux événements envoyés à Azure Log Analytics. Vous
pouvez utiliser :
Conseil
Liste de vérification : lorsque vous planifiez d’utiliser Azure Log Analytics, voici les
décisions et actions clés :
" Considérez une preuve de concept technique : planifiez un petit projet pour vous
assurer que vous comprenez parfaitement les exigences techniques, les exigences
de sécurité, les événements à capturer et comment analyser les journaux.
" Déterminez les espaces de travail qui doivent être intégrés à Log Analytics :
déterminez les espaces de travail Premium qui contiennent des modèles
sémantiques que vous souhaitez analyser.
" Déterminez si Log Analytics doit être activé à plein temps pour tous les espaces
de travail : pour optimiser les coûts, déterminez s’il existe des situations (ou des
espaces de travail spécifiques) où la journalisation doit être activée de manière
permanente. Déterminez si les espaces de travail doivent être déconnectés lorsque
la résolution des problèmes ne se produit pas.
" Déterminez la durée de conservation des données Log Analytics : déterminez s’il
est nécessaire de définir une période de rétention plus longue que la valeur par
défaut de 30 jours.
" Clarifiez le processus de demande d’un nouvel espace de travail Log Analytics :
collaborez avec votre administrateur Azure pour clarifier comment les demandes
d’une nouvelle ressource Log Analytics doivent être envoyées par les
administrateurs de l’espace de travail Power BI.
" Déterminez le fonctionnement de la sécurité : collaborez avec votre administrateur
Azure pour décider s’il est davantage possible pour un administrateur d’espace de
travail Power BI d’obtenir des droits sur un espace de travail Azure Log Analytics, ou
pour un administrateur Azure d’obtenir des droits sur un espace de travail Power BI.
Lorsque vous prenez cette décision de sécurité, envisagez votre plan de connexion
et de déconnexion des espaces de travail régulièrement (pour l’optimisation des
coûts).
" Décidez comment organiser les espaces de travail Log Analytics cibles :
déterminez le nombre d’espaces de travail Azure Log Analytics appropriés pour
organiser les données d’un ou plusieurs espaces de travail Power BI. Alignez cette
décision sur vos décisions de sécurité relatives aux utilisateurs qui peuvent accéder
aux données de journal.
" Déterminez les administrateurs d’espace de travail autorisés à se connecter :
déterminez les groupes d’administrateurs d’espace de travail qui peuvent connecter
un espace de travail Power BI à un espace de travail Log Analytics. Définissez le
paramètre de locataire Connexion Azure Log Analytics pour les administrateurs de
l’espace de travail pour qu’il s’aligne sur cette décision.
" Créez la ressource Azure Log Analytics : collaborez avec votre administrateur Azure
pour créer chaque espace de travail Log Analytics. Vérifiez et mettez à jour les
autorisations affectées dans Azure pour vous assurer que la configuration de
Power BI peut se produire sans aucun problème. Vérifiez que les données stockées
dans Azure se trouvent dans la région géographique appropriée.
" Définissez la connexion Log Analytics pour chaque espace de travail Power BI :
collaborez avec les administrateurs de votre espace de travail Power BI pour
configurer la connexion à Log Analytics pour chaque espace de travail Power BI.
Vérifiez que les données de journal circulent correctement vers l’espace de travail
Log Analytics.
" Créez des requêtes pour analyser les données : configurez des requêtes KQL pour
analyser les données dans Log Analytics en fonction de votre cas d’usage et de vos
besoins actuels.
" Incluez des conseils pour les administrateurs d’espace de travail Power BI :
fournissez des informations et des conditions préalables aux administrateurs de
votre espace de travail Power BI pour savoir comment demander un nouvel espace
de travail Log Analytics et comment se connecter à un espace de travail Power BI.
Expliquez également quand il est approprié de déconnecter un espace de travail
Power BI.
" Fournissez des conseils et des exemples de requêtes pour l’analyse des données :
créez des requêtes KQL pour les administrateurs d’espace de travail afin de faciliter
leur prise en main de l’analyse des données capturées.
" Supervisez les coûts : collaborez avec votre administrateur Azure pour superviser
les coûts de Log Analytics en continu.
Vous pouvez utiliser SQL Profiler pendant différentes étapes du cycle de vie d’un modèle
sémantique.
Il est également possible d’utiliser SQL Profiler en tant qu’outil externe dans DAX
Studio . Vous pouvez utiliser DAX Studio pour démarrer une trace du générateur de
profil, analyser les données et mettre en forme les résultats. Les modélisateurs de
données qui utilisent DAX Studio préfèrent souvent cette approche plutôt que
l’utilisation directe de SQL Profiler.
7 Notes
L’utilisation de SQL Profiler est un cas d’usage différent de l’activité de profilage des
données. Vous profilez les données dans l’Éditeur Power Query pour mieux
comprendre leurs caractéristiques. Bien que le profilage des données soit une
activité importante pour les modélisateurs de données, il n’est pas dans l’étendue
de cet article.
Envisagez d’utiliser SQL Profiler au lieu d’Azure Log Analytics dans les cas suivants :
Votre organisation ne vous permet pas d’utiliser ni de créer des ressources Azure
Log Analytics dans Azure.
Vous souhaitez capturer des événements pour un modèle de données dans
Power BI Desktop (qui n’a pas été publié dans un espace de travail Premium dans
le service Power BI).
Vous souhaitez capturer les événements d’un modèle sémantique pendant une
courte période (plutôt que tous les modèles sémantiques d’un espace de travail
Premium).
Vous souhaitez capturer certains événements uniquement pendant une trace (par
exemple, uniquement l’événement De fin de requête).
Vous souhaitez démarrer et arrêter fréquemment des traces (par exemple, lorsque
vous devez capturer des événements de modèle sémantique qui se produisent
actuellement).
Comme Azure Log Analytics (décrit plus haut dans cet article), les événements de
modèle sémantique capturés par SQL Profiler sont dérivés des journaux de diagnostic
existants disponibles pour Azure Analysis Services. Toutefois, il existe certaines
différences dans les événements disponibles.
Conseil
L’utilisation de SQL Profiler pour la supervision d’Analysis Services est abordée dans
de nombreux livres, articles et billets de blog. La plupart de ces informations sont
pertinentes pour le monitoring d’un modèle sémantique Power BI.
) Important
Vous pouvez également utiliser SQL Profiler pour superviser les requêtes envoyées
à partir du service Power BI aux sources de données sous-jacentes (par exemple, à
une base de données relationnelle SQL Server). Toutefois, la possibilité de tracer
une base de données relationnelle est déconseillée. La connexion au moteur
Analysis Services est prise en charge et non déconseillée. Si vous êtes familiarisé
avec les événements étendus Analysis Services et que vous préférez les utiliser, la
connectivité à partir de SSMS est possible pour un modèle de données dans
Power BI Desktop. Toutefois, elle n’est pas prise en charge pour Power BI Premium.
Par conséquent, cette section se concentre uniquement sur la connectivité SQL
Profiler standard.
Le paramètre de locataire Autoriser les points de terminaison XMLA et l’analyse dans Excel
avec les modèles sémantiques locaux contrôle les groupes d’utilisateurs (également
affectés au rôle d’espace de travail Contributeur, Membre ou Administrateur, ou à
l’autorisation Génération pour le modèle sémantique individuel) qui peuvent utiliser le
point de terminaison XMLA pour interroger et/ou gérer des modèles sémantiques dans
le service Power BI. Pour plus d’informations sur l’utilisation du point de terminaison
XMLA, consultez le scénario d’utilisation Gestion avancée des modèles de données.
7 Notes
Vous pouvez également utiliser SQL Profiler pour vous aider à déboguer et
dépanner des expressions DAX spécifiques. Vous pouvez connecter SQL Profiler à
Power BI Desktop en tant qu’outil externe. Recherchez la classe d’événements DAX
Evaluation Log (Journal d’évaluation DAX) pour afficher les résultats intermédiaires
d’une expression DAX. Cet événement est généré lorsque vous utilisez la fonction
DAX EVALUATEANDLOG dans un calcul de modèle.
" Déterminez qui peut installer SSMS ou DAX Studio : déterminez si vous allez
autoriser tous les créateurs de contenu Power BI de votre organisation à installer
SSMS et/ou DAX Studio afin qu’ils puissent utiliser SQL Profiler. Déterminez si ces
outils auxiliaires sont installés sur demande ou s’ils font partie d’un ensemble
standard de logiciels installés pour les créateurs de données approuvés dans
l’organisation.
" Ajoutez SQL Profiler au menu Outils externes dans Power BI Desktop : si les
créateurs de données utilisent souvent SQL Profiler, demandez au service
informatique de l’ajouter automatiquement au menu Outils externes dans Power BI
Desktop pour ces utilisateurs.
" Déterminez qui peut utiliser le point de terminaison XMLA : déterminez si tous les
utilisateurs sont autorisés à se connecter à des modèles sémantiques publiés à
l’aide du point de terminaison XMLA, ou s’il est limité aux créateurs de données
approuvés. Définissez le paramètre de locataire Autoriser les points de terminaison
XMLA et Analyser dans Excel avec les modèles sémantiques locaux conformément à
cette décision.
" Fournissez des conseils et des exemples de requêtes pour l’analyse des données :
créez une documentation pour vos créateurs de données afin qu’ils comprennent la
méthode recommandée pour auditer et monitorer les modèles sémantiques.
Fournissez des conseils pour les cas d’usage courants afin de faciliter la collecte et
l’analyse des données de trace.
Conseil
Les DMV récupèrent des informations sur l’état actuel d’un modèle sémantique.
Considérez les données retournées par les DMV comme un instantané de ce qui se
produit à un moment donné. À l’inverse, les journaux des événements de modèle
sémantique (décrits plus haut dans cet article) récupèrent des informations sur les
activités qui se sont produites pour un modèle sémantique pendant qu’une
connexion de trace était active.
SSMS est un outil couramment utilisé pour exécuter des requêtes DMV. Vous pouvez
également utiliser l’applet de commande PowerShell Invoke-ASCmd pour créer et
exécuter des scripts XMLA qui interrogent les DMV.
Les outils tiers et les outils externes sont également populaires auprès de la
communauté Power BI. Ces outils utilisent les DMV documentés publiquement pour
simplifier l’accès et utiliser les données retournées par les DMV. Par exemple, DAX
Studio inclut des fonctionnalités explicites permettant d’accéder aux DMV. DAX Studio
inclut également une fonctionnalité intégrée d’affichage des métriques, communément
appelée Vertipaq Analyzer. Vertipaq Analyzer dispose d’une interface utilisateur
permettant d’analyser la structure et la taille des tables, des colonnes, des relations et
des partitions dans un modèle de données. Vous pouvez également exporter (ou
importer) les métadonnées du modèle de données dans un fichier .vpax. Le fichier
exporté contient uniquement des métadonnées sur la structure et la taille du modèle de
données, sans stocker de données de modèle.
Conseil
Envisagez de partager un fichier .vpax avec quelqu’un lorsque vous avez besoin
d’aide avec un modèle de données. De cette façon, vous ne partagerez pas les
données du modèle avec cette personne.
Vous pouvez utiliser des requêtes DMV pendant différentes phases du cycle de vie d’un
modèle sémantique.
Si vous décidez d’écrire vos propres requêtes DMV (par exemple, dans SSMS),
n’oubliez pas que les DMV ne prennent pas en charge toutes les opérations SQL. En
outre, certaines DMV ne sont pas prises en charge dans Power BI (car elles
nécessitent des autorisations d’administrateur de serveur Analysis Services qui ne
sont pas prises en charge par Power BI).
Le paramètre de locataire Autoriser les points de terminaison XMLA et l’analyse dans Excel
avec les modèles sémantiques locaux contrôle les groupes d’utilisateurs (également
affectés au rôle d’espace de travail Contributeur, Membre ou Administrateur, ou à
l’autorisation Génération pour le modèle sémantique individuel) qui peuvent utiliser le
point de terminaison XMLA pour interroger et/ou gérer des modèles sémantiques dans
le service Power BI.
Pour plus d’informations sur l’utilisation du point de terminaison XMLA, d’outils tiers et
d’outils externes, consultez le scénario d’utilisation de la gestion avancée des modèles
de données.
Conseil
Principalement, BPA peut vous aider à améliorer la cohérence des modèles en détectant
des décisions de conception non optimales qui peuvent réduire les problèmes de
performances. Cela est utile lorsque vous avez des modélisateurs de données en libre-
service distribués dans différentes zones de l’organisation.
BPA peut également vous aider à auditer et à gouverner vos modèles de données. Par
exemple, vous pouvez vérifier si un modèle de données inclut des rôles de sécurité au
niveau des lignes. Vous pouvez également vérifier si tous les objets de modèle ont une
description. Cela est utile lorsque, par exemple, votre objectif est de vous assurer qu’un
modèle de données inclut un dictionnaire de données.
BPA peut exposer des problèmes de conception qui peuvent aider le Centre d’excellence
à déterminer si une formation ou une documentation supplémentaire est nécessaire. Il
peut prendre des mesures pour éduquer les créateurs de données sur les meilleures
pratiques et les directives organisationnelles.
Conseil
Gardez à l’esprit que BPA peut détecter l’existence d’une caractéristique (telle que la
sécurité au niveau des lignes). Toutefois, il peut être difficile de déterminer s’il est
correctement configuré. Pour cette raison, un expert en la matière peut avoir
besoin d’effectuer un examen. À l’inverse, l’inexistence d’une caractéristique
particulière ne signifie pas nécessairement une mauvaise conception ; le
modélisateur de données peut avoir une bonne raison de produire une conception
particulière.
Liste de vérification : voici les décisions et actions clés à prendre en compte pour
planifier l’accès aux métadonnées des modèles de données :
" Déterminez qui peut installer SSMS : déterminez si vous allez autoriser tous les
créateurs de contenu Power BI de votre organisation à installer SSMS afin qu’ils
puissent se connecter aux modèles sémantiques publiés. Déterminez s’il est installé
sur demande ou dans le cadre d’un ensemble standard de logiciels installés pour
les créateurs de données approuvés dans l’organisation.
" Déterminez qui peut installer des outils tiers : déterminez si vous allez autoriser
tous les créateurs de contenu Power BI de votre organisation à installer des outils
tiers (tels que DAX Studio et l’Éditeur tabulaire) pour qu’ils puissent monitorer les
modèles de données locaux et/ou les modèles sémantiques publiés. Déterminez
s’ils sont installés sur demande ou dans le cadre d’un ensemble standard de
logiciels installés pour les créateurs de données approuvés dans l’organisation.
" Configurez les règles de meilleures pratiques : déterminez les règles Best Practice
Analyzer qui peuvent analyser les modèles de données dans votre organisation.
" Déterminez qui peut utiliser le point de terminaison XMLA : déterminez si tous les
utilisateurs sont autorisés à se connecter à des modèles sémantiques à l’aide du
point de terminaison XMLA, ou s’il est limité aux créateurs de données approuvés.
Définissez le paramètre de locataire Autoriser les points de terminaison XMLA et
Analyser dans Excel avec les modèles sémantiques locaux conformément à cette
décision.
" Fournissez des conseils aux créateurs de contenu : créez une documentation pour
vos créateurs de données afin qu’ils comprennent la ou les méthodes
recommandées pour analyser les modèles sémantiques. Fournissez des conseils
pour les cas d’usage courants pour faciliter la collecte et l’analyse des résultats DMV
et/ou l’utilisation de Best Practice Analyzer.
Analyseur de performances
Utilisez l’Analyseur de performances, disponible dans Power BI Desktop, pour auditer et
examiner les performances d’un modèle de données. L’Analyseur de performances aide
les créateurs de rapports à mesurer les performances des éléments de rapport
individuels. Toutefois, la cause première des problèmes de performances est
généralement liée à la conception du modèle de données. Pour cette raison, un créateur
de modèle sémantique peut également tirer parti de l’utilisation de l’Analyseur de
performances. S’il existe différents créateurs de contenu responsables de la création de
rapports et de modèles sémantiques, il est probable qu’ils devront collaborer lors de la
résolution d’un problème de performances.
Conseil
Vous pouvez utiliser DAX Studio pour importer et analyser les fichiers journaux
générés par l’Analyseur de performances.
Les informations que vous pouvez obtenir à partir des diagnostics de requête sont les
suivantes :
Selon ce que vous recherchez, vous pouvez activer un ou tous les journaux : agrégés,
détaillés, compteurs de performances et partitions de confidentialité des données.
Vous pouvez démarrer les diagnostics de session dans l’Éditeur Power Query. Une fois
activées, les opérations de requête et d’actualisation sont collectées jusqu’à l’arrêt du
traçage de diagnostic. Les données sont renseignées directement dans l’éditeur de
requête dès que les diagnostics sont arrêtés. Power Query crée un groupe Diagnostics
(dossier) et y ajoute plusieurs requêtes. Vous pouvez ensuite utiliser les fonctionnalités
de Power Query standard pour afficher et analyser les données de diagnostic.
Vous pouvez également activer une trace dans Power BI Desktop dans la section
Diagnostics de la fenêtre Options. Les fichiers journaux sont enregistrés dans un dossier
sur votre ordinateur local. Ces fichiers journaux sont remplis avec les données une fois
que vous fermez Power BI Desktop, date à laquelle la trace est arrêtée. Une fois Power BI
Desktop fermé, vous pouvez ouvrir les fichiers journaux avec votre programme préféré
(par exemple, un éditeur de texte) pour les afficher.
Conseil
Liste de vérification : lorsque vous envisagez d’utiliser des approches pour superviser
les performances du modèle de données et des requêtes, les décisions et actions clés
sont les suivantes :
Un créateur de contenu Power BI peut effectuer de nombreuses actions une fois qu’il
analyse les résultats de la supervision. Il pourrait :
Ajuster et affiner les requêtes envoyées à la source de données pour qu’elles soient
aussi efficaces que possible.
Valider et régler les requêtes natives envoyées à la source de données.
Réduire le nombre de colonnes importées dans un modèle de données.
Supprimer les colonnes de haute précision et de haute cardinalité qui sont
importées dans un modèle de données.
Réduire la quantité de données historiques importées dans un modèle de données.
Ajustez les heures d’actualisation des données Power BI pour répartir la demande
pour la source de données.
Utilisez l’actualisation incrémentielle des données pour réduire la charge sur la
source de données.
Réduisez le nombre d’actualisations de données Power BI en regroupant plusieurs
modèles sémantiques dans un modèle sémantique partagé.
Ajuster les paramètres d’actualisation automatique de la page pour augmenter la
fréquence d’actualisation et, par conséquent, réduire la charge sur la source de
données.
Simplifier les calculs pour réduire la complexité des requêtes envoyées à la source
de données.
Modifier le mode de stockage des données (par exemple, en mode importation au
lieu de DirectQuery) pour réduire la charge de requête cohérente sur la source de
données.
Utiliser des techniques de réduction des requêtes pour réduire le nombre de
requêtes envoyées à la source de données.
Introduire une couche de données intermédiaire, telle que des flux de données
Power BI (lorsqu’un entrepôt de données n’est pas une option viable). Les
créateurs de contenu Power BI peuvent utiliser les flux de données comme source
de données au lieu de se connecter directement à des sources de données. Une
couche de données intermédiaire peut réduire la charge sur un système source.
Elle présente également l’avantage supplémentaire de centraliser la logique de
préparation des données. Pour plus d’informations, consultez les scénarios
d’utilisation Préparation de données libre-service.
Modifier l’emplacement de la source de données pour réduire l’impact de la
latence du réseau (par exemple, utilisez la même région de données pour le service
Power BI, les sources de données et les passerelles).
Optimiser la source de données afin qu’elle récupère plus efficacement les
données pour Power BI. Plusieurs techniques communes incluent la création
d’index de table, de vues indexées et de colonnes calculées persistantes, ou la
gestion des statistiques, l’utilisation de tables en mémoire ou columnstore et la
création de vues matérialisées.
Indiquer aux utilisateurs d’utiliser un réplica en lecture seule de la source de
données, plutôt qu’une base de données de production d’origine. Un réplica peut
être disponible dans le cadre d’une stratégie de base de données à haute
disponibilité (HA). L’un des avantages d’un réplica en lecture seule est de réduire
les conflits sur le système source.
Les outils et techniques que vous pouvez utiliser pour superviser les sources de données
dépendent de la plateforme technologique. Par exemple, votre administrateur de base
de données peut utiliser des événements étendus ou le Magasin des requêtes pour
superviser les bases de données Azure SQL Database et SQL Server.
Parfois, Power BI accède à une source de données via une passerelle de données. Les
passerelles gèrent la connectivité de la service Power BI à certains types de sources de
données. Toutefois, elles font plus que se connecter aux données. Une passerelle
comprend un moteur mashup qui effectue des transformations de traitement et de
données sur la machine. Elle compresse et chiffre également les données afin qu’elles
puissent être transmises efficacement et en toute sécurité au service Power BI. Par
conséquent, une passerelle non managée ou non optimisée peut contribuer à des
goulots d’étranglement des performances. Nous vous recommandons de parler à votre
administrateur de passerelle pour obtenir de l’aide sur la supervision des passerelles.
Conseil
L’API REST Get Refresh History in Group pour récupérer les informations
d’actualisation d’un espace de travail.
L’API REST Get Refreshables for Capacity pour récupérer les informations
d’actualisation d’une capacité.
Conseil
Liste de vérification : voici les décisions et actions clés pour planifier la supervision de
l’actualisation des données :
Si vous le souhaitez, vous pouvez définir des espaces de travail pour utiliser Azure Data
Lake Storage Gen2 pour le stockage de flux de données (appelé « bring-your-own-
storage ») plutôt que pour le stockage interne. Lorsque vous utilisez bring-your-own-
storage, envisagez d’activer la télémétrie afin de pouvoir superviser les métriques pour
le compte de stockage. Pour plus d’informations, consultez les scénarios d’utilisation
Préparation des données libre-service et Préparation des données avancée.
Vous pouvez utiliser les API REST Power BI pour superviser les transactions de flux de
données. Par exemple, utilisez l’API Get Dataflow Transactions pour vérifier l’état des
actualisations du flux de données.
Vous pouvez suivre les activités des utilisateurs pour les flux de données Power BI avec
le journal d’activité Power BI. Pour plus d’informations, consultez Audit au niveau des
locataires.
Conseil
Vous pouvez suivre les activités des utilisateurs pour les datamarts Power BI à l’aide du
journal d’activité Power BI. Pour plus d’informations, consultez Audit au niveau des
locataires.
Contenu connexe
Dans le prochain article de cette série, vous allez découvrir l’audit au niveau des
locataires.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
) Important
L’objectif d’une solution d’audit au niveau du locataire est de capturer et d’analyser des
données pour tous les utilisateurs, activités et solutions déployés sur un locataire
Power BI. Ces données d’audit au niveau du locataire sont précieuses pour divers
usages, par exemple, pour analyser les efforts d’adoption, comprendre les modèles
d’utilisation, éduquer les utilisateurs, prendre en charge les utilisateurs, atténuer les
risques, améliorer la conformité, gérer les coûts de licence et monitorer les
performances.
La création d’une solution d’audit de bout en bout sécurisée et prête pour la production
est un projet important qui prend du temps. Voyez cela comme la création de business
intelligence sur la business intelligence (BI sur BI). Pour comprendre pourquoi les
données d’audit sont si précieuses, consultez Vue d’ensemble de l’audit et du
monitoring.
Pour un audit au niveau du rapport, qui s’adresse aux créateurs de rapports, consultez
Audit au niveau du rapport.
Pour l’audit des ressources de données, qui s’adresse aux créateurs de données,
consultez Audit au niveau des données.
Conseil
L’objectif principal de cet article est de vous aider à planifier la création d’une
solution d’audit de bout en bout. Le contenu de cet article est organisé en quatre
phases et vous avez besoin des informations de plusieurs phases. Par exemple, la
phase 1 donne des informations sur la planification de l’utilisation d’un principal de
service et la phase 2, des informations sur les prérequis et la configuration.
Par conséquent, nous vous recommandons de lire d’abord l’intégralité de cet article
pour vous familiariser avec les implications. Vous serez ensuite bien préparé pour
planifier et créer votre solution d’audit de manière itérative.
Quand vous planifiez la création d’une solution d’audit au niveau du locataire, prévoyez
du temps pour les quatre phases suivantes.
Exigences et priorités
Dans la phase initiale, l’objectif est d’identifier ce qui est le plus important. Concentrez-
vous sur ce qui compte le plus et comment mesurer l’impact dans votre organisation.
Essayez de définir des exigences orientées métier plutôt que des exigences orientées
technologie.
Quelles sont les questions clés auxquelles vous devez répondre ? Le volume des
données d’audit à explorer est immense. La façon la plus efficace d’aborder l’audit
est de répondre à des questions spécifiques.
Quels sont vos objectifs en matière d’adoption et de culture des données ? Par
exemple, vous avez peut-être pour objectif d’augmenter le nombre de créateurs
de contenu BI en libre-service dans l’organisation. Dans ce cas, vous devez mesurer
les activités utilisateur liées à la création, la modification et la publication de
contenu.
Quels sont les risques immédiats ? Par exemple, vous avez peut-être déjà été
confronté au partage excessif du contenu par le passé. La formation des
utilisateurs a été améliorée depuis, et vous voulez maintenant auditer les
paramètres de sécurité et les activités de manière continue.
Existe-t-il actuellement des indicateurs de performance clés (KPI) ou des
objectifs organisationnels ? Par exemple, vous pouvez avoir un KPI
organisationnel pour la transformation numérique ou pour axer davantage
l’organisation sur les données. Les données d’audit au niveau du locataire peuvent
vous aider à déterminer si votre implémentation de Power BI est alignée sur ces
objectifs.
Conseil
Vérifiez les exigences d’audit et définissez des priorités avec votre cadre
responsable et votre centre d’excellence. Vous pouvez être tenté d’extraire les
données d’audit et de commencer à créer des rapports basés sur un grand nombre
de données intéressantes. Toutefois, il est peu probable que vous tiriez une grande
valeur de votre solution d’audit si elle n’est pas cadrée par les questions auxquelles
vous devez répondre et les actions que vous envisagez d’entreprendre.
Pour plus d’idées sur l’utilisation des données d’audit, consultez Vue d’ensemble de
l’audit et du monitoring.
Check-list : voici les décisions et actions clés à prendre en compte pour identifier les
exigences et les priorités :
Données nécessaires
Une fois que vous avez défini les exigences et les priorités (décrites précédemment),
vous êtes prêt à identifier les données dont vous avez besoin. Quatre catégories de
données sont décrites dans cette section.
La plupart des données dont vous avez besoin sont fournies par les API
d’administration, qui apportent une multitude de métadonnées concernant le locataire
Power BI. Pour plus d’informations, consultez Choisir une API utilisateur ou une API
d’administration plus loin dans cet article.
Le plus souvent, ces données sont désignées comme le journal d’activité ou le journal
des événements. Techniquement, il y a plusieurs façons d’acquérir des données d’activité
utilisateur (le journal d’activité étant l’une des méthodes). Pour plus d’informations sur
les décisions et les activités impliquées, consultez Accéder aux données d’activité
utilisateur plus loin dans cet article.
Voici quelques questions courantes auxquelles les données d’activité utilisateur peuvent
répondre.
Pour plus d’informations sur l’utilisation de ces données, consultez Comprendre les
modèles d’utilisation.
) Important
Si vous n’avez pas déjà commencé à extraire et stocker les données d’activité
utilisateur, faites-en une priorité urgente. Au minimum, veillez à extraire les
données brutes et à les stocker dans un emplacement sécurisé. De cette façon, les
données sont disponibles quand vous êtes prêt à les analyser. L’historique est
disponible pendant 30 jours ou 90 jours, selon la source que vous utilisez.
Pour plus d’informations, consultez la section Accéder aux données d’activité utilisateur
plus loin dans cet article.
Inventaire du locataire
Souvent, la deuxième priorité est de récupérer les données pour créer un inventaire de
locataire. On parle parfois d’inventaire d’espace de travail, de métadonnées d’espace de
travail ou de métadonnées de locataire.
Un inventaire de locataire vous permet d’utiliser les noms actuels dans l’analyse des
activités historiques. L’instantané des éléments de votre locataire contient les noms de
tous les éléments à cet instant. Les noms d’éléments actuels sont utiles pour les rapports
historiques. Par exemple, si un rapport a été renommé il y a trois mois, le journal
d’activité à cet instant enregistre le nom de l’ancien rapport. Avec un modèle de
données correctement défini, vous pouvez utiliser le dernier inventaire de locataire pour
localiser un élément à partir de son nom actuel (au lieu de son ancien nom). Pour plus
d'informations, consultez Créer un modèle de données plus loin dans cet article.
Conseil
Vous utilisez souvent les événements d’activité utilisateur (décrits dans la section
précédente) et l’inventaire de locataire pour avoir une image complète. De cette
façon, vous améliorez la valeur de toutes les données.
Les données récupérées à partir des API REST Power BI comprennent une adresse e-mail
pour décrire l’utilisateur, ou le nom d’un groupe de sécurité. Ces données sont un
instantané à un moment donné.
2 Avertissement
Pour plus d’informations et pour avoir des recommandations sur l’accès aux données à
partir de Microsoft Graph, consultez Accéder aux données d’utilisateurs et de groupes
plus loin dans cet article.
Données de sécurité
Voici quelques questions courantes auxquelles les API REST Power BI peuvent répondre.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Conseil
Pour plus d’informations sur la sécurité, consultez les articles sur la planification de
la sécurité.
Cette liste de questions courantes n’est pas exhaustive, il existe une grande variété d’API
REST Power BI disponibles. Pour plus d’informations, consultez Utilisation des API REST
Power BI.
Pour plus d’informations sur l’utilisation des API d’administration par rapport aux API
utilisateur (y compris comment cela affecte les autorisations nécessaires pour
l’utilisateur qui extrait les données), consultez Choisir une API utilisateur ou une API
d’administration plus loin dans cet article.
Check-list : voici les décisions et actions clés à prendre en compte pour identifier les
données nécessaires à l’audit :
Les données d’audit dont vous avez besoin de manière récurrente doivent être
automatisées. Elles sont extraites et traitées selon une planification régulière, ce qu’on
appelle un processus automatisé. On parle parfois de processus sans assistance.
Les objectifs d’un processus automatisé sont de réduire l’effort manuel, réduire le risque
d’erreur, augmenter la cohérence et éviter de dépendre d’un utilisateur pour lancer
l’exécution.
Le type de processus (manuel ou automatisé) peut avoir un impact sur la façon dont
vous gérez l’authentification. Par exemple, un administrateur Power BI peut utiliser
l’authentification utilisateur pour un processus d’audit manuel, et un principal de service
pour un processus automatisé. Pour plus d’informations, consultez Déterminer la
méthode d’authentification plus loin dans cet article.
Conseil
Check-list : voici les décisions et actions clés à prendre en compte pour choisir le type
de solution d’audit à développer :
" Déterminer l’objectif principal de chaque nouvelle exigence d’audit : choisissez s’il
faut utiliser un processus manuel ou automatisé pour chaque nouvelle exigence.
Déterminez si cette décision est temporaire ou permanente.
" Créer un plan pour mettre en place l’automatisation : quand cela est approprié
pour une exigence d’audit particulière, créez un plan pour l’automatiser, quand et
par qui.
Autorisations et responsabilités
À ce stade, vous devez avoir une idée claire de ce que vous souhaitez faire et des
données dont vous avez initialement besoin. Le moment est venu de prendre des
décisions concernant les autorisations des utilisateurs, ainsi que les rôles et les
responsabilités.
Autorisations utilisateur
Quand vous planifiez la création d’une solution d’audit de bout en bout, réfléchissez aux
autorisations à accorder aux autres utilisateurs qui ont besoin d’accéder aux données.
Plus précisément, choisissez qui est autorisé à accéder aux données d’audit et à les
consulter.
Vous devez choisir qui peut accéder directement aux données d’audit. Il y a plusieurs
façons de procéder.
Vous devez choisir qui peut consulter les données brutes extraites et écrites dans un
emplacement de stockage. Le plus souvent, l’accès aux données brutes est limité aux
administrateurs et aux auditeurs. Le centre d’excellence peut également nécessiter un
accès. Pour plus d’informations, consultez Déterminer où stocker les données d’audit
plus loin dans cet article.
Vous devez choisir qui peut consulter les données organisées et transformées prêtes
pour l’analytique. Ces données doivent toujours être mises à la disposition des
administrateurs et des auditeurs. Parfois, un modèle de données est mis à la disposition
d’autres utilisateurs dans l’organisation, en particulier quand vous créez un modèle
sémantique Power BI avec une sécurité au niveau des lignes. Pour plus d’informations,
consultez Planifier la création de données organisées plus loin dans cet article.
Rôles et responsabilités
Une fois que vous avez choisi le fonctionnement des autorisations utilisateur, vous
pouvez commencer à réfléchir aux rôles et aux responsabilités. Nous vous
recommandons d’impliquer les bonnes personnes dès le début, en particulier quand il y
a plusieurs développeurs ou équipes impliqués dans la création de la solution d’audit de
bout en bout.
Choisissez les utilisateurs ou l’équipe qui sont responsables des activités suivantes.
ノ Agrandir le tableau
Déterminer les Activités de prise de décision L’équipe qui supervise Power BI dans
priorités et fournir liées à la solution d’audit de l’organisation, comme le centre
Rôle Types de responsabilité Rôle généralement effectué par
Créer des rapports Création de rapports pour Créateur(s) de rapports Power BI,
analytiques analyser les données généralement dans le service
organisées. Changements informatique ou le centre d’excellence.
continus des rapports en
fonction des nouvelles
exigences et quand de
nouvelles données d’audit sont
disponibles.
Analyser les Analyser les données et agir en L’équipe qui supervise Power BI dans
données et agir en réponse aux données d’audit. l’organisation, généralement le centre
fonction des d’excellence. Peut également comprendre
résultats d’autres équipes en fonction des résultats
d’audit et de l’action. Les autres équipes
peuvent être chargées de la sécurité, de
la conformité, du juridique, de la gestion
des risques ou de la gestion des
changements.
Test et validation Faire des tests pour vérifier que Créateur(s) de contenu Power BI, en
les exigences d’audit sont partenariat avec l’équipe qui supervise
remplies et que les données Power BI dans l’organisation.
présentées sont exactes.
Sécuriser les Définir et gérer la sécurité de Administrateur du système qui stocke les
données chaque couche de stockage, y données, en partenariat avec l’équipe qui
Rôle Types de responsabilité Rôle généralement effectué par
Assurer le support Monitorer la solution d’audit, y L’équipe qui gère le support du système
de la solution compris l’exécution des Power BI, qui est généralement le service
travaux, les erreurs et la prise informatique ou le centre d’excellence.
en charge des problèmes
techniques.
La plupart des rôles et responsabilités ci-dessus peuvent être regroupés s’ils sont
exécutés par la même équipe ou la même personne. Par exemple, vos administrateurs
Power BI peuvent effectuer certains de ces rôles.
Il est également possible que différentes personnes jouent des rôles différents, selon les
circonstances. Les actions sont contextuelles en fonction des données d’audit et de
l’action proposée.
7 Notes
Check-list : voici les décisions et actions clés à prendre en compte pour choisir les
autorisations et les responsabilités :
" Identifier les équipes impliquées : déterminez les équipes qui sont impliquées dans
la création et la prise en charge de bout en bout de la solution d’audit.
" Choisir des autorisations utilisateur : déterminez comment les autorisations
utilisateur sont configurées pour accéder aux données d’audit. Créez une
documentation des décisions clés pour référence ultérieure.
" Choisir les rôles et les responsabilités : vérifiez que les attentes sont claires
concernant qui fait quoi, en particulier quand plusieurs équipes sont impliquées.
Créez une documentation pour les rôles et les responsabilités, qui comprend les
actions attendues.
" Attribuer des rôles et des responsabilités : attribuez des rôles et des
responsabilités spécifiques à des personnes ou des équipes spécifiques. Mettez à
jour les descriptions de travail individuelles avec les Ressources humaines, selon les
besoins.
" Créer un plan de formation : établissez un plan de formation du personnel quand
de nouvelles compétences sont nécessaires.
" Créer un plan de formation croisée : vérifiez qu’une formation croisée et des
remplaçants sont en place pour les rôles clés.
Décisions techniques
Quand vous planifiez une solution d’audit au niveau du locataire, vous devez prendre
des décisions techniques importantes. Pour améliorer la cohérence, éviter les
remaniements et améliorer la sécurité, nous vous recommandons de prendre ces
décisions le plus tôt possible.
Lorsque vous avez besoin d’accéder directement aux données et de créer votre propre
solution, vous utilisez une interface de programme d’application (API, Application
Programming Interface). Les API sont conçues pour échanger des données sur Internet.
Les API REST Power BI prennent en charge les demandes de données avec le protocole
HTTP. N’importe quel langage ou outil peut appeler des API REST Power BI s’il est
capable d’envoyer une requête HTTP et de recevoir une réponse JSON.
Conseil
Les applets de commande PowerShell utilisent les API REST Power BI pour accéder
aux données d’audit. Pour plus d’informations, consultez Choisir des API ou des
applets de commande PowerShell plus loin dans cet article.
Cette section se concentre sur votre choix de technologie. Pour plus d’informations sur
la source permettant d’accéder à des types spécifiques de données d’audit, consultez
Choix des sources de données plus loin dans cet article.
Options de plateforme
Voici quelques technologies que vous pouvez utiliser pour récupérer des données en
utilisant les API REST Power BI.
ノ Agrandir le tableau
Technology Bon choix pour les Bon choix pour les processus
processus d’audit manuels d’audit automatisés
Try-it
PowerShell
Power BI Desktop
Power Automate
Outil/langage préféré
Microsoft Sentinel
Le reste de cette section fournit une brève présentation de chacune des options
indiquées dans le tableau.
Envoyer manuellement une demande à une API pour déterminer si elle renvoie les
informations souhaitées.
Découvrir comment l’URL est construite avant d’écrire un script.
Vérifier les données de manière informelle.
7 Notes
Vous devez avoir une licence Power BI et être authentifié pour utiliser Try-it. Il suit le
modèle d’autorisations standard, ce qui signifie que les API utilisateur s’appuient
sur des autorisations utilisateur, et que les API d’administration nécessitent des
autorisations d’administrateur Power BI. Vous ne pouvez pas vous authentifier avec
Try-it en utilisant un principal de service.
Visual Studio Code : éditeur de code source léger et moderne. Il s’agit d’un outil
open source disponible gratuitement qui est pris en charge sur plusieurs
plateformes, notamment Windows, macOS et Linux. Vous pouvez utiliser Visual
Studio Code avec de nombreux langages, notamment PowerShell (avec
l’extension PowerShell).
Azure Data Studio : outil permettant de créer des scripts et des notebooks. Il
s’appuie sur Visual Studio Code. Azure Data Studio est disponible
indépendamment ou avec SQL Server Management Studio (SSMS). Il y a de
nombreuses extensions, notamment une extension pour PowerShell.
Azure Cloud Shell : alternative à l’utilisation locale de PowerShell. Vous pouvez
accéder à Azure Cloud Shell à partir d’un navigateur.
Azure Functions : alternative à l’utilisation locale de PowerShell. Azure Functions
est un service Azure qui vous permet d’écrire et d’exécuter du code dans un
environnement serverless. PowerShell est un des nombreux langages qu’il prend
en charge.
) Important
Vous pouvez utiliser PowerShell de plusieurs façons. Pour plus d’informations sur cette
décision technique, consultez Choisir des API ou des applets de commande PowerShell
plus loin dans cet article.
Power BI Desktop
Parce que Power BI Desktop peut se connecter aux API, vous pouvez être tenté de
l’utiliser pour créer votre solution d’audit. Toutefois, il y a de gros inconvénients et de
grandes complexités.
Dans la plupart des cas, nous vous recommandons d’utiliser Power BI Desktop
uniquement pour deux objectifs. Vous devez l’utiliser pour :
Créer votre modèle de données à partir des données organisées existantes (plutôt
que pour extraire initialement les données d’audit).
Créer des rapports analytiques à partir de votre modèle de données.
Power Automate
Vous pouvez utiliser Power Automate avec Power BI de plusieurs façons. En ce qui
concerne l’audit, vous pouvez utiliser Power Automate pour envoyer des demandes aux
API REST Power BI, puis stocker les données extraites à l’emplacement de votre choix.
Conseil
Pour envoyer des demandes aux API REST Power BI, vous pouvez utiliser un
connecteur personnalisé pour Power Automate afin d’authentifier et extraire de
manière sécurisée les données d’audit. Vous pouvez aussi utiliser Azure Key Vault
pour référencer un mot de passe ou un secret. Les deux options sont préférables au
stockage des mots de passe et des secrets en texte brut dans le flux Power
Automate.
Pour d’autres idées d’utilisation de Power Automate, recherchez Power BI dans les
modèles Power Automate .
Il y a plusieurs services Azure qui peuvent envoyer des demandes aux API REST
Power BI. Vous pouvez utiliser votre service Azure préféré, par exemple :
Azure Functions
Azure Automation
Azure Data Factory.
Azure Synapse Analytics
Dans la plupart des cas, vous pouvez combiner un service de calcul qui gère la logique
d’extraction des données avec un service de stockage qui stocke les données brutes (et
les données organisées, selon les besoins). Les considérations relatives à la prise de
décisions en matière d’architecture technique sont décrites plus loin dans cet article.
Vous pouvez utiliser votre outil préféré et votre langage préféré pour envoyer des
demandes aux API REST Power BI. Il s’agit d’une bonne approche si votre équipe
maîtrise un outil ou un langage spécifique, par exemple :
Python
C# sur le .NET Framework. Vous pouvez aussi utiliser le SDK Power BI .NET , qui
sert de wrapper par-dessus les API REST Power BI afin de simplifier certains
processus et augmenter la productivité.
JavaScript
Les données capturées dans le journal d’audit unifié sont exactement les mêmes que
celles du journal d’activité Power BI. Quand vous effectuez une recherche dans le journal
d’audit à partir du portail de conformité Microsoft Purview, votre demande est ajoutée à
la file d’attente. La préparation des données peut prendre quelques minutes (ou plus,
selon le volume de données).
Voici des façons courantes d’utiliser l’outil de recherche dans le journal d’audit. Vous
pouvez :
Sélectionner la charge de travail Power BI pour voir les événements d’une série de
dates.
Rechercher une ou plusieurs activités spécifiques, par exemple :
Rapport Power BI supprimé
Un accès administrateur ajouté à un espace de travail personnel dans Power BI
Consulter les activités d’un ou de plusieurs utilisateurs.
Pour les administrateurs avec des autorisations suffisantes, l’outil de recherche dans le
journal d’audit à partir du portail de conformité Microsoft Purview est une bonne option
pour les processus d’audit manuels. Pour plus d’informations, consultez Portail de
conformité Microsoft Purview plus loin dans cet article.
Defender for Cloud Apps est disponible pour les administrateurs dans Microsoft
Defender XDR (portail Microsoft 365). Il comprend une interface utilisateur permettant
de consulter les journaux d’activité de différents services cloud, notamment Power BI, et
d’y faire des recherches. Il affiche les mêmes événements de journal que ceux du portail
de conformité Microsoft Purview, en plus d’autres événements comme l’activité de
connexion des utilisateurs à partir de Microsoft Entra ID.
L’interface du journal d’audit dans Defender for Cloud Apps est une bonne option pour
les processus d’audit manuels. Pour plus d’informations, consultez Defender for Cloud
Apps plus loin dans cet article.
Microsoft Sentinel est un service Azure qui vous permet de collecter, de détecter,
d’examiner les incidents et menaces de sécurité et d’y répondre. Power BI peut être
configuré dans Microsoft Sentinel comme connecteur de données afin que les journaux
d’audit soient diffusés en continu à partir de Power BI vers Microsoft Sentinel Azure Log
Analytics (qui est un composant du service Azure Monitor). Vous pouvez utiliser le
Langage de requête Kusto (KQL) pour analyser les événements du journal d’activité
stockés dans Azure Log Analytics.
L’utilisation de KQL pour rechercher les données dans Azure Monitor est une bonne
option pour consulter une partie du journal d’audit. C’est également une bonne option
pour les processus d’audit manuels. Pour plus d’informations, consultez Microsoft
Sentinel plus loin dans cet article.
Voici quelques points à prendre en compte pour savoir comment accéder aux données
d’audit.
Nous vous recommandons de passer en revue le reste de cet article avant de choisir une
technologie pour accéder aux données d’audit.
Check-list : voici les décisions et actions clés à prendre en compte afin de choisir la
technologie à utiliser pour accéder aux données d’audit :
) Important
Les API sur Internet ne nécessitent pas toutes une authentification. Toutefois, toutes les
API REST Power BI nécessitent une authentification. Quand vous accédez aux données
d’audit au niveau du locataire, le processus d’authentification est géré par la plateforme
d’identité Microsoft. Il s’agit d’une évolution du service d’identité Microsoft Entra qui
repose sur les protocoles standard du secteur.
Conseil
Avant de récupérer des données d’audit, vous devez d’abord vous authentifier, ce qu’on
appelle la connexion. Les concepts d’authentification et d’autorisation sont distincts,
mais liés. Un processus d’authentification vérifie l’identité de l’utilisateur qui fait la
demande. Un processus d’autorisation accorde (ou refuse) l’accès à un système ou à une
ressource en vérifiant ce que l’utilisateur ou le principal de service a le droit de faire.
Jetons utilisateur : émis pour le compte d’un utilisateur avec une identité connue.
Jetons d’application uniquement : émis pour le compte d’une application
Microsoft Entra (principal de service).
7 Notes
Une application Microsoft Entra est une configuration d’identité qui permet à un
processus automatisé de s’intégrer à Microsoft Entra ID. Dans cet article, on parle
d’inscription d’application. Le terme principal de service est également couramment
utilisé dans cet article. Ces termes sont décrits plus en détail plus loin dans cet
article.
Conseil
ノ Agrandir le tableau
Type Description Usage prévu Bon choix Bon choix pour
d’authentification pour les les processus
processus d’audit
d’audit automatisés
manuels
Chaque option d’authentification est décrite plus en détail dans la section suivante.
Authentification utilisateur
) Important
Comme la plupart des organisations ont un seul locataire Microsoft Entra, les termes
inscription d’application et principal de service ont tendance à être utilisés
indifféremment. Quand vous inscrivez une application Microsoft Entra, il existe deux
composants.
Conseil
Votre administrateur Microsoft Entra peut vous dire qui dans votre organisation est
autorisé à créer une inscription d’application et à y consentir.
Chaque inscription d’application doit avoir un nom clair qui décrit son objectif et
l’audience cible (les personnes qui peuvent utiliser l’inscription d’application).
Votre convention de nommage peut être plus spécifique si vous avez plusieurs locataires
ou plusieurs environnements (par exemple, développement et production).
Le tableau suivant montre des exemples d’inscriptions d’application qui peuvent être
utilisées pour extraire des données d’audit au niveau du locataire :
ノ Agrandir le tableau
Une inscription d’application accède aux données et aux ressources de deux grandes
façons. Cela implique des autorisations et un consentement.
) Important
Dans cet article, l’accent est mis seulement sur l’authentification utilisateur ou
l’authentification d’application uniquement. Les autorisations déléguées (avec un
utilisateur interactif et le principal de service) peuvent jouer un rôle important pour
incorporer programmatiquement le contenu Power BI. Toutefois, nous vous
déconseillons fortement de configurer des autorisations déléguées pour extraire les
données d’audit. Comme chaque API limite sa propre fréquence d’exécution (en
utilisant une limitation), il n’est pas pratique d’avoir différents utilisateurs qui
accèdent directement aux données d’audit brutes. À la place, nous vous
recommandons d’extraire les données d’audit brutes une seule fois (avec un
processus centralisé), puis de mettre les données d’audit organisées à la disposition
des utilisateurs autorisés en aval.
Pour plus d’informations, consultez Inscrire une application Microsoft Entra plus loin
dans cet article.
Une inscription d’application a souvent un secret qui lui est attribué. Le secret est utilisé
comme clé pour l’authentification et a une date d’expiration. Par conséquent, vous
devez planifier la permutation régulière de la clé et sa transmission aux utilisateurs
autorisés.
Vous devez également choisir avec soin l’emplacement où stocker le secret de manière
sécurisée. Un coffre de mots de passe d’organisation, comme Azure Key Vault, est un
excellent choix.
Conseil
Une autre approche est l’utilisation d’une identité managée. Une identité managée
évite d’avoir à gérer les informations d’identification. Si vous voulez utiliser des
services comme Azure Functions ou Azure Data Factory pour extraire les données,
une identité managée est une bonne option.
U Attention
La première règle est négligée par de nombreuses personnes : les mots de passe et
les clés ne doivent jamais s’afficher en texte clair dans un script. De nombreux
articles, blogs et exemples en ligne le font par souci de simplicité. Toutefois, il s’agit
d’une mauvaise pratique qui doit être évitée. Toute personne qui obtient le script
(ou le fichier) peut potentiellement accéder aux données auxquelles l’auteur a
accès.
Voici plusieurs méthodes sécurisées pour gérer les mots de passe, les secrets et les clés.
Conseil
Bien qu’il ne soit pas primordial pour les professionnels de Power BI de bien
comprendre la transition vers MSAL, vous devez appliquer les recommandations
suivantes.
Check-list : voici les décisions et actions clés à prendre en compte pour choisir comment
gérer l’authentification :
Conseil
Toutes les API d’administration appartiennent au groupe d’opérations
Administrateur. Une API qui a le suffixe As Admin est une API d’administration.
Toutes les autres API sont des API utilisateur.
Imaginons que vous devez obtenir une liste de modèles sémantiques. Le tableau suivant
présente six options d’API que vous pouvez utiliser pour cela. Quatre options sont des
API utilisateur et deux des API d’administration. L’étendue et le nombre d’éléments
renvoyés diffèrent selon l’API que vous choisissez.
ノ Agrandir le tableau
Get Dataset in Utilisateur Un espace de Un, à condition que l’utilisateur connecté ait
Group travail l’autorisation de lire le modèle sémantique
7 Notes
Certains noms d’API utilisent le terme Group pour référencer un espace de travail.
Ce terme vient du modèle de sécurité Power BI d’origine, qui s’appuyait sur des
groupes Microsoft 365. Bien que le modèle de sécurité Power BI ait
considérablement évolué au fil des ans, les noms d’API existants sont restés les
mêmes pour éviter de casser les solutions existantes.
Pour plus d’informations sur les paramètres de locataire, consultez Définir les
paramètres de locataire Power BI plus loin dans cet article.
Check-list : voici les décisions et actions clés à prendre en compte pour choisir s’il faut
utiliser une API utilisateur ou une API d’administration :
PowerShell est une solution d’automatisation des tâches. Le terme PowerShell est un
terme collectif qui désigne le langage de script, une application d’interpréteur de
commandes en ligne de commande et un framework de gestion de la configuration.
PowerShell Core est la dernière version de PowerShell, et s’exécute sur Windows, Linux
et macOS.
Une applet de commande PowerShell est une commande qui effectue une action. Un
module PowerShell est un package qui contient des membres PowerShell, comme des
applets de commande, des fournisseurs, des fonctions, des workflows, des variables et
des alias. Vous téléchargez et installez des modules.
Un module PowerShell crée une couche d’abstraction sur les API. Par exemple, l’applet
de commande Get-PowerBIActivityEvent récupère (ou obtient) les événements d’audit
d’un locataire Power BI. Cette applet de commande PowerShell récupère ses données à
partir de l’API REST Get Activity Events. En règle générale, il est plus simple de débuter
en utilisant les applets de commande, car elles simplifient l’accès aux API sous-jacentes.
Une partie seulement des API est disponible sous forme d’applets de commande
PowerShell. Quand vous développerez l’ensemble de votre solution d’audit, vous
utiliserez probablement une combinaison d’applets de commande et d’API. Le reste de
cette section vous aide à choisir comment accéder aux données.
Modules PowerShell
Microsoft a publié deux modules PowerShell qui contiennent des applets de commande
liées à Power BI. Il s’agit du module de gestion Power BI et du module de passerelle de
données. Ces modules PowerShell jouent le rôle de wrapper d’API au-dessus des API
REST Power BI sous-jacentes. L’utilisation de ces modules PowerShell peut faciliter
l’écriture de scripts.
Conseil
En plus des modules publiés par Microsoft, des modules et scripts PowerShell sont
publiés gratuitement (généralement sur GitHub) par des membres de la
communauté Power BI, des partenaires et des MVP (Microsoft Most Valued
Professionals).
Commencer par une solution de la communauté peut être très utile pour créer
votre solution d’audit de bout en bout. Si vous choisissez d’utiliser une solution
disponible gratuitement, veillez à la tester complètement. Familiarisez-vous avec
son fonctionnement pour pouvoir gérer efficacement votre solution au fil du
temps. Votre service informatique peut avoir des critères concernant l’utilisation de
solutions de la communauté accessibles au public.
Le module de gestion Power BI est un module cumulatif qui contient des modules
Power BI spécifiques pour l’administration, les capacités, les espaces de travail, etc. Vous
pouvez choisir d’installer le module cumulatif pour obtenir tous les modules, ou vous
pouvez installer des modules spécifiques. Tous les modules de gestion Power BI sont
pris en charge sur Windows PowerShell et PowerShell Core.
) Important
Nous vous recommandons d’arrêter d’utiliser Windows PowerShell (qui ne peut pas
exécuter PowerShell Core). Utilisez plutôt un des éditeurs de code modernes qui
prend en charge PowerShell Core. L’ISE (environnement de script intégré) Windows
PowerShell est uniquement capable d’exécuter PowerShell version 5.1, qui n’est
plus mis à jour. Windows PowerShell étant maintenant déprécié, nous vous
recommandons d’utiliser PowerShell Core pour tout nouveau travail de
développement.
Voici plusieurs applets de commande couramment utilisées pour récupérer des données
d’audit.
ノ Agrandir le tableau
Conseil
U Attention
Veillez à maintenir les modules à jour sur chaque serveur, machine utilisateur et
service cloud (comme Azure Automation) où vous utilisez PowerShell. Si les
modules ne sont pas mis à jour régulièrement, des erreurs ou des problèmes
imprévisibles peuvent se produire. Certains outils (comme Visual Studio Code) vous
aident à maintenir les modules à jour. Sachez également que PowerShellGet ne
désinstalle pas automatiquement les anciennes versions d’un module quand vous
installez ou mettez à jour une version plus récente. Il installe les versions plus
récentes à côté des versions antérieures. Nous vous recommandons de rechercher
les versions installées et de désinstaller régulièrement les versions antérieures.
2 Avertissement
ノ Agrandir le tableau
Applet de commande Objectif
Vous pouvez utiliser PowerShell de plusieurs façons. La décision que vous prenez est
importante.
ノ Agrandir le tableau
Utiliser des applets Avec cette technique, vous avez un Après l’authentification avec
de commande juste milieu entre simplicité et l’applet de commande
PowerShell pour flexibilité. L’applet de commande Connect-
simplifier Invoke-PowerBIRestMethod est PowerBIServiceAccount, utilisez
l’authentification et disponible à partir du module Profile l’applet de commande Invoke-
appeler directement de gestion Power BI. Cette applet de PowerBIRestMethod pour
des API. Approche commande est souvent désignée récupérer les données de votre
recommandée comme un couteau suisse, car vous API préférée (par exemple, Get
pouvez l’utiliser pour appeler n’importe Pipeline Users As Admin).
quelle API REST Power BI. L’avantage
de cette technique est que vous pouvez
simplifier l’authentification, et appeler
n’importe laquelle des API REST
Power BI. Nous vous recommandons
vivement d’utiliser cette technique.
Utiliser le plus Avec cette technique, PowerShell est Après l’authentification avec
possible les applets largement utilisé. PowerShell est utilisé l’applet de commande
de commande pour coordonner l’exécution du script, Connect-
PowerShell, à la fois et les modules PowerShell sont utilisés PowerBIServiceAccount, utilisez
Technique Description Exemple
pour dès que possible pour accéder aux une applet de commande (par
l’authentification et données. Cela crée une grande exemple, Get-
pour la récupération dépendance vis-à-vis de PowerShell PowerBIActivityEvent) pour
des données. sous plusieurs aspects. récupérer les données.
Dans le tableau ci-dessus, la première technique décrit une approche qui établit le juste
milieu entre facilité d’utilisation et flexibilité. Cette approche répond aux besoins de la
plupart des organisations, c’est pourquoi elle est recommandée. Certaines organisations
peuvent avoir des stratégies informatiques existantes et des préférences du personnel
qui influencent l’utilisation de PowerShell.
Conseil
Les utilisateurs techniques (et les administrateurs) peuvent utiliser les modules de
gestion Power BI pour récupérer des données ou automatiser certains aspects de la
gestion de contenu.
Imaginons que vous devez obtenir une liste de modèles sémantiques. Si vous choisissez
d’utiliser directement les API, vous devez spécifier l’API à appeler. Toutefois, si vous
choisissez d’utiliser l’applet de commande Get-PowerBIDataset, vous pouvez définir le
paramètre -Scope pour récupérer la liste des modèles sémantiques propre à l’utilisateur
ou au locataire. Le choix que vous faites dépend de comment vous avez décidez
d’utiliser PowerShell (décrit dans le tableau précédent).
Le tableau suivant décrit comment les paramètres utilisés dans l’applet de commande
PowerShell se traduisent en appels PowerShell d’API.
ノ Agrandir le tableau
Voici quelques-unes des façons dont les applets de commande simplifient l’accès aux
données d’audit.
Il peut y avoir des avantages à appeler directement les API REST Power BI.
Bien plus d’API disponibles : il y a plus d’API REST disponibles que d’applets de
commande PowerShell. Toutefois, ne négligez pas la flexibilité de l’applet de
commande Invoke-PowerBIRestMethod, que vous pouvez utiliser pour appeler
n’importe laquelle des API REST Power BI.
Fréquence des mises à jour : Microsoft met à jour les API REST plus souvent que
les modules PowerShell. Par exemple, si un nouvel attribut est ajouté à la réponse
de l’API Get Dataset, cela peut prendre un certain temps pour qu’il soit disponible
dans les résultats de l’applet de commande Get-PowerBIDataset.
Moins de dépendance de langage/d’outil : quand vous utilisez directement les
API REST (au lieu d’une applet de commande), vous n’avez pas besoin d’utiliser
PowerShell. Vous pouvez également choisir d’utiliser PowerShell uniquement pour
orchestrer l’appel de nombreuses API dans un script. En supprimant (ou en évitant)
toute dépendance vis-à-vis de PowerShell, vous avez la liberté de réécrire votre
logique dans un autre langage si vous en avez envie par la suite. Quand votre
équipe informatique ou de développement a de fortes préférences pour certains
outils et langages, vous devez peut-être opter pour une moindre dépendance.
Quelle que soit la méthode utilisée, les API REST peuvent changer au fil du temps.
Quand une technologie évolue, les API (et modules PowerShell) peuvent être dépréciées
et remplacées. Par conséquent, nous vous recommandons de créer délibérément des
scripts simples à gérer et résilients aux changements.
Check-list : voici les décisions et actions clés à prendre en compte pour choisir si vous
accédez aux API REST directement ou en utilisant des applets de commande
PowerShell :
Quand vous planifiez la création d’une solution d’audit de bout en bout, vous devez
choisir où stocker les données brutes (et les données organisées, qui sont traitées dans
la section suivante). Vos décisions concernant le stockage des données sont liées à vos
préférences en matière de gestion de l’intégration des données.
Quand vous extrayez des données d’audit brutes, restez simple. Nous vous
recommandons de ne pas sélectionner d’attributs spécifiques, ne pas effectuer de
transformations ni appliquer une mise en forme quand vous extrayez initialement les
données. À la place, extrayez tous les attributs disponibles et stockez les données dans
leur état d’origine.
Voici plusieurs raisons pour lesquelles le stockage des données brutes dans leur état
d’origine est une bonne pratique.
Conseil
Imaginons une zone de données brutes dans un lac de données. La zone a une
hiérarchie de dossiers pour stocker les données du journal d’activité : Raw > ActivityLog
> YYYY > MM. Les dossiers sont partitionnés par année et par mois. Un fichier stocké
dans le dossier du mois utilise le format suivant : PBIActivityLog-YYYYMMDD-
YYYYMMDDTTTT.json. YYYYMMDD représente les données réelles et YYYYMMDDTTTT
l’horodatage d’extraction. En ajoutant l’horodatage d’extraction, vous pouvez
déterminer le fichier le plus récent (au cas où vous deviez réextraire les données). Par
exemple, si vous extrayez des données à 9 h (UTC) le 25 avril 2023 pour une activité le
23 avril 2023, le nom de fichier est PBIActivityLog-20230523-202305250900.
Nous vous recommandons vivement d’utiliser une technologie qui autorise l’écriture des
données brutes dans un stockage immuable. Le stockage immuable garantit qu’une fois
les données écrites, elles ne peuvent pas être remplacées ni supprimées. Cette
distinction est importante pour les auditeurs et vous permet de garantir que les
données brutes sont fiables.
Vous devez également réfléchir à la façon de stocker les données brutes de manière
sécurisée. En règle générale, très peu d’utilisateurs ont besoin d’accéder aux données
brutes. L’accès aux données brutes est généralement fourni en fonction des besoins,
habituellement aux ingénieurs Données et aux administrateurs système. Vos auditeurs
internes pourraient également avoir besoin d’un accès. Les membres d’équipe chargés
de créer les données organisées (décrites ci-dessous) ont également besoin d’accéder
aux données brutes.
Voici quelques considérations pour vous aider à choisir votre stockage de données
brutes.
Les données organisées prennent en charge l’analyse et sont conçues pour être
conviviales. Vous devez prendre des décisions sur la façon dont sont créées les données
organisées et où. La technologie que vous choisissez pour stocker les données
organisées peut être une des technologies listées dans la section précédente.
L’objectif des données organisées est de transformer les données dans un format plus
convivial, optimisé pour l’analyse et la création de rapports. Elles constituent la source
de données d’un modèle de données Power BI, ce qui signifie que vous utilisez un
modèle de données Power BI pour analyser l’utilisation de Power BI dans votre
organisation. Les directives fondamentales des modèles de données s’appliquent : vous
devez adopter une conception de schéma en étoile, qui est optimisée pour les
performances et la facilité d’utilisation.
Vous avez plusieurs façon de créer des données organisées. Vous devez décider
comment effectuer l’intégration des données et où appliquer en amont les
transformations qui préparent les données pour les charger dans un schéma en étoile.
Lac de données
Vous pouvez appliquer les transformations et créer les fichiers de données organisées
dans un lac de données. Vous devez utiliser une couche or pour les données organisées
afin de les séparer logiquement des données brutes stockées dans la couche bronze. La
séparation des données en couches simplifie également le paramétrage d’autorisations
d’accès utilisateur différentes.
Vous vous attendez à ce qu’il y a ait plusieurs modèles de données Power BI dédiés
à la création de rapports (justifiant ainsi la création d’une couche argent
intermédiaire).
Vous devez prendre en charge plusieurs créateurs de contenu en libre-service qui
ont besoin d’accéder aux données d’audit au niveau du locataire.
Vous avez déjà des outils et des processus, et voulez les utiliser pour transformer
et charger les données.
Vous voulez réduire la préparation de données (potentiellement dupliquée) dans
un ou plusieurs modèles de données Power BI.
Vous pourrez peut-être faire tout le travail de transformation dans Power BI. Utilisez
Power Query pour accéder aux données et les transformer de leur état brut en format
organisé.
Conseil
Pour plus d’informations sur les tables de dimension et les tables de faits que vous
pouvez intégrer à votre schéma en étoile, consultez Créer un modèle de données plus
loin dans cet article.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier la
création des données organisées :
Power BI intègre ses journaux au journal d’audit unifié Microsoft Purview (anciennement
le journal d’audit unifié Microsoft 365). Cette intégration est un avantage, car chaque
service au sein de Microsoft 365 n’a pas besoin d’implémenter sa propre journalisation.
Il est activé par défaut.
) Important
Si vous n’avez pas déjà commencé à extraire les données d’activité utilisateur,
faites-en une priorité urgente. Les données d’activité utilisateur sont disponibles sur
les 30 ou 90 derniers jours (selon la source). Même si vous n’êtes pas prêt pour une
analytique approfondie, vous devez commencer à extraire et stocker les données le
plus tôt possible. De cette façon, vous construisez un historique précieux pour
l’analyse.
Vous avez plusieurs options pour récupérer les données d’activité utilisateur.
ノ Agrandir le tableau
Technique Description Jours Bon choix Bon choix Bon choix Bon
d’historique pour les pour les pour choix
disponibles processus processus configurer pour
par défaut d’audit d’audit des alertes une
manuels automatisés prise
en
main
rapide
Manuel Portail de 90
(interface conformité
utilisateur) Microsoft
Purview
Par Journal 30
programme d’activité
Power BI (API
Technique Description Jours Bon choix Bon choix Bon choix Bon
d’historique pour les pour les pour choix
disponibles processus processus configurer pour
par défaut d’audit d’audit des alertes une
manuels automatisés prise
en
main
rapide
ou applet de
commande
PowerShell)
Par Microsoft 30
programme Sentinel
(Azure
Monitor)
Le reste de cette section présente chacune des techniques indiquées dans le tableau.
Les 90 derniers jours d’historique sont disponibles avec Audit (Standard). Avec Audit
(Premium), la conservation à long terme vous permet (éventuellement) de conserver les
journaux d’audit plus longtemps. Comme la conservation à long terme s’applique
uniquement aux utilisateurs E5 sous licence, elle exclut les enregistrements d’audit des
utilisateurs qui n’ont pas de licence E5 et des utilisateurs invités. Par conséquent, nous
vous recommandons de vous fier uniquement à l’historique par défaut de 90 jours pour
que toutes les activités soient capturées.
Il y a des exigences de licence pour pouvoir accéder aux journaux d’audit dans le portail
de conformité Microsoft Purview. Des autorisations Exchange Online élevées sont
également nécessaires pour accéder aux journaux d’audit.
Conseil
L’interface utilisateur dans le portail de conformité Microsoft Purview est utile pour les
processus d’audit manuels et les investigations occasionnelles d’activités utilisateur.
Le portail dans Defender for Cloud Apps est un endroit pratique pour voir les activités et
les alertes sans avoir besoin de créer un script pour extraire et télécharger les données. Il
vous permet également de voir les données du journal d’activité Power BI et les
connexions utilisateur.
Defender for Cloud Apps a une interface utilisateur permettant de consulter les journaux
d’activité de différents services cloud, notamment Power BI, et d’y faire des recherches. Il
affiche les mêmes événements de journal que ceux du journal d’audit unifié Microsoft
Purview, en plus d’autres événements comme l’activité de connexion des utilisateurs à
partir de Microsoft Entra ID.
De la même façon que le portail de conformité Microsoft Purview (décrit dans la section
précédente), Defender for Cloud Apps a une interface utilisateur qui autorise les
recherches. Toutefois, les options de filtre sont différentes. En plus de l’historique
standard de 30 jours, vous pouvez utiliser Defender for Cloud Apps pour voir jusqu’à six
mois d’historique du journal d’activité (par incréments de sept jours).
Il y a des exigences de licence pour accéder à Defender for Cloud Apps. Des
autorisations distinctes sont également nécessaires.
Conseil
L’interface utilisateur dans Defender for Cloud Apps est utile pour les processus d’audit
manuels et les investigations ponctuelles d’activités utilisateur.
Le journal d’activité Power BI vient du journal d’audit unifié. Il contient uniquement les
activités utilisateur liées au service Power BI.
Conseil
Pour les organisations qui prévoient d’extraire les activités utilisateur, nous
recommandons de commencer par le journal d’activité Power BI. C’est la source la
plus simple à laquelle accéder programmatiquement.
Vous avez deux options pour accéder au journal d’activité Power BI.
Appeler l’API REST Get Activity Events en utilisant l’outil de votre choix.
Utiliser l’applet de commande PowerShell Get-PowerBIActivityEvent. Elle est
disponible dans le module Admin de gestion Power BI.
Pour plus d’informations sur l’option à utiliser, consultez Choisir des API ou des applets
de commande PowerShell plus haut dans cet article.
Conseil
Pour obtenir des exemples d’accès au journal d’activité Power BI avec PowerShell,
consultez Accéder au journal d’activité Power BI.
Les données du journal d’activité Power BI sont disponibles pour tous les
administrateurs Power BI, les administrateurs Power Platform et les administrateurs
généraux. Les données sont accessibles à partir du journal d’audit unifié, disponible
pour certains rôles Exchange Online. Pour plus d’informations, consultez Suivre les
activités utilisateur dans Power BI.
Nous vous recommandons d’utiliser le journal d’activité Power BI si votre intention est
de récupérer uniquement les enregistrements du journal d’audit Power BI.
7 Notes
Dans les données du journal d’audit, les espaces de travail sont appelés dossiers.
Dans l’API REST Power BI, les espaces de travail sont appelés groupes.
Vous pouvez extraire des données du journal d’audit unifié pour d’autres services,
comme SharePoint Online, Teams, Exchange Online, Dynamics 365 et Power BI. Si votre
objectif est d’implémenter une solution d’audit et de monitoring pour plusieurs services,
nous vous recommandons d’utiliser l’API Activité de gestion Office 365. Comme cette
API renvoie des données de nombreux services, elle est appelée API d’audit unifiée (ou
journal d’audit unifié). Il s’agit d’une des API de gestion Office 365.
Avant de créer une solution, nous vous recommandons de contacter votre service
informatique pour déterminer s’il existe déjà des enregistrements d’audit Power BI
disponibles. Il y a peut-être déjà un processus qui extrait et stocke les données. Et vous
avez peut-être la possibilité d’obtenir l’autorisation d’accéder à ces données au lieu de
créer une solution.
Appeler directement l’API Activité de gestion Office 365 avec l’outil de votre choix.
Par défaut, l’API renvoie 24 heures de données. Vous pouvez récupérer un
maximum de sept jours d’historique.
Utiliser l’applet de commande PowerShell Search-UnifiedAuditLog. C’est une
applet de commande PowerShell Exchange Online. Vous pouvez récupérer au
maximum 90 jours d’historique.
) Important
En général, la prise en main de l’API Activité de gestion Office 365 est plus difficile que
l’utilisation du journal d’activité Power BI (décrit précédemment). En effet, l’API renvoie
des blobs de contenu, et chaque blob de contenu contient des enregistrements d’audit
individuels. Pour les grandes organisations, il peut y avoir des milliers de blobs de
contenu par jour. Comme les clients et les applications tierces utilisent beaucoup cette
API, Microsoft implémente une limitation pour que leur utilisation du service n’affecte
pas les autres utilisateurs (connu comme le problème du voisin bruyant). Par
conséquent, la récupération de grands volumes d’historique peut être un défi pour les
grandes organisations. Pour plus d’informations, consultez cet article de résolution de
problèmes.
Pour utiliser cette API, vous devez vous authentifier avec un principal de service qui a
reçu l’autorisation de récupérer des données à partir de l’API Activité de gestion
Office 365.
Conseil
Par défaut, les administrateurs Power BI n’ont pas l’autorisation d’accéder à l’API
Activité de gestion Office 365. Comme elle contient des données destinées à de
nombreux services Microsoft 365, l’accès nécessite des rôles d’audit ou
d’administrateur avec des privilèges élevés. Dans la plupart des organisations, ces
rôles sont réservés à un petit nombre d’administrateurs informatiques. Le journal
d’activité Power BI est destiné aux administrateurs Power BI.
Microsoft Sentinel
Microsoft Sentinel est un service Azure qui vous permet de collecter, de détecter,
d’examiner les incidents et menaces de sécurité et d’y répondre. Vous pouvez configurer
Power BI dans Microsoft Sentinel sous forme de connecteur de données. Quand il est
connecté, les journaux d’audit (qui contiennent un sous-ensemble des données) sont
diffusés en streaming à partir de Power BI vers Azure Log Analytics, qui est une
fonctionnalité d’Azure Monitor.
Conseil
Azure Log Analytics est basé sur la même architecture que celle utilisée par les
journaux d’événements de modèle sémantique au niveau de l’espace de travail.
Pour plus d’informations sur les journaux des événements de modèle sémantique,
consultez Audit au niveau des données.
Parce que c’est un service Azure distinct, tout administrateur ou utilisateur souhaitant
exécuter des requêtes en Langage de requête Kusto (KQL) doit avoir des autorisations
dans Azure Log Analytics (Azure Monitor). S’ils ont l’autorisation, ils peuvent interroger
les données d’audit stockées dans la table PowerBIActivity. Toutefois, gardez à l’esprit
que, dans la plupart des cas, vous accordez aux utilisateurs un accès aux données
organisées dans la couche or plutôt qu’aux données brutes dans la couche bronze.
Vous utilisez KQL pour analyser les événements du journal d’activité stockés dans Azure
Log Analytics. Si vous connaissez déjà SQL, il y a de nombreuses similitudes avec KQL.
Vous pouvez accéder aux événements stockés dans Azure Log Analytics de plusieurs
façons. Vous pouvez utiliser :
U Attention
Voici quelques considérations pour vous aider à choisir votre source de données
d’activité utilisateur.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier l’accès
aux données d’activité utilisateur :
" Clarifier l’étendue des besoins : déterminez si vous devez accéder uniquement aux
enregistrements d’audit Power BI ou aux données d’audit de plusieurs services.
" Consulter le service informatique : vérifiez si le service informatique extrait
actuellement des journaux d’audit et si vous pouvez obtenir l’accès aux données
brutes, ce qui vous éviterait de créer une solution.
" Choisir une source de données : déterminez la meilleure source à utiliser pour
accéder aux données d’activité utilisateur.
" Effectuer une preuve de concept : prévoyez d’effectuer une petite preuve de
concept technique. Utilisez-la pour valider vos décisions concernant la création de
la solution finale.
" Suivre les besoins supplémentaires en matière de données : vous pouvez mettre
en corrélation les données du journal d’activité avec d’autres sources pour
améliorer la valeur des données. Faites un suivi de ces opportunités quand elles se
présentent pour les ajouter à l’étendue de votre projet.
Les activités utilisateur (décrites précédemment) sont des événements audités, c’est-à-
dire un enregistrement des actions effectuées par un utilisateur à une date et une heure
spécifiques. L’inventaire de locataire est différent. L’inventaire de locataire est un
instantané à un moment donné. Il décrit l’état actuel de tous les éléments publiés dans
le service Power BI au moment où vous les avez extraits.
7 Notes
La documentation de l’API REST Power BI appelle les éléments publiés des artefacts.
Conseil
Pour analyser correctement ce qui se passe dans votre locataire Power BI, vous avez
besoin des données d’activité utilisateur et de l’inventaire de locataire. La combinaison
des deux vous permet de comprendre la quantité de contenu que vous avez et où il se
trouve. Elle vous permet également de trouver le contenu inutilisé ou sous-utilisé (car
aucun événement pour ce type de contenu n’apparaît dans le journal d’activité).
L’inventaire de locataire vous permet également de compiler la liste des noms actuels
de tous les éléments, ce qui est utile quand les noms des éléments changent.
Pour plus d’informations sur la valeur de l’inventaire des locataires, consultez Inventaire
des locataires plus haut dans cet article.
Conseil
Vous pouvez utiliser l’API Get Unused Artifacts as Admin pour rechercher les
éléments qui n’ont pas d’activité utilisateur dans les 30 derniers jours. Toutefois,
vous ne pouvez pas personnaliser cet intervalle. Par exemple, si vous avez du
contenu critique qui est utilisé seulement tous les trimestres, en combinant votre
inventaire de locataire et les données d’activité utilisateur, vous pouvez trouver les
éléments inutilisés de plusieurs manières personnalisables.
Vous pouvez obtenir les données d’inventaire de locataire de deux manières différentes.
ノ Agrandir le tableau
Le reste de cette section présente chacune des techniques indiquées dans le tableau.
Pour récupérer une liste d’espaces de travail, vous pouvez utiliser diverses API REST,
comme l’API Get Groups as Admin (avec l’outil de votre choix). Les résultats
comprennent des métadonnées supplémentaires comme la description et si l’espace de
travail est stocké dans une capacité Premium.
7 Notes
Les noms d’API utilisent le terme group pour désigner un espace de travail. Ce
terme vient du modèle de sécurité Power BI d’origine, qui s’appuyait sur des
groupes Microsoft 365. Bien que le modèle de sécurité Power BI ait
considérablement évolué au fil des ans, les noms d’API existants sont restés les
mêmes pour éviter de casser les solutions existantes.
L’API REST Get Groups as Admin comprend le paramètre utile $expand . Ce paramètre
vous permet de développer éventuellement les résultats pour ajouter la liste des
éléments publiés dans l’espace de travail (comme les modèles sémantiques et les
rapports). Vous pouvez également passer le type de données users au paramètre
$expand pour ajouter les utilisateurs qui sont attribués à un rôle d’espace de travail.
Conseil
En passant des paramètres, vous pouvez utiliser l’applet de commande de
différentes manières. Cette section se concentre sur la récupération d’un inventaire
à l’échelle du locataire. Pour plus d’informations sur l’utilisation du paramètre -
Scope , consultez Choisir une API utilisateur ou une API d’administration plus haut
Pour vous aider à choisir l’option à utiliser, consultez Choisir des API ou des applets de
commande PowerShell plus haut dans cet article.
Les API d’analyse des métadonnées, souvent appelées API d’analyseur, sont un ensemble
d’API qui renvoient une liste d’espaces de travail et leurs éléments Power BI (modèles
sémantiques, rapports et autres éléments). D’un point de vue conceptuel, elles
fournissent les mêmes données (et plus) que les API de groupes ou l’applet de
commande d’espace de travail (décrites dans la section précédente). Toutefois, la
méthode que vous utilisez pour récupérer les données est différente et mieux adaptée à
l’extraction de l’inventaire du locataire.
7 Notes
Il y a deux grandes raisons pour lesquelles vous devez utiliser les API d’analyse des
métadonnées au lieu de l’API REST Get Groups as Admin ou de l’applet de commande
Get-PowerBIWorkspace (décrites précédemment).
Extraction de données incrémentielle : les API d’analyseur extraient uniquement
les données qui ont changé depuis leur dernière exécution. À l’inverse, l’API REST
Get Groups as Admin et l’applet de commande Get-PowerBIWorkspace sont des
opérations synchrones qui extraient l’ensemble des données chaque fois qu’elles
s’exécutent.
Niveau de détail plus précis : les API d’analyseur peuvent récupérer des détails
granulaires (comme des tables, des colonnes et des expressions de mesure), à
condition que les deux paramètres de locataire pour les métadonnées détaillées en
donnent l’autorisation. À l’inverse, le plus petit niveau de détail disponible avec
l’API REST Get Groups as Admin et l’applet de commande Get-PowerBIWorkspace
est le type d’élément (par exemple, la liste des rapports dans un espace de travail).
L’utilisation des API d’analyseur implique plus d’efforts, car vous devez appeler une série
d’API. Par ailleurs, elles s’exécutent dans un processus asynchrone. Un processus
asynchrone s’exécute en arrière-plan et vous n’avez pas besoin d’attendre qu’il se
termine. Vous pouvez avoir besoin de collaborer avec le service informatique ou un
développeur au moment de créer un script prêt pour la production associé à une
planification.
Voici la séquence d’étapes que votre processus doit suivre avec les API d’analyseur.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier l’accès
aux données d’inventaire de locataire :
En plus des informations d’identification (comme une adresse e-mail) comprises dans
les données d’activité utilisateur, il est utile de récupérer d’autres informations comme la
localisation ou les détails de l’organisation. Vous pouvez utiliser Microsoft Graph pour
récupérer des données sur les utilisateurs, les groupes, les principaux de service et les
licences. Microsoft Graph comprend un ensemble d’API et de bibliothèques de client qui
vous permettent de récupérer des données d’audit d’une grande variété de services.
Voici quelques détails auxquels vous avez accès concernant les objets Microsoft Entra.
Utilisateur : identité qui existe dans Microsoft Entra ID en tant que compte
professionnel, scolaire ou Microsoft. Le terme utilisateur de domaine est souvent
utilisé pour décrire les utilisateurs de l’organisation, mais le terme formel est nom
d’utilisateur principal (UPN). Un UPN a généralement la même valeur que l’adresse
e-mail de l’utilisateur (bien que si une adresse e-mail change, l’UPN ne change pas,
car il est immuable). Il y a également un ID Microsoft Graph unique pour chaque
utilisateur. Souvent, un compte d’utilisateur est associé à une seule personne.
Certaines organisations créent des utilisateurs qui sont des comptes de service
utilisés pour les activités automatisées ou les tâches d’administration.
Principal de service : autre type d’identité, provisionné quand vous créez une
inscription d’application. Un principal de service est destiné aux activités
automatisées sans assistance. Pour plus d’informations, consultez Déterminer la
méthode d’authentification plus haut dans cet article.
Groupe : collection d’utilisateurs et de principaux de service. Il y a plusieurs types
de groupe que vous pouvez utiliser pour simplifier la gestion des autorisations.
Pour plus d’informations, consultez Stratégie d’utilisation des groupes.
7 Notes
Quand cet article fait référence aux utilisateurs et groupes, cette expression
comprend également les principaux de service. C’est une expression plus courte
utilisée pour plus de concision.
Les données d’utilisateurs et de groupes que vous récupérez sont un instantané qui
décrit l’état actuel à un point dans le temps.
Conseil
Pour plus d’informations sur les utilisateurs, les principaux de service et les groupes,
consultez Intégration à Microsoft Entra ID.
Attributs analytiques
Pour l’audit au niveau du locataire Power BI, vous pouvez extraire et stocker les attributs
suivants à partir de Microsoft Graph.
Pour obtenir la référence officielle des informations de licence Power BI que vous
pouvez trouver dans les données d’audit de Microsoft Graph, consultez Noms de
produit et identificateurs de plan de service pour les licences.
Conseil
La récupération des membres de groupes peut être l’un des aspects les plus
difficiles de l’obtention des données d’audit. Vous devez faire une recherche
transitive pour aplatir tous les membres imbriqués et les groupes imbriqués. Vous
pouvez faire une recherche transitive pour les membres de groupe. Ce type de
recherche est particulièrement difficile quand vous avez des milliers de groupes
dans votre organisation. Dans ce cas, réfléchissez à d’autres alternatives pour
récupérer les données. Par exemple, vous pouvez extraire tous les groupes et les
membres de groupe à partir de Microsoft Graph. Toutefois, ce ne sera peut-être pas
pratique quand seuls quelques groupes seront utilisés pour la sécurité Power BI.
Vous pouvez aussi précréer une liste de référence des groupes qui sont utilisés par
tel ou tel type de sécurité Power BI (rôles d’espace de travail, autorisations
d’application, partage par élément, sécurité au niveau des lignes, etc.). Vous pouvez
ensuite parcourir la liste de référence pour récupérer les membres de groupe à
partir de Microsoft Graph.
Type d’utilisateur : les utilisateurs sont des membres ou des invités. Le plus
souvent, les membres sont des utilisateurs internes et les invités sont des
utilisateurs externes (B2B). Le stockage du type d’utilisateur est utile si vous devez
analyser les activités des utilisateurs externes.
Changements de rôle : quand vous faites un audit de sécurité, il est utile de
comprendre quand un utilisateur change de rôle dans l’organisation (par exemple,
quand il est transféré dans un autre service). De cette façon, vous pouvez vérifier si
ses paramètres de sécurité Power BI ont été mis à jour ou pas encore.
Utilisateurs désactivés : quand un utilisateur quitte l’organisation, un
administrateur désactive généralement son compte. Vous pouvez créer un
processus pour vérifier si les utilisateurs désactivés sont des administrateurs
d’espace de travail ou des propriétaires de modèle sémantique.
Conseil
Vous pouvez récupérer des données sur les utilisateurs et les groupes de différentes
manières.
ノ Agrandir le tableau
Technique Description Bon choix pour les Bon choix pour les processus
processus d’audit manuels d’audit automatisés
Manuel Explorateur
graphique
Par Module az
programme PowerShell
Le reste de cette section présente chacune des techniques indiquées dans le tableau.
D’autres techniques, qui sont dépréciées et ne doivent pas être utilisées pour les
nouvelles solutions, sont décrites à la fin de cette section.
7 Notes
Soyez prudent quand vous lisez des informations en ligne, car de nombreux noms
d’outils se ressemblent. Certains outils de l’écosystème Microsoft comprennent le
terme Graph dans leur nom, comme Azure Resource Graph, GraphQL et l’API
Microsoft Security Graph. Ces outils ne sont pas liés à Microsoft Graph, et ne sont
pas décrits dans cet article.
Microsoft Graph Explorer est un outil de développement qui vous permet d’en savoir
plus sur les API Microsoft Graph. C’est un moyen simple de se lancer, car il ne nécessite
aucun autre outil ni configuration sur votre machine. Vous pouvez vous connecter pour
récupérer des données de votre locataire ou récupérer des exemples de données à
partir d’un locataire par défaut.
Envoyer manuellement une demande à une API Microsoft Graph pour vérifier si
elle renvoie les informations souhaitées.
Découvrir comment construire l’URL, les en-têtes et le corps avant d’écrire un
script.
Vérifier les données de manière informelle.
Déterminer les autorisations nécessaire pour chaque API. Vous pouvez également
fournir un consentement pour les nouvelles autorisations.
Obtenir des extraits de code pour créer des scripts.
Utilisez ce lien pour ouvrir Graph Explorer.
Utilisez les API Microsoft Graph pour récupérer les données d’utilisateurs et de groupes.
Vous pouvez également l’utiliser pour récupérer des données auprès de services comme
Microsoft Entra ID, SharePoint Online, Teams, Exchange, Outlook, etc.
Les SDK Microsoft Graph servent de wrapper d’API par-dessus les API Microsoft Graph
sous-jacentes. Un SDK est un kit de développement logiciel qui regroupe des outils et
des fonctionnalités. Les SDK Microsoft Graph exposent l’ensemble des API Microsoft
Graph.
Vous pouvez choisir d’envoyer des demandes directement aux API. Vous pouvez aussi
ajouter une couche de simplification en utilisant votre langage préféré et un des SDK.
Pour plus d’informations, consultez Choisir des API ou des applets de commande
PowerShell plus haut dans cet article.
Les SDK Microsoft Graph prennent en charge plusieurs langages, et vous avez aussi les
modules Microsoft Graph PowerShell. D’autres SDK sont disponibles pour Python, C# et
d’autres langages.
) Important
Vous pouvez installer les module Microsoft Graph PowerShell à partir de PowerShell
Gallery . Comme Microsoft Graph fonctionne avec de nombreux services
Microsoft 365, il y a de nombreux modules PowerShell à installer.
Pour l’audit au niveau du locataire Power BI, voici les modules PowerShell à installer les
plus courants.
Module az PowerShell
Vous pouvez également utiliser le module Az PowerShell pour récupérer des données
d’utilisateurs et de groupes. Il est dédié aux ressources Azure.
) Important
Vous pouvez utiliser l’applet de commande Invoke-AzRestMethod si une API n’a pas
d’applet de commande correspondante. C’est une approche flexible qui vous permet
d’envoyer une demande à une API Microsoft Graph à partir du module Az PowerShell.
Dans certains articles et billets de blog en ligne, vous pouvez trouver des options qui ne
sont pas présentées dans cette section. Nous vous recommandons vivement de ne pas
créer de solutions (et/ou migrer vos solutions existantes) en utilisant les API ou modules
suivants.
Modules AzureRM PowerShell : dépréciés et bientôt hors service. Ils ont été
remplacés par le module Az PowerShell.
API Azure AD Graph et module Azure AD PowerShell : dépréciés et bientôt hors
service. Ce changement est le résultat de la migration d’Azure AD Graph vers
Microsoft Graph (notez que Graph apparaît dans les deux noms, mais Microsoft
Graph est l’orientation future). Tous les investissements PowerShell futurs seront
effectués dans le SDK Microsoft Graph PowerShell. (Azure Active Directory est
maintenant appelé Microsoft Entra ID.)
Module MS Online (MSOL) PowerShell : déprécié et bientôt hors service. Tous les
investissements PowerShell futurs seront effectués dans le SDK Microsoft Graph
PowerShell.
U Attention
Veillez à vérifier l’état des modules ou API dépréciés que vous utilisez actuellement.
Pour plus d’informations sur la mise hors service d’AzureRM, consultez cette
annonce .
Si vous avez des questions ou avez besoin de clarifications sur l’orientation future
de l’accès programmatique aux données, contactez votre équipe de compte
Microsoft.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier l’accès
aux données d’utilisateurs et de groupes :
Les éléments qui ont été largement partagés avec l’ensemble de l’organisation.
Les éléments disponibles sur l’Internet public en utilisant la publication sur le web.
Pour plus d’informations sur les autres types d’API, consultez Choisir une API utilisateur
ou une API d’administration plus haut dans cet article.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier l’accès
aux données à partir des API Power BI :
Check-list : voici les décisions et actions clés à prendre en compte pour créer un compte
de stockage :
Si vous avez pris la décision (décrite précédemment) d’utiliser PowerShell, vous devez
installer PowerShell Core et les modules PowerShell nécessaires sur :
Si vous avez choisi d’utiliser des services Azure (comme Azure Functions, Azure
Automation, Azure Data Factory ou Azure Synapse Analytics), vous devez également les
provisionner et les configurer.
Check-list : voici les décisions et actions clés à prendre en compte pour installer les
logiciels et configurer les services :
Pour plus d’informations sur la création d’une inscription d’application pour récupérer
des données d’audit au niveau du locataire, consultez Activer l’authentification du
principal de service pour les API d’administration en lecture seule.
API d’administration
Trois paramètres de locataire permettent d’exécuter des API d’administration.
) Important
7 Notes
Le paramètre de locataire Améliorer les réponses des API d’administration avec des
métadonnées détaillées vous permet de définir les utilisateurs et principaux de service
qui peuvent récupérer des métadonnées détaillées. Les métadonnées sont récupérées à
partir des API d’analyse des métadonnées, et sont les tables, les colonnes, etc. Ce
paramètre permet également à Microsoft Purview d’accéder aux informations du
schéma concernant les modèles sémantiques Power BI pour les stocker dans le
catalogue de données.
Le paramètre de locataire Améliorer les réponses des API d’administration avec des
expressions DAX et mashup vous permet de définir les utilisateurs et principaux de
service qui peuvent récupérer des métadonnées détaillées. Les métadonnées sont
récupérées à partir des API d’analyse des métadonnées, et peuvent être des requêtes et
des expressions de mesure de modèles sémantiques.
7 Notes
API utilisateur
Il y a un paramètre de locataire pour appeler les API utilisateur. Dans ce cas, le principal
de service a aussi besoin d’autorisations Power BI (par exemple, un rôle d’espace de
travail).
Le paramètre de locataire Autoriser les principaux de service à utiliser les API Power BI
vous permet de définir les principaux de service qui peuvent exécuter les API REST (à
l’exception des API d’administration, qui sont accordées par un autre paramètre de
locataire, décrit ci-dessus).
Il existe d’autres paramètres de locataire liés aux API qui permettent d’accéder aux API
d’incorporation, aux API de streaming, aux API d’exportation et à l’API d’exécution des
requêtes . Toutefois, ces API ne sont pas décrites dans cet article.
Pour plus d’informations sur les paramètres de locataire pour les métriques d’utilisation,
consultez Audit au niveau du rapport.
Check-list : voici les décisions et actions clés à prendre en compte pour configurer les
paramètres de locataire Power BI :
Comme pour les données renvoyées par la plupart des API Microsoft, les données
d’audit sont mises en forme au format JSON. Les données au format JSON
s’autodécrivent, car c’est un format de texte lisible qui contient la structure et les
données.
Voici quelques points à prendre en compte quand vous extrayez et stockez les données
brutes récupérées à partir des API.
Quelle convention de nommage utiliser ? Pour un système basé sur des fichiers,
une convention de nommage est nécessaire pour les fichiers, les dossiers et les
zones de lac de données. Pour une base de données, une convention de nommage
est nécessaire pour les tables et les colonnes.
Quel format utiliser pour stocker les données brutes ? Power BI continuant à
introduire de nouvelles fonctionnalités, de nouvelles activités, qui n’existent pas
aujourd’hui, apparaîtront. Pour cette raison, nous vous recommandons d’extraire et
de conserver les résultats JSON d’origine. N’analysez pas, ne filtrez pas ni ne
mettez en forme les données pendant leur extraction. De cette façon, vous pouvez
utiliser les données brutes d’origine pour regénérer vos données d’audit
organisées.
Quel emplacement de stockage utiliser ? Un lac de données ou un stockage blob
est couramment utilisé pour stocker des données brutes. Pour plus d’informations,
consultez Déterminer où stocker les données d’audit plus haut dans cet article.
Quelle quantité d’historique stocker ? Exportez les données d’audit vers un
emplacement où vous pouvez stocker l’historique. Prévoyez d’accumuler au moins
deux ans d’historique. De cette façon, vous pouvez analyser les tendances et les
changements au-delà de la période de conservation de 30 jours par défaut. Vous
pouvez choisir de stocker les données indéfiniment, ou sur une période plus
courte, en fonction des stratégies de conservation de données de votre
organisation.
Comment savoir quand le processus s’est exécuté pour la dernière fois ?
Définissez un fichier de configuration, ou l’équivalent, pour enregistrer les
horodatages au début et à la fin d’un processus. À la prochaine exécution du
processus, il peut récupérer ces horodatages. Il est particulièrement important de
stocker les horodatages quand vous extrayez les données avec les API d’analyse
des métadonnées.
Comment gérer les limitations ? Certaines API REST Power BI et l’API Microsoft
Graph implémentent une limitation. Vous recevez une erreur 429 (trop de
demandes) si votre demande d’API est limitée. Les grandes organisations qui ont
besoin de récupérer un grand volume de données sont souvent confrontées au
problème de limitation. La technologie que vous utilisez pour accéder aux données
et les extraire détermine comment éviter l’échec des tentatives lié à une limitation.
Vous pouvez développer une logique dans vos scripts qui répond à l’erreur 429
« Trop de demandes » en réessayant après une période d’attente.
Les données d’audit sont-elles nécessaires pour la conformité ? De nombreuses
organisations utilisent les enregistrements de journal d’audit bruts pour effectuer
des audits de conformité ou répondre à des investigations de sécurité. Dans ce cas,
nous vous recommandons vivement de stocker les données brutes dans un
stockage immuable. De cette façon, une fois les données écrites, elles ne peuvent
être ni modifiées ni supprimées par un administrateur ou un autre utilisateur.
Quelles sont les couches de stockage nécessaires pour répondre à vos besoins ?
Le meilleur endroit pour stocker les données brutes est un lac de données (comme
Azure Data Lake Storage Gen2) ou un stockage d’objets (comme le Stockage Blob
Azure). Vous pouvez aussi utiliser un système de fichiers si les services cloud ne
sont pas une option.
Check-list : voici les décisions et actions clés à prendre en compte pour extraire et
stocker les données brutes :
" Confirmer les exigences et les priorités : clarifiez les exigences et les priorités
concernant les données que vous allez extraire en premier.
" Confirmer la source des données à extraire : vérifiez la source pour chaque type de
données dont vous avez besoin.
" Configurer un processus pour extraire les données et les charger dans la zone de
données brutes : créez le processus initial pour extraire et charger les données
brutes dans leur état d’origine, sans aucune transformation. Faites des tests pour
vérifier que le processus fonctionne comme prévu.
" Créer une planification pour exécuter les processus : configurez une planification
récurrente pour exécuter les processus d’extraction, de chargement et de
transformation.
" Vérifier que les informations d’identification sont gérées de manière sécurisée :
vérifiez que les mots de passe, les secrets et les clés sont stockés et communiqués
de manière sécurisée.
" Vérifier que la sécurité est correctement configurée : vérifiez que les autorisations
d’accès sont correctement configurées pour les données brutes. Vérifiez que les
administrateurs et les auditeurs peuvent accéder aux données brutes.
Pour plus d’informations sur le développement au fil du temps d’une solution d’audit et
de monitoring, consultez Opérationnaliser et améliorer plus loin dans cet article.
Conseil
Quand vous prévoyez plusieurs modèles de données, pensez à investir dans une
couche de données organisées centralisée.
Check-list : voici les décisions et actions clés à prendre en compte pour créer la couche
de données organisées :
" Confirmer les exigences et les priorités : si vous envisagez d’utiliser une couche
argent intermédiaire pour les données transformées, clarifiez les exigences et les
objectifs de ce que vous devez faire.
" Configurer un processus pour transformer les données brutes et les charger dans
la zone de données organisées : créez un processus pour transformer et charger
les données dans un schéma en étoile. Faites des tests pour vérifier que le
processus fonctionne comme prévu.
" Créer une planification pour exécuter les processus : configurez une planification
récurrente pour remplir la couche de données organisées.
" Vérifier que la sécurité est correctement configurée : vérifiez que les autorisations
d’accès sont correctement configurées pour les données organisées. Vérifiez que les
développeurs du modèle de données peuvent accéder aux données organisées.
Conseil
Pour avoir une vue d’ensemble de la conception d’un schéma en étoile, consultez
Comprendre le schéma en étoile et son importance pour Power BI.
Comme pour tout projet Power BI, la création d’un modèle de données est un processus
itératif. Vous pouvez ajouter de nouvelles mesures selon vos besoins. Vous pouvez
également ajouter de nouvelles tables et colonnes à mesure que de nouveaux
événements d’audit sont disponibles. Avec le temps, vous pouvez même intégrer de
nouvelles sources de données.
Voici quelques tables de dimension utiles que vous pouvez ajouter au modèle de
données.
Voici quelques tables de faits (sujets) utiles que vous pouvez ajouter au modèle de
données.
Par exemple, la table de dimension Utilisateurs est liée à chaque table de faits. Elle doit
être liée à la table de faits Activités utilisateur (qui a effectué l’activité), à la table de faits
Inventaire du locataire (qui a créé l’élément publié) et à toutes les autres tables de faits.
Quand un rapport est filtré sur un utilisateur dans la table de dimension Utilisateurs, les
visuels de ce rapport peuvent montrer pour cet utilisateur des faits de n’importe quelle
table de faits associée.
Quand vous concevez votre modèle, vérifiez qu’un même attribut est visible une seule
fois dans le modèle. Par exemple, l’adresse e-mail de l’utilisateur doit être visible
seulement dans la table de dimension Utilisateurs. Il existe également dans d’autres
tables de faits (comme clé de dimension pour prendre en charge une relation de
modèle). Toutefois, vous devez le masquer dans chaque table de faits.
Nous vous recommandons de créer votre modèle de données séparément des rapports.
Le découplage d’un modèle sémantique et de ses rapports engendre un modèle
sémantique centralisé qui peut servir de nombreux rapports. Pour plus d’informations
sur l’utilisation d’un modèle sémantique partagé, consultez le scénario d’utilisation BI
libre-service managé.
Configurez la sécurité au niveau des lignes (SNL) pour que d’autres utilisateurs (en
dehors du centre d’excellence, des auditeurs et des administrateurs) puissent analyser
les données d’audit et créer des rapports. Par exemple, vous pouvez utiliser des règles
SNL pour permettre aux créateurs de contenu et aux consommateurs de créer des
rapports sur leurs propres activités utilisateur ou efforts de développement.
Check-list : voici les décisions et actions clés à prendre en compte pour créer le modèle
de données :
Vous pouvez choisir de classer les utilisateurs en fonction de leur niveau d’utilisation ou
de classer le contenu en fonction de son niveau d’utilisation.
Conseil
Il est utile de savoir qui sont vos utilisateurs occasionnels ou inactifs, en particulier
quand ils ont des licences Pro ou PPU (qui impliquent des coûts). Il est également
utile de savoir qui sont vos utilisateurs fréquents et les plus actifs. Invitez-les à
rejoindre les heures de bureau ou à participer à une formation. Vos créateurs de
contenu les plus actifs peuvent être des candidats pour votre réseau de
champions.
Créateur de contenu : activité enregistrée au cours des six derniers mois, qui a
créé, publié ou modifié du contenu.
Lecteur de contenu : activité enregistrée au cours des six derniers mois, qui a
consulté le contenu, mais sans aucune activité de création de contenu.
Prenons quelques exemples qui montrent comment une logique de classification simple
peut fausser la réalité.
Conseil
Vous pouvez calculer des moyennes et des tendances en utilisant des fonctions
DAX Time Intelligence. Pour savoir comment utiliser ces fonctions, suivez le module
d’apprentissage Utiliser des fonctions Time Intelligence DAX dans les modèles
Power BI Desktop.
Check-list : voici les décisions et actions clés à prendre en compte pour créer des
données de classification d’utilisation :
Concentrez-vous sur les informations clés adaptées à chaque audience. Vous pouvez
avoir plusieurs audiences pour vos rapports d’audit. Chaque audience s’intéresse à des
informations différentes, pour des utilisations différentes. Les audiences que vous
pouvez servir avec vos rapports sont les suivantes :
Sponsor exécutif
Centre d’excellence
Administrateurs Power BI
Administrateurs d’espace de travail
Administrateurs de capacité Premium
Administrateurs de passerelle
Développeurs et créateurs de contenu Power BI
Auditeurs
Voici quelques-unes des exigences analytiques les plus courantes par lesquelles vous
souhaiterez sans doute démarrer lors de la création de vos rapports d’audit.
Cette liste n’est pas exhaustive. Ces exemples vous donnent des idées sur la façon de
créer des rapports analytiques qui ciblent des besoins spécifiques. Pour plus
d’informations, consultez Données nécessaires plus haut dans cet article et Vue
d’ensemble de l’audit et du monitoring. Ces ressources proposent de nombreuses idées
d’utilisation des données d’audit et le type d’informations que vous pouvez choisir de
présenter dans vos rapports.
Conseil
Bien qu’il soit tentant de présenter un grand nombre de données, limitez-vous aux
informations sur lesquelles vous pouvez agir. Vérifiez que chaque page de rapport
indique clairement son objectif, l’action qui doit être effectuée et par qui.
" Passer en revue les exigences : donnez la priorité aux rapports basés sur des
besoins connus et des questions spécifiques auxquelles vous devez répondre.
" Confirmer votre ou vos audiences : vérifiez qui utilise les rapports d’audit et quel
est leur objectif.
" Créer et déployer des rapports : développez le premier ensemble de rapports de
base. Étendez-les et améliorez-les progressivement au fil du temps.
" Distribuer les rapports dans une application : créez une application qui comprend
tous vos rapports d’audit et de monitoring.
" Vérifier qui a accès aux rapports : vérifiez que les rapports (ou l’application) sont
disponibles pour les bons utilisateurs.
" Créer une boucle de rétroaction : vérifiez qu’il y a un moyen pour les
consommateurs de rapports de fournir des commentaires ou des suggestions, ou
de signaler des problèmes.
Utilisation du contenu
Voici quelques actions que vous pouvez effectuer en fonction de la façon dont le
contenu est utilisé.
Le contenu est fréquemment utilisé (tous les jours ou toutes les semaines) :
vérifiez que le contenu critique est certifié. Vérifiez que la propriété est claire et
que la solution a un support approprié.
Nombre élevé de vues d’espace de travail : en cas de nombre élevé de vues
d’espace de travail, investiguez pourquoi les applications Power BI ne sont pas
utilisées.
Le contenu est rarement utilisé : contactez les utilisateurs cibles pour déterminer
si la solution répond à leurs besoins ou si leurs exigences ont changé.
L’activité d’actualisation se produit plus fréquemment que les consultations :
contactez le propriétaire du contenu pour comprendre pourquoi un jeu de
données est actualisé régulièrement sans utilisation récente du modèle
sémantique ou des rapports associés.
Activités de l’utilisateur
Voici quelques actions que vous pouvez effectuer en fonction des activités utilisateur.
Voici quelques opportunités de formation des utilisateurs que vous pouvez identifier à
partir des données d’audit.
Conseil
Sécurité
Voici quelques situations de sécurité que vous souhaiterez sans doute surveiller de
manière active.
Nombre élevé de vues pour des rapports (et des modèles sémantiques sous-
jacents) qui ne sont pas approuvés.
Utilisation importante de sources de données inconnues ou non approuvées.
Emplacements de fichiers qui ne suivent pas les directives de gouvernance sur
l’emplacement des fichiers sources.
Noms d’espace de travail qui ne sont pas alignés sur les exigences de
gouvernance.
Des étiquettes de confidentialité sont utilisées pour la protection des informations.
Échecs systématiques d’actualisation des données.
Utilisation importante et récurrente de l’impression.
Utilisation inattendue ou excessive des abonnements.
Utilisation inattendue de passerelles personnelles.
Les actions spécifiques à effectuer dans chaque situation dépendent de vos stratégies
de gouvernance. Pour plus d’informations, consultez Gouvernance dans la feuille de
route d’adoption de Fabric.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier des
actions potentielles en fonction des données d’audit :
" Clarifier les attentes : créez des rapports d’audit avec un ensemble clair d’attentes
pour les actions attendues.
" Clarifier qui est responsable des actions : vérifiez que les rôles et les
responsabilités sont attribués.
" Créer une automatisation : si possible, automatisez les actions connues qui sont
reproductibles.
" Utiliser un système de suivi : utilisez un système pour suivre une situation
observée, y compris le contact effectué, l’action planifiée suivante, la personne
responsable, la résolution et l’état.
Conseil
Vous n’avez pas besoin de faire tout ce qui est listé ci-dessus au même moment. À
mesure que vous gagnez de l’expérience, vous pouvez améliorer de manière
incrémentielle la solution pour qu’elle soit plus complète et robuste. N’oubliez pas
que la plupart des exemples que vous trouvez en ligne sont des extraits de script
simples et ponctuels qui n’auront peut-être pas une qualité de production.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier
l’opérationnalisation et l’amélioration d’une solution d’audit :
Documentation et support
La documentation et le support sont essentiels pour une solution au niveau de la
production. Il est utile de créer plusieurs types de documentation, en fonction de
l’audience cible et de l’objectif.
Documentation technique
Documentation de support
Selon le niveau de criticité de votre solution d’audit, vous pouvez avoir une équipe de
support technique ou une équipe de support en cas de problèmes urgents. Elles
peuvent être disponibles toute la journée, tous les jours.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier la
documentation et le support de votre solution d’audit :
" Vérifier qui est chargé du support de la solution : déterminez qui est chargé du
support des solutions d’audit au niveau de la production (ou des solutions qui ont
des dépendances sur des rapports en aval).
" Vérifier que l’équipe de support est prête : vérifiez que l’équipe de support est
prête à effectuer le support de la solution d’audit. Identifiez les éventuelles lacunes
en matière de préparation.
" Organiser une formation croisée : organisez des sessions de transfert des
connaissances ou des sessions de formation croisée pour l’équipe de support.
" Clarifier les attentes de l’équipe de support : vérifiez que les attentes en matière
de réponse et de résolution sont clairement documentées et communiquées.
Décidez si quelqu’un doit être d’astreinte pour résoudre rapidement les problèmes
liés à la solution d’audit.
" Créer une documentation technique : créez une documentation sur les décisions
de conception et d’architecture technique.
" Créer une documentation de support : mettez à jour la base de connaissances du
support technique pour y ajouter des informations sur le support de la solution.
" Créer une documentation pour les créateurs de contenu : créez une
documentation pour aider les créateurs en libre-service à utiliser le modèle de
données. Décrivez les définitions de données courantes pour améliorer la
cohérence de l’utilisation.
Gestion continue
Vous devez effectuer une gestion continue de l’ensemble de la solution d’audit. Vous
devez peut-être étendre ou changer votre solution d’audit quand :
) Important
Les changements cassants sont rares, mais ils peuvent se produire. Il est important
d’avoir une personne disponible capable de résoudre rapidement les problèmes ou
de mettre à jour la solution d’audit si nécessaire.
Check-list : voici les décisions et actions clés à prendre en compte pour planifier la
gestion continue de la solution d’audit :
Contenu connexe
Dans l’article suivant de cette série, découvrez le monitoring au niveau du locataire.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article sur la supervision au niveau du locataire est principalement consacré aux
points suivants :
Audit : actions que vous effectuez pour comprendre un système, ses activités
utilisateur et les processus associés. Les activités d’audit peuvent être manuelles,
automatisées ou une combinaison des deux. Un processus d’audit peut se
concentrer sur un aspect spécifique (par exemple, l’audit de la sécurité d’un espace
de travail), ou il peut faire référence à une solution d’audit de bout en bout. Une
solution d’audit consiste à extraire, stocker et transformer des données afin
qu’elles puissent être analysées et prises en compte.
Supervision : activités en cours qui vous informent sur ce qui se passe. La
supervision implique généralement l’alerte et l’automatisation, bien qu’elle soit
parfois effectuée manuellement. La supervision peut être configurée pour un
processus que vous avez choisi d’auditer (par exemple, notifications qui
apparaissent en cas de modification d’un paramètre de locataire spécifique).
Cet article décrit les différentes façons dont vous pouvez surveiller un locataire Power BI.
7 Notes
Pour plus d’informations sur le suivi des activités effectuées par les utilisateurs,
consultez Audit au niveau du locataire.
Conseil
Conseil
Pour plus d’informations, consultez Planification de Defender for Cloud Apps pour
Power BI.
Microsoft Sentinel
Microsoft Sentinel est un service SIEM (Security Information and Event Management). Il
s’agit d’un service Azure qui vous permet de :
Collecter les journaux et les données de sécurité pour les utilisateurs, les appareils,
les applications et l’infrastructure. Vous pouvez capturer les journaux et les activités
des utilisateurs à partir de la service Power BI et de nombreuses autres zones de
l’entreprise.
Détecter des menaces potentielles. Vous pouvez créer des règles et des alertes
pour affiner ce qui est important à suivre. Le renseignement automatisé sur les
menaces existe également, ce qui peut aider à réduire l’effort manuel.
Analyser les données et examiner l’étendue et la cause racine des incidents. Vous
pouvez utiliser des outils de visualisation intégrés ou des requêtes Langage de
requête Kusto (KQL). Vous pouvez également utiliser Power BI pour visualiser et
analyser les données que vous collectez.
Répondre aux incidents et aux menaces de sécurité. Vous pouvez gérer
directement les réponses. Vous pouvez également automatiser les réponses et les
corrections à l’aide de playbooks, qui sont des workflows basés sur Azure Logic
Apps.
Microsoft Sentinel stocke ses données dans Azure Log Analytics (un composant d’Azure
Monitor). Il est basé sur la même architecture que les journaux des événements du
modèle sémantique, qui capturent les activités générées par l’utilisateur et générées par
le système qui se produisent pour un modèle sémantique,précédemment appelé jeu de
données.
Vous pouvez utiliser Microsoft Sentinel avec Power BI de deux façons différentes.
) Important
Microsoft Sentinel, Azure Monitor, Azure Log Analytics et Defender for Cloud Apps
sont des services distincts. Ils ont leurs propres modèles de tarification et de
sécurité, qui sont distincts de Power BI. Les administrateurs Power BI n’ont pas
automatiquement accès à ces services. Nous vous recommandons de collaborer
avec votre équipe d’infrastructure pour planifier les services les mieux à utiliser.
Pour plus d’informations sur les différentes options de capture des activités des
utilisateurs, consultez Audit au niveau du locataire.
Conseil
7 Notes
Pour plus d’informations sur la prise en charge de Power BI, consultez Comment
contacter le support.
Pour plus d’informations sur la prise en charge des utilisateurs dans votre organisation,
consultez Support utilisateur.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Pour configurer des alertes par e-mail, activez le paramètre clientRecevoir Notifications
par e-mail pour les pannes de service ou les incidents. Étant donné que son objectif est
d’envoyer des e-mails, vous devez affecter un groupe de sécurité à extension
messagerie à ce paramètre. Nous vous recommandons d’utiliser un nom de groupe tel
que Power BI System Support. Vous devez ajouter vos administrateurs Power BI, le
personnel clé de votre Centre d’excellence (COE) et votre support technique qui gère le
support utilisateur à ce groupe.
Conseil
Lorsque vous devez informer vos utilisateurs internes, nous vous recommandons
d’envoyer un message personnalisé qui utilise un langage non technique. De cette
façon, le message peut inclure un contexte supplémentaire et utiliser la plateforme
de communication préférée, comme un canal Teams.
Les problèmes connus peuvent comprendre des bogues logiciels signalés au support
Microsoft par d’autres clients. Un problème peut également inclure des fonctionnalités
par défaut, mais comme le Support Microsoft a reçu un nombre important de tickets,
une explication se justifie.
Centre d’administration Microsoft 365
Le Centre d'administration Microsoft 365 affiche des informations sur l’intégrité du
service, des résumés des incidents et des messages d’avis pour les services Microsoft
365. En outre, les incidents de service et certains types de mises à jour majeures pour le
service Power BI sont publiés dans le Centre d'administration Microsoft 365.
Conseil
La page d’intégrité du service Microsoft 365 affiche des notifications sur les avis et les
incidents. Il contient également des informations sur les incidents actifs, notamment :
Description
Impact sur les utilisateurs
Statut
Durée (si fermée) ou durée estimée de la résolution (si ouverte)
Mise à jour du statut suivante (si ouverte)
Cause racine (si fermée)
La page historique des problèmes affiche les incidents et les avis qui ont été résolus au
cours des 30 derniers jours.
Parfois, un message est basé sur les données de télémétrie collectées par Microsoft. Par
exemple, les données de télémétrie de Microsoft savent quel type de navigateur les
utilisateurs utilisent pour se connecter au service Power BI. Si l’utilisation d’Internet
Explorer est détectée, vous pouvez recevoir un message vous rappelant que Power BI ne
prend plus en charge ce navigateur.
Mises à jour
Le service Power BI est un service cloud qui est mis à jour continuellement et
fréquemment. Power BI Desktop, qui doit être installé sur un ordinateur Windows, est
généralement mis à jour tous les mois (à l’exception des correctifs décrits ci-dessous).
Microsoft publie des annonces de publication sur le blog Power BI .
Pour plus d’informations sur les numéros de version et des liens vers plus d’informations
sur la version actuelle, consultez Nouveautés de Power BI.
Pour plus d’informations sur les versions précédentes, consultez Archive des mises à jour
Power BI.
Versions QFE
En fonction de la gravité, Microsoft peut produire une version d’ingénierie de correctif
rapide (QFE), communément appelée correctif de bogue ou correctif logiciel. Les versions
QFE se produisent lorsque Power BI Desktop mises à jour sont effectuées en dehors de
la cadence de publication mensuelle normale.
Pour obtenir l’historique des versions précédentes de QFE, consultez Journal des
modifications pour Power BI Desktop.
Conseil
Les services Azure courants qui s’intègrent à Power BI sont les suivants :
Liste de vérification : voici les décisions et actions clés pour planifier la supervision de
l’actualisation des données :
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cet article vous aide à planifier la façon de suivre l’adoption de Power BI et Microsoft
Fabric. Cet article est principalement destiné aux :
Conseil
L’adoption est essentielle pour accomplir une implémentation réussie de Fabric et Power
BI. L’adoption ne vise pas à savoir si les personnes utilisent Fabric et Power BI, mais
plutôt de savoir si elles utilisent efficacement ces outils. Vous pouvez considérer
l’adoption comme étant la façon de donner à d’autres personnes les moyens d’utiliser les
outils et données appropriés de la bonne manière au moment opportun.
L’adoption ne constitue pas un état que vous atteignez. L’adoption est plutôt un
parcours continu lors duquel vous fournissez une progression durable et incrémentielle
dans divers domaines qui, ensemble, permettent aux personnes d’utiliser plus
efficacement des données. Le résultat de l’adoption est que davantage de personnes se
rendent compte de l’augmentation de la valeur de leurs données en utilisant Fabric et
Power BI. Une fois motivées de cette façon, les utilisateurs travaillent pour réaliser leurs
résultats clés et permettre à leur organisation d’accomplir ses objectifs commerciaux
stratégiques.
Pour déterminer si vous améliorez l’adoption, vous effectuez un suivi de l’adoption. Tout
comme l’adoption, le suivi de l’adoption ne concerne pas uniquement le suivi de
l’utilisation. Le suivi d’adoption se compose plutôt d’activités et de mécanismes utilisés
pour déterminer et comprendre la façon dont des personnes utilisent les outils et les
données et si elles le font de manière efficace. Pour effectuer des activités de suivi de
l’adoption, vous devez identifier et comprendre les comportements négatifs des
utilisateurs que vous souhaitez dissuader et les comportements positifs des utilisateurs
que vous souhaitez reproduire. Vous définissez ensuite les moyens par lesquels vous
mesurez et suivez efficacement ces comportements au fil du temps. Vous améliorez les
niveaux de maturité de votre culture des données et de l’adoption organisationnelle
lorsque vous observez davantage de comportements positifs et moins de
comportements négatifs. Quand vous observez et mesurez cette évaluation dans le
comportement des utilisateurs, vous progressez de manière incrémentielle pour
atteindre vos objectifs d’adoption.
La première partie de cet article vous aide à comprendre les avantages et les approches
pour suivre l’adoption. La deuxième partie explique ensuite la méthode pour suivre
l’adoption de Fabric et Power BI.
) Important
Conseil
L’adoption et le suivi d’adoption sont importants pour votre stratégie BI. Si vous
souhaitez découvrir plus d’informations sur la définition d’une stratégie BI, sa
relation avec votre stratégie métier et les étapes que vous pouvez effectuer pour
définir une stratégie BI, consultez Vue d’ensemble de la stratégie BI.
7 Notes
Pour vous aider à comprendre l’importance et les avantages d’un suivi d’adoption
efficace, envisagez l’analogie suivante.
Solutions personnalisées
Vous pouvez générer votre solution personnalisée pour le suivi d’adoption. Les solutions
personnalisées sont semblables à une solution d’audit au niveau du tenant. La création
et le maintien d’une solution de suivi d’adoption personnalisée nécessite un maximum
d’efforts. En effet, vous devez recueillir des données et les transmettre via un pipeline
d’analyses de bout en bout avant de pouvoir les utiliser efficacement. Toutefois, une fois
terminée, une solution personnalisée a le potentiel le plus grand de répondre à vos
questions et besoins spécifiques.
) Important
Quand vous générez une solution personnalisée, vous recueillez des données auprès de
plusieurs sources telles que celles qui suivent.
Journal d’audit : fournit une vue détaillée de toutes les activités utilisateur
Microsoft Fabric à partir du portail d’administration Microsoft 365 dans un journal
d’audit. Vous pouvez également utiliser le journal d’activité Power BI qui affiche
uniquement les activités Power BI et est basé sur les API REST Power BI. Pour
découvrir des informations sur l’obtention d’un accès à ce journal d’activité,
consultez Accéder au journal d’activité de Power BI. Vous pouvez accéder au
journal d’activité de manière programmatique en utilisant l’API REST ActivityEvents.
Journaux de passerelle : fournissent des informations détaillées sur les opérations
et la configuration d’une passerelle de données. Vous pouvez recueillir les journaux
de l’application de passerelle de données locale pour des passerelles de données
locales et du portail Fabric pour des passerelles de données de réseau virtuel
(VNet).
Azure Log Analytics : fournit des informations détaillées sur la télémétrie, telles
que les performances de requêtes, les opérations d’actualisation, les niveaux
d’activité élevés ou les activités inhabituelles. Les administrateurs d’espace de
travail peuvent collaborer avec un administrateur Azure pour intégrer Azure Log
Analytics à un espace de travail Fabric afin de recueillir ces informations détaillées.
API REST : vous pouvez recueillir des informations en utilisant diverses API REST
Fabric et Power BI.
API REST Power BI : obtenez des informations sur des éléments Power BI (telles
que l’Historique des actualisations de flux de données), les capacités, les
passerelles et bien plus encore. L’API REST ActivityEvents est particulièrement
importante pour obtenir les activités des utilisateurs à partir du journal
d’activité. Les activités constituent souvent une excellente source de données
pour afficher et mesurer les comportements dans votre locataire.
API REST Fabric : obtenez des informations sur les éléments Fabric (comme les
Notebooks), les domaines, les paramètres du locataire et bien plus encore.
API d’analyse de métadonnées : obtenez des informations détaillées sur les
espaces de travail et leurs éléments. Il existe des métadonnées distinctes
analysant des API pour Power BI et Fabric.
API Microsoft Graph : obtenez les données sur les groupes et les utilisateurs,
telles que les licences et les attributs utilisateur.
7 Notes
Pour obtenir des conseils détaillés sur le recueil de ce type de données pour une
solution personnalisée, consultez les Décisions relatives à la source de données de
l’article Audit au niveau du locataire.
Conseil
Conseil
Voici des solutions prêtes à l’emploi que vous pouvez utiliser pour prendre en charge les
activités de suivi de l’adoption.
Conseil
Cet article inclut les diverses solutions prêtes à l’emploi pour le compléter. Pour
tirer le meilleur parti de cet article, nous vous recommandons de concentrer votre
temps et vos efforts sur l’espace de travail de surveillance de l’administrateur.
Dans cet article, nous nous concentrons sur le moyen d’utiliser l’espace de travail de
surveillance de l’administrateur pour effectuer le suivi d’adoption. Grâce à l’espace de
travail de surveillance de l’administrateur, les organisations disposent d’une solution
prête à l’emploi afin qu’ils puissent s’étendre avec d’autres données. L’utilisation de
l’espace de travail de surveillance de l’administrateur permet aux organisations et aux
équipes de toute taille de commencer immédiatement à réaliser un suivi d’adoption.
Le diagramme et la table suivants offrent une vue d’ensemble du contenu dans l’espace
de travail de surveillance de l’administrateur.
ノ Agrandir le tableau
Adoption et Fournit des insights sur les • Combien d’éléments existe-t-il dans un
utilisation de activités des utilisateurs à partir tenant ou espace de travail et quel espace
fonctionnalité du journal d’activité et un de travail dispose de davantage de
inventaire des éléments dans contenu ?
votre locataire. • Quelle quantité de données par rapport
aux éléments de rapport existe-t-il dans
un locataire ou un espace de travail, ou
combien d’éléments d’un type spécifique
(tels que des flux de données) ?
• Quel utilisateur exporte le plus souvent
des rapports dans Excel ?
• Quels éléments (ou utilisateurs) sont
inactifs (ils n’ont eu aucune activité au
cours des 30 derniers jours) ?
• Quels éléments sont redondants entre
ou dans les espaces de travail ?
• Dans quelle mesure les fonctionnalités et
éléments Fabric sont-ils utilisés dans
l’organisation ? Qui utilise ces éléments et
où résident-ils ?
• Quels sont les éléments auxquels les
utilisateurs invités peuvent accéder
(partage B2B) ?
ノ Agrandir le tableau
Article Description
Les rapports disposent d’un modèle sémantique sous-jacent auquel les administrateurs
Fabric peuvent se connecter. Ces modèles sémantiques comportent des calculs et des
données prêts à l’emploi. Les administrateurs Fabric peuvent accorder une Autorisation
Article Description
Les nouveaux rapports créés à partir des modèles sémantiques d’un espace de travail de
surveillance de l’administrateur sont publiés dans d’autres espaces de travail incluant du
contenu personnalisé pour le suivi d’adoption.
Pour résumer, vous suivez généralement un processus pas à pas lorsque vous utilisez
l’espace de travail de surveillance de l’administrateur pour effectuer la surveillance et le
suivi d’adoption de votre locataire.
Conseil
La section suivante décrit les étapes que vous pouvez effectuer pour suivre l’adoption
dans Fabric et Power BI.
Suivi de l’adoption de Fabric et Power BI
Pour correctement suivre l’adoption, vous devez d’abord définir vos objectifs à long
terme et les comportements qui les renforcent. Vous identifiez ensuite les indicateurs
qui peuvent mesurer ces comportements de manière fiable et documenter vos activités
et actions à court terme. Il est essentiel d’effectuer votre suivi à un rythme constant et
de réévaluer régulièrement vos cibles et objectifs au fur et à mesure des changements
de comportement au fil du temps.
Les sections suivantes vous donnent des détails sur les étapes à effectuer pour suivre
l’adoption de Fabric.
Lorsque vous effectuez votre évaluation de maturité, tenez compte des points suivants.
Avant d’effectuer votre évaluation de maturité, vous pouvez mettre à jour les
descriptions du niveau de maturité afin qu’elles soient directement pertinentes
pour votre organisation. Par exemple, vous pouvez inclure d’autres considérations
pertinentes pour votre réussite, ou mettre à jour des descriptions afin d’utiliser un
langage ou une terminologie propre à votre organisation.
Une évaluation de maturité est également une opération que vous pouvez
effectuer dans le cadre de votre planification stratégique. Toutefois, vous n’avez
pas besoin de suivre un exercice complet de planification stratégique pour
démarrer le suivi d’adoption. Tout comme l’adoption, nous vous recommandons de
vous concentrer sur la manière de réaliser des progrès durables et incrémentiels.
En fonction de vos niveaux de maturité actuels, vous pouvez identifier vos forces et
définir des cibles pour chaque domaine. Les cibles vous permettent de définir vos
priorités et les objectifs sur lesquels vous souhaitez vous concentrer sur une période
spécifique (par exemple, le prochain trimestre).
Lorsque vous définissez les comportements importants à suivre, tenez compte des
points suivants.
7 Notes
Les comportements que vous identifiez comme importants sont susceptibles d’être
spécifiques à votre organisation, ses objectifs et son modèle pour la gestion et
propriété du contenu et l’étendue de livraison de contenu. Par exemple, il est
possible que les équipes d’entreprise distribuant des rapports et des modèles
sémantiques soit davantage intéressées par l’utilisation de ces éléments centralisés.
En revanche, dans un environnement en libre-service où les utilisateurs créent leurs
modèles sémantiques et rapports, il est possible que les administrateurs Fabric
soient plus intéressés par l’identification d’échecs d’actualisation et de partages
excessifs d’éléments ou de types d’élément.
Voici quelques exemples de comportements positifs que vous souhaiterez peut-être
encourager.
Conseil
Les mesures utilisées dans le suivi d’adoption peuvent également faire partie des
résultats clés que vous utilisez dans la planification tactique. Pour découvrir plus
d’informations sur la façon de définir des résultats clés et comment vous pouvez
efficacement mesurer une cible et utiliser des indicateurs, consultez Planification
tactique BI.
7 Notes
Voici quelques exemples sur la façon dont vous pourriez mesurer les comportements
positifs que vous souhaitez encourager.
Voici quelques exemples sur la façon dont vous pourriez mesurer les comportements
négatifs que vous souhaitez dissuader.
Une fois que vous pouvez mesurer les comportements importants pour votre suivi
d’adoption, vous devez utiliser ces mesures pour évaluer et comprendre la situation
actuelle. Le résultat de cette tâche établit une référence pour des futures améliorations.
Pendant l’exploration initiale des données, vous devez également examiner chaque
mesure de manière critique pour veiller à ce qu’elle reflète les comportements et
processus que vous souhaitez améliorer.
Conseil
Pour découvrir plus d’informations sur d’autres données que vous pouvez utiliser
afin de suivre l’adoption, consultez Solutions personnalisées plus haut dans cet
article.
) Important
Le suivi d’adoption n’est pas le résultat d’un audit irrégulier ou ponctuel de votre
environnement ou de la façon dont votre organisation utilise Fabric. Vous devez
plutôt effectuer régulièrement le suivi d’adoption. De cette façon, vous pouvez
identifier les améliorations au fil du temps.
Liste de contrôle : lorsque vous effectuez un suivi d’adoption, les décisions clés et les
actions sont les suivantes :
Contenu connexe
Pour plus de considérations, d’actions, de critères décisionnels et de recommandations
pour vous aider à prendre des décisions d’implémentation Power BI, consultez la
planification de l’implémentation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Les composants les plus répandus de Power BI sont identifiés dans chaque scénario
en fonction de la manière dont Power BI est censé être utilisé pour ce scénario.
L’objectif n’est pas d’énumérer toutes les options possibles pour chaque scénario
d’utilisation. Chaque diagramme de scénario décrit plutôt les fonctionnalités
principales qui sont les plus pertinentes pour ce scénario.
Lisez d’abord les scénarios dans l’ordre où ils sont documentés. Familiarisez-vous
avec les concepts et la manière dont les scénarios s’enchaînent.
Concentrez-vous sur les scénarios qui correspondent bien à votre culture des
données. Tenez également compte de la manière dont la propriété et la gestion du
contenu sont gérées, ainsi que de la portée de la livraison du contenu lorsque vous
déterminez les scénarios d’utilisation qui conviennent.
Réfléchissez aux domaines de vos opérations décisionnelles qui pourraient être
renforcés dans votre organisation. Par exemple, si votre objectif est de réduire le
niveau de duplication des données, concentrez-vous sur le scénario de décisionnel
libre-service géré. Si votre objectif est d’améliorer l’efficacité des efforts de
préparation des données, concentrez-vous sur le scénario de préparation des
données en libre-service.
Déterminez s’il existe des façons d’utiliser Power BI qui apporteront une valeur
ajoutée ou réduiront les risques pour votre organisation. Par exemple, si votre
objectif est d’atteindre un équilibre entre centralisation et décentralisation (décrit
plus en détail dans les articles sur la propriété et la gestion du contenu ), envisagez
le scénario de décisionnel libre-service géré et personnalisable.
Après avoir compris les domaines de vos opérations décisionnelles que vous
souhaitez implémenter ou renforcer, créez un plan de projet qui définit les étapes
tactiques pour atteindre l’état futur souhaité.
Conseil
Vous allez peut-être devoir combiner les idées décrites dans les scénarios
d’utilisation pour créer une stratégie d’implémentation de Power BI adaptée à votre
situation. Pour répondre aux besoins des utilisateurs de différents services et unités
commerciales, attendez-vous à devoir recourir simultanément à plusieurs méthodes
d’implémentation de Power BI. Ainsi, vous serez en mesure de soutenir divers
créateurs de contenu et diverses solutions.
Décisionnel d’équipe : L’accent est mis sur la collaboration informelle entre les
membres de l’équipe qui travaillent en étroite collaboration au sein d’une équipe.
Ce scénario décrit l’utilisation d’un espace de travail à la fois pour la collaboration
et la distribution. Il montre également l’intérêt d’utiliser Microsoft Teams pour la
collaboration entre les créateurs et les utilisateurs de Power BI.
7 Notes
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
Préparation avancée des données : L’accent est mis sur l’amélioration de la portée
et de la réutilisabilité des flux de données pour de multiples utilisateurs, équipes et
cas d’utilisation. Ce scénario décrit l’utilisation de plusieurs espaces de travail en
fonction de leur finalité : préproduction, nettoyé et final.
Analyse en temps réel en libre-service : l’accent est mis sur la façon dont un
analyste métier peut produire des rapports Power BI en temps réel.
7 Notes
Contenu connexe
Dans le prochain article de cette série, vous découvrirez comment activer l’analyse
privée pour un individu avec le scénario d’utilisation du décisionnel personnel.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Comme décrit dans la Feuille de route sur l’adoption de Fabric, le décisionnel personnel
consiste à permettre à un individu d’obtenir une valeur analytique. Il permet également
d’effectuer des tâches métier plus efficacement en utilisant les données, les informations
et l’analytique. Le décisionnel personnel est parfois considéré comme le point d’entrée
au décisionnel libre-service.
7 Notes
Schéma du scénario
Le schéma suivant présente une vue d’ensemble des actions les plus courantes de
l’utilisateur et des composants Power BI qui prennent en charge le décisionnel
personnel. L’accent est mis sur l’analytique privée pour un individu.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop se connecte aux données d’une ou plusieurs sources de données. Les
requêtes et les mashups de données, qui combinent plusieurs sources, sont développés
dans l’Éditeur Power Query.
Lorsque vous êtes prêt, le créateur de contenu publie le fichier Power BI Desktop (.pbix) du
fichier projet Power BI (.pbip) dans le service Power BI.
Item Description
Étant donné que l’intention principale est l’usage personnel, le contenu est publié dans
l’espace de travail personnel du créateur de contenu. Parmi les avantages de l’utilisation du
service Power BI (au lieu de rester uniquement dans Power BI Desktop), citons
l’actualisation planifiée des données, les alertes de tableau de bord et la possibilité de
consommer du contenu en utilisant une application mobile. Le créateur de contenu peut
également modifier des rapports et des modèles dans leur espace de travail personnel
avec la création web (s’ils activent le paramètre d’espace de travail).
Le créateur de contenu affiche et interagit avec le contenu publié. Une option consiste à se
connecter au service Power BI avec un navigateur web.
Le créateur de contenu peut également utiliser une application mobile Power BI pour
afficher le contenu publié.
Une actualisation planifiée des données peut être configurée dans le service Power BI pour
garder à jour les données importées.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Les administrateurs Power BI supervisent et monitorent l’activité du service Power BI. Les
espaces de travail personnels sont généralement gouvernés dans une mesure beaucoup
moins importante que les espaces de travail destinés à la collaboration et à la distribution.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel personnel.
) Important
Conseil
Le scénario de décisionnel d’entreprise décrit comment les utilisateurs qui ont une
licence Fabric gratuite peuvent voir du contenu lorsqu’il est hébergé dans une
capacité Premium.
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique – précédemment appelé jeu de données (non
représenté dans le diagramme du scénario)– DirectQuery.
7 Notes
Une passerelle de données en mode personnel est la plus fréquemment installée sur
l’ordinateur d’un utilisateur individuel. C’est pourquoi une passerelle de données en
mode personnel est mieux adaptée aux scénarios d’utilisation du décisionnel
personnel. Votre organisation peut limiter l’installation (par des particuliers) de
passerelles de données, auquel cas le créateur de contenu peut utiliser une
passerelle de données en mode standard (généralement configurée et gérée par le
service informatique).
Information Protection
Les stratégies de protection des informations peuvent être appliquées au contenu dans
le service Power BI. Certaines organisations ont une stratégie d’étiquetage obligatoire
qui nécessite une étiquette de confidentialité attribuée, même dans un espace de travail
personnel.
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI et s’étend aux espaces de travail personnels. Les administrateurs Power BI
peuvent utiliser les données du journal d’activité qui sont collectées pour effectuer un
audit afin de les aider à comprendre les modèles d’utilisation et à détecter les activités à
risque. Les exigences d’audit et de gouvernance sont généralement moins strictes pour
les scénarios de décisionnel personnel.
Contenu connexe
Dans le prochain article de cette série, découvrez la collaboration entre petites équipes
avec le scénario d’utilisation du décisionnel d’équipe.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Une fois la solution décisionnelle créée, il est temps de collaborer avec vos collègues.
L’objectif est d’apporter une valeur ajoutée au-delà de ce qui peut être obtenu avec le
scénario de décisionnel personnel.
Parfois, lorsque vous travaillez avec des collègues proches, la collaboration pour les
petites équipes peut être effectuée simplement dans un espace de travail. Un espace de
travail peut être considéré comme un moyen de visualiser le contenu de manière
informelle (sans la formalité de la publication d’une application Power BI, qui est
couverte dans le scénario de décisionnel départemental) par les membres d’une petite
équipe.
7 Notes
Schéma du scénario
Le diagramme suivant présente une vue d’ensemble de haut niveau des actions les plus
courantes de l’utilisateur et des composants Power BI qui prennent en charge le
décisionnel d’équipe. L’accent est mis sur la collaboration entre petites équipes.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop se connecte aux données d’une ou plusieurs sources de données. Les
requêtes et les mashups de données, qui combinent plusieurs sources, sont développés
dans l’Éditeur Power Query.
Lorsqu’ils sont prêts, les créateurs de contenu publient leur fichier Power BI Desktop (.pbix)
ou leur fichier projet Power BI (.pbip) dans le service Power BI.
Le contenu est publié dans un espace de travail. Son objectif principal est de fournir des
informations et de permettre la collaboration pour une petite équipe. Les créateurs de
contenu peuvent également créer ou modifier leur contenu dans un espace de travail.
Les applications mobiles Power BI sont également disponibles pour consulter le contenu
publié.
Les utilisateurs qui travaillent fréquemment au sein de Microsoft Teams peuvent trouver
pratique de gérer ou de visualiser le contenu de Power BI directement dans Teams. Ils
peuvent utiliser l’application Power BI pour Microsoft Teams ou consulter les rapports
intégrés dans un canal d’équipe. Les utilisateurs peuvent également avoir des discussions
privées entre eux et recevoir des notifications directement dans Teams.
Une actualisation planifiée des données peut être configurée dans le service Power BI pour
maintenir à jour les données importées dans les modèles sémantiques ou les flux de
données.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Les administrateurs Power BI supervisent et surveillent l’activité du service Power BI. Les
solutions de business intelligence de l’équipe peuvent être soumises à davantage
d’exigences de gouvernance que celles personnelles, mais moins que les solutions de
business intelligence du service et de l’entreprise.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel d’équipe.
Workspaces
Un espace de travail Power BI est un conteneur logique situé dans le service Power BI
qui permet de stocker les éléments Power BI associés, tels que les modèles sémantiques
et les rapports. Dans un scénario de décisionnel d’équipe, il est pratique et simple
d’utiliser l’espace de travail pour la collaboration ainsi que pour la visualisation des
rapports par un petit nombre d’utilisateurs. La distribution du contenu sous forme d’une
application Power BI est décrite dans le scénario de décisionnel départemental.
7 Notes
Par ailleurs, les utilisateurs de l’espace de travail peuvent partager des rapports
individuels et des tableaux de bord (non représentés dans le schéma du scénario).
Le partage peut accorder un accès en lecture seule à une personne qui n’est pas
affectée à un rôle d’espace de travail. Toutefois, essayez de limiter le partage, car il
peut être fastidieux de le configurer pour de nombreux éléments ou de nombreux
utilisateurs.
7 Notes
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées, ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique DirectQuery (non représenté dans le schéma du
scénario).
7 Notes
Contenu connexe
Dans le prochain article de cette série, vous découvrirez comment distribuer du contenu
à un plus grand nombre de lecteurs dans le scénario d’utilisation du décisionnel
départemental.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Schéma du scénario
Le diagramme suivant présente une vue d’ensemble de haut niveau des actions les plus
courantes de l’utilisateur et des composants Power BI qui prennent en charge le
décisionnel départemental. L’accent est mis sur l’utilisation d’une application Power BI
pour la distribution de contenu à un large public.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop se connecte aux données d’une ou plusieurs sources de données. Les
requêtes et les mashups de données, qui combinent plusieurs sources, sont développés
dans l’Éditeur Power Query.
Lorsqu’ils sont prêts, les créateurs de contenu publient leur fichier Power BI Desktop (.pbix)
ou leur fichier projet Power BI (.pbip) dans le service Power BI.
Le contenu est publié dans un espace de travail. Son objectif principal est de fournir un
espace de collaboration aux personnes chargées de créer, gérer et valider le contenu. Les
créateurs de contenu peuvent également créer ou modifier leur contenu dans l’espace de
travail.
Certains, voire tous les rapports et tableaux de bord, sont publiés sous forme d’application
Power BI. L’objectif de l’application est de fournir un ensemble de contenus connexes que
les consommateurs peuvent consulter de manière conviviale.
Les utilisateurs de l’application Power BI sont ajoutés aux audiences d’application, qui
reçoivent des autorisations en lecture seule. Les paramètres de l'application, le contenu de
l'application et les audiences de l'application sont gérés séparément de l'espace de travail.
Certaines équipes peuvent installer et utiliser des applications modèles.
Les applications mobiles Power BI sont également disponibles pour visualiser les
applications et le contenu de l’espace de travail.
Les utilisateurs qui travaillent fréquemment au sein de Microsoft Teams peuvent trouver
pratique de gérer ou de visualiser le contenu de Power BI directement dans Teams.
Une actualisation planifiée des données est configurée dans le service Power BI pour
maintenir à jour des données importées dans des modèles sémantiques ou des flux de
données.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Les administrateurs Power BI supervisent et surveillent l’activité du service Power BI. Les
solutions de business intelligence du service peuvent être soumises à davantage
d’exigences de gouvernance que celles de l’équipe, mais moins que les solutions de
business intelligence de l’entreprise.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel
départemental.
Workspaces
Un espace de travail Power BI est un conteneur logique situé dans le service Power BI
qui permet de stocker les éléments Power BI associés, tels que des modèles
sémantiques et des rapports. Même si ce scénario ne décrit qu’un seul espace de travail,
plusieurs espaces de travail sont généralement nécessaires pour satisfaire à toutes les
exigences de planification de l’espace de travail.
7 Notes
) Important
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique DirectQuery (non représenté dans le diagramme du
scénario).
7 Notes
Pour les scénarios d’équipe, de service et d’entreprise, une passerelle de données
centralisée en mode standard est fortement recommandée par rapport aux
passerelles en mode personnel. En mode standard, la passerelle de données prend
en charge la connexion dynamique et les opérations DirectQuery (en plus des
opérations programmées d’actualisation des données).
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Le journal des activités est également précieux pour
soutenir les efforts de gouvernance, les audits de sécurité et les exigences de
conformité.
Contenu connexe
Dans l’article suivant de cette série, découvrez la distribution de contenu à l’échelle de
l’organisation dans le scénario de décisionnel d’entreprise.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
7 Notes
Il existe quatre scénarios d’utilisation de collaboration et diffusion de contenu, qui
s’appuient les uns sur les autres. Le scénario de décisionnel d’entreprise est le
quatrième scénario. Vous trouverez la liste de tous les scénarios dans l’article
Scénarios d’utilisation de Power BI.
Schéma du scénario
Le schéma suivant présente une vue d’ensemble des actions utilisateur les plus
courantes et des composants Power BI qui prennent en charge le décisionnel
d’entreprise. L’aspect le plus important est celui de la distribution de contenu à l’échelle
de l’organisation, ce qui implique l’utilisation de la capacité Power BI Premium. Ce
scénario illustre également le développement de rapports paginés Power BI.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop se connecte aux données d’une ou plusieurs sources de données. Les
requêtes et les mashups de données, qui combinent plusieurs sources, sont développés
dans l’Éditeur Power Query.
Lorsqu’ils sont prêts, les créateurs de contenu publient leur fichier Power BI Desktop (.pbix)
ou leur fichier projet Power BI (.pbip) dans le service Power BI.
Les créateurs de rapports développent des rapports paginés à l’aide de Power BI Report
Builder.
Power BI Report Builder interroge des données à partir d’un ou de plusieurs types de
sources de données.
Lorsqu’ils sont prêts, les créateurs de rapports publient leur fichier Power BI Report Builder
(.rdl) dans le service Power BI.
Plusieurs types d'éléments Power BI peuvent être publiés dans un espace de travail doté
d'une capacité Fabric, d'une capacité Premium ou d'un mode de licence Premium par
utilisateur.
Certains, voire tous les rapports et tableaux de bord, sont publiés sous forme d’application
Power BI. L’objectif de l’application est de fournir un ensemble de contenus connexes que
les consommateurs peuvent consulter facilement.
Les applications mobiles Power BI sont également disponibles pour visualiser le contenu
des applications et des espaces de travail.
Les utilisateurs qui travaillent fréquemment dans Microsoft Teams peuvent trouver
pratique de gérer ou de visualiser le contenu Power BI directement dans Teams.
Une actualisation planifiée des données est configurée dans le service Power BI pour
maintenir à jour des données importées dans des modèles sémantiques ou des flux de
données.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel
d’entreprise.
Les rapports Excel peuvent également être publiés dans le service Power BI (non
représenté dans le schéma du scénario) lorsqu’un tableau croisé dynamique ou un
graphique croisé dynamique répondent mieux aux exigences de création de rapports.
Workspaces
Un espace de travail Power BI est un conteneur logique situé dans le service Power BI
qui permet de stocker les éléments Power BI associés, tels que des modèles
sémantiques et des rapports. Même si ce scénario ne décrit qu’un seul espace de travail,
plusieurs espaces de travail sont généralement nécessaires pour satisfaire à toutes les
exigences de planification de l’espace de travail.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique DirectQuery (non représenté dans le diagramme du
scénario).
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Le journal des activités est également précieux pour
soutenir les efforts de gouvernance, les audits de sécurité et les exigences de
conformité.
Contenu connexe
Dans l’article suivant de cette série, découvrez plus d’informations sur l’importance de
réutiliser des modèles sémantiques dans un scénario de décisionnel libre-service
managé.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Schéma du scénario
Le schéma suivant présente une vue d’ensemble générale des actions utilisateur les plus
courantes, et des composants Power BI prenant en charge le décisionnel libre-service
managé. L’objectif principal est que le plus grand nombre de créateurs de rapports
réutilisent des modèles sémantiques partagés centralisés. Pour ce faire, ce scénario se
concentre sur la dissociation du processus de développement de modèle et du
processus de création de rapports.
Conseil
ノ Agrandir le tableau
Item Description
Lorsqu’il est prêt, le créateur de modèles sémantiques publie son fichier Power BI Desktop
(.pbix) ou son fichier de projet Power BI (.pbip) qui contient uniquement un modèle sur le
service Power BI.
La découverte du modèle sémantique dans le hub de données OneLake est activée, car le
modèle sémantique est marqué comme détectable. La découvrabilité permet à un modèle
sémantique d’être visible dans le hub de données par d’autres créateurs de contenu
Power BI en quête de données.
Les créateurs de rapports utilisent le hub de données OneLake du service Power BI pour
rechercher des éléments de données détectables, tels que les modèles sémantiques.
Si les créateurs de rapports n’ont pas cette autorisation, ils peuvent formuler une requête
d’autorisation de générer sur les éléments de données. Cela lance un workflow pour
demander l’autorisation de générer à un approbateur autorisé. Lorsqu’elle est approuvée,
le créateur de rapports peut réutiliser les éléments de données pour créer de nouveaux
rapports.
Les créateurs de rapports créent de nouveaux rapports à l’aide de Power BI Desktop. Les
rapports utilisent une connexion active à un modèle sémantique partagé.
Les créateurs de rapports créent leurs rapports dans Power BI Desktop. En plus du rapport,
les créateurs de rapports peuvent utiliser des thèmes, des images et des visuels
personnalisés, et ils peuvent créer des mesures au niveau du rapport.
Lorsqu’ils sont prêts, les créateurs de rapports publient leur fichier Power BI Desktop (.pbix)
dans le service Power BI.
Les rapports sont publiés dans un espace de travail dédié au stockage et à la sécurisation
des rapports et des tableaux de bord.
Les rapports publiés restent connectés aux modèles sémantiques partagés qui sont
stockés dans un autre espace de travail. Toute modification du modèle sémantique partagé
affecte tous les rapports qui y sont connectés.
Item Description
Les autres créateurs de rapports libre-service peuvent être auteurs de nouveaux rapports à
l’aide du modèle sémantique partagé existant. Les créateurs de rapports peuvent choisir
d’utiliser Power BI Desktop, le Générateur de rapports Power BI ou Excel.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel libre-service
managé.
7 Notes
7 Notes
Par souci de simplicité, les flux de données ne sont pas représentés dans le schéma
du scénario. Pour en savoir plus sur les flux de données, consultez le scénario de
préparation des données libre-service.
Conseil
7 Notes
Si un modèle sémantique n’est pas configuré pour être découvrable, seuls les
utilisateurs Power BI disposant de l’autorisation de générer peuvent le trouver.
Requête d’accès au modèle sémantique
Un créateur de rapports peut trouver un modèle sémantique qu’il souhaite utiliser dans
le hub de données. S’il n’a pas l’autorisation de générer pour le modèle sémantique, il
peut formuler une requête d’accès. Selon le paramètre de requête d’accès pour le
modèle sémantique, un e-mail sera envoyé au propriétaire du modèle sémantique, ou
des instructions personnalisées seront présentées à la personne qui formule la requête
d’accès.
) Important
Lorsque vous utilisez une connexion active, toutes les données dont le créateur de
rapport a besoin doivent résider dans le modèle sémantique connecté. Toutefois, le
scénario de décisionnel libre-service managé personnalisable explique comment
un modèle sémantique peut être étendu avec des données et calculs
supplémentaires.
Tout d’abord, il faut savoir clairement qui est responsable de la gestion du contenu dans
tel ou tel espace de travail. Deuxièmement, les créateurs de rapports disposent des
autorisations nécessaires pour publier du contenu dans un espace de travail de rapports
(via les rôles d’administrateur, de membre ou de contributeur de l’espace de travail).
Toutefois, ils ne disposent que des droits de lecture et de générer pour des modèles
sémantiques spécifiques. Cette technique permet à la sécurité au niveau des lignes (SNL)
de prendre effet lorsque cela est nécessaire pour les utilisateurs disposant du rôle
Lecteur.
) Important
Si vous publiez votre rapport Power BI Desktop dans un espace de travail, les
rôles SNL sont appliqués aux membres auxquels le rôle Lecteur a été attribué dans
l’espace de travail. Même si des lecteurs disposent d’autorisations de générer sur le
modèle sémantique, la SNL s’applique quand même. Pour plus d’informations,
consultez Utilisation de la sécurité au niveau des lignes avec des espaces de
travail dans Power BI.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées, ou voir un rapport qui interroge une connexion active
ou un modèle sémantique DirectQuery.
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Le journal des activités est également précieux pour
soutenir les efforts de gouvernance, les audits de sécurité et les exigences de
conformité. Avec un scénario décisionnel libre-service managé, il est particulièrement
utile d’effectuer le suivi de l’utilisation des modèles sémantiques partagés. Un ratio
rapport/modèle sémantique élevé indique une bonne réutilisation des modèles
sémantiques.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment personnaliser et étendre un
modèle sémantique partagé pour répondre à d’autres types d’exigences.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Toutefois, lorsque l’architecture de données de base n’inclut pas toutes les données
requises, les créateurs de modèles sémantiques (précédemment appelés jeux de
données) peuvent étendre, personnaliser ou adapter les modèles sémantiques partagés
existants. Il est possible de créer de nouveaux modèles sémantiques spécialisés qui
répondent à des besoins commerciaux non satisfaits par les modèles sémantiques
centralisés existants. Il est important de noter qu’il n’y a pas de duplication des données
de base. Ce scénario d’utilisation est appelé Décisionnel libre-service géré et
personnalisable.
7 Notes
Conseil
ノ Agrandir le tableau
Item Description
Lorsqu’il est prêt, le créateur de modèles A publie son fichier Power BI Desktop (.pbix) ou
son fichier de projet Power BI (.pbip) qui contient uniquement un modèle sur le service
Power BI.
La découverte de données dans le hub de données OneLake est activée, car le modèle
sémantique est marqué comme découvrable. La découvrabilité permet à un modèle
sémantique d’être visible dans le hub de données OneLake par d’autres créateurs de
contenu Power BI en quête de données.
Les créateurs de contenu utilisent le hub de données OneLake du service Power BI pour
rechercher des éléments de données détectables, tels que les modèles sémantiques.
Si les créateurs de contenu ont cette autorisation, ils peuvent formuler une requête
d’autorisation de générer sur les éléments de données. Cela lance un workflow pour
demander l’autorisation de générer à un approbateur autorisé. Une fois qu'ils en ont reçu
l'autorisation, les créateurs de contenu peuvent réutiliser les éléments de données pour
élaborer de nouvelles solutions.
Dans Power BI Desktop, le créateur du modèle B crée une connexion active au modèle
sémantique partagé original qui se trouve dans le service Power BI. Étant donné que
l’intention est d’étendre et de personnaliser le modèle sémantique d’origine, la connexion
active est convertie en modèle DirectQuery. Cette action donne lieu à un modèle local
dans le fichier Power BI Desktop.
Des relations sont créées dans Power BI Desktop entre les tables existantes (à partir du
modèle sémantique partagé, également appelé modèle distant) et les nouvelles tables
Item Description
venant d’être importées (stockées dans le modèle local). Des calculs et un travail de
modélisation supplémentaires sont effectués dans Power BI Desktop pour compléter la
conception du modèle composite spécialisé.
Lorsqu’il est prêt, le créateur du modèle sémantique B publie son fichier .pbix ou .pbip sur
le service Power BI.
Le nouveau modèle sémantique composite spécialisé est publié dans un espace de travail
dédié au stockage et à la sécurisation des modèles sémantiques qui sont détenus et gérés
par le service.
Les rapports sont publiés dans un espace de travail dédié au stockage et à la sécurisation
des rapports et des tableaux de bord.
Les rapports publiés restent connectés au modèle sémantique spécialisé qui est stocké
dans un espace de travail différent. Toute modification du modèle sémantique spécialisé
affecte tous les rapports qui y sont connectés.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Points clés
Voici quelques points clés à souligner concernant le scénario de décisionnel libre-service
géré et personnalisable.
7 Notes
Pour simplifier, le schéma de scénario ne représente qu’un seul modèle sémantique
partagé. Toutefois, il n’est généralement pas pratique de modéliser toutes les
données organisationnelles en un seul modèle sémantique. L’autre extrême
consiste à créer un nouveau modèle sémantique pour chaque rapport, comme le
font souvent les créateurs de contenu moins expérimentés. L’objectif est de trouver
le juste équilibre, en privilégiant des modèles sémantiques relativement peu
nombreux et en créant de nouveaux modèles sémantiques lorsque cela s’avère
utile.
Conseil
7 Notes
Si un modèle sémantique n’est pas configuré pour être découvrable, seuls les
utilisateurs Power BI disposant de l’autorisation de générer peuvent le trouver.
Tout d’abord, il faut savoir clairement qui est responsable de la gestion du contenu dans
tel ou tel espace de travail. Deuxièmement, les créateurs de rapports disposent des
autorisations nécessaires pour publier du contenu dans un espace de travail de rapports
(via les rôles d’administrateur, de membre ou de contributeur de l’espace de travail).
Toutefois, ils ne disposent que des droits de lecture et de générer pour des modèles
sémantiques spécifiques. Cette technique permet à la Sécurité au niveau des lignes (RLS)
de prendre effet lorsque cela est nécessaire pour les utilisateurs affectés au rôle Lecteur.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées, ou voir un rapport qui interroge une connexion active
ou un modèle sémantique DirectQuery.
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Le journal des activités est également précieux pour
soutenir les efforts de gouvernance, les audits de sécurité et les exigences de
conformité. Dans le cadre d’un scénario de décisionnel libre-service géré et
personnalisable, il est particulièrement utile de suivre l’utilisation du modèle sémantique
partagé d’origine ainsi que des modèles sémantiques dépendants.
Contenu connexe
Dans l’article suivant de cette série, découvrez comment réutiliser le travail de
préparation des données avec des flux de données dans le scénario de préparation des
données en libre-service.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
La préparation des données (parfois appelée ETL, qui est un acronyme pour l’extraction,
la transformation et la charge) implique souvent une quantité importante de travail en
fonction de la qualité et de la structure des données sources. Le scénario d’utilisation de
la préparation des données en libre-service se concentre sur la réutilisation des activités
de préparation des données par les analystes métier. Il atteint cet objectif de
réutilisation en déplaçant le travail de préparation des données de Power Query (au sein
de fichiers Power BI Desktop individuels) vers Power Query Online (à l’aide d’un flux de
données Power BI). La centralisation de la logique permet d’obtenir une source unique
de la vérité et de réduire le niveau d’effort requis par d’autres créateurs de contenu.
Les flux de données sont créés à l’aide de Power Query Online dans l’un des différents
outils suivants : service Power BI, Power Apps ou Dynamics 365 Customer Insights. Un
flux de données créé dans Power BI est appelé flux de données analytique. Les flux de
données créés dans Power Apps peuvent être l’un des deux types : standard ou
analytique. Ce scénario couvre uniquement l’utilisation d’un flux de données Power BI
créé et géré dans le service Power BI.
7 Notes
Conseil
ノ Agrandir le tableau
Item Description
Le créateur de flux de données développe une collection de tables au sein d’un flux de
données Power BI. Pour un flux de données destiné à être réutilisé, il est courant (mais pas
obligatoire) que le créateur appartienne à une équipe centralisée qui assiste les utilisateurs
au-delà des frontières de l’organisation (comme le service informatique, le décisionnel
d’entreprise ou le centre d’excellence).
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé. Ces passerelles sont utilisées à la fois pour créer le
flux de données dans Power Query Online, qui est une version web de Power Query et
actualiser le flux de données.
Les flux de données sont développés à l'aide de Power Query Online. L’interface Power
Query familière dans Power Query Online facilite la transition de Power BI Desktop.
Le flux de données est enregistré en tant qu’élément dans un espace de travail dédié au
stockage et à la sécurisation des flux de données. Une planification d’actualisation du flux
de données est nécessaire pour conserver les données actuelles (non représentées dans le
diagramme de scénario).
Le flux de données peut être réutilisé comme source de données par les créateurs de
contenu et par d'autres modèles sémantiques pouvant résider dans différents espaces de
travail.
Une fois prêt, le créateur du modèle sémantique publie le fichier Power BI Desktop (.pbix)
qui contient le modèle de données sur le service Power BI. L'actualisation du modèle
sémantique est gérée séparément du flux de données (non représenté dans le diagramme
de scénario).
Par défaut, les flux de données stockent les données à l’aide du stockage interne géré par
le service Power BI. Si vous le souhaitez, la sortie des données par le flux de données peut
être stockée dans le compte ADLS Gen2 de l’organisation. Ce type de stockage est parfois
appelé apporter votre propre lac de données. L’avantage de stocker des données de flux de
données dans le lac de données est qu’elle est accessible et consommée par d’autres outils
décisionnels.
Les données de flux de données dans ADLS Gen2 sont stockées dans un conteneur
spécifique à Power BI appelé système de fichiers. Dans ce conteneur, un dossier existe pour
chaque espace de travail. Un sous-dossier est créé pour chaque flux de données, ainsi que
pour chaque table. Power BI génère un instantané chaque fois que les données de flux de
données sont actualisées. Les instantanés sont auto-descriptifs, comprenant des
métadonnées et des fichiers de données.
Les administrateurs Azure gèrent les autorisations pour le compte ADLS Gen2 de
l’organisation.
Conseil
Points clés
Voici quelques points clés à signaler concernant le scénario de préparation des données
en libre-service.
Dataflows
Un flux de données comprend une collection de tables (également appelées entités).
Tout le travail de création d’un flux de données est effectué dans Power Query Online .
Vous pouvez créer des flux de données dans plusieurs produits, notamment Power
Apps, Dynamics 365 Customer Insights et Power BI.
7 Notes
Vous ne pouvez pas créer de flux de données dans un espace de travail personnel
dans le service Power BI.
7 Notes
Conseil
) Important
7 Notes
L’une des fonctionnalités avancées est l’actualisation incrémentielle pour les flux
de données. Bien que l’actualisation incrémentielle des modèles sémantiques soit
une fonctionnalité Power BI Pro, l’actualisation incrémentielle des flux de données
est une fonctionnalité Premium.
Pour en savoir plus sur les fonctionnalités avancées du flux de données, consultez le
scénario d’utilisation de la préparation avancée des données.
) Important
La définition des connexions Azure ne signifie pas que tous les flux de données de
l’abonné Power BI sont stockés dans ce compte par défaut. Pour utiliser un compte
de stockage explicite (au lieu du stockage interne), chaque espace de travail doit
être spécifiquement connecté.
Il est essentiel de définir les connexions Azure de l’espace de travail avant de créer
des flux de données dans l’espace de travail. Le même compte de stockage Azure
est utilisé pour les sauvegardes du modèle sémantique Power BI.
7 Notes
7 Notes
Vous ne pouvez pas créer de flux de données dans un espace de travail personnel
dans le service Power BI.
Configuration de la passerelle
En règle générale, une passerelle de données locale est nécessaire pour se connecter
aux sources de données qui résident dans un réseau d’organisation privé ou dans un
réseau virtuel.
la création d’un flux de données dans Power Query Online qui se connecte aux
données d’organisation privées ;
l’actualisation d’un flux de données qui se connecte aux données d’organisation
privées.
Conseil
lux de données nécessitent une passerelle de données centralisée en mode
standard. Une passerelle en mode personnel n’est pas prise en charge lors de
l’utilisation de flux de données.
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Le journal des activités est également précieux pour
soutenir les efforts de gouvernance, les audits de sécurité et les exigences de
conformité. Avec un scénario de préparation des données en libre-service, il est
particulièrement utile de suivre l’utilisation des flux de données.
Contenu connexe
L’article suivant de la série aborde le scénario d’utilisation de la préparation avancée des
données.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
La préparation des données (parfois appelée ETL, qui est un acronyme pour les activités
d’extraction, de transformation et de charge) implique souvent un effort important. Le
temps, la compétence et l’effort impliqués dans la collecte, le nettoyage, la combinaison
et l’enrichissement des données dépendent de la qualité et de la structure des données
sources.
Des espaces de travail séparés, organisés par objectif de flux de données, sont utiles
lorsque la sortie du flux de données est fournie à plusieurs créateurs de modèles
sémantiques (anciennement appelés ensembles de données), en particulier lorsqu'ils
font partie de différentes équipes de l'organisation. Les espaces de travail distincts sont
également utiles pour gérer les rôles de sécurité lorsque les personnes qui créent et
gèrent des flux de données sont différentes de celles qui les consomment.
7 Notes
Le scénario de préparation avancée des données est le deuxième des scénarios de
préparation des données. Ce scénario s’appuie sur ce qui peut être fait avec des
flux de données centralisés, comme décrit dans le scénario de préparation des
données en libre-service .
Schéma du scénario
Conseil
7 Notes
Parfois, les termes modèle sémantique et modèle de données sont utilisés de
manière interchangeable. Généralement, du point de vue du service Power BI, on
parle de modèle sémantique. Du point de vue du développement, c’est le terme
modèle de données (ou simplement modèle) qui est employé. Dans cet article, les
deux termes ont le même sens. De même, un créateur de modèle sémantique et un
modélisateur de données ont la même signification.
Le diagramme suivant présente une vue d’ensemble de haut niveau des actions les plus
courantes de l’utilisateur et des composants Power BI qui prennent en charge le
scénario de préparation des données.
Conseil
ノ Agrandir le tableau
Item Description
Le créateur de flux de données développe une collection de tables au sein d’un flux de
données. Pour un jeu de données destiné à être réutilisé, il est courant (mais pas
obligatoire) que le créateur appartienne à une équipe centralisée qui assiste les utilisateurs
au-delà des frontières de l’organisation (comme le service informatique, le décisionnel
d’entreprise ou le centre d’excellence).
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé. Ces passerelles sont utilisées pour créer le flux de
données dans Power Query Online et actualiser le flux de données.
Tous les espaces de travail impliqués ont leur mode de licence défini sur capacité Fabric,
capacité Premium, Premium par utilisateurou Embedded. Ces modes de licence
permettent d’utiliser des tables liées et des tables calculées entre les espaces de travail, qui
sont nécessaires dans ce scénario.
Les créateurs de flux de données développent des flux de données à l’aide de Power Query
Online, qui est une version web de Power Query.
Un flux de données intermédiaire est créé dans un espace de travail dédié à la gestion
centralisée des flux de données. Un flux de données intermédiaire copie les données
brutes telles qu’elles proviennent de la source. Peu, le cas échéant, les transformations sont
appliquées.
Un flux de données de transformation (également appelé flux de données nettoyé) est créé
dans le même espace de travail. Il source des données à l’aide de tables liées vers le flux de
données de mise en lots. La ou les tables calculées comprennent des étapes de
transformation qui préparent, nettoient et réorganisent les données.
Les créateurs de flux de données ont accès à la gestion du contenu dans l’espace de travail
dédié à la gestion centralisée des flux de données.
Un ou plusieurs autres espaces de travail sont destinés à fournir l’accès au flux de données
final, qui fournit des données prêtes pour la production aux modèles de données.
Le flux de données final est créé dans un espace de travail disponible pour les
modélisateurs de données. Il source des données à l’aide de tables liées vers le flux de
données de transformation. Les tables calculées représentent la sortie préparée visible par
les modélisateurs de données qui ont accordé le rôle visionneuse d’espace de travail.
Les créateurs de modèles sémantiques (qui consomment la sortie du flux de données) ont
un accès de visualisation à l'espace de travail qui contient la sortie finale du flux de
données. Les créateurs de flux de données ont également accès à la gestion et à la
publication du contenu dans l’espace de travail (non représenté dans le diagramme de
scénario).
Item Description
Les créateurs de modèles sémantiques utilisent le flux de données final comme source de
données lors du développement d'un modèle de données dans Power BI Desktop.
Lorsqu'il est prêt, le créateur du modèle sémantique publie le fichier Power BI Desktop
(.pbix) qui contient le modèle de données sur le service Power BI (non représenté dans le
diagramme de scénario).
Par défaut, les flux de données stockent les données à l’aide du stockage interne géré par
le service Power BI. Si vous le souhaitez, la sortie des données par le flux de données peut
être stockée dans le compte ADLS Gen2 de l’organisation.
Points clés
Voici quelques points clés à signaler concernant le scénario de la préparation avancée
des données.
Dataflows
Un flux de données comprend une collection de tables (également appelées entités).
Chaque table est définie par une requête, qui contient les étapes de préparation des
données nécessaires pour charger la table avec des données. Tout le travail de création
d’un flux de données est effectué dans Power Query Online . Vous pouvez créer un flux
de données dans plusieurs produits, notamment Power Apps, Dynamics 365 Customer
Insights et Power BI.
7 Notes
Vous ne pouvez pas créer de flux de données dans un espace de travail personnel
dans le service Power BI.
Trois types de flux de données sont affichés dans le diagramme de scénario : flux de
données de mise en lots, flux de données de transformation et flux de données final.
L’accès à une source de données est limité à des fenêtres de temps limitées et/ou
à quelques utilisateurs.
La cohérence temporelle est souhaitée pour garantir que tous les flux de données
en aval (et les modèles sémantiques associés) fournissent simultanément des
données extraites de la source de données.
La réduction du nombre de requêtes soumises à la source de données est
nécessaire en raison de restrictions du système source ou de sa capacité à prendre
en charge les requêtes analytiques.
Une copie des données sources est utile pour les processus de rapprochement et
les vérifications de qualité des données.
Les tables calculées sont visibles par les modélisateurs de données auxquels le rôle
visionneuse d’espace de travail est accordé. Ce type de table est décrit dans les types de
tables de flux de données ci-dessous.
7 Notes
Les lacs de données ont souvent des zones comme le bronze, l’argent et l’or. Les
trois types de flux de données représentent un modèle de conception similaire.
Pour prendre les meilleures décisions possibles en matière d’architecture des
données, réfléchissez à la personne qui conservera les données, à l’utilisation
attendue des données et au niveau de compétence requis par les utilisateurs qui
accèdent aux données.
Les deux types d’espaces de travail présentés dans le diagramme de scénario sont les
suivants :
Conseil
Table standard : interroge une source de données externe, telle qu’une base de
données. Dans le diagramme de scénario, les tables standard sont représentées
dans le flux de données de mise en lots.
Table liée : référence une table à partir d’un autre flux de données. Une table liée
ne duplique pas les données. Elle permet plutôt la réutilisation d’une table
standard plusieurs fois à plusieurs fins. Les tables liées ne sont pas visibles par les
visionneuses d’espace de travail, car elles héritent des autorisations du flux de
données d’origine. Dans le diagramme de scénario, les tables liées sont
représentées deux fois :
Dans le flux de données de transformation pour accéder aux données dans le
flux de données de mise en lots.
Dans le flux de données final pour accéder aux données dans le flux de données
de transformation.
Table calculée : effectue des calculs supplémentaires à l’aide d’un autre flux de
données comme source. Les tables calculées permettent de personnaliser la sortie
selon les besoins pour les cas d’usage individuels. Dans le diagramme de scénario,
les tables calculées sont représentées deux fois :
Dans le flux de données de transformation pour effectuer des transformations
courantes.
Dans le flux de données final pour fournir la sortie aux créateurs de modèles
sémantiques. Étant donné que les tables calculées conservent à nouveau les
données (après l’actualisation du flux de données), les modélisateurs de
données peuvent accéder aux tables calculées dans le flux de données final.
Dans ce cas, les modélisateurs de données doivent disposer d’un accès avec le
rôle visionneuse d’espace de travail.
7 Notes
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Le moteur de calcul amélioré améliore le niveau de performance des tables liées (dans le
même espace de travail) qui référencent (lien vers) le flux de données. Pour bénéficier au
maximum de l’avantage du moteur de calcul amélioré :
Les utilisateurs (ou processus) peuvent accéder directement aux données de flux
de données stockées dans le lac de données. Cela est utile lorsque la réutilisation
du flux de données se produit au-delà de Power BI. Par exemple, Azure Data
Factory peut accéder aux données de flux de données.
D’autres outils ou systèmes peuvent gérer les données dans le lac de données.
Dans ce cas, Power BI peut consommer les données plutôt que de les gérer (non
représentées dans le diagramme de scénario).
Lorsque vous utilisez des tables liées ou des tables calculées, assurez-vous que chaque
espace de travail est affecté au même compte de stockage ADLS Gen2.
7 Notes
Les données de flux de données dans ADLS Gen2 sont stockées dans un conteneur
spécifique à Power BI. Ce conteneur est représenté dans le diagramme du scénario
d’utilisation de la préparation des données en libre-service.
Configuration de la passerelle
En règle générale, une passerelle de données locale est nécessaire pour se connecter
aux sources de données qui résident dans un réseau d’organisation privé ou dans un
réseau virtuel.
la création d’un flux de données dans Power Query Online qui se connecte aux
données d’organisation privées ;
l’actualisation d’un flux de données qui se connecte aux données d’organisation
privées.
Conseil
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Un prototype (ou une preuve de concept (POC)) est une solution Power BI destinée à
résoudre les inconnus et à atténuer les risques. Cette solution peut être partagée avec
les utilisateurs afin d’obtenir leurs commentaires lors des itérations du développement.
La solution peut être temporaire, de courte durée, ou finalement évoluer pour devenir
entièrement validée et publiée. Un prototype est généralement créé pour les scénarios
décisionnels du service et décisionnels de l’entreprise (et parfois pour les scénarios
décisionnels de l’équipe).
7 Notes
Schéma du scénario
Le schéma suivant présente une vue d’ensemble des actions utilisateur les plus
courantes et des composants Power BI prenant en charge les activités de prototypage.
Ce scénario décrit l’utilisation de Power BI Desktop pendant une session de prototypage
interactive. Il explique également le partage dans le service Power BI lorsque des
commentaires supplémentaires sont nécessaires de la part d’un expert.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop se connecte aux données d’une ou plusieurs sources de données. Les
requêtes et les mashups de données, qui combinent plusieurs sources, sont développés
dans l’Éditeur Power Query.
Item Description
Les experts techniques apportent leurs commentaires lors d’une session de prototypage
interactive. En fonction des commentaires des experts techniques (et d’autres membres de
l’équipe), les créateurs de contenu apportent des améliorations itératives directement à la
solution de décisionnel.
Si vous le souhaitez, les créateurs de contenu publient leur fichier Power BI Desktop (.pbix)
du fichier projet Power BI (.pbip) dans le service Power BI. La publication de solutions de
prototypage pour le service Power BI est facultative.
Le contenu est publié dans un espace de travail autre que de production. Son objectif
principal est de fournir une zone de développement permettant la révision par les
membres de l’équipe.
Un rapport est partagé avec un collègue afin de lui fournir des autorisations en lecture
seule sur celui-ci (et ses données sous-jacentes). L’opération de partage peut être
effectuée avec un lien de partage ou un partage d’accès direct. Le partage peut être
avantageux pour une solution de prototypage dans le but de fournir un accès temporaire
pendant le processus de commentaires.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Points clés
Voici quelques points clés à souligner concernant le scénario de prototypage et de
partage.
Service Power BI
La publication de solutions de prototypage pour le service Power BI est facultative. Cela
peut vous être utile lorsque vous devez partager des résultats préliminaires à des fins de
commentaires et de prise de décision.
Conseil
Les solutions de prototypage doivent être clairement séparées des autres contenus
de production afin que les consommateurs aient des attentes appropriées pour les
solutions autres que de production. Par exemple, des consommateurs d’un rapport
prototype peuvent ne pas s’attendre à ce qu’il contienne toutes les données ou
qu’il soit actualisé selon une planification. Un rapport prototype ne doit pas être
utilisé pour les décisions métier tant qu’il n’a pas été entièrement validé, finalisé et
publié dans un espace de travail de production.
Espace de travail
Un espace de travail de développement est approprié dans ce scénario, car il implique
de travailler avec un scénario de collaboration de décisionnel d’équipe (plutôt qu’avec
un espace de travail personnel, comme décrit dans le scénario de décisionnel
personnel). Une fois la solution finalisée et entièrement testée, celle-ci peut être
rapidement promue vers un espace de travail de production (comme décrit dans le
scénario de publication de contenu libre-service).
Conseil
Le partage d’éléments individuels ne doit être effectué que rarement. Étant donné
que le partage est configuré pour chaque élément d’un espace de travail, il est plus
fastidieux à gérer et présente un risque d’erreur plus grand. Une bonne alternative
au partage (non représenté dans le schéma du scénario) consiste à utiliser des rôles
d’espace de travail (décrits dans le scénario de décisionnel d’équipe). Les rôles
d’espace de travail se révèlent particulièrement utiles lorsque des collègues ont
besoin d’accéder à tous les éléments d’un espace de travail.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique DirectQuery (précédemment appelé jeu de données)
(non représenté dans le diagramme du scénario).
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs Power BI peuvent utiliser les données du journal d’activité
qui sont collectées pour effectuer un audit afin de les aider à comprendre les modèles
d’utilisation et à détecter les activités à risque. Les exigences d’audit et de gouvernance
sont généralement moins strictes pour les scénarios de prototypage et de décisionnel
personnel.
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Cette approche structurée garantit que les créateurs, les propriétaires et les réviseurs de
contenu peuvent apporter et valider des modifications sans affecter négativement les
consommateurs.
7 Notes
Ce scénario de publication de contenu libre-service fait partie des scénarios de
gestion et de déploiement de contenu. Pour obtenir la liste complète des
scénarios libre-service, consultez l’article Scénarios d’utilisation de Power BI.
Schéma du scénario
Le schéma suivant présente une vue d’ensemble générale des actions utilisateur les plus
courantes et des composants de Power BI qui prennent en charge la publication de
contenu libre-service. L’accent est mis sur l’utilisation d’un pipeline de déploiement
Power BI dans le but de promouvoir du contenu par le biais d’espaces de travail de
développement, de test et de production.
Conseil
ノ Agrandir le tableau
Item Description
Le fichier Power BI Desktop (.pbix) ou le fichier de projet Power BI (.pbip) est enregistré
dans une bibliothèque partagée située dans OneDrive. Le créateur de contenu conserve les
versions de ces fichiers dans OneDrive.
Lorsqu’il est prêt, le créateur de contenu publie le fichier Power BI Desktop dans le service
Power BI.
Certains ou tous les éléments Power BI sont déployés dans un espace de travail dédié au
test.
L’assurance qualité, les validations de données et les tests d’acceptation utilisateur sont
effectués par les réviseurs de l’espace de travail de test.
Certains ou tous les éléments Power BI sont déployés dans un espace de travail de
production. Pour un espace de travail de production, les modes de licence capacité Fabric
Item Description
ou capacité Premium sont souvent mieux adaptés lorsqu’il existe un grand nombre de
consommateurs avec des autorisations Lecture seule.
Une fois le pipeline de déploiement terminé, les créateurs de contenu peuvent effectuer
manuellement des activités post-déploiement. Ces activités peuvent inclure la
configuration de l’actualisation planifiée des données ou la publication d’une application
Power BI pour l’espace de travail de production.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Conseil
Points clés
Voici quelques points clés à signaler concernant le scénario de publication de contenu
libre-service.
Pipeline de déploiement
Un pipeline de déploiement comporte trois phases : développement, test et production.
Un espace de travail est affecté à chaque phase d’un pipeline de déploiement. Lorsqu’un
déploiement a lieu, les éléments Power BI qui sont pris en charge par les pipelines de
déploiement sont publiés (ou clonés) d’un espace de travail à un autre. Une fois les tests
et les validations terminés, le pipeline de déploiement peut être réutilisé plusieurs fois
pour promouvoir le contenu rapidement. L’interface de pipeline de déploiement est
facile à implémenter pour les créateurs de contenu qui n’ont pas les compétences ni le
souhait d’utiliser des déploiements basés sur du code (l’utilisation des API REST Power BI
est décrite dans le scénario de publication de contenu d’entreprise).
7 Notes
Processus de déploiement
Il est recommandé de considérer l’ensemble du contenu de l’espace de travail comme
un package analytique pouvant être déployé comme une unité. Par conséquent, il est
important que l’objectif et les attentes soient clairs pour chaque espace de travail.
Même si un déploiement sélectif d’éléments Power BI est possible, il est plus efficace et
moins risqué de procéder au déploiement d’une unité logique de contenu.
Conseil
Vous devez planifier la façon dont les problèmes urgents seront traités, en plus des
déploiements planifiés. Si un correctif immédiat est nécessaire, suivez toujours la
pratique standard qui consiste à propager toutes les modifications de
l’environnement de développement vers l’environnement de test et celui de
production à l’aide d’un pipeline de déploiement.
Modèle d’autorisations
Prévoyez du temps pour planifier le modèle d’autorisations. L’application de différents
rôles d’espace de travail (entre les environnements de développement, test et
production) bénéficie d’une flexibilité totale. Comme illustré dans le schéma du scénario,
il est courant d’attribuer les autorisations d’espace de travail suivantes :
7 Notes
Les utilisateurs de pipeline qui reçoivent le rôle Membre de l’espace de travail (ou
administrateur) sont autorisés à comparer les phases et à déployer du contenu.
L’attribution de ce rôle aux utilisateurs de pipeline réduit les problèmes d’autorisations
et permet un processus de déploiement plus fluide.
Conseil
N’oubliez pas que les rôles d’espace de travail sont définis séparément pour le
développement, le test et la production. Toutefois, l’accès au pipeline n’est défini
qu’une seule fois pour l’ensemble du pipeline.
) Important
Pour plus d’informations, consultez Mise à jour importante des licences Power BI
Premium à venir et FAQ Power BI Premium.
Paramètres de déploiement
Les règles de source de données et les règles de paramètre permettent de gérer
dynamiquement les valeurs qui diffèrent entre le développement, le test et la
production. L’utilisation des paramètres de déploiement est un moyen efficace de
réduire la charge de travail et le risque d’erreurs.
Activités post-déploiement
Certaines propriétés ne sont pas copiées dans l’espace de travail cible pendant un
déploiement, et ce, à dessein. Les activités post-déploiement clés sont les suivantes :
Actualisation des données : les données ne sont pas copiées de l’espace de travail
source vers l’espace de travail cible. La publication à partir d’un pipeline de
déploiement est toujours un déploiement de type « métadonnées uniquement ».
Par conséquent, une actualisation des données est généralement nécessaire après
un déploiement vers un espace de travail cible. Pour un premier déploiement, les
informations d’identification de la source de données ou la connectivité de
passerelle (le cas échéant) doivent également être configurées.
Apps : les applications Power BI ne sont pas publiées automatiquement par des
pipelines de déploiement.
Rôles d’accès, autorisations de partage et autorisations d’application : les
autorisations ne sont pas remplacées pendant un déploiement.
Propriétés de l’espace de travail : les propriétés, telles que les contacts et la
description de l’espace de travail, ne sont pas remplacées pendant un
déploiement.
Propriétés des éléments Power BI : certaines propriétés d’élément Power BI, telles
que les étiquettes de confidentialité, peuvent être remplacées pendant un
déploiement dans certaines circonstances.
Éléments Power BI non pris en charge : Des étapes manuelles supplémentaires
peuvent être effectuées pour les éléments Power BI non pris en charge par le
pipeline de déploiement.
U Attention
Il n’y a pas de retour en arrière possible une fois qu’un déploiement a été effectué
avec un pipeline de déploiement. Réfléchissez bien aux processus de gestion des
modifications et aux approbations qui sont nécessaires pour effectuer le
déploiement dans l’espace de travail de production.
Stockage OneDrive
Le schéma du scénario illustre l’utilisation de OneDrive pour stocker les fichiers sources
Power BI Desktop. L’objectif est de stocker les fichiers sources dans un emplacement qui
soit :
Conseil
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un fichier Power BI Desktop
est publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique –précédemment appelé jeu de données (non
représenté dans le diagramme du scénario)– DirectQuery.
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs Power BI peuvent utiliser les données du journal d’activité
qui sont collectées pour effectuer un audit afin de mieux comprendre les activités de
déploiement qui sont effectuées.
Contenu connexe
L’article suivant de la série aborde la modélisation avancée des données.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Lorsque les créateurs de contenu collaborent pour fournir des solutions analytiques qui
sont importantes pour l’organisation, ils doivent garantir une livraison rapide et fiable
du contenu aux consommateurs. Les équipes techniques répondent à ce défi à l’aide
d’un processus appelé DevOps. DevOps permet aux équipes d’automatiser et de mettre
à l’échelle les processus en adoptant des pratiques qui améliorent et accélèrent la
livraison.
7 Notes
Les équipes de données qui répondent aux mêmes défis pourraient également
pratiquer la méthodologie DataOps. DataOps s’appuie sur les principes DevOps,
mais inclut des pratiques supplémentaires spécifiques à la gestion des données,
telles que l’assurance de la qualité des données et la gouvernance. Nous faisons
référence à DevOps dans cet article, mais sachez que les principes sous-jacents
peuvent également s’appliquer à DataOps.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Vous configurez et gérez les pratiques DevOps pour votre solution Power BI à l’aide
d’Azure DevOps. Dans les scénarios d’entreprise, vous pouvez automatiser la publication
de contenu avec Azure DevOps et les API REST Power BI de trois manières différentes.
API REST Power BI avec pipelines de déploiement Power BI : vous pouvez
importer du contenu dans des espaces de travail de développement et utiliser des
pipelines de déploiement pour déployer du contenu via des espaces de travail de
test et de production. Vous contrôlez toujours le déploiement à partir d’Azure
DevOps et utilisez les API REST Power BI pour gérer les pipelines de déploiement
au lieu d’éléments de contenu individuels. En outre, vous utilisez le point de
terminaison XMLA pour déployer des métadonnées de modèle de données au lieu
d’un fichier Power BI Desktop (.pbix) avec Azure DevOps. Ces métadonnées vous
permettent de suivre les modifications au niveau de l’objet à l’aide du contrôle de
version. Bien que plus robuste et plus facile à gérer, cette approche nécessite une
licence Premium et un effort de script modéré pour configurer l’importation et le
déploiement de contenu avec les API REST Power BI. Utilisez cette approche
lorsque vous souhaitez simplifier la gestion du cycle de vie du contenu avec des
pipelines de déploiement et que vous disposez d’une licence Premium. Le point de
terminaison XMLA et les pipelines de déploiement Power BI sont des
fonctionnalités Premium.
API REST Power BI : vous pouvez également importer du contenu dans des
espaces de travail de développement, de test et de production à l’aide d’Azure
DevOps et uniquement des API REST Power BI. Cette approche ne nécessite pas de
licence Premium, mais elle implique un effort de script et une configuration élevés,
car le déploiement est géré en dehors de Power BI. Utilisez cette approche lorsque
vous souhaitez déployer du contenu Power BI de manière centralisée à partir
d’Azure DevOps, ou lorsque vous ne disposez pas d’une licence Premium. Pour une
comparaison visuelle entre les deux premières approches, consultez le diagramme
de flux des approches de pipeline de mise en production.
Outils d’automatisation Power BI avec des pipelines de déploiement Power BI :
vous pouvez utiliser l’extension Azure DevOps des outils d’automatisation Power BI
pour gérer les pipelines de déploiement au lieu des API REST Power BI. Cette
approche est une alternative à la première option, qui utilise les API REST Power BI
avec des pipelines de déploiement Power BI. L’extension des outils
d’automatisation Power BI est un outil open source. Elle vous aide à gérer et à
publier du contenu à partir d’Azure DevOps sans avoir besoin d’écrire des scripts
PowerShell. Utilisez cette approche lorsque vous souhaitez gérer les pipelines de
déploiement à partir d’Azure DevOps avec un effort minimal de script et que vous
disposez d’une capacité Premium.
Cet article se concentre sur la première option, qui utilise les API REST Power BI avec des
pipelines de déploiement Power BI. Il décrit comment utiliser Azure DevOps pour
configurer des pratiques DevOps. Il décrit également comment utiliser Azure Repos
pour vos référentiels distants et automatiser le test de contenu, l’intégration et la
livraison avec Azure Pipelines. Azure DevOps n’est pas le seul moyen de configurer la
publication de contenu d’entreprise, mais une intégration simple à Power BI en fait un
bon choix.
7 Notes
Conseil
Schéma du scénario
Le schéma suivant présente une vue d’ensemble des actions utilisateur les plus
courantes et des composants Power BI qui prennent en charge la publication de
contenu d’entreprise. L’accent est mis sur l’utilisation d’Azure DevOps pour gérer et
publier du contenu par programmation à grande échelle via des espaces de travail de
développement, de test et de production dans le service Power BI.
Conseil
ノ Agrandir le tableau
Item Description
Les créateurs de contenu peuvent cloner un référentiel distant pour obtenir une copie
locale de ce contenu.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Item Description
D’autres créateurs de contenu utilisent Azure Repos pour suivre les modifications avec le
contrôle de version. Ils collaborent en validant les modifications dans des branches
distinctes.
Les créateurs de contenu travaillant dans un espace de travail qui a capacité Fabric mode
de licence peuvent utiliser l’intégration Git. Avec l’intégration de Git, les créateurs de
contenu peuvent travailler dans un espace de travail privé pendant le développement. Le
créateur de contenu synchronise une branche distante (généralement une branche de
fonctionnalité spécifique ou une branche de bogue) à partir d’Azure Repos vers leur
espace de travail privé. Les modifications de contenu sont synchronisées entre la branche
distante dans Azure Repos et l’espace de travail. Dans ce scénario, les créateurs de contenu
n’ont pas besoin d’utiliser Azure Pipelines pour publier du contenu. Les créateurs de
contenu peuvent également valider et envoyer régulièrement des modifications à partir de
l’espace de travail après la publication. Lorsque vous êtes prêt, les créateurs de contenu
peuvent effectuer une demande de tirage (PULL) pour fusionner leurs modifications
apportées à la branche principale.
inclut toutes les modifications apportées aux demandes de tirage qu’un gestionnaire de
versions passe en revue, approuve et fusionne.
Les espaces de travail sont définis sur capacité Fabric, capacité Premium, Premium par
utilisateur ou Embeddedmode de licence, pour autoriser l’utilisation de pipelines de
déploiement Power BI et du point de terminaison de lecture/écriture XMLA.
Les réviseurs au sein de l’espace de travail de test effectuent des tests et une assurance
qualité sur le contenu. Une fois approuvé, un pipeline de mise en production déploie du
contenu du test vers l’espace de travail de production. Lors de l'utilisation de l'intégration
Git avec les pipelines de déploiement, l'espace de travail de test n'est synchronisé avec
aucune branche.
Conseil
Points clés
Voici quelques points clés à signaler concernant le scénario de publication de contenu
d’entreprise.
Gestion de versions
Le suivi des modifications pendant le cycle de vie du contenu est important pour
garantir une livraison stable et cohérente du contenu aux consommateurs. Dans ce
scénario d’utilisation, les créateurs et propriétaires de contenu gèrent les modifications
de contenu dans un référentiel distant à l’aide du contrôle de version. Le contrôle de
version consiste à gérer les modifications apportées aux fichiers ou au code dans un
référentiel central. Cette pratique permet une meilleure collaboration et une gestion
efficace de l’historique des versions. Le contrôle de version présente des avantages pour
les créateurs de contenu, notamment la possibilité de restaurer ou de fusionner les
modifications.
Voici quelques considérations clés pour vous aider à configurer un référentiel distant
pour le contrôle de version.
7 Notes
Pour collaborer et communiquer dans Azure DevOps, vous utilisez des services de prise
en charge.
Azure Boards : les propriétaires de contenu utilisent des tableaux pour suivre les
éléments de travail. Les éléments de travail sont chacun attribués à un développeur
unique au sein de l’équipe, et ils décrivent les problèmes, bogues ou
fonctionnalités de la solution, ainsi que les parties prenantes correspondantes.
Wiki Azure : les créateurs de contenu partagent des informations avec leur équipe
pour comprendre la solution et y contribuer.
Azure Repos : les créateurs de contenu suivent les modifications apportées au
référentiel distant et les fusionnent en une solution unique.
Azure Pipelines : les propriétaires de pipeline configurent la logique
programmatique pour déployer la solution, automatiquement ou à la demande.
Le diagramme suivant illustre une vue d’ensemble générale d’un exemple de la façon
dont Azure DevOps permet la collaboration dans le scénario d’utilisation de la
publication de contenu d’entreprise. Le diagramme se concentre sur l’utilisation d'Azure
DevOps pour créer un processus de publication de contenu structuré et documenté.
ノ Agrandir le tableau
Item Description
Le créateur de contenu lie ses modifications aux éléments de travail gérés dans Azure
Boards. Les éléments de travail décrivent des développements, des améliorations ou des
correctifs de bogues spécifiques qui s’étendent à leur branche.
Pour tester ses modifications, le créateur de contenu déploie sa solution dans un espace
de travail isolé pour son développement (non illustré dans ce diagramme). Le créateur de
contenu peut également synchroniser la branche de la fonctionnalité avec l'espace de
travail en utilisant l'intégration Fabric Git.
Lorsqu'il est prêt, le créateur de contenu ouvre une demande d'extraction pour fusionner
la branche de fonctionnalité avec la branche principale.
Les utilisateurs testent et valident le contenu dans l'espace de travail de test. Lors de
l'utilisation de l'intégration Git avec Azure Pipelines pour le déploiement, l'espace de
travail de test n'est synchronisé avec aucune branche.
Une fois que les utilisateurs ont accepté et validé les modifications, le responsable de la
mise en production procède à un examen final et approuve la solution à déployer dans
l'espace de travail de production.
Item Description
Les utilisateurs visualisent le contenu publié dans l'espace de travail de production. Lors de
l'utilisation de l'intégration Git avec Azure Pipelines pour le déploiement, l'espace de
travail de production n'est synchronisé avec aucune branche.
Pour élaborer, les créateurs de contenu collaborent à l’aide d’une stratégie en branche.
Une stratégie de ramification est la manière dont les créateurs de contenu créent,
utilisent et fusionnent les ramifications pour apporter et gérer efficacement les
modifications de contenu. Les créateurs de contenu individuels travaillent isolément
dans leur référentiel local. Lorsqu’ils sont prêts, ils combinent leurs modifications en tant
que solution unique dans le référentiel distant. Les créateurs de contenu doivent
étendre leur travail à des branches en les liant à des éléments de travail pour des
développements, des améliorations ou des correctifs de bogues spécifiques. Chaque
créateur de contenu crée sa propre branche du référentiel distant pour son étendue de
travail. Le travail effectué sur sa solution locale est validé et envoyé à une version de la
branche dans le référentiel distant avec un message de validation. Un message de
validation décrit les modifications apportées à cette validation.
Pour fusionner les modifications, un créateur de contenu ouvre une demande de tirage.
Une demande de tirage est une soumission pour examen par les pairs qui peut entraîner
la fusion du travail effectué en une seule solution. La fusion peut entraîner des conflits,
qui doivent être résolus avant que la branche puisse être fusionnée. Les révisions des
demandes de tirage sont importantes pour s’assurer que les créateurs respectent les
normes et pratiques organisationnelles en matière de développement, de qualité et de
conformité.
Nous vous recommandons de définir un processus structuré pour la façon dont les
créateurs de contenu doivent collaborer. Vérifiez que vous déterminez :
Comment le travail est délimité et comment les branches sont créées, nommées et
utilisées.
Comment les auteurs regroupent les modifications et les décrivent avec des
messages de validation.
Qui est responsable de l’examen et de l’approbation des demandes de tirage.
Comment les conflits de fusion sont résolus.
Comment les modifications apportées dans différentes branches sont fusionnées
en une seule branche.
Comment le contenu est testé et qui effectue les tests avant le déploiement du
contenu.
Comment et quand les modifications sont déployées dans les espaces de travail de
développement, de test et de production.
Comment et quand les modifications ou versions de la solution doivent être
restaurées.
) Important
Une collaboration réussie dépend d’un processus bien défini. Il est important de
décrire et de documenter clairement le workflow de développement de bout en
bout. Assurez-vous que les stratégies et processus sélectionnés s’alignent sur les
pratiques existantes au sein de votre équipe et, si ce n’est pas le cas, sur la façon
dont vous allez gérer les changements. De plus, assurez-vous que les processus
sont clairs et communiqués à tous les membres de l’équipe et les parties prenantes.
Assurez-vous que les membres de l’équipe et les parties prenantes qui débutent
dans les processus sont formés à la façon de les adopter et qu’ils apprécient la
valeur d’une adoption réussie de DevOps.
Nous vous recommandons d’utiliser un principal de service pour appeler des API REST
Power BI dans vos pipelines. Un principal de service est destiné aux activités
automatisées et sans assistance et ne repose pas sur les informations d’identification de
l’utilisateur. Toutefois, certains éléments et activités ne sont pas pris en charge par les
API REST Power BI ou lors de l’utilisation d’un principal de service, comme les flux de
données.
Azure Pipelines
Azure Pipelines automatise par programmation le test, la gestion et le déploiement du
contenu. Lorsqu’un pipeline est exécuté, les étapes du pipeline s’exécutent
automatiquement. Les propriétaires de pipelines peuvent personnaliser ses
déclencheurs, ses étapes et ses fonctionnalités pour répondre aux besoins de
déploiement. Par conséquent, le nombre et les types de pipelines varient en fonction
des exigences de la solution. Par exemple, un pipeline Azure peut exécuter des tests
automatisés ou modifier les paramètres du modèle de données avant un déploiement.
Il existe trois types d’Azure Pipelines que vous pouvez configurer pour tester, gérer et
déployer votre solution Power BI :
Pipelines de validation.
Pipelines de build.
Pipelines de mise en production.
7 Notes
Il n’est pas nécessaire d’avoir ces trois pipelines dans votre solution de publication.
En fonction de votre workflow et de vos besoins, vous pourriez configurer une ou
plusieurs des variantes des pipelines décrites dans cet article pour automatiser la
publication de contenu. Cette possibilité de personnaliser les pipelines est un
avantage d’Azure Pipelines par rapport aux pipelines de déploiement Power BI
intégrés. Par exemple, vous n’avez pas besoin d’avoir un pipeline de validation.
Vous pouvez utiliser uniquement des pipelines de build et de mise en production.
Pipelines de validation
Les pipelines de validation effectuent des vérifications de qualité de base des modèles
de données avant leur publication dans un espace de travail de développement. En
règle générale, les modifications d’une branche du référentiel distant déclenchent la
validation par le pipeline de ces modifications à l’aide de tests automatisés.
Pipelines de build
Les pipelines de build préparent les modèles de données pour la publication sur le
service Power BI. Ces pipelines combinent les métadonnées de modèle sérialisées dans
un fichier unique publié ultérieurement par un pipeline de mise en production (décrit
dans le diagramme des pipelines de mise en production). Un pipeline de build peut
également apporter d’autres modifications aux métadonnées, comme la modification
des valeurs de paramètres. Les pipelines de build produisent des artefacts de
déploiement qui se composent de métadonnées de modèle de données (pour les
modèles de données) et de fichiers Power BI Desktop (.pbix) prêts à être publiés dans le
service Power BI.
Il existe deux approches différentes pour publier du contenu avec des pipelines de test
et de mise en production. Soit ils font la promotion du contenu à l’aide d’un pipeline de
déploiement Power BI, soit ils publient du contenu sur le service Power BI à partir
d’Azure DevOps.
Le diagramme suivant illustre la première approche. Dans cette approche, les pipelines
de mise en production orchestrent le déploiement de contenu sur les espaces de travail
de test et de production à l’aide de pipelines de déploiement Power BI. Le contenu est
promu via des espaces de travail de développement, de test et de production dans
Power BI. Bien que cette approche soit plus robuste et plus simple à gérer, elle nécessite
des licences Premium.
ノ Agrandir le tableau
Item Description
déploiement Power BI. Le contenu est publié, puis promu via des espaces de travail de
développement, de test et de production. Les pipelines de déploiement Power BI et le
point de terminaison de lecture/écriture XMLA sont des fonctionnalités Premium.
ノ Agrandir le tableau
Item Description
données) ou des API REST Power BI (pour les fichiers Power BI Desktop, qui peuvent
contenir des modèles de données et des rapports). Le pipeline de développement utilise
l’interface de ligne de commande (CLI) de l’Éditeur tabulaire pour déployer des
métadonnées de modèle de données à l’aide du point de terminaison XMLA. Après le
déploiement, le pipeline de mise en production effectue des activités post-déploiement à
l’aide des API REST Power BI (non indiquées dans le diagramme).
Les pipelines de mise en production doivent gérer les activités post-déploiement. Ces
activités peuvent inclure la définition des informations d’identification du modèle
sémantique ou la mise à jour de l’application Power BI pour les espaces de travail de test
et de production. Nous vous recommandons de configurer des notifications pour
informer les personnes concernées des activités de déploiement.
Conseil
Conseil
Lorsque vous séparez les espaces de travail de données des espaces de travail de
création de rapports, envisagez d’utiliser Azure Pipelines pour orchestrer la
publication de contenu avec plusieurs pipelines de déploiement Power BI. Les
modèles sémantiques sont déployés en premier, puis ils sont actualisés. Enfin, les
rapports sont déployés. Cette approche vous aide à simplifier le déploiement.
Licences Premium
Les pipelines de déploiement Power BI et le point de terminaison de lecture/écriture
XMLA sont des fonctionnalités Premium. Ces fonctionnalités sont disponibles avec la
capacité Power BI Premium et Power BI Premium par utilisateur (PPU).
PPU est un moyen économique de gérer la publication de contenu d’entreprise pour les
espaces de travail de développement et de test, qui ont généralement peu d’utilisateurs.
Cette approche présente l’avantage supplémentaire d’isoler les charges de travail de
développement et de test des charges de travail de production.
7 Notes
Configuration de la passerelle
En règle générale, une passerelle de données est requise pour l’accès aux sources de
données qui résident dans le réseau privé d’une organisation ou dans un réseau virtuel.
Les deux objectifs d’une passerelle sont les suivants : actualiser les données importées et
afficher un rapport qui interroge une connexion active ou un modèle sémantique
DirectQuery (non représenté dans le schéma du scénario).
7 Notes
Supervision du système
Le journal d’activité enregistre les événements qui se produisent dans le service
Power BI. Les administrateurs Power BI peuvent utiliser le journal d’activité pour auditer
les activités de déploiement.
Vous pouvez utiliser les API d’analyse des métadonnées Power BI pour créer un
inventaire de locataire. Les résultats de l’API sont utiles pour vérifier quels éléments ont
été déployés dans chaque espace de travail, pour vérifier la traçabilité et pour valider les
paramètres de sécurité.
Il existe également un journal d’audit dans Azure DevOps, qui est en dehors du service
Power BI. Les administrateurs Azure DevOps peuvent utiliser le journal d’audit pour
passer en revue les activités dans les référentiels et pipelines distants.
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Ce scénario d’utilisation est axé sur la gestion avancée des modèles de données, c’est-à-
dire lorsqu’un créateur de contenu Power BI s’appuie sur un outil tiers pour développer,
gérer ou optimiser des modèles de données. Certains outils tiers sont des outils externes,
que Power BI Desktop prend en charge directement. Vous pouvez également gérer un
modèle de données publié (modèle sémantique, précédemment appelé « jeu de
données ») en communiquant directement avec le point de terminaison XMLA dans le
service Power BI.
Les modèles de données sont hébergés dans le service Power BI, dans Azure Analysis
Services (AAS) ou dans SQL Server Analysis Services (SSAS). Ce scénario d’utilisation est
axé sur l’utilisation du point de terminaison XMLA dans le service Power BI.
Conseil
De nombreuses personnes font référence aux outils tiers comme des outils externes.
Toutefois, il existe des distinctions dans la façon dont différents outils peuvent être
utilisés. La connexion à un modèle de données local dans Power BI Desktop est
l’interprétation la plus littérale du terme outil externe. Ce scénario d’utilisation de
gestion avancé des modèles de données est axé sur la connexion à un modèle de
données distant (un modèle sémantique hébergé dans le service Power BI) à l’aide
du point de terminaison XMLA. Vous trouverez plus d’informations sur les
différentes façons d’utiliser des outils tiers plus loin dans cet article.
7 Notes
Ce scénario d’utilisation de gestion avancée des modèles de données est l’un des
scénarios de gestion et de déploiement de contenu. Pour obtenir la liste complète
des scénarios d’utilisation en libre-service, consultez Scénarios d’utilisation de
Power BI.
Schéma du scénario
Le focus de ce scénario d’utilisation de gestion avancée des modèles de données
consiste à utiliser l’Éditeur tabulaire pour gérer le modèle de données. Vous pouvez
publier un modèle de données sur le service Power BI à l’aide du point de terminaison
XMLA, disponible avec Power BI Premium.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Conseil
Nous vous recommandons de passer en revue le scénario d’utilisation de
publication de contenu en libre-service si vous n’êtes pas familiarisé avec celui-ci.
Le scénario de gestion avancée des modèles de données s’appuie sur ce scénario.
7 Notes
Le diagramme suivant illustre une vue d’ensemble générale des actions utilisateur et
outils les plus courants qui peuvent vous aider à développer, gérer ou optimiser des
modèles de données.
Conseil
Nous vous encourageons à télécharger le diagramme de scénario si vous
souhaitez l’incorporer dans votre présentation, documentation ou billet de blog ou
encore l’imprimer en tant qu’affiche murale. Étant donné qu’il s’agit d’une image
SVG (Scalable Vector Graphics), vous pouvez la mettre à l’échelle vers le haut ou
vers le bas sans aucune perte de qualité.
ノ Agrandir le tableau
Item Description
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Une fois qu’il est prêt, les créateurs de modèles sémantiques publient le modèle de
données de l’Éditeur tabulaire vers le service Power BI à l’aide du point de terminaison
XMLA de l’espace de travail cible.
Les créateurs de rapports créent des rapports à l’aide d’une connexion active au modèle
sémantique partagé.
Les créateurs de rapports créent leurs rapports dans Power BI Desktop. Outre la séparation
entre les rapports et les modèles sémantiques, les créateurs de contenu suivent le
processus de création de rapport classique.
Lorsqu’ils sont prêts, les créateurs de rapports publient leur fichier Power BI Desktop (.pbix)
ou leur fichier projet Power BI (.pbip) dans le service Power BI.
Item Description
Les rapports sont publiés dans un espace de travail dédié au stockage et à la sécurisation
des rapports et des tableaux de bord.
Les rapports publiés restent connectés au modèle sémantique partagé qui est stocké dans
un espace de travail différent. Toutes les modifications apportées au modèle sémantique
partagé affectent tous les rapports dépendants.
Les outils tiers peuvent utiliser le point de terminaison XMLA pour interroger le modèle
sémantique partagé. D’autres outils compatibles XMLA, tels que DAX Studio, Semantic Link
des notebooks Fabric ou Windows PowerShell, peuvent être utilisés pour interroger ou
mettre à jour le modèle sémantique partagé. Power BI Desktop, Excel et Report Builder
peuvent également se connecter à l’aide du point de terminaison XMLA (non représenté
dans le diagramme de scénario).
D’autres outils Microsoft et tiers peuvent utiliser le point de terminaison XMLA pour gérer
le modèle sémantique et assurer la gestion du cycle de vie des applications. Pour plus
d’informations, consultez Outils clients basés sur un point de terminaison XMLA.
Points clés
Voici quelques points clés à souligner concernant le scénario de gestion avancée des
modèles de données.
Éditeur tabulaire
L’Éditeur tabulaire est représenté dans le diagramme de scénario. Il s’agit d’un outil
tiers qui est aujourd’hui largement adopté par la communauté Power BI. Voici quelques
avantages offerts par la gestion des modèles de données tabulaires avec l’Éditeur
tabulaire :
Le point de terminaison XMLA fournit également une connectivité. Vous pouvez vous
connecter à un modèle sémantique uniquement quand le mode de licence de l’espace
de travail est défini sur Premium par utilisateur, Premium par capacité ou Embedded.
Une fois qu’une connexion est établie, un outil compatible XMLA peut opérer sur le
modèle de données de deux façons :
2 Avertissement
Une fois que vous avez modifié ou publié un modèle sémantique à l’aide du point
de terminaison XMLA, vous ne pouvez plus le télécharger à partir du service Power
BI en tant que fichier Power BI Desktop.
Conseil
7 Notes
Toutes les fonctionnalités de sécurité et de protection des données standard
s’appliquent toujours pour spécifier les utilisateurs qui peuvent afficher et/ou
modifier du contenu.
Outils tiers
Power BI Desktop peut gérer les besoins de bout en bout pour la plupart des créateurs
de contenu en libre-service. Toutefois, les outils tiers offrent d’autres fonctions et
fonctionnalités d’entreprise. Pour cette raison, les outils tiers, tels que l’Éditeur
tabulaire , sont aujourd’hui répandus dans la communauté Power BI, en particulier
pour les créateurs de contenu avancé, les développeurs et les professionnels de
l’informatique.
Conseil
Ce billet de blog décrit comment les outils tiers permettent à l’équipe de produit
Power BI de réévaluer ses priorités de développement, d’augmenter la portée de la
plateforme Power BI et de satisfaire les demandes plus sophistiquées et diverses de
la communauté des utilisateurs.
7 Notes
Certains outils tiers nécessitent une licence payante, telle que l’Éditeur tabulaire 3.
D’autres outils de la communauté sont gratuits et open source (tels que l’Éditeur
tabulaire 2, DAX Studio et ALM Toolkit). Nous vous recommandons d’évaluer
soigneusement les fonctionnalités de chaque outil, le coût et le modèle de support,
afin que vous puissiez proposer un support adéquat à votre communauté de
créateurs de contenu.
Quand vous utilisez le point de terminaison XMLA pour la gestion des modèles de
données, nous vous recommandons d’activer le paramètre de format de stockage
de modèles sémantiques volumineux. En cas d’activation, le format de stockage de
modèles sémantiques volumineux peut améliorer les performances des opérations
d’écriture XMLA.
Configuration de la passerelle
En général, une passerelle de données est nécessaire pour accéder à des sources de
données qui résident dans le réseau organisationnel privé ou dans un réseau virtuel. La
passerelle de données locale devient pertinente une fois qu’un modèle de données est
publié sur le service Power BI. Les deux objectifs d’une passerelle sont les suivants :
actualiser les données importées ou afficher un rapport qui interroge une connexion
active ou un modèle sémantique DirectQuery (non représenté dans le diagramme du
scénario).
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs Power BI peuvent utiliser les données du journal d’activité
qui sont collectées pour effectuer un audit afin de mieux comprendre les activités qui se
connectent via des points de terminaison XMLA.
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Les rapports en temps réel permettent aux organisations de surveiller et de prendre des
décisions en toute confiance en fonction de données à jour.
7 Notes
Conseil
Vous pouvez également effectuer des analyses en temps réel dans Power BI en
utilisant la transmission du jeux de données. Toutefois, cette rubrique est hors de
portée pour ce scénario d’utilisation libre-service en temps réel, car elle cible des
développeurs. Les jeux de données en transmission de type push impliquent
généralement le développement d’une solution par programmation.
Pour une compréhension complète de l’analyse en temps réel de Power BI, utilisez le
parcours d’apprentissage Surveiller les données en temps réel avec Power BI.
Schéma du scénario
Le schéma suivant présente une vue d’ensemble générale des actions utilisateur les plus
courantes et des composants Power BI prenant en charge les analyses libre-service en
temps réel. L’objectif principal est de créer un modèle DirectQuery et de générer des
rapports Power BI qui utilisent l’actualisation automatique des pages.
Conseil
Le diagramme ci-dessus décrit les actions utilisateur, les outils et les fonctionnalités qui
suivent :
ノ Agrandir le tableau
Item Description
Les créateurs de contenu utilisent Power BI Desktop pour créer un modèle DirectQuery.
Power BI Desktop envoie des requêtes natives à la source de données sous-jacente afin de
récupérer les données actuelles.
Les créateurs de contenu créent un rapport qui affiche des mises à jour en temps quasi
réel en activant et en configurant actualisation automatique des pages.
Une fois prêts, les créateurs de contenu publient leur fichier Power BI Desktop (.pbix) ou un
fichier projet Power BI (.pbip) dans un espace de travail dans le service Power BI ou le
portail Fabric.
Une fois publié, l’espace de travail contient un nouveau rapport et un nouveau modèle
sémantique DirectQuery. Lorsque l’espace de travail est un espace de travail personnel ou
Professionnel, l’intervalle minimal d’actualisation automatique de page est de 30 minutes
(même lorsque le créateur du rapport définit un intervalle inférieur).
Lorsque des consommateurs de rapports ouvrent une page de rapport pour laquelle
l’actualisation automatique des pages est activée, les visualisations de données
s’actualisent automatiquement pour afficher des données actuelles.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Les consommateurs de rapports affichent le contenu à jour à partir d’un espace de travail
ou d’une application Power BI.
minimal. Ces intervalles minimaux remplacent tout paramètre de page de rapport utilisant
un intervalle inférieur.
) Important
Pour plus d’informations, consultez Importante mise à jour à venir des licences
Power BI Premium et FAQ sur Power BI Premium.
Points clés
Voici quelques points clés à souligner concernant le scénario d’analyse self-service en
temps réel.
L’analyste d’entreprise peut également créer une connexion active dans un modèle
tabulaire existant qui inclut des tables de mode de stockage DirectQuery.
Envisagez une page de rapport unique qui est définie pour être actualisée toutes les
cinq minutes et qui comprend deux visuels. Lorsque la page de rapport est ouverte,
Power BI envoie au moins 24 requêtes par heure (12 actualisations multipliées par deux
visuels) à la source de données sous-jacente. Considérez maintenant que
10 consommateurs de rapports ouvrent la même page de rapport en même temps.
Dans ce cas, Power BI envoie 240 requêtes par heure.
Type d’actualisation
La fonctionnalité d’actualisation automatique des pages prend en charge deux types
d’actualisation.
Intervalle fixe : met à jour tous les visuels de page en fonction d’un intervalle fixe,
qui peut aller d’une seconde à plusieurs jours.
Détection des modifications : met à jour tous les visuels de la page, à condition
que les données d’une source aient changé depuis la dernière actualisation
automatique. Elle évite les actualisations inutiles, ce qui peut contribuer à réduire la
consommation de ressources pour le service Power BI et la source de données
sous-jacente. Power BI prend uniquement en charge ce type d’actualisation pour
des espaces de travail Premium et pour des modèles de données hébergés par
Power BI. Les modèles de données distants, qui sont hébergés dans AAS ou SSAS,
ne sont pas pris en charge.
Pour configurer la détection des modifications, vous devez créer un type spécial de
mesure appelée mesure de détection des modifications. Par exemple, une mesure de
détection des modifications peut interroger le numéro de commande client maximal.
Power BI utilise la mesure de détection des modifications pour interroger la source de
données. Chaque fois, Power BI stocke le résultat de la requête afin de pouvoir le
comparer au résultat suivant (selon l’intervalle d’actualisation que vous définissez).
Lorsque les résultats diffèrent, Power BI actualise la page.
7 Notes
Les intervalles minimaux ne s’appliquent pas aux rapports ouverts dans Power BI
Desktop.
Effectuez un scale-up de la capacité vers une référence SKU Premium plus grande.
Augmentez les intervalles minimaux.
Configuration de la passerelle
En règle générale, une passerelle de données est requise pour l’accès aux sources de
données qui résident dans le réseau privé d’une organisation ou dans un réseau virtuel.
La passerelle prend en charge les opérations DirectQuery (requêtes visuelles et requêtes
de détection des modifications).
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption.
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Schéma du scénario
Le diagramme ci-dessous présente une vue d’ensemble des actions utilisateur les plus
courantes et des composants Power BI qui prennent en charge l’incorporation pour
votre organisation.
Conseil
Le diagramme ci-dessus décrit les actions utilisateur, les outils et les fonctionnalités qui
suivent :
ノ Agrandir le tableau
Item Description
Lorsque vous êtes prêt, le créateur de contenu publie le fichier Power BI Desktop (.pbix) ou
le fichier projet Power BI (.pbip) dans le service Power BI.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Un espace de travail Power BI contient des éléments Power BI prêts pour l’incorporation.
Pour les espaces de travail non personnels, les utilisateurs de l’application personnalisée
ont l’autorisation de voir (ou de créer ou modifier) du contenu Power BI, car ils
appartiennent à un rôle d’espace de travail ou disposent d’autorisations de direction.
L’application personnalisée utilise le jeton d’accès Microsoft Entra pour effectuer des
appels d’API REST Power BI pour l’utilisateur de l’application. Plus précisément,
l’application utilise le jeton d’accès pour récupérer les métadonnées relatives aux éléments
de l’espace de travail. Les métadonnées incluent les propriétés requises pour incorporer du
contenu dans l’application personnalisée.
Points clés
Voici quelques points importants à prendre en compte sur l’incorporation
programmatique de contenu Power BI dans une application personnalisée pour votre
organisation.
Cas d'utilisation
Il existe plusieurs raisons pour lesquelles vous pouvez incorporer du contenu Power BI
pour votre organisation.
Conseil
Utilisez la partie web du rapport Power BI pour incorporer des rapports Power BI
dans SharePoint Online.
Utilisez du code incorporé sécurisé (ou HTML) généré par Power BI pour incorporer
des rapports Power BI dans des portails web internes.
Incorporer des rapports ou des tableaux de bord Power BI dans Power Pages.
Incorporer des rapports dans un canal ou une conversation Microsoft Teams.
Contenu incorporable
Pour votre organisation, vous pouvez incorporer les types de contenu Power BI suivants :
Rapports Power BI
Visuels de rapport Power BI spécifiques
Rapports paginés
Expérience Q&R
Tableaux de bord
Mosaïques de tableau de bord spécifiques
Tout le contenu que l’utilisateur peut consulter dans le service Power BI peut être
incorporé dans une application personnalisée. Si l’utilisateur est autorisé à créer ou
modifier du contenu, une application personnalisée peut prendre en charge cette
fonctionnalité (pour les rapports Power BI uniquement).
Authentification
Le flux d’authentification est une authentification interactive auprès de Microsoft Entra
ID. Avec l’authentification interactive, l’utilisateur de l’application sera invité à
s’authentifier. Une fois l’utilisateur authentifié, Microsoft Entra ID retourne un jeton
d’accès. L’application personnalisée doit mettre en cache le jeton d’accès qu’elle utilisera
ensuite pour effectuer des appels d’API REST Power BI et incorporer du contenu dans un
élément HTML iframe . Ces appels peuvent récupérer des métadonnées sur le contenu
Power BI pour le compte de l’utilisateur de l’application, y compris les propriétés
requises pour l’incorporation dans l’application personnalisée.
Licence
Il n’existe aucune exigence de licence spécifique à l’incorporation pour votre
organisation. L’essentiel est que l’utilisateur de l’application ait l’autorisation et une
licence Power BI appropriée pour voir (ou créer ou modifier) le contenu. Il est même
possible d’incorporer du contenu à partir d’un espace de travail personnel lorsque
l’utilisateur de l’application dispose uniquement d’une licence Fabric (gratuite).
Conseil
Le site web Terrain de jeu Analytique incorporée Power BI vous offre la possibilité de
découvrir, d’explorer et d’essayer l’analytique incorporée Power BI. Il comprend un
bac à sable de développement pour les expériences pratiques qui utilisent les API
clientes avec des exemples de contenu Power BI ou votre propre contenu. Des
extraits de code et des démos sont également disponibles.
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption. Les événements journalisés décrivent la méthode de
consommation par Incorporation pour votre organisation. Il n’existe actuellement aucun
moyen de déterminer si le contenu a été vu dans une expérience d’incorporation sans
code dans une application personnalisée.
Contenu connexe
Pour en savoir plus sur l’analytique incorporée Power BI, consultez le parcours
d’apprentissage Incorporer l’analytique Power BI.
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
7 Notes
Schéma du scénario
Le diagramme ci-dessous présente une vue d’ensemble des actions utilisateur les plus
courantes et des composants Power BI qui prennent en charge l’incorporation pour vos
clients.
Conseil
Le diagramme ci-dessus décrit les actions utilisateur, les outils et les fonctionnalités qui
suivent :
ノ Agrandir le tableau
Item Description
Lorsque vous êtes prêt, le créateur de contenu publie le fichier Power BI Desktop (.pbix) ou
le fichier projet Power BI (.pbip) dans le service Power BI.
Certaines sources de données peuvent nécessiter une passerelle de données locale ou une
passerelle de réseau virtuel pour l’actualisation des données, comme celles qui résident
dans un réseau d’organisation privé.
Un espace de travail Power BI contient des éléments Power BI prêts pour l’incorporation.
Une identité d’incorporation, qui peut être un compte d’utilisateur principal ou un principal
de service, doit appartenir au rôle Membre ou Administrateur de l’espace de travail. Dans
une solution multilocataire, la séparation des locataires s’obtient par la création d’un
espace de travail pour chaque locataire. Ce modèle de conception est appelé séparation de
l’espace de travail.
Item Description
L’application personnalisée utilise le jeton d’accès Microsoft Entra pour effectuer des
appels d’API REST Power BI au nom de l’identité d’incorporation. Plus précisément,
l’application utilise le jeton d’accès pour récupérer les métadonnées relatives aux éléments
de l’espace de travail. Les métadonnées incluent les propriétés requises pour incorporer du
contenu dans l’application personnalisée. Elle utilise également le jeton d’accès pour
générer et mettre en cache des jetons intégrés, qui représentent des faits sur le contenu
Power BI et la façon dont l’application peut y accéder.
Points clés
Voici quelques points importants à prendre en compte sur l’incorporation
programmatique de contenu Power BI dans une application personnalisée pour vos
clients.
Cas d’utilisation
Souvent, l’incorporation pour vos clients est effectuée par des fournisseurs de logiciels
indépendants (ISV). Les fournisseurs de logiciels indépendants reconnaissent le besoin
d’incorporer de l’analytique dans leurs applications. Les utilisateurs peuvent ainsi
directement accéder à des insights contextuels, qui les aident à prendre des décisions
basées sur des faits plutôt que sur des opinions. Au lieu de développer des
visualisations, il est généralement plus rapide et moins coûteux d’incorporer du contenu
Power BI.
Rapports Power BI
Visuels de rapport Power BI spécifiques
Rapports paginés
Expérience Q&R
Tableaux de bord
Mosaïques de tableau de bord spécifiques
Authentification
Le flux d’authentification est une authentification non interactive auprès de Microsoft
Entra ID (également appelée authentification silencieuse). Avec l’authentification non
interactive, l’utilisateur de l’application n’est pas tenu d’avoir un compte Power BI et, s’il
en a déjà un, le compte existant n’est pas utilisé. Par conséquent, une identité Microsoft
Entra dédiée, appelée identité d’incorporation, s’authentifie auprès de Microsoft Entra
ID. Une identité d’incorporation peut être un principal de service ou un compte
d’utilisateur principal (voir la description plus loin).
Quand l’application a acquis un jeton Microsoft Entra, elle le met en cache et s’en sert
ensuite pour générer un jeton incorporé. Un jeton intégré représente des faits sur le
contenu Power BI et comment y accéder. L’application utilise le jeton intégré pour
incorporer du contenu dans un élément HTML iframe .
Principal du service
Une application peut utiliser un principal de service pour acquérir un jeton Microsoft
Entra. Un principal de service Microsoft Entra est une identité de sécurité utilisée par des
applications. Il définit la stratégie d’accès et les autorisations pour l’application dans le
tenant Microsoft Entra, ce qui active des fonctionnalités de base telles que
l’authentification de l’application pendant la connexion et l’autorisation pendant l’accès
à des ressources. Un principal de service peut s’authentifier à l’aide d’une clé secrète ou
d’un certificat d’application. Un principal de service ne peut utiliser les API REST Power
BI que si le paramètre Autoriser les principaux de service à utiliser les API Power BI du
locataire est activé et que le principal de service appartient à un groupe autorisé.
Conseil
7 Notes
Il n’est pas possible d’utiliser un compte d’utilisateur principal pour incorporer des
rapports paginés.
Licence
Lors de l’incorporation du contenu Power BI pour vos clients, vous devez vous assurer
que le contenu réside dans un espace de travail ayant l’un des modes de licence
suivants :
) Important
Pour plus d’informations, consultez l’article Importante mise à jour à venir des
licences Power BI Premium et la FAQ sur Power BI Premium.
Chaque option de mode licence nécessite l’achat d’un produit facturable qui est une
licence basée sur la capacité. Une licence basée sur la capacité vous permet de créer des
capacités réservées.
Les capacités représentent les ressources de calcul requises pour traiter les charges de
travail, telles que le rendu des rapports et l’actualisation des données. Les capacités
réservées sont isolées des charges de travail des autres clients. Elles offrent donc une
mise à l’échelle qui peut offrir un niveau de performance fiable et cohérent.
7 Notes
Il n’est pas possible d’utiliser le scénario Incorporation pour vos clients dans les
environnements de production avec les licences Fabric (gratuite), Power BI Pro ou
Power BI PPU.
Pour plus d’informations sur les produits et les licences, consultez Sélectionner le
produit d’analytique incorporée Power BI approprié.
Conseil
Le site web Terrain de jeu Analytique incorporée Power BI vous offre la possibilité de
découvrir, d’explorer et d’essayer l’analytique incorporée Power BI. Il comprend un
bac à sable de développement pour les expériences pratiques qui utilisent les API
clientes avec des exemples de contenu Power BI ou votre propre contenu. Des
extraits de code et des démos sont également disponibles.
Si vous utilisez le scénario Pour vos clients, l’application doit définir l’identité effective du
jeton intégré pour restreindre l’accès aux données. Cette identité effective détermine la
façon dont Power BI se connecte au modèle et applique les rôles SNL. La façon dont
vous configurez l’identité effective dépend du type de modèle sémantique Power BI.
Pour plus d’informations sur les rôles SNL applicables au contenu incorporé, consultez
Appliquer des autorisations d’accès aux données pour l’analytique incorporée Power BI.
Applications multilocataires
Plusieurs organisations peuvent utiliser une application multilocataire, où chaque
organisation est un locataire. Une application multilocataire qui incorpore l’analytique
Power BI peut suivre le scénario Incorporation pour vos clients, car parmi les utilisateurs
de l’application figurent des utilisateurs externes. Quand vous concevez une application
multilocataire, vous avez le choix entre deux modèles de location différents.
L’approche recommandée est le modèle de division de l’espace de travail. Vous pouvez la
mettre en place en créant un espace de travail Power BI pour chaque locataire. Chaque
espace de travail contient des artefacts Power BI spécifiques à ce tenant, et les modèles
sémantiques se connectent à une base de données distincte pour chaque tenant.
Conseil
Configuration de la passerelle
En règle générale, une passerelle de données est requise pour l’accès aux sources de
données qui résident dans le réseau privé d’une organisation ou dans un réseau virtuel.
Les deux objectifs d’une passerelle sont les suivants : actualiser les données importées,
ou voir un rapport qui interroge une connexion active ou un modèle sémantique
DirectQuery.
7 Notes
Supervision du système
Le journal d’activité enregistre les activités utilisateur qui se produisent dans le service
Power BI. Les administrateurs de Power BI peuvent utiliser les données du journal
d’activité qui sont collectées pour effectuer un audit afin de les aider à comprendre les
modèles d’utilisation et l’adoption.
Contenu connexe
Pour en savoir plus sur l’analytique incorporée Power BI, consultez le parcours
d’apprentissage Incorporer l’analytique Power BI.
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
Le scénario de rapports locaux est l’un des différents scénarios hybrides et personnalisés
permettant de déployer des solutions Power BI sans utiliser le service Power BI.
Schéma du scénario
Le schéma suivant présente une vue d’ensemble des actions les plus courantes de
l’utilisateur et des composants Power BI pour prendre en charge les rapports locaux.
L’accent est mis sur l’utilisation de Power BI Report Server, qui s’exécute sur un serveur
Windows au sein du réseau de l’organisation.
Conseil
ノ Agrandir le tableau
Item Description
Power BI Desktop pour Report Server se connecte aux données d’une ou plusieurs sources
de données. Les requêtes et les mashups de données, qui combinent plusieurs sources,
sont développés dans l’Éditeur Power Query.
Le créateur de rapports peut également créer des rapports paginés avec Power BI Report
Builder. Cet outil génère un fichier .rdl (Report Definition Language) qui peut être publié
sur Power BI Report Server.
Lorsqu’il est prêt, le créateur de contenu publie son fichier sur Power BI Report Server.
Les consommateurs de rapports consultent les rapports publiés sur Power BI Report
Server.
Les consommateurs de rapports peuvent aussi consulter les rapports avec les applications
mobiles Power BI.
Les administrateurs de base de données gèrent Power BI Report Server, notamment les
bases de données Report Server et SQL Server Agent.
Item Description
Les travaux de l’agent SQL Server actualisent régulièrement les modèles sémantiques
d’importation–précédemment appelés jeux de données.
Points clés
Voici quelques points clés à souligner sur le scénario de rapports locaux.
7 Notes
Pour les créateurs de rapports qui créent du contenu pour le service Power BI et
Power BI Report Server, les deux versions de Power BI Desktop peuvent être
installées côte à côte.
) Important
Même si Power BI Report Server et le service Power BI sont pris en charge par la
même équipe d’ingénieurs chez Microsoft, il existe des différences de
fonctionnalité substantielles entre les deux produits. Power BI Report Server est un
portail de création de rapports de base pour les rapports locaux. C’est pourquoi il
existe de nombreuses différences de fonctionnalités entre lui et le service
Power BI. L’ensemble des fonctionnalités de Power BI Report Server est
volontairement simple, donc il ne faut pas espérer avoir une parité. Avant d’installer
Power BI Report Server, vérifiez que les fonctionnalités critiques que vous envisagez
d’utiliser sont prises en charge.
Accès mobile
Des configurations supplémentaires doivent être effectuées pour activer l’accès mobile
distant à Power BI Report Server. Pour plus d’informations, consultez Configurer l’accès
d’une application mobile Power BI à Report Server à distance.
) Important
Si vous achetez une capacité Power BI Premium, vous pouvez installer Power BI Report
Server sur un serveur local, à condition qu’il ait le même nombre de cœurs que les
cœurs virtuels du nœud de la capacité. Ainsi, il est possible d’adopter une approche
hybride prenant en charge la publication de contenu sur le service Power BI (cloud) et
sur Power BI Report Server (cloud local ou hébergé dans Azure).
7 Notes
Si vous vous procurez une licence de Power BI Report Server dans le cadre de
l’ensemble des fonctionnalités de la capacité Premium, celle-ci est uniquement
disponible avec les références SKU P. Les autres références SKU basées sur la
capacité (SKU EM et A) n’offrent pas cet avantage, ni Power BI Premium par
utilisateur (PPU).
Contenu connexe
Pour d’autres scénarios utiles qui vous aideront dans les décisions d’implémentation de
Power BI, consultez l’article Scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
7 Notes
BI Division
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
BI d’entreprise
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
Rapports locaux
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
BI personnelle
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
Prototypage et partage
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
BI d'équipe
Diagramme de scénarios d’utilisation
Diagramme de scénarios d’utilisation (sans numéros de légende)
Contenu connexe
Pour plus d’informations, consultez les scénarios d’utilisation de Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
Conseil
Le parcours de Microsoft
Il y a plusieurs années, la culture d’entreprise de Microsoft encourageait les individus à
s’approprier entièrement les données et les insights. D’ailleurs, toute tentative de
normalisation des processus se heurtait à une forte résistance culturelle. C’est donc la
culture d’entreprise qui a engendré des problèmes liés à la création de rapports et à
l’analytique. Voici une description plus précise des problèmes occasionnés :
Ces problèmes nous ont incités à réfléchir à la manière d’améliorer les choses. Le service
des finances et d’autres équipes internes ont reçu le soutien de la direction pour
transformer le processus d’examen des activités, ce qui a conduit à la création d’une
plateforme décisionnelle unifiée comme source unique de vérité. (Nous examinerons en
détail notre plateforme décisionnelle plus loin dans cet article.) Ces innovations ont
permis de transformer les processus d’examen des activités : de vues tabulaires denses
en visuels plus simples et plus pertinents, axés sur des thèmes métier clés.
Tout d’abord, nous avons compris que notre transformation décisionnelle n’était pas un
problème technologique. Pour réussir, nous avons appris à définir d’abord le succès,
puis à le traduire en métriques clés. La mise en place de définitions cohérentes à travers
nos données était très importante et ne peut être assez soulignée.
Notre transformation n’a pas eu lieu d’un seul coup. Nous avons donné la priorité à la
remise d’une carte de performance pour les filiales comprenant environ 30 indicateurs
de performance clés. Ensuite, sur plusieurs années, nous avons progressivement élargi le
nombre et la profondeur des domaines, puis nous avons développé des hiérarchies
d’indicateurs de performance clés plus complexes. Aujourd’hui, nous pouvons regrouper
les indicateurs de performance clés de niveau inférieur au niveau du client dans des
indicateurs plus élevés au niveau de l’entreprise. Nous avons désormais plus de
2 000 indicateurs de performance clés en tout ; chaque indicateur est une mesure clé du
succès et est aligné sur les objectifs de l’entreprise. À présent, dans toute l’entreprise, les
rapports d’entreprise et les solutions SSBI présentent des indicateurs de performance
clés bien définis, cohérents et sécurisés.
Flexibilité en périphérie
En périphérie, nos analystes financiers, commerciaux et marketing sont plus flexibles et
plus agiles. Ils peuvent désormais analyser les données plus rapidement. Officiellement,
ce scénario fait appel à l’informatique décisionnelle libre-service ou SSBI. Nous savons
maintenant qu’un indicateur de performance clés géré présente des avantages mutuels
pour le service informatique et les analystes. Plus important encore, nous avons constaté
des optimisations en favorisant la normalisation, la connaissance et la réutilisation de
nos données et solutions décisionnelles. Et, en tant qu’entreprise, nous avons pu
dégager plus de valeur synergiquement en identifiant le juste équilibre entre le
décisionnel centralisé et le décisionnel libre-service.
Notre solution
Starlight est le nom que nous avons donné à notre plateforme interne d’analytique et
d’unification des données. Celle-ci prend en charge les services des finances, des ventes,
du marketing et de l’ingénierie. Sa mission est de fournir une plateforme de données
fiable, partagée et scalable. Entièrement créée par le service des finances, la plateforme
est toujours en opération et fonctionne avec les produits Microsoft les plus récents.
L’indicateur de performance clés Lake n’est pas un lac de données Azure. Il s’agit en fait
d’un modèle sémantique BI tabulaire qui repose sur la technologie Starlight et qui est
hébergé dans Azure IaaS à l’aide de Microsoft SQL Server Analysis Services. Le modèle
sémantique BI tabulaire fournit des données provenant de plus de 100 sources internes
et définit de nombreuses hiérarchies et indicateurs de performance clés. Son objectif est
de permettre la création de rapports et l’analyse des performances métier sur plusieurs
équipes (finance, marketing et ventes). Pour y parvenir, il obtient des insights opportuns,
précis et performants grâce à des modèles sémantiques BI unifiés provenant de sources
pertinentes.
Son premier déploiement s’est avéré passionnant, car il a produit des avantages
immédiats et mesurables. La première version a permis de centraliser les plateformes
décisionnelles C+E des finances et du marketing. Puis, au cours des six dernières années,
il a été élargi pour consolider d’autres solutions d’insights métier. Aujourd’hui, il
continue à évoluer et à alimenter nos revues d’activité au niveau global et commercial,
ainsi que nos rapports standard et notre décisionnel libre-service. Son adoption a été
multipliée par 5 depuis sa sortie, bien au-delà de nos attentes initiales.
Voici un résumé des principaux avantages :
Il alimente notre carte de performance des filiales, les revues d’activité dans le
monde entier ainsi que les rapports et l’analytique des finances, du marketing et
des ventes.
Il prend en charge l’analytique libre-service, ce qui permet aux analystes de
découvrir des insights masqués dans les données.
Il stimule la création de rapports et la caractérisation analytique dans divers
domaines : rémunération incitative, analyse du marketing et des opérations,
métriques relatives aux performances des ventes, évaluations de la direction et
processus de planification annuel.
Il génère des rapports et des informations analytiques dynamiques et automatisés
à partir d’une source unique de vérité.
L’indicateur de performance clés Lake est une grande réussite. Il est souvent présenté à
nos clients pour leur montrer une utilisation efficace de nos dernières technologies. Ce
n’est pas surprenant, mais il trouve un écho chez bon nombre d’entre eux.
Fonctionnement
La plateforme Starlight gère le flux des données, de l’acquisition au traitement jusqu’à la
publication :
Réussir
On peut dire avec humour que chacun a sa propre version de la vérité. Mais pour
certaines organisations, c’est malheureusement une réalité. Ainsi, quand des individus
cherchent à s’approprier entièrement les données et les insights, les organisations se
retrouvent avec plusieurs versions de la vérité. Pour ces organisations, cette approche
non gérée est rarement source de réussite.
C’est pourquoi nous pensons que vous avez besoin d’un centre d’excellence. Un centre
d’excellence est une équipe centrale responsable de l’établissement de métriques et de
définitions à l’échelle de l’entreprise, et de bien d’autres choses. C’est également une
fonction métier qui organise les personnes, les processus et les composants
technologiques en un ensemble complet de compétences et de fonctionnalités métier.
Preuves à l’appui, nous pensons qu’un centre d’excellence complet et fiable est essentiel
pour générer de la valeur et maximiser le succès d’une entreprise. Il peut inclure des
initiatives de changement, des processus standard, des rôles, des recommandations, des
bonnes pratiques, du support, de la formation, etc.
Nous vous invitons à lire les articles de cette série consacrée au centre d’excellence pour
en savoir plus. Nous allons vous aider à découvrir comment votre organisation peut
s’ouvrir aux changements pour parvenir au succès.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Dans l’article suivant de cette série, découvrez comment la mise en place d’un centre
d’excellence a permis à Microsoft de créer une plateforme d’analytique et de données
normalisée pour dégager des insights à partir de ses données.
Services professionnels
Les partenaires Power BI certifiés sont là pour aider votre organisation à mener à bien la
mise en place d’un centre d’excellence. Ils peuvent vous fournir une formation peu
onéreuse ou encore un audit de vos données. Pour contacter un partenaire Power BI,
accédez au portail des partenaires Power BI .
Vous pouvez également prendre contact avec des conseillers partenaires expérimentés.
Ces derniers vous aideront à évaluer , mesurer ou implémenter Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
Conseil
Pour que ce scénario étendu aboutisse, les services doivent « payer pour participer ».
Cela signifie qu’ils doivent investir financièrement dans le centre d’excellence de base.
De cette façon, il n’y a aucun risque qu’ils ne reçoivent pas la part qu’ils méritent ou que
leurs exigences passent au second plan.
Pour prendre en charge ce scénario, le centre d’excellence de base doit être mis à
l’échelle pour répondre aux besoins des services financés. L’intégration de plusieurs
modèles sémantiques permet de réaliser des économies de groupes identiques. Chez
Microsoft, il nous est rapidement apparu que le travail centralisé est plus économique et
donne des résultats plus rapides. Chaque fois qu’un nouveau domaine est intégré, nous
réalisons des économies d’échelle plus importantes qui nous permettent de tirer parti
de l’ensemble de la plateforme et de contribuer à celle-ci, renforçant ainsi notre culture
de données sous-jacente.
Prenons un exemple. Notre plateforme décisionnelle fournit des dimensions, des faits et
une logique métier de base pour les services suivants : finances, ventes et marketing.
Elle définit également des centaines d’indicateurs de performance clés (KPI). Un analyste
Power Platform doit à présent préparer un tableau de bord pour la direction. Certains
indicateurs de performance clés, comme le chiffre d’affaires et les pipelines, proviennent
directement de la plateforme décisionnelle. D’autres, toutefois, sont basés sur des
besoins plus granulaires, comme un indicateur de performance clé sur l’adoption par les
utilisateurs d’une fonctionnalité spécifique à Power BI : les dataflows. L’analyste peut
ainsi produire un modèle composite Power BI pour intégrer les données de la
plateforme décisionnelle de base aux données des services. Il ajoute ensuite une logique
métier pour définir les indicateurs de performance clés de chaque service. Enfin, il crée
un tableau de bord de direction basé sur le nouveau modèle, qui exploite les ressources
du centre d’excellence à l’échelle de l’entreprise, ces ressources étant enrichies de
connaissances et de données locales.
Il est important de noter que la répartition des responsabilités entre les centres
d’excellence de base et satellites permet aux analystes de chaque service de se
concentrer sur l’innovation plutôt que sur la gestion d’une plateforme de données. Par
moments, il peut même y avoir une relation mutuellement bénéfique entre les centres
d’excellence satellites et le centre d’excellence de base. Par exemple, un centre
d’excellence satellite peut définir de nouvelles métriques qui, si elles ont fait leurs
preuves dans leur service, peuvent se retrouver comme métriques de base qui profitent
à toute l’entreprise. Elles sont alors accessibles au centre d’excellence de base qui les
prend en charge.
Plateforme décisionnelle
Le centre d’excellence de votre organisation peut porter un nom différent, comme
« équipe décisionnelle » ou « groupe décisionnel ». Mais peu importe le nom, c’est ce
qu’il fait qui nous intéresse. Si vous ne disposez pas d’une équipe structurée, nous vous
recommandons de former une équipe regroupant vos principaux experts en décisionnel
pour établir votre plateforme décisionnelle.
Fonctionnalités partagées
Des capacités partagées sont nécessaires pour établir et exploiter la plateforme
décisionnelle. Elles prennent en charge tous les groupes de parties prenantes qui
financent la plateforme. Elles comprennent les équipes suivantes :
Ingénierie de la plateforme de base : Notre plateforme décisionnelle a été conçue
sous l’angle de l’ingénierie. Il s’agit en fait d’un ensemble de frameworks qui
prennent en charge l’ingestion de données, le traitement visant à enrichir les
données ainsi que la livraison de ces données dans des modèles sémantiques BI
pouvant être consommés par les analystes. Les ingénieurs sont responsables de la
conception et de l’implémentation techniques des fonctionnalités de la plateforme
décisionnelle de base. Par exemple, ils conçoivent et implémentent les pipelines de
données.
Infrastructure et hébergement : Les ingénieurs informatiques sont chargés du
provisionnement et de la gestion de tous les services Azure.
Support et opérations : Cette équipe assure le bon fonctionnement de la
plateforme. Le support s’occupe des besoins des utilisateurs, comme les
autorisations d’accès aux données. Les opérations sont chargées de la bonne
marche de la plateforme, veillent au respect des contrats de niveau de service
(SLA) et communiquent les retards ou les échecs.
Gestion des versions : Les gestionnaires de programmes techniques publient les
changements. Ceux-ci vont des mises à jour apportées au framework de la
plateforme aux demandes de changement visant les modèles sémantiques BI.
Cette équipe est la dernière ligne de défense pour vérifier que les changements
n’entraînent aucun dysfonctionnement.
Remises dédiées
Il existe une équipe chargée des remises dédiées pour chaque groupe de parties
prenantes. Elle se compose généralement d’un ingénieur de données, d’un ingénieur en
analytique et d’un gestionnaire de programmes techniques, tous financés par le groupe
de parties prenantes.
Gouvernance et conformité
Pour chaque groupe de parties prenantes, les chefs de projet fournissent une
gouvernance et une supervision interprogrammes. Leur objectif principal est de garantir
que les investissements en informatique génèrent de la valeur métier et atténuent les
risques. Le comité directeur se réunit régulièrement pour passer en revue la progression
et approuver les initiatives majeures.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Dans l’article suivant de cette série, découvrez l’architecture des solutions BI dans le
centre d’excellence et les différentes technologies employées.
Services professionnels
Les partenaires Power BI certifiés sont là pour aider votre organisation à mener à bien la
mise en place d’un centre d’excellence. Ils peuvent vous fournir une formation peu
onéreuse ou encore un audit de vos données. Pour contacter un partenaire Power BI,
accédez au portail des partenaires Power BI .
Vous pouvez également prendre contact avec des conseillers partenaires expérimentés.
Ces derniers vous aideront à évaluer , mesurer ou implémenter Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
Sources de données
Ingestion de données
Préparation des données/Big Data
Entrepôt de données
Modèles sémantiques BI
Rapports
La plateforme doit prendre en charge des demandes spécifiques. Plus précisément, elle
doit pouvoir être mise à l’échelle et exécutée pour répondre aux attentes des services
métier et des consommateurs de données. Elle doit également être entièrement
sécurisée. Enfin, elle doit être suffisamment résiliente pour s’adapter aux changements
puisqu’il est certain que nouvelles données et de nouveaux domaines seront mis en
ligne à l’avenir.
Frameworks
Chez Microsoft, nous avons adopté dès le départ une approche systémique en
investissant dans le développement de frameworks. La création de frameworks pour les
processus techniques et métier favorise la réutilisation des conceptions et de la logique
tout en garantissant des résultats cohérents. Du fait qu’ils exploitent de nombreuses
technologies, ils offrent également une grande flexibilité sur le plan architectural. Enfin,
ils contribuent à rationaliser et à réduire les frais d’ingénierie grâce à la mise en place de
processus reproductibles.
Nous savons que des frameworks bien conçus augmentent la visibilité de la traçabilité
des données, de l’analyse d’impact, de la maintenance de la logique métier, de la
gestion de la taxonomie et de la rationalisation de la gouvernance. Nous avons
également accéléré le développement et amélioré la réactivité et l’efficacité de la
collaboration entre grandes équipes.
Nous allons vous présenter plusieurs de nos frameworks dans cet article.
Modèles de données
Les modèles de données vous permettent de contrôler la structure et l’accessibilité des
données. Pour les services métier et les consommateurs de données, les modèles de
données servent d’interface avec la plateforme décisionnelle.
Modèles d’entreprise
Modèles sémantiques BI
Modèles Machine Learning (ML)
Modèles d’entreprise
Les modèles d’entreprise sont générés et gérés par les architectes informatiques. Ils
sont parfois appelés modèles dimensionnels ou datamarts. En général, les données sont
stockées dans un format relationnel sous la forme de tables de dimension et de faits.
Ces tableaux stockent des données nettoyées et enrichies qui sont consolidées à partir
de nombreux systèmes. Ils représentent une source faisant autorité pour la création de
rapports et l’analytique.
Les modèles d’entreprise offrent une source de données cohérente et unique pour la
création de rapports et le décisionnel. Ils sont générés une fois pour toutes et partagés
en tant que norme d’entreprise. Les stratégies de gouvernance garantissent la sécurité
des données. De ce fait, l’accès aux jeux de données sensibles, notamment les
informations sur les clients ou les finances, est limité selon les besoins. Les modèles
d’entreprise adoptent des conventions de nommage garantissant la cohérence,
renforçant ainsi la crédibilité des données et la qualité.
Dans une plateforme décisionnelle cloud, les modèles d’entreprise peuvent être
déployés sur un pool SQL Synapse dans Azure Synapse. Le pool SQL Synapse devient
alors la source unique de vérité sur laquelle l’organisation peut compter pour obtenir
des insights rapides et fiables.
Modèles sémantiques BI
Les modèles sémantiques BI sont une couche sémantique résidant sur les modèles
métier. Ils sont créés et gérés par les développeurs en décisionnel et les utilisateurs
métier. Les développeurs en décisionnel créent des modèles sémantiques BI de base qui
utilisent les données des modèles métier. Les utilisateurs professionnels peuvent créer
des modèles indépendants à plus petite échelle ou étendre les modèles sémantiques BI
de base avec des sources externes ou propres à un service. Les modèles sémantiques BI
portent généralement sur un seul domaine et sont souvent largement partagés.
Les fonctionnalités métier ne sont pas activées uniquement par les données, mais par les
modèles sémantiques BI qui décrivent les concepts, les relations, les règles et les
standards. De cette façon, ils représentent des structures intuitives et faciles à
comprendre qui définissent les relations entre les données et encapsulent les règles
métier sous forme de calculs. Ils peuvent également appliquer des autorisations précises
pour l’accès aux données, garantissant ainsi que les bonnes personnes ont accès aux
bonnes données. Plus important encore, ils améliorent les performances des requêtes en
fournissant une analytique interactive extrêmement réactive, même sur plusieurs
téraoctets de données. Au même titre que les modèles métier, les modèles sémantiques
BI adoptent des conventions de nommage qui garantissent la cohérence.
Dans une plateforme cloud BI, les développeurs décisionnels peuvent déployer des
modèles sémantiques BI sur Azure Analysis Services, capacités Power BI Premium des
capacités Microsoft Fabric.
) Important
Nous vous recommandons de déployer sur Power BI si vous vous en servez comme
couche de création de rapports et d’analytique. Ces produits prennent en charge
différents modes de stockage, ce qui permet aux tables de modèle de données de
mettre en cache leurs données ou d’utiliser DirectQuery, une technologie qui transmet
les requêtes à la source de données sous-jacente. DirectQuery est le mode de stockage
idéal quand les tables de modèle contiennent des volumes de données importants ou
quand vous devez fournir des résultats en quasi-temps réel. Vous pouvez par ailleurs
combiner ces deux modes de stockage : les modèles composites combinent des tables
qui utilisent différents modes de stockage en un seul modèle.
Pour les modèles faisant l’objet d’un grand nombre de requêtes, vous pouvez utiliser
Azure Load Balancer pour répartir uniformément la charge des requêtes entre les
réplicas de modèle. Il vous permet également de mettre à l’échelle vos applications et
de créer des modèles sémantiques BI hautement disponibles.
Les modèles ML entraînés peuvent révéler des modèles dans vos données. Dans de
nombreuses circonstances, ces modèles peuvent être utilisés pour faire des prédictions
qui peuvent servir à enrichir les données. Par exemple, vous pouvez utiliser le
comportement d’achat pour prédire l’attrition clients ou segmenter les clients. Les
résultats des prédictions peuvent être ajoutés aux modèles d’entreprise pour permettre
l’analyse par segment de clientèle.
Dans une plateforme décisionnelle cloud, vous pouvez utiliser Azure Machine Learning
pour entraîner, déployer, automatiser, gérer et suivre les modèles ML.
Entrepôt de données
L’entrepôt de données, qui héberge vos modèles d’entreprise, est au cœur d’une
plateforme décisionnelle. Cette source de données sanctionnées, qui fait office de
système d’enregistrement et de hub, est au service des modèles d’entreprise pour la
création de rapports, le décisionnel et la science des données.
De nombreux services métier, notamment les applications cœur de métier, utilisent
l’entrepôt de données comme une source gérée et faisant autorité des connaissances de
l’entreprise.
Chez Microsoft, notre entrepôt de données est hébergé sur Azure Data Lake Storage
Gen2 (ADLS Gen2) et Azure Synapse Analytics.
ADLS Gen2 fait du stockage Azure la base pour créer des dépôts lacs de données
d’entreprise sur Azure. Il est conçu pour traiter plusieurs pétaoctets d’informations
tout en maintenant des centaines de gigabits de débit. Il offre également une
capacité de stockage et des transactions à bas coût. Il prend aussi en charge
l’accès compatible Hadoop, ce qui vous permet de gérer les données et d’y
accéder comme vous le feriez avec un système de fichiers HDFS (Hadoop
Distributed File System). En fait, Azure HDInsight, Azure Databricks et Azure
Synapse Analytics peuvent tous accéder aux données stockées dans ADLS Gen2.
Ainsi, dans une plateforme décisionnelle, il est recommandé de stocker les
données sources brutes, les données semi-traitées ou de préproduction ainsi que
les données prêtes pour la production. Nous l’utilisons pour stocker toutes nos
données métier.
Azure Synapse Analytics est un service d’analytique qui regroupe l’entreposage
des données d’entreprise et l’analytique de Big Data. Il vous donne la possibilité
d’interroger les données avec votre propre vocabulaire, en utilisant des ressources
serverless à la demande ou des ressources provisionnées, le tout à grande échelle.
Synapse SQL, un composant d’Azure Synapse Analytics, prend en charge
l’analytique basée entièrement sur T-SQL. Il est donc idéal pour héberger des
modèles d’entreprise comprenant vos tables de dimension et de faits. Vous pouvez
charger efficacement des tables à partir d’ADLS Gen2 à l’aide de simples requêtes
Polybase T-SQL. Vous disposez alors de la puissance de MPP pour exécuter une
analytique hautes performances.
Framework pour le moteur de règles métier
Nous avons développé un framework pour le moteur de règles métier (BRE, Business
Rules Engine) pour cataloguer toute logique métier pouvant être implémentée dans la
couche de l’entrepôt de données. Un BRE peut signifier plusieurs choses, mais dans le
contexte d’un entrepôt de données, il sert à créer des colonnes calculées dans des
tables relationnelles. Ces colonnes calculées sont généralement représentées sous forme
de calculs mathématiques ou d’expressions avec des instructions conditionnelles.
Sources de données
Un entrepôt de données peut consolider des données de pratiquement n’importe quelle
source de données. Il est principalement basé sur des sources de données métier, en
général des bases de données relationnelles qui stockent des données spécifiques à un
domaine pour les ventes, le marketing, la finance, etc. Ces bases de données peuvent
être hébergées dans le cloud ou résider au niveau local. D’autres sources de données
peuvent être basées sur des fichiers, en particulier les journaux web ou les données IOT
provenant d’appareils. De plus, les données peuvent provenir de fournisseurs SaaS
(Software-as-a-service).
Chez Microsoft, certains de nos systèmes internes envoient des données opérationnelles
directement à ADLS Gen2 sous la forme de fichiers bruts. En plus de notre lac de
données, d’autres systèmes sources comprennent des applications cœur de métier
relationnelles, des classeurs Excel, d’autres sources basées sur des fichiers ainsi que des
référentiels de données personnalisés et MDM (Gestion des données de référence). Les
référentiels MDM nous permettent de gérer nos données de référence pour garantir des
versions de données faisant autorité, normalisées et validées.
Ingestion de données
De façon périodique et selon les rythmes de l’entreprise, des données sont ingérées à
partir de systèmes sources et chargées dans l’entrepôt de données. Cela peut se
produire une fois par jour ou à des intervalles plus fréquents. L’ingestion des données
implique l’extraction, la transformation et le chargement de données. Mais vous pouvez
aussi effectuer l’extraction, le chargement, puis la transformation des données. La
différence tient à la place de la transformation dans la procédure. Des transformations
sont appliquées pour nettoyer, harmoniser, intégrer et normaliser les données. Pour plus
d’informations, consultez Extraire, transformer et charger (ETL).
L’objectif final est de charger les bonnes données dans votre modèle d’entreprise aussi
rapidement et efficacement que possible.
Chez Microsoft, nous utilisons Azure Data Factory (ADF). Ce service nous permet de
planifier et d’orchestrer les validations, transformations et chargements en masse des
données à partir de systèmes sources externes vers notre lac de données. Il est géré par
des frameworks personnalisés pour traiter les données en parallèle et à grande échelle.
En outre, une journalisation complète est effectuée pour non seulement prendre en
charge la résolution des problèmes et la supervision des performances, mais aussi pour
déclencher des alertes quand des conditions spécifiques sont remplies.
Pendant ce temps, Azure Databricks, une plateforme analytique basée sur Apache Spark
et optimisée pour la plateforme Azure Cloud Services, effectue des transformations
spécifiquement pour la science des données. Azure Databricks génère et exécute
également des modèles ML à l’aide de notebooks Python. Les scores de ces modèles ML
sont chargés dans l’entrepôt de données pour intégrer des prédictions aux applications
et aux rapports de l’entreprise. Dans la mesure où Azure Databricks accède directement
aux fichiers du lac de données, il élimine ou réduit la nécessité de copier ou d’acquérir
des données.
Framework d’ingestion
Nous avons développé un framework d’ingestion sous la forme d’un ensemble de
tables et de procédures de configuration. Il prend en charge une approche pilotée par
les données pour acquérir des volumes importants de données à grande vitesse et avec
un minimum de code. En bref, ce framework simplifie le processus d’acquisition des
données pour charger l’entrepôt de données.
Le framework dépend des tables de configuration qui stockent les informations relatives
à la source et à la destination des données, notamment en ce qui concerne le type de
source, le serveur, la base de données, le schéma et la table. Cette approche de
conception signifie que nous n’avons pas besoin de développer des pipelines ADF ni
des packages SQL Server Integration Services (SSIS) spécifiques. Au lieu de cela, les
procédures sont écrites dans le langage de notre choix pour créer des pipelines ADF qui
sont générés dynamiquement et exécutés au moment de l’exécution. L’acquisition de
données devient donc un exercice de configuration facile à opérationnaliser. Par le
passé, des ressources de développement étendues étaient nécessaires pour créer des
packages ADF ou SSIS codés en dur.
Framework d’orchestration
Nous avons développé un framework d’orchestration pour opérationnaliser et
orchestrer nos pipelines de données. Il repose sur une conception pilotée par les
données qui dépend d’un ensemble de tables de configuration. Ces tables stockent des
métadonnées qui décrivent les dépendances des pipelines et expliquent comment
mapper les données sources aux structures de données cibles. Les investissements
réalisés dans le développement de ce framework adaptatif ont depuis été amortis
puisqu’il n’est plus nécessaire de coder en dur chaque mouvement de données.
Stockage de données
Un lac de données peut stocker, outre des volumes importants de données brutes en
vue d’une utilisation ultérieure, les transformations des données de préproduction.
Chez Microsoft, nous utilisons ADLS Gen2 comme source unique de vérité. Il stocke les
données brutes aux côtés des données de préproduction et des données prêtes pour la
production. Il fournit une solution de lac de données économique et hautement scalable
pour l’analytique des Big Data. Combinant la puissance d’un système de fichiers à
hautes performances et à grande échelle, elle est optimisée pour les charges de travail
d’analytique de données et réduit les délais nécessaires à l’obtention d’insights.
ADLS Gen2 offre le meilleur des deux mondes : d’une part, un stockage d’objets blob et,
d’autre part, un espace de noms de système de fichiers hautes performances que nous
configurons avec des autorisations d’accès précises.
Les données affinées sont ensuite stockées dans une base de données relationnelle qui
constitue un magasin de données hautes performances et hautement scalable pour les
modèles d’entreprise, le tout dans un souci de sécurité, de gouvernance et de facilité de
gestion. Les datamarts spécifiques à un domaine sont stockés dans Azure Synapse
Analytics et chargés par des requêtes T-SQL Polybase ou Azure Databricks.
Des autorisations précises sont appliquées à toutes les couches : dans le lac de données,
les modèles métier et les modèles sémantiques BI. Les autorisations garantissent que les
consommateurs de données ne peuvent voir que les données auxquelles ils ont le droit
d’accéder.
Chez Microsoft, nous utilisons des rapports et des tableaux de bord Power BI et des
rapports paginés Power BI. Certaines tâches de création de rapports et d’analyse ad hoc
sont effectuées dans Excel, en particulier pour les rapports financiers.
Contenu connexe
Pour plus d’informations sur cet article, consultez les ressources suivantes :
Services professionnels
Les partenaires Power BI certifiés sont là pour aider votre organisation à mener à bien la
mise en place d’un centre d’excellence. Ils peuvent vous fournir une formation peu
onéreuse ou encore un audit de vos données. Pour contacter un partenaire Power BI,
accédez au portail des partenaires Power BI .
Vous pouvez également prendre contact avec des conseillers partenaires expérimentés.
Ces derniers vous aideront à évaluer , mesurer ou implémenter Power BI.
Commentaires
Cette page a-t-elle été utile ? Yes No
Les livres blancs vous permettent d'explorer les sujets Power BI à un niveau plus
approfondi. Vous trouverez ici une liste des livres blancs disponibles pour Power BI.
ノ Agrandir le tableau
Power BI et flux de Ce livre blanc décrit les flux de données en détail Novembre 2018
données technique et décrit les capacités et les initiatives
derrière les fonctions et fonctionnalités de flux de
données.
Planification et Le contenu de ce livre blanc a été intégré dans les Mars 2019
déploiement de Power orientations générales. Consultez le lien pour obtenir
BI Premium des conseils et des bonnes pratiques pour la
planification et le déploiement de la capacité
Premium pour des charges de travail bien définies.
Conseils sur la Ce document propose des conseils sur la planification Mars 2018
planification de la de la capacité de Power BI Report Server en
capacité de Power BI partageant les résultats de plusieurs exécutions de
Report Server test de charge de différentes charges de travail
exécutées sur un serveur de rapports.
Filtrage bidirectionnel Explique le filtrage croisé bidirectionnel dans Power Juillet 2018
BI Desktop (le livre blanc couvre également SQL
Server Analysis Services 2016, les deux ont le même
comportement).
DirectQuery dans SQL Pour SQL Server 2016, DirectQuery a été repensé de Janvier 2017
Server 2016 Analysis façon à fournir des performances et une vitesse
White Paper Description Date
Power BI et SAP BW Ce document décrit comment les clients SAP peuvent Novembre 2019
tirer profit de la connexion de Power BI à leurs
systèmes SAP Business Warehouse (BW) existants.
Mis à jour en novembre 2019.
Power BI et RGPD Ce lien vous amène à la liste des livres blancs sur le Avril 2018
portail de confiance des services, y compris le livre
blanc Microsoft Power BI GDPR.
Migration de Power BI Ce lien vous amène à un article qui décrit comment Septembre
migrer d'autres outils d'informatique décisionnelle 2020
vers Power BI.
7 Notes
Si vous voulez voir ou supprimer des données personnelles, consultez les conseils
de Microsoft sur le site Demandes des personnes concernées pour Windows
concernant le RGPD. Si vous recherchez des informations générales sur le RGPD,
consultez la section RGPD du portail d’approbation de services .
Commentaires
Cette page a-t-elle été utile ? Yes No
Résumé : Power BI est une offre de service logiciel en ligne (SaaS ou software as a
service) de Microsoft qui vous permet de créer facilement et rapidement des tableaux
de bord, des rapports, des modèles sémantiques (anciennement appelés jeux de
données) et des visualisations de décisionnel libre-service. Avec Power BI, vous pouvez
vous connecter à de nombreuses sources de données différentes, combiner et mettre en
forme les données à partir de ces connexions, puis créer des rapports et des tableaux de
bord partageables.
Scénaristes : Yitzhak Kesselman, Paddy Osborne, Matt Neely, Tony Bencic, Srinivasan
Turuvekere, Cristian Petculescu, Adi Regev, Naveen Sivaraj, Ben Glastein, Evgeny
Tshiorny, Arthi Ramasubramanian Iyer, Sid Jayadevan, Ronald Chang, Ori Eduar, Anton
Fritz, Idan Sheinberg , Ron Gilad, Sagiv Hadaya, Paul Inbar, Igor Uzhviev, Michael Roth,
Jaime Tarquino, Gennady Pats, Orion Lee, Yury Berezansky, Maya Shenhav, Romit
Chattopadhyay, Yariv Maimon, Bogdan Crivat
7 Notes
Présentation
Power BI est une offre de service logiciel en ligne (SaaS, ou Software as a Service) de
Microsoft qui vous permet de créer facilement et rapidement des tableaux de bord, des
rapports, des modèles sémantiques et des visualisations décisionnels libre-service. Avec
Power BI, vous pouvez vous connecter à de nombreuses sources de données différentes,
combiner et mettre en forme les données à partir de ces connexions, puis créer des
rapports et des tableaux de bord partageables.
Alors que la transition vers le cloud est passée d'un filet à une inondation, et avec la
nouvelle surface exposée qui l'accompagne, de plus en plus d'entreprises se demandent
à Quel point mes données sont-elles sécurisées dans le cloud ? et Quelle protection de
bout en bout est disponible pour empêcher la fuite de mes données sensibles ? Et pour les
plates-formes de BI qui gèrent souvent certaines des informations les plus stratégiques
de l'entreprise, ces questions sont doublement importantes.
Power BI a été conçu pour fournir une protection complète et hermétique des données
à la pointe de l'industrie. Le produit a obtenu les classifications de sécurité les plus
élevées disponibles dans l'industrie, et aujourd'hui, de nombreuses agences de sécurité
nationale, institutions financières et prestataires de soins de santé lui confient leurs
informations les plus sensibles.
Tout commence par la fondation. Après une période difficile au début des années 2000,
Microsoft a fait des investissements massifs pour remédier à ses vulnérabilités de
sécurité et, au cours des décennies suivantes, a construit une pile de sécurité solide qui
va aussi loin que le noyau bios sur puce de la machine et s'étend jusqu'à la fin.
expériences des utilisateurs. Ces investissements considérables se poursuivent et
aujourd'hui, plus de 3 500 ingénieurs Microsoft sont engagés dans la construction et
l'amélioration de la pile de sécurité de Microsoft et dans la lutte proactive contre le
paysage des menaces en constante évolution. Avec des milliards d'ordinateurs, des
billions de connexions et d'innombrables zettaoctets d'informations confiés à la
protection de Microsoft, l'entreprise possède désormais la pile de sécurité la plus
avancée de l'industrie technologique et est largement considérée comme le leader
mondial de la lutte contre les acteurs malveillants.
Power BI s'appuie sur cette base solide. Il utilise la même pile de sécurité qui a valu à
Azure le droit de servir et de protéger les données les plus sensibles au monde, et il
s'intègre aux outils de protection et de conformité des informations les plus avancés de
Microsoft 365. En plus de cela, il offre une sécurité grâce à des mesures de sécurité
multicouches, ce qui se traduit par une protection de bout en bout conçue pour faire
face aux défis uniques de l'ère du cloud.
Pour fournir une solution de bout en bout pour la protection des actifs sensibles,
l'équipe produit devait répondre aux préoccupations difficiles des clients sur plusieurs
fronts simultanés :
Cet article apporte une réponse complète à toutes ces questions. Il commence par une
vue d'ensemble de l'architecture du service et explique le fonctionnement des
principaux flux du système. Il décrit ensuite comment les utilisateurs s'authentifient
auprès de Power BI, comment les connexions de données sont établies et comment
Power BI stocke et déplace les données via le service. La dernière section traite des
fonctionnalités de sécurité qui vous permettent, en tant qu'administrateur de service, de
protéger vos ressources les plus précieuses.
Le service Power BI est régi par les Conditions d’utilisation de Microsoft Online
Services et la Déclaration de confidentialité de Microsoft Enterprise . Pour connaître
l'emplacement du traitement des données, reportez-vous aux conditions relatives à
l'emplacement du traitement des données dans les Conditions des Services en Ligne
Microsoft et à l'addendum sur la protection des données . Pour les informations sur
la conformité, le Centre de gestion de la confidentialité Microsoft est la ressource
principale pour Power BI. L’équipe Power BI travaille sans relâche pour proposer à ses
clients les dernières innovations et une meilleure productivité. En savoir plus sur la
conformité dans les offres de conformité Microsoft.
Architecture Power BI
Le service Power BI est construit sur Azure, la plateforme de cloud computing de
Microsoft . Power BI est actuellement déployé dans un grand nombre de centres de
données du monde entier. De nombreux déploiements actifs sont mis à la disposition
des clients dans les régions prises en charge par ces centres de données, tandis qu’un
nombre égal de déploiements passifs font office de sauvegarde pour chaque
déploiement actif.
Un cluster WFE se compose d'un site Web ASP.NET s'exécutant dans l'Azure App Service
Environment. Lorsque les utilisateurs tentent de se connecter au service Power BI, le
service DNS du client peut communiquer avec Azure Traffic Manager pour trouver le
centre de données le plus approprié (généralement le plus proche) avec un déploiement
Power BI. Pour plus d'informations sur ce processus, consultez Méthode de routage du
trafic de performance pour Azure Traffic Manager.
Les ressources statiques telles que *.js, *.css et les fichiers image sont principalement
stockées sur un réseau de diffusion de contenu Azure (CDN) et récupérées directement
par le navigateur. Notez que les déploiements de clusters de gouvernement souverain
sont une exception à cette règle et, pour des raisons de conformité, omettent le CDN et
utilisent à la place un cluster WFE d'une région conforme pour l'hébergement de
contenu statique.
Le back-end est disponible dans la plupart des régions Azure et est déployé dans de
nouvelles régions au fur et à mesure de leur disponibilité. Une seule région Azure
héberge un ou plusieurs clusters principaux qui permettent une mise à l'échelle
horizontale illimitée du service Power BI une fois que les limites de mise à l'échelle
verticale et horizontale d'un seul cluster sont épuisées.
Chaque cluster principal est avec état et héberge toutes les données de tous les
locataires affectés à ce cluster. Un cluster qui contient les données d'un locataire
spécifique est appelé cluster d'accueil du locataire. Les informations sur le cluster
d'accueil d'un utilisateur authentifié sont fournies par Global Service et utilisées par Web
Front End pour acheminer les demandes vers le cluster d'accueil du locataire.
Les métadonnées et les données du locataire sont stockées dans les limites du cluster, à
l'exception de la réplication des données vers un cluster principal secondaire dans une
région Azure jumelée dans la même zone géographique Azure. Le cluster principal
secondaire sert de cluster de basculement en cas de panne régionale et est passif à tout
autre moment.
La fonctionnalité back-end est servie par des micro-services s'exécutant sur différentes
machines du réseau virtuel du cluster qui ne sont pas accessibles de l'extérieur, à
l'exception de deux composants accessibles depuis l'Internet public :
Service de passerelle
Gestion des API Azure
Les capacités Power BI Premium sont hébergées dans des clusters back-end
indépendants du back-end Power BI standard – voir ci-dessus). Cela permet d'améliorer
l'isolation, l'allocation des ressources, la prise en charge, l'isolement de la sécurité et
l'évolutivité de l'offre Premium.
L'épine dorsale de chaque cluster est constituée de ressources de calcul gérées par des
groupes de machines virtuelles identiques et Azure Service Fabric. Microsoft Azure
Virtual Machine Scale Sets et Service Fabric permettent une augmentation rapide et
simple des nœuds de calcul à mesure que l'utilisation augmente et orchestrent le
déploiement, la gestion et la surveillance des services et applications Power BI Premium.
Toute requête envoyée à l'infrastructure Power BI Premium est d'abord dirigée vers les
nœuds frontaux – ce sont les seuls nœuds disponibles pour les connexions externes. Le
reste des ressources est caché derrière des réseaux virtuels. Les nœuds frontaux
authentifient la requête, la traitent ou la transfèrent aux ressources appropriées (par
exemple, les nœuds principaux).
Power BI Mobile
Power BI Mobile est une collection d'applications conçues pour les trois plateformes
mobiles principales : Android, iOS et Windows (UWP). Les considérations de sécurité
pour les applications Power BI Mobile se répartissent en deux catégories :
Communication de l’appareil
Application et données sur l’appareil
Pour la communication avec les appareils, toutes les applications Power BI Mobile
communiquent avec le service Power BI et utilisent les mêmes séquences de connexion
et d'authentification que celles utilisées par les navigateurs, qui sont décrites en détail
plus haut dans ce livre blanc. Les applications mobiles Power BI pour iOS et Android
ouvrent une session de navigateur dans l'application elle-même, tandis que l'application
mobile Windows affiche un courtier pour établir le canal de communication avec Power
BI (pour le processus de connexion).
Le tableau suivant montre la prise en charge de l'authentification basée sur les certificats
(CBA) pour Power BI Mobile, en fonction de la plateforme de l'appareil mobile :
ノ Agrandir le tableau
SSRS ADFS sur site (se connecter au Non pris en Prise en Non pris en
serveur SSRS) charge charge charge
Les applications Power BI Mobile communiquent activement avec le service Power BI. La
télémétrie est utilisée pour recueillir des statistiques d'utilisation des applications
mobiles et des données similaires, qui sont transmises aux services utilisés pour
surveiller l'utilisation et l'activité ; aucune donnée client n'est envoyée avec la télémétrie.
L'application Power BI stocke des données sur l'appareil qui facilitent l'utilisation de
l'application :
Les données mises en cache de Power BI Mobile sont supprimées lorsque l'application
est supprimée, lorsque l'utilisateur se déconnecte de Power BI Mobile ou lorsque
l'utilisateur ne parvient pas à se connecter (par exemple après un événement
d'expiration de jeton ou un changement de mot de passe). Le cache de données inclut
les tableaux de bord et les rapports précédemment sollicités à partir de l’application
Power BI Mobile.
Power BI Mobile n'accède pas aux autres dossiers ou fichiers d'application sur l'appareil.
Les applications Power BI pour iOS et Android vous permettent de protéger vos
données en configurant une identification supplémentaire, comme fournir Face ID,
Touch ID ou un mot de passe pour iOS, et des données biométriques (Fingerprint ID)
pour Android. En savoir plus sur l'identification supplémentaire.
Séquence d’authentification
La séquence d'authentification de l'utilisateur pour le service Power BI se produit comme
décrit dans les étapes suivantes, qui sont illustrées dans l'image qui les suit.
1. Un utilisateur initie une connexion au service Power BI à partir d'un navigateur, soit
en saisissant l'adresse Power BI dans la barre d'adresse, soit en sélectionnant Se
connecter à partir de la page marketing Power BI
(https://powerbi.microsoft.com ). La connexion est établie à l'aide de TLS et
HTTPS, et toutes les communications ultérieures entre le navigateur et le service
Power BI utilisent HTTPS.
3. WFE renvoie ensuite une page HTML au client du navigateur, qui contient une
référence de bibliothèque MSAL.js nécessaire pour lancer le flux de connexion.
7. L'ID de locataire de l'utilisateur est utilisé par le navigateur client pour interroger le
service global Power BI, qui gère une liste de locataires et leurs emplacements de
cluster principal Power BI. Le service global Power BI détermine quel cluster de
service principal Power BI contient le locataire de l'utilisateur et renvoie l'URL du
cluster principal Power BI au client.
L’affectation d’une géographie Azure pour le stockage des données du tenant est
effectuée en mappant le pays ou la région sélectionné dans le cadre de la configuration
du tenant Microsoft Azure dans la géographie Azure la plus appropriée où un
déploiement Power BI existe. Une fois cette détermination effectuée, toutes les données
client Power BI seront stockées dans cette zone géographique Azure sélectionnée
(également appelée zone géographique d'accueil), sauf dans les cas où les organisations
utilisent des déploiements multi-géo.
La couche d'exécution des requêtes, les caches de requêtes et les données d'artefact
attribuées à un espace de travail multigéographique sont hébergées et restent dans la
géographie Azure à capacité distante. Cependant, certaines métadonnées d'artefact,
telles que la structure du rapport, peuvent rester stockées au repos dans la
géolocalisation du locataire. De plus, certains transits et traitements de données
peuvent encore se produire dans la zone géographique d'accueil du locataire, même
pour les espaces de travail hébergés dans une capacité Premium multi-géo.
Microsoft fournit également des centres de données pour les entités souveraines. Pour
plus d'informations sur la disponibilité du service Power BI pour les clouds
nationaux/régionaux, voir Clouds nationaux/régionaux Power BI .
Données au repos
Power BI utilise deux principaux types de ressources de stockage de données :
Stockage Azure
Bases de données Azure SQL
Dans la plupart des scénarios, Stockage Microsoft Azure est utilisé pour conserver les
données des artefacts Power BI, tandis que les bases de données Azure SQL sont
utilisées pour conserver les métadonnées des artefacts.
Toutes les données conservées par Power BI sont chiffrées par défaut à l'aide de clés
gérées par Microsoft. Les données client stockées dans Azure SQL Databases sont
entièrement chiffrées à l'aide de la technologie Transparent Data Encryption (TDE)
d'Azure SQL. Les données client stockées dans Stockage Microsoft Azure Blob sont
chiffrées à l'aide d'Stockage Microsoft Azure Encryption.
En option, les organisations peuvent utiliser Power BI Premium pour utiliser leurs
propres clés afin de chiffrer les données au repos importées dans un modèle
sémantique. Cette approche est souvent décrite par le terme Bring Your Own Key
(BYOK). L'utilisation de BYOK permet de garantir que même en cas d'erreur de
l'opérateur de service, les données client ne seront pas exposées – ce qui ne peut pas
être facilement réalisé en utilisant un chiffrement transparent côté service. Voir Apporter
vos propres clés de chiffrement pour Power BI pour plus d'informations.
ノ Agrandir le tableau
Importer Oui
DirectQuery Non
Données en transit
Power BI exige que tout le trafic HTTP entrant soit chiffré à l'aide de TLS 1.2 ou
supérieur. Toute demande tentant d'utiliser le service avec TLS 1.1 ou inférieur sera
rejetée.
Dans le cas d'une importation, un utilisateur établit une connexion basée sur la
connexion de l'utilisateur et accède aux données avec l'identifiant. Une fois le modèle
sémantique publié sur le service Power BI, Power BI utilise toujours les informations
d'identification de cet utilisateur pour importer des données. Une fois les données
importées, l'affichage des données dans les rapports et les tableaux de bord n'accède
pas à la source de données sous-jacente. Power BI prend en charge l'authentification
unique pour les sources de données sélectionnées. Si la connexion est configurée pour
utiliser l'authentification unique, les informations d'identification du propriétaire du
modèle sémantique sont utilisées pour se connecter à la source de données.
Si la source de données est Azure Analysis Services ou Analysis Services sur site, et que
RLS et/ou OLS sont configurés, le service Power BI appliquera cette sécurité au niveau
de la ligne et les utilisateurs qui ne disposent pas d'informations d'identification
suffisantes pour accéder aux données sous-jacentes ( qui peut être une requête utilisée
dans un tableau de bord, un rapport ou un autre artefact de données) ne verra pas les
données pour lesquelles ils ne disposent pas de privilèges suffisants.
Fonctionnalités Premium
Chaque source de données configurée est liée à une technologie client pour accéder à
cette source de données. La structure des informations d'identification requises pour y
accéder est formée pour correspondre aux détails d'implémentation requis de la source
de données. La logique de transformation est appliquée par les services Power Query
pendant que les données sont en vol. Pour les flux de données premium, les services
Power Query s'exécutent dans des nœuds principaux. Les données peuvent être
extraites directement des sources cloud ou via une passerelle installée sur site. Lorsqu'il
est tiré directement d'une source cloud vers le service ou vers la passerelle, le transport
utilise une méthodologie de protection spécifique à la technologie cliente, le cas
échéant. Lorsque les données sont transférées de la passerelle vers le service cloud, elles
sont cryptées. Voir la section Données en transit ci-dessus.
Lorsque les sources de données spécifiées par le client nécessitent des informations
d'identification pour l'accès, le propriétaire/créateur du flux de données les fournira lors
de la création. Ils sont stockés à l'aide d'un stockage d'informations d'identification
standard à l'échelle du produit. Voir la section Authentification aux sources de données
ci-dessus. Il existe différentes approches que les utilisateurs peuvent configurer pour
optimiser la persistance et l'accès aux données. Par défaut, les données sont placées
dans un compte de stockage détenu et protégé par Power BI. Le chiffrement du
stockage est activé sur les conteneurs de stockage Blob pour protéger les données
lorsqu'elles sont au repos. Voir la section Données au repos ci-dessous. Les utilisateurs
peuvent toutefois configurer leur propre compte de stockage associé à leur propre
abonnement Azure. Ce faisant, un principal de service Power BI se voit accorder l'accès à
ce compte de stockage afin qu'il puisse y écrire les données lors de l'actualisation. Dans
ce cas, le propriétaire de la ressource de stockage est responsable de la configuration
du chiffrement sur le compte de stockage ADLS configuré. Les données sont toujours
transmises au stockage Blob à l'aide du chiffrement.
Étant donné que les performances lors de l'accès aux comptes de stockage peuvent être
sous-optimales pour certaines données, les utilisateurs ont également la possibilité
d'utiliser un moteur de calcul hébergé par Power BI pour augmenter les performances.
Dans ce cas, les données sont stockées de manière redondante dans une base de
données SQL disponible pour DirectQuery via un accès par le système Power BI
principal. Les données sont toujours cryptées sur le système de fichiers. Si l'utilisateur
fournit une clé pour chiffrer les données stockées dans la base de données SQL, cette
clé sera utilisée pour les chiffrer doublement.
Lors d'une requête à l'aide de DirectQuery, le protocole de transport chiffré HTTPS est
utilisé pour accéder à l'API. Toute utilisation secondaire ou indirecte de DirectQuery est
contrôlée par les mêmes contrôles d'accès décrits précédemment. Étant donné que les
flux de données sont toujours liés à un espace de travail, l'accès aux données est
toujours limité par le rôle de l'utilisateur dans cet espace de travail. Un utilisateur doit
avoir au moins un accès en lecture pour pouvoir interroger les données par n'importe
quel moyen.
Lorsque Power BI Desktop est utilisé pour accéder aux données dans un flux de
données, l’application doit d’abord authentifier l’utilisateur en tirant parti de Microsoft
Entra ID pour déterminer si l’utilisateur dispose de droits suffisants pour afficher les
données. Si tel est le cas, une clé SaS est acquise et utilisée pour accéder directement au
stockage à l'aide du protocole de transport chiffré HTTPS.
Le traitement des données tout au long du pipeline émet des événements d'audit Office
365. Certains de ces événements captureront des opérations liées à la sécurité et à la
confidentialité.
Rapports paginés
Les rapports paginés sont conçus pour être imprimés ou partagés. Ils sont appelés
paginés, car ils sont mis en forme pour tenir sur une page. Ils affichent toutes les
données dans une table, même si la table s’étend sur plusieurs pages. Vous pouvez
contrôler exactement la disposition de la page des rapports.
Les rapports paginés prennent en charge des expressions riches et puissantes écrites en
Microsoft Visual De base .NET. Les expressions sont largement utilisées dans les
rapports paginés Power BI Report Builder pour récupérer, calculer, afficher, regrouper,
trier, filtrer, paramétrer et mettre en forme les données.
Les expressions sont créées par l'auteur du rapport avec accès au large éventail de
fonctionnalités du framework .NET. Le traitement et l'exécution des rapports paginés
sont effectués à l'intérieur d'un bac à sable.
Les définitions de rapport paginé (.rdl) sont stockées dans Power BI, et pour publier
et/ou rendre un rapport paginé, un utilisateur doit s'authentifier et autoriser de la même
manière que celle décrite dans la section Authentification au service Power BI ci-dessus.
Le jeton Microsoft Entra obtenu lors de l’authentification est utilisé pour communiquer
directement du navigateur au cluster Power BI Premium.
Afin de prendre en charge des fonctionnalités telles que les cartes Bing ou les appels à
Azure Functions, le bac à sable a accès à Internet.
Dans un scénario incorporé pour vos clients, les éditeurs de logiciels indépendants
possèdent généralement des locataires Power BI et des éléments Power BI (tableaux de
bord, rapports, modèles sémantiques et autres). C'est la responsabilité d'un service
back-end ISV d'authentifier ses utilisateurs finaux et de décider quels artefacts et quel
niveau d'accès sont appropriés pour cet utilisateur final. Les décisions de politique ISV
sont chiffrées dans un jeton intégré généré par Power BI et transmis au back-end ISV
pour une distribution ultérieure aux utilisateurs finaux conformément à la logique métier
de l'ISV. Les utilisateurs finaux utilisant un navigateur ou d'autres applications clientes ne
peuvent pas déchiffrer ou modifier les jetons intégrés. Les SDK côté client tels que les
API client Power BI ajoutent automatiquement le jeton d'intégration chiffré aux requêtes
Power BI en tant qu'en-tête Authorization: EmbedToken. Sur la base de cet en-tête,
Power BI appliquera toutes les stratégies (telles que l'accès ou RLS) précisément comme
cela a été spécifié par l'ISV lors de la génération.
L’analytiques incorporée Power BI et ses API REST prennent en charge toutes les
fonctionnalités d'isolation réseau Power BI décrites dans cet article : par exemple, les
balises de service et les liens privés.
Fonctionnalités d'IA
Power BI prend actuellement en charge deux grandes catégories de fonctionnalités d'IA
dans le produit actuel : les visuels d'IA et les enrichissements d'IA. Les fonctionnalités AI
au niveau visuel comprennent des fonctionnalités telles que Influenceurs clés,
Arborescence hiérarchique, Narration intelligente, Détection d’anomalie, Visuel R, Visuel
Python, Clustering, Prévisions, Q&A, Quick-Insights, etc. Les fonctionnalités
d’enrichissement par IA comprennent celles telles qu’AutoML, Azure Machine Learning,
CognitiveServices, transformations R/Python, etc.
Pour former et appliquer un modèle AutoML, Power BI utilise le SDK Azure AutoML et
exécute toute la formation dans la capacité Power BI du client. Pendant les itérations de
formation, Power BI appelle un Azure Machine Learning service d'expérimentation pour
sélectionner un modèle et des hyperparamètres appropriés pour l'itération actuelle.
Dans cet appel sortant, seules les métadonnées d'expérience pertinentes (par exemple,
précision, algorithme ml, paramètres d'algorithme, etc.) de l'itération précédente sont
envoyées. La formation AutoML produit un modèle ONNX et des données de rapport de
formation qui sont ensuite enregistrées dans le flux de données. Plus tard, les
utilisateurs de Power BI peuvent ensuite appliquer le modèle ML formé en tant que
transformation pour opérationnaliser le modèle ML de manière planifiée. Pour les API
TextAnalytics et ImageTagging, Power BI n'appelle pas directement les API de service
CognitiveServices, mais utilise plutôt un SDK interne pour exécuter les API dans la
capacité Power BI Premium. Aujourd'hui, ces API sont prises en charge dans les flux de
données et les modèles sémantiques Power BI. Lors de la création d'un modèle de
données dans Power BI Desktop, les utilisateurs ne peuvent accéder à cette
fonctionnalité que s'ils ont accès à un espace de travail Premium Power BI. Par
conséquent, les clients sont invités à fournir leurs informations d’identification Microsoft
Entra.
Isolement réseau
Cette section décrit les fonctionnalités de sécurité avancées dans Power BI. Certaines des
fonctionnalités ont des exigences de licence spécifiques. Voir les sections ci-dessous
pour plus de détails.
Balises de service
Une balise de service représente un groupe de préfixes d’adresses IP d’un service Azure
donné. Il aide à minimiser la complexité des mises à jour fréquentes des règles de
sécurité du réseau. Les clients peuvent utiliser des balises de service pour définir des
contrôles d'accès au réseau sur les groupes de sécurité réseau ou le Pare-feu Azure. Les
clients peuvent utiliser des balises de service à la place d'adresses IP spécifiques lors de
la création de règles de sécurité. En spécifiant le nom de la balise de service (tel que
PowerBI ) dans le champ source ou destination (pour les API) approprié d'une règle, les
Private Link garantit que les utilisateurs de Power BI utilisent le réseau principal du
réseau privé Microsoft lorsqu'ils accèdent aux ressources du service Power BI.
Les passerelles de réseau virtuel (gérées par Microsoft) élimineront les frais généraux liés
à l'installation et à la surveillance des passerelles de données sur site pour la connexion
aux sources de données associées à un réseau virtuel. Cependant, ils suivront toujours le
processus familier de gestion de la sécurité et des sources de données, comme avec une
passerelle de données sur site.
Voici un aperçu de ce qui se passe lorsque vous interagissez avec un rapport Power BI
qui est connecté à une source de données dans un réseau virtuel à l'aide de passerelles
réseau virtuel :
1. Le service cloud Power BI (ou l'un des autres services cloud pris en charge) lance
une requête et envoie la requête, les détails de la source de données et les
informations d'identification au service Power Platform VNet (PP VNet).
Les données sensibles, à la fois dans le service Power BI et dans Power BI Desktop,
peuvent être classées et étiquetées à l'aide des mêmes étiquettes de sensibilité
utilisées dans Office et dans Azure.
Les stratégies de gouvernance peuvent être appliquées lorsque le contenu Power
BI est exporté vers des fichiers Excel, PowerPoint, PDF, Word ou .pbix, pour garantir
que les données sont protégées même lorsqu'elles quittent Power BI.
Il est facile de classer et de protéger les fichiers .pbix dans Power BI Desktop,
comme c'est le cas dans les applications Excel, Word et PowerPoint. Les fichiers
peuvent être facilement étiquetés en fonction de leur niveau de sensibilité. De plus,
ils peuvent être chiffrés s'ils contiennent des données commerciales
confidentielles, garantissant que seuls les utilisateurs autorisés peuvent modifier
ces fichiers.
Les classeurs Excel héritent automatiquement des étiquettes de sensibilité
lorsqu'ils se connectent à Power BI (préversion), ce qui permet de maintenir une
classification de bout en bout et d'appliquer une protection lorsque les modèles
sémantiques Power BI sont analysés dans Excel.
Les étiquettes de sensibilité appliquées aux rapports et tableaux de bord Power BI
sont visibles dans les applications mobiles Power BI iOS et Android.
Les étiquettes de sensibilité persistent lorsqu'un rapport Power BI est intégré dans
Teams, SharePoint ou un site Web sécurisé. Cela aide les organisations à maintenir
la classification et la protection lors de l'exportation lors de l'intégration de
contenu Power BI.
L'héritage des étiquettes lors de la création d'un nouveau contenu dans le service
Power BI garantit que les étiquettes appliquées aux modèles sémantiques ou aux
datamarts dans le service Power BI seront appliquées au nouveau contenu créé
par-dessus ces modèles sémantiques et ces datamarts.
Les API d'analyse d'administration Power BI peuvent extraire l'étiquette de
sensibilité d'un élément Power BI, permettant aux administrateurs Power BI et
InfoSec de surveiller l'étiquetage dans le service Power BI et de produire des
rapports exécutifs.
Les API d'administration Power BI permettent aux équipes centrales d'appliquer
par programmation des étiquettes de confidentialité au contenu du service Power
BI.
Les équipes centrales peuvent créer des stratégies d'étiquetage obligatoires pour
imposer l'application d'étiquettes sur du contenu nouveau ou modifié dans Power
BI.
Les équipes centrales peuvent créer des stratégies d'étiquette par défaut pour
s'assurer qu'une étiquette de confidentialité est appliquée à tout le contenu Power
BI nouveau ou modifié.
L'étiquetage automatique de la sensibilité en aval dans le service Power BI garantit
que lorsqu'une étiquette sur un modèle sémantique ou un magasin de données
est appliquée ou modifiée, l'étiquette sera automatiquement appliquée ou
modifiée sur tout le contenu en aval connecté au modèle sémantique ou au
magasin de données.
Tous les modèles sémantiques dans les espaces de travail spécifiés dans la
politique sont évalués par cette dernière.
Vous pouvez détecter quand des données sensibles sont téléchargées dans vos
capacités Premium. Les stratégies DLP peuvent détecter :
Les étiquettes de confidentialité.
Types d'informations sensibles. Plus de 260 types sont pris en charge. La
détection des types d'informations sensibles repose sur l'analyse du contenu
Microsoft Purview.
Lorsque vous rencontrez un modèle sémantique identifié comme sensible, vous
pouvez voir un conseil de stratégie personnalisé qui vous aide à comprendre ce
que vous devez faire.
Si vous êtes propriétaire d'un modèle sémantique, vous pouvez remplacer une
politique et empêcher que votre modèle sémantique soit identifié comme
"sensible" si vous avez une raison valable de le faire.
Si vous êtes propriétaire d'un modèle sémantique, vous pouvez signaler un
problème avec une stratégie si vous concluez qu'un type d'informations sensibles
a été identifié à tort.
Des atténuations automatiques des risques, telles que des alertes à l'administrateur
de la sécurité, peuvent être invoquées.
Pour plus d'informations, voir Stratégies de prévention des pertes de données pour
Power BI.
Avec Microsoft Defender pour le Apps cloud, les organisations peuvent bénéficier des
fonctionnalités DLP suivantes :
Définissez des contrôles en temps réel pour appliquer les sessions utilisateur à
risque dans Power BI. Par exemple, si un utilisateur se connecte à Power BI depuis
l'extérieur de son pays ou de sa région, la session peut être surveillée par les
contrôles en temps réel de Microsoft Defender pour les Apps cloud et des actions
risquées, telles que le téléchargement de données marquées avec une sensibilité
"hautement confidentielle". étiquette, peut être bloqué immédiatement.
Examinez l'activité des utilisateurs de Power BI avec le journal d'activité de
Microsoft Defender pour les Apps cloud. Le journal d'activité de Microsoft
Defender pour les Apps cloud inclut l'activité Power BI telle qu'elle est capturée
dans le journal d'audit d'Office 365, qui contient des informations sur toutes les
activités des utilisateurs et des administrateurs, ainsi que des informations sur les
étiquettes de confidentialité pour les activités pertinentes telles que l'application,
la modification et la suppression d'étiquettes. Les administrateurs peuvent tirer
parti des filtres avancés et des actions rapides de Microsoft Defender pour les
Apps cloud pour une enquête efficace sur les problèmes.
Créez des stratégies personnalisées pour alerter sur les activités suspectes des
utilisateurs dans Power BI. La fonctionnalité de politique d'activité de Microsoft
Defender pour les Apps cloud peut être exploitée pour définir vos propres règles
personnalisées, pour vous aider à détecter le comportement des utilisateurs qui
s'écarte de la norme, et même éventuellement agir en conséquence
automatiquement, s'il semble trop dangereux.
Travaillez avec la détection d'anomalies intégrée de Microsoft Defender pour les
Apps cloud. Les politiques de détection des anomalies de Microsoft Defender pour
les applications cloud fournissent des analyses comportementales des utilisateurs
et un apprentissage automatique prêts à l'emploi afin que vous soyez prêt dès le
départ à exécuter une détection avancée des menaces dans votre environnement
cloud. Lorsqu'une politique de détection d'anomalies identifie un comportement
suspect, elle déclenche une alerte de sécurité.
Rôle d'administrateur Power BI dans le portail Microsoft Defender for Cloud Apps.
Microsoft Defender pour Cloud Apps fournit un rôle d'administrateur spécifique à
l'application qui peut être utilisé pour accorder aux administrateurs Power BI
uniquement les autorisations dont ils ont besoin pour accéder aux données
pertinentes pour Power BI dans le portail, telles que les alertes, les utilisateurs à
risque, les journaux d'activité et d'autres Informations liées à la BI.
Voir Utilisation de Microsoft Defender pour les contrôles Cloud Apps dans Power BI
pour plus de détails.
Comment les utilisateurs se connectent et accèdent aux sources de données quand ils
utilisent Power BI ?
Si la source de données est Azure Analysis Services ou Analysis Services sur site et
que la sécurité au niveau de la ligne (RLS) et/ou la sécurité au niveau de l'objet
(OLS) est configurée, le service Power BI appliquera cette sécurité au niveau de la
ligne, et les utilisateurs qui ne le font pas. t disposer de suffisamment
d'informations d'identification pour accéder aux données sous-jacentes (qui
peuvent être une requête utilisée dans un tableau de bord, un rapport ou un autre
artefact de données) ne verra pas les données pour lesquelles l'utilisateur ne
dispose pas de privilèges suffisants.
La sécurité au niveau de la ligne avec Power BI peut être utilisée pour restreindre
l'accès aux données pour des utilisateurs donnés. Les filtres limitent l'accès aux
données au niveau de la ligne et vous pouvez définir des filtres au sein du rôle.
La sécurité au niveau de l'objet (OLS) peut être utilisée pour sécuriser des tables
ou des colonnes sensibles. Cependant, contrairement à la sécurité au niveau des
lignes, la sécurité au niveau des objets sécurise également les noms d'objets et les
métadonnées. Cela permet d'empêcher les utilisateurs malveillants de découvrir
même l'existence de tels objets. Les tables et colonnes sécurisées sont masquées
dans la liste des champs lors de l'utilisation d'outils de création de rapports tels
qu'Excel ou Power BI. De plus, les utilisateurs sans autorisation ne peuvent pas
accéder aux objets de métadonnées sécurisés via DAX ou toute autre méthode. Du
point de vue des utilisateurs sans autorisations d'accès appropriées, les tables et
les colonnes sécurisées n'existent tout simplement pas.
La sécurité au niveau des objets, associée à la sécurité au niveau des lignes, permet
d'améliorer la sécurité de niveau entreprise sur les rapports et les modèles
sémantiques, garantissant que seuls les utilisateurs disposant des autorisations
requises ont accès pour afficher et interagir avec les données sensibles.
Toutes les données demandées et transmises par Power BI sont chiffrées en transit
à l'aide de HTTPS (sauf lorsque la source de données choisie par le client ne prend
pas en charge HTTPS) pour se connecter de la source de données au service Power
BI. Une connexion sécurisée est établie avec le fournisseur de données, et les
données transitent par le réseau uniquement une fois que cette connexion est
établie.
Comment Power BI met en cache les données des rapports, tableaux de bord ou
modèles ? Cette mise en cache est-elle sécurisée ?
Lors de l'accès à une source de données, le service Power BI suit le processus décrit
dans la section Authentification aux sources de données plus haut dans ce
document.
Les clients mettent-ils en cache localement les données des pages web ?
Quand les navigateurs clients accèdent à Power BI, les serveurs web Power BI
affectent la valeur no-store à la directive Cache-Control. La directive no-store
indique aux navigateurs qu’ils ne doivent pas mettre en cache la page web affichée
par l’utilisateur et qu’ils ne doivent pas la stocker dans le dossier de cache du
client.
Pour les sources de données non activées pour la sécurité au niveau du rôle (RLS),
si un tableau de bord, un rapport ou un modèle de données est partagé avec
d'autres utilisateurs via Power BI, les données sont alors disponibles pour les
utilisateurs avec lesquels elles sont partagées afin d'afficher et d'interagir avec.
Power BI ne réauthentifie pas les utilisateurs par rapport à la source d'origine des
données ; une fois les données téléchargées dans Power BI, l'utilisateur qui s'est
authentifié par rapport aux données source est responsable de la gestion des
autres utilisateurs et groupes qui peuvent afficher les données.
Lorsque des connexions de données sont établies avec une source de données
compatible RLS, telle qu'une source de données Analysis Services, seules les
données du tableau de bord sont mises en cache dans Power BI. Chaque fois qu’un
rapport ou un modèle sémantique affiché ou sollicité dans Power BI utilise des
données de la source de données prenant en charge la sécurité au niveau du rôle,
le service Power BI accède à la source de données pour obtenir des données en
fonction des informations d’identification de l’utilisateur, et si les autorisations sont
suffisantes, les données sont chargées dans le rapport ou le modèle de données
pour cet utilisateur. Si l’authentification échoue, l’utilisateur reçoit une erreur.
Power BI propose Power BI Personal Gateway, une fonctionnalité qui permet aux
utilisateurs de créer des informations d’identification pour plusieurs sources de
données différentes, puis d’utiliser automatiquement ces informations
d’identification quand ils accèdent par la suite à chacune de ces sources de
données. Pour plus d’informations, consultez Power BI Personal Gateway.
Quels sont les ports utilisés par la passerelle de données locale et la passerelle
personnelle ? Y a-t-il des noms de domaine qui doivent être autorisés à des fins de
connectivité ?
La réponse détaillée à cette question est disponible sur le lien suivant : Ports
passerelles
AMQP 1.0 – TCP + TLS : ce protocole nécessite que les ports 443, 5671-5672 et
9350-9354 soient ouverts pour la communication sortante. Il est recommandé,
car il a une surcharge de communication plus faible.
Comme mentionné plus haut, Power BI utilise Azure Content Delivery Network
(CDN) pour distribuer efficacement les fichiers et le contenu statiques nécessaires
aux utilisateurs en fonction des paramètres régionaux. Pour être plus précis, le
service Power BI utilise plusieurs CDN pour distribuer efficacement les fichiers et le
contenu statiques nécessaires aux utilisateurs par le biais de l’Internet public. Ces
fichiers statiques incluent les téléchargements de produits (tels que Power BI
Desktop, la passerelle de données sur site ou les applications Power BI de divers
fournisseurs de services indépendants), les fichiers de configuration du navigateur
utilisés pour initier et établir toute connexion ultérieure avec le service Power BI,
ainsi que comme page de connexion sécurisée initiale à Power BI.
Pour les visuels Power BI, Microsoft effectue-t-il une évaluation de la sécurité ou de la
confidentialité du code visuel personnalisé avant de publier des éléments dans la
Galerie ?
Y a-t-il d’autres visuels Power BI qui envoient des informations à l’extérieur du réseau
client ?
Oui. Les visuels Bing Maps et ESRI transmettent des données en provenance du
service Power BI pour les visuels qui utilisent ces services.
Comment Microsoft traite les connexions pour les clients disposant d’abonnements
Power BI Premium ? Ces connexions sont-elles différentes de celles créées pour le
service Power BI non-Premium ?
Les connexions établies pour des clients ayant un abonnement Power BI Premium
implémentent un processus d’autorisation Business-to-Business (B2B) Microsoft
Entra en utilisant Microsoft Entra ID pour activer le contrôle d’accès et
l’autorisation. Power BI gère les connexions à partir des abonnés Power BI Premium
aux ressources Power BI Premium exactement comme il le ferait pour tout autre
utilisateur Microsoft Entra.
1. Un utilisateur initie une connexion au service Power BI à partir d'un navigateur, soit
en tapant l'adresse Power BI dans la barre d'adresse, soit en sélectionnant Se
connecter à partir de la page marketing Power BI
(https://powerbi.microsoft.com ). La connexion est établie à l’aide de TLS 1.2 et
HTTPS, et toutes les communications ultérieures entre le navigateur et le service
Power BI utilisent le protocole HTTPS.
Ressources supplémentaires
Pour plus d’informations sur Power BI, consultez les ressources suivantes.
Prise en main de Power BI Desktop
API REST Power BI - Vue d’ensemble
Informations de référence sur l’API de Power BI
Passerelle de données locale
Clouds nationaux/régionaux Power BI
Power BI Premium
Vue d’ensemble de l’authentification unique (SSO) pour les passerelles dans Power
BI
Commentaires
Cette page a-t-elle été utile ? Yes No
Nous avons retiré le livre blanc Power BI Premium afin de fournir des informations à jour
dans des articles distincts. Utilisez le tableau suivant pour rechercher du contenu dans le
livre blanc.
ノ Agrandir le tableau
Articles Description
• Concepts de base pour les Informations en arrière-plan sur les capacités du service
concepteurs dans le service Power BI, les espaces de travail, les tableaux de bord, les
Power BI rapports, les classeurs, les modèles sémantiques et les flux de
• Modèles sémantiques dans le données.
service Power BI
• Modes de modèles
sémantiques dans le service
Power BI
• Qu’est-ce que Vue d’ensemble de Power BI Premium, couvrant les bases des
Power BI Premium ? capacités réservées, des charges de travail prises en charge, le
partage de contenu illimité et d’autres fonctionnalités.
• Gérer des capacités Premium Informations détaillées sur la configuration et la gestion des
• Configurer et gérer des capacités et des charges de travail.
capacités dans Power BI
Premium
• Configurer des charges de
travail dans une capacité
Premium
• FAQ Power BI Premium Réponses aux questions sur l’achat et les licences, les
fonctionnalités et les scénarios courants.
Commentaires
Cette page a-t-elle été utile ?
Yes No
Réviseurs techniques : Adam Wilson, Sheng Liu, Qian Liang, Sergei Gundorov, Jacob
Grimm, Adam Saxton, Maya Shenhav, Nimrod Shalit, Elisabeth Olson
7 Notes
Introduction
Power BI offre aux organisations une vue à 360 degrés de leur activité et permet à tous
les membres de ces organisations de prendre des décisions intelligentes à l’aide de
données. Bon nombre de ces organisations ont des relations solides et de confiance
avec des partenaires, des clients et des sous-traitants externes. Ces organisations
doivent fournir un accès sécurisé aux tableaux de bord et rapports Power BI aux
utilisateurs de ces partenaires externes.
Contoso peut activer les expériences suivantes pour des utilisateurs externes en utilisant
Power BI et Microsoft Entra B2B.
Comme décrit ci-dessus, ce partage ad hoc est effectué par les utilisateurs de
l’entreprise en fonction des besoins. Le lien envoyé par Power BI à l’utilisateur externe
est un lien d’invitation Microsoft Entra B2B. Lorsque l’utilisateur externe ouvre le lien, il
est invité à rejoindre l’organisation Microsoft Entra de Contoso en tant qu’utilisateur
invité. Une fois l’invitation acceptée, le lien ouvre le rapport ou le tableau de bord
spécifique. L’administrateur Microsoft Entra délègue l’autorisation d’inviter des
utilisateurs externes à l’organisation et choisit les actions que ces utilisateurs peuvent
effectuer une fois qu’ils ont accepté l’invitation, comme décrit dans la section
Gouvernance de ce document. L’analyste Contoso peut inviter l’utilisateur invité
uniquement parce que l’administrateur Microsoft Entra a autorisé cette action et que
l’administrateur Power BI a autorisé les utilisateurs à inviter des utilisateurs invités à
afficher du contenu dans les paramètres de tenant (locataire) de Power BI.
1. Le processus commence lorsqu’un utilisateur interne Contoso partage un tableau
de bord ou un rapport avec un utilisateur externe. Si l’utilisateur externe n’est pas
déjà invité dans l’organisation Microsoft Entra ID de Contoso, il est invité. Un e-
mail est envoyé à son adresse e-mail qui inclut une invitation à l’organisation
Microsoft Entra ID de Contoso.
2. Le destinataire accepte l’invitation à Microsoft Entra ID de Contoso et est ajouté en
tant qu’utilisateur invité dans Microsoft Entra ID de Contoso.
3. Le destinataire est ensuite redirigé vers le tableau de bord, le rapport ou
l’application Power BI.
Le processus est considéré comme ad hoc, car les utilisateurs de Contoso effectuent
l’action d’invitation en fonction de leurs besoins commerciaux. Chaque élément partagé
est un lien unique accessible à l’utilisateur externe pour afficher le contenu.
Une fois que l’utilisateur externe a été invité à accéder aux ressources Contoso, un
compte fantôme peut être créé pour lui dans l’organisation Microsoft Entra ID de
Contoso. Il n’a pas besoin d’être invité à nouveau. La première fois qu’il essaie d’accéder
à une ressource Contoso comme un tableau de bord Power BI, il passe par un processus
de consentement, qui permet d’accepter l’invitation. S’il ne termine pas le
consentement, il ne peut accéder à aucun contenu de Contoso. S’il rencontre des
difficultés pour accepter son invitation via le lien d’origine fourni, un administrateur
Microsoft Entra peut renvoyer un lien d’invitation spécifique afin qu’il puisse l’accepter.
Les applications disposent également d’une fonctionnalité unique qui permet aux
auteurs d’applications d’installer l’application automatiquement pour l’utilisateur. Elle
est donc disponible lorsque l’utilisateur se connecte. Cette fonctionnalité s’installe
automatiquement uniquement pour les utilisateurs externes qui font déjà partie de
l’organisation de Contoso au moment de la publication ou de la mise à jour de
l’application. Par conséquent, il est préférable d’utiliser la fonctionnalité avec l’approche
d’invitation planifiée et elle dépend de la publication ou de la mise à jour de
l’application après l’ajout des utilisateurs à l’organisation Microsoft Entra ID de Contoso.
Les utilisateurs externes peuvent toujours installer l’application à l’aide du lien
d’application.
Laisser des commentaires et s’abonner au contenu entre
des organisations
À mesure que Contoso continue de travailler avec ses sous-traitants ou fournisseurs, les
ingénieurs externes doivent travailler en étroite collaboration avec les analystes de
Contoso. Power BI fournit plusieurs fonctionnalités de collaboration qui aident les
utilisateurs à communiquer sur le contenu qu’ils peuvent consommer. Les commentaires
de tableau de bord (et bientôt les commentaires de rapport) permettent aux utilisateurs
de discuter des points de données qu’ils voient et de communiquer avec les auteurs du
rapport pour poser des questions.
Trois approches sont couramment utilisées pour distribuer des liens vers le contenu. La
première et la plus simple consiste à envoyer le lien vers l’application aux utilisateurs
requis ou à le placer dans un site SharePoint Online à partir duquel il peut être ouvert.
Les utilisateurs peuvent ensuite ajout un signet dans leurs navigateurs pour un accès
plus rapide aux données dont ils ont besoin.
Dans la deuxième approche, l’organisation parente permet aux utilisateurs des filiales
d’accéder à Power BI et contrôle les accès via des autorisations. Cela donne accès à une
page d’accueil Power BI où l’utilisateur de la filiale voit une liste complète du contenu
partagé avec lui dans le locataire de l’organisation parente. Ensuite, l’URL de
l’environnement Power BI de l’organisation parente est donnée aux utilisateurs des
filiales.
L’approche finale consiste à utiliser une application Power BI créée dans le locataire
Power BI pour chaque filiale. L’application Power BI comprend un tableau de bord avec
des vignettes configurées avec l’option de lien externe. Lorsque l’utilisateur appuie sur la
vignette, il est dirigé vers le rapport, le tableau de bord ou l’application power BI
appropriés de l’organisation parente. Cette approche présente l’avantage
supplémentaire que l’application peut être installée automatiquement pour tous les
utilisateurs de la filiale et qu’elle est disponible pour eux chaque fois qu’ils se
connectent à leur propre environnement Power BI. Un autre avantage de cette approche
est qu’elle fonctionne bien avec les applications mobiles Power BI qui peuvent ouvrir le
lien en mode natif. Vous pouvez également combiner cela avec la deuxième approche
pour faciliter le basculement entre les environnements Power BI.
La première approche consiste à utiliser Azure Analysis Services pour créer un entrepôt
de données de niveau entreprise qui répond aux besoins des analystes de la société
parente et de ses filiales, comme illustré dans l’image suivante. Contoso peut héberger
les données et utiliser des fonctionnalités telles que la sécurité au niveau des lignes pour
garantir que les utilisateurs de chaque filiale peuvent accéder uniquement à leurs
données. Les analystes de chaque organisation peuvent accéder à l’entrepôt de données
via Power BI Desktop et publier les analyses obtenues sur leurs locataires Power BI
respectifs.
La deuxième approche consiste à utiliser Azure SQL Database pour créer un entrepôt
de données relationnelles afin de fournir l’accès aux données. Cela fonctionne d’une
manière semblable à l’approche avec Azure Analysis Services, bien que certaines
fonctionnalités telles que la sécurité au niveau des lignes puissent être plus difficiles à
déployer et à gérer entre les filiales.
Des approches plus sophistiquées sont également possibles, mais les approches
mentionnées plus haut sont de loin les plus courantes.
Dans la pratique, ces structures sont complexes, comme le montre l’image suivante, et
nécessitent du personnel pour la maintenance. Pour être efficaces, les organisations sont
autorisées à réutiliser des licences Power BI Pro achetées pour leurs locataires Power BI
respectifs.
Pour créer un tenant Power BI partagé, une instance Microsoft Entra ID doit être créée et
au moins un compte d’utilisateur Power BI Pro doit être acheté pour un utilisateur dans
ce tenant. Cet utilisateur invite les utilisateurs requis à l’organisation partagée. Il est
important de noter que dans ce scénario, les utilisateurs de Contoso sont traités comme
des utilisateurs externes lorsqu’ils opèrent dans le Power BI de l’organisation partagée.
1. L’organisation partagée est établie en tant que nouvelle instance Microsoft Entra
ID et au moins un compte d’utilisateur est créé dans le nouveau tenant. Une
licence Power BI Pro doit être attribuée à cet utilisateur.
2. Cet utilisateur établit ensuite un locataire Power BI et invite les utilisateurs requis
de Contoso et de l’organisation partenaire. L’utilisateur établit également toutes
les ressources de données partagées telles qu’Azure Analysis Services. Contoso et
les utilisateurs du partenaire peuvent accéder au Power BI de l’organisation
partagée en tant qu’utilisateurs invités. En règle générale, toutes les ressources
partagées sont stockées et accessibles à partir de l’organisation partagée.
3. Selon la façon dont les parties acceptent de collaborer, il est possible pour chaque
organisation de développer ses propres analyses et données propriétaires à l’aide
de ressources d’entrepôt de données partagées. Ils peuvent les distribuer à leurs
utilisateurs internes respectifs à l’aide de leurs locataires Power BI internes.
Une variante courante de ce cas concerne une organisation qui tente de partager des
insights avec des consommateurs, en particulier lorsqu’elle cherche à utiliser Azure
Active Directory B2C avec Power BI. Power BI ne prend pas en charge Azure Active
Directory B2C en mode natif. Si vous évaluez les options pour ce cas, envisagez d’utiliser
l’Option alternative 2 dans la section Approches alternatives courantes plus loin dans ce
document.
Il existe deux façons pour Contoso d’inviter des utilisateurs invités à son portail BI
dans Power BI :
Invitations planifiées
Invitations ad hoc
Invitations planifiées
Dans cette approche, Contoso invite à l’avance les utilisateurs invités à accéder à
Microsoft Entra, puis leur distribue du contenu Power BI. Contoso peut inviter des
utilisateurs invités à partir du portail Azure ou à l’aide de PowerShell. Voici les
étapes permettant d’inviter des utilisateurs invités à partir du Portail Azure :
7 Notes
Pour inviter des utilisateurs invités à partir du Portail Azure, vous devez être un
administrateur Microsoft Entra pour votre tenant.
Après l’invitation, les utilisateurs invités reçoivent un e-mail avec le lien d’invitation.
Une fois que les utilisateurs invités ont sélectionné le lien, ils peuvent accéder au
contenu dans le tenant Microsoft Entra Contoso.
7 Notes
Invitations ad hoc
Que se passe-t-il si Contoso ne connaît pas tous les utilisateurs invités qu’il
souhaite inviter à l’avance ? Ou bien, que se passe-t-il si l’analyste de Contoso qui
a créé le portail BI souhaite lui-même distribuer du contenu aux utilisateurs
invités ? Nous prenons également en charge ce scénario dans Power BI avec les
invitations ad hoc.
Une invitation n’est nécessaire que la première fois que vous invitez un
utilisateur externe à rejoindre votre organisation.
3. Distribuer du contenu
7 Notes
Si vous utilisez des groupes de sécurité pour gérer l’accès à l’application pour
les utilisateurs externes, utilisez l’approche par Invitations planifiées et
partagez le lien d’application directement avec chaque utilisateur externe qui
doit y accéder. Sinon, l’utilisateur externe peut ne pas être en mesure
d’installer ou d’afficher le contenu à partir de l’application._
4. Étapes suivantes
Bien que l’exemple montre comment un rapport commun unique peut être
distribué entre les fournisseurs, Power BI peut aller beaucoup plus loin. Pour
s’assurer que chaque partenaire voit uniquement les données qui lui sont
pertinentes, la sécurité au niveau des lignes (SNL) peut être facilement ajoutée au
rapport et au modèle de données. La section Sécurité des données pour les
partenaires externes plus loin dans ce document décrit ce processus en détail.
Souvent, les rapports et tableaux de bord individuels doivent être incorporés dans
un portail existant. Cela peut également être effectué en réutilisant de nombreuses
techniques présentées dans l’exemple. Toutefois, dans ces situations, il peut être
plus facile d’incorporer des rapports ou des tableaux de bord directement à partir
d’un espace de travail. Le processus d’invitation et d’attribution d’autorisations de
sécurité aux utilisateurs requis reste le même.
En arrière-plan : comment Lucy de
Fournisseur 1 peut-elle accéder au contenu
Power BI du locataire de Contoso ?
Maintenant que nous avons vu comment Contoso est en mesure de distribuer en toute
transparence du contenu Power BI aux utilisateurs invités des organisations partenaires,
examinons comment cela fonctionne en arrière-plan.
Lorsque Lucy tente d’accéder à l’application Power BI de Contoso, Microsoft Entra vérifie
que Lucy peut accéder au tenant Contoso, puis fournit à Power BI un jeton qui indique
que Lucy est authentifiée pour accéder au contenu dans le tenant Contoso. Power BI
utilise ce jeton pour autoriser et s’assurer que Lucy a accès à l’application Power BI de
Contoso.
L’intégration de Power BI à Microsoft Entra B2B fonctionne avec toutes les adresses e-
mail professionnelles. Si l’utilisateur n’a pas d’identité Microsoft Entra, il peut être invité
à en créer une. L’image suivante montre le flux détaillé :
Il est important de reconnaître que le compte Microsoft Entra sera utilisé ou créé dans
l’instance Microsoft Entra ID de la partie externe, ce qui permettra à Lucy d’utiliser son
propre nom d’utilisateur et mot de passe. Ses informations d’identification cesseront
automatiquement de fonctionner dans d’autres tenants lorsque Lucy quittera
l’entreprise si celle-ci utilise également Microsoft Entra ID.
Licence
Contoso peut choisir parmi trois options de licences permettant aux utilisateurs invités
de ses fournisseurs et organisations partenaires d’accéder au contenu Power BI.
7 Notes
Le niveau gratuit de Microsoft Entra B2B est suffisant pour utiliser Power BI avec
Microsoft Entra B2B. Certaines fonctionnalités avancées de Microsoft Entra B2B,
telles que les groupes dynamiques, nécessitent des licences supplémentaires. Si
vous souhaitez obtenir plus d’informations, consultez la Documentation de
Microsoft Entra B2B.
7 Notes
7 Notes
L’intégration de Power BI à Microsoft Entra B2B permet à Contoso d’affecter des règles
Sécurité au niveau des lignes aux utilisateurs invités dès qu’ils sont invités dans le tenant
Contoso. Comme nous l’avons vu précédemment, Contoso peut ajouter des utilisateurs
invités via des invitations planifiées ou ad hoc. Si Contoso souhaite appliquer la sécurité
au niveau des lignes, il est vivement recommandé d’utiliser des invitations planifiées
pour ajouter les utilisateurs invités à l’avance et les affecter aux rôles de sécurité avant
de partager le contenu. Si Contoso utilise plutôt des invitations ad hoc, il se peut que les
utilisateurs invités ne puissent pas voir les données pendant une courte période.
7 Notes
Ce retard dans l’accès aux données protégées par la SNL lors de l’utilisation
d’invitations ad hoc peut entraîner des demandes de support adressées à votre
équipe informatique, car les utilisateurs verront des rapports/tableaux de bord
vides ou rompus lorsqu’ ils ouvrent un lien de partage contenu dans un e-mail
qu’ils reçoivent. Par conséquent, il est fortement recommandé d’utiliser des
invitations planifiées dans ce scénario.
Prenons un exemple.
Pour s’assurer que Contoso peut filtrer les données en fonction de qui se connecte, deux
rôles sont créés dans Power BI Desktop. L’un pour filtrer toutes les données de
SalesTerritory « Europe » et l’autre pour « Amérique du Nord ».
Chaque fois que des rôles sont définis dans le rapport, un utilisateur doit être affecté à
un rôle spécifique pour qu’il puisse accéder aux données. L’attribution de rôles se
produit à l’intérieur du service Power BI ( Modèles sémantiques > Sécurité ).
Cela ouvre une page dans laquelle l’équipe BI de Contoso peut voir les deux rôles
qu’elle a créés. L’équipe BI de Contoso peut désormais affecter des utilisateurs aux rôles.
Dans l’exemple, Contoso ajoute un utilisateur dans une organisation partenaire avec
l’adresse e-mail admin@fabrikam.com au rôle Europe :
Lorsque cela est résolu par Microsoft Entra ID, Contoso peut voir le nom s’afficher dans
la fenêtre, prêt à être ajouté :
À présent, lorsque cet utilisateur ouvre l’application qui a été partagée avec lui, il ne voit
qu’un rapport contenant des données d’Europe :
En bref, la sécurité dynamique au niveau des lignes fonctionne en filtrant les données
dans le modèle en fonction du nom de l’utilisateur qui se connecte à Power BI. Au lieu
d’ajouter plusieurs rôles pour les groupes d’utilisateurs, vous définissez les utilisateurs
dans le modèle. Nous n’allons pas décrire le modèle en détail ici. Kasper de Jong offre
un article détaillé sur toutes les saveurs de la sécurité au niveau des lignes dans Aide-
mémoire sur la sécurité dynamique dans Power BI Desktop , et dans ce livre blanc .
Examinons un petit exemple : Contoso a un rapport simple sur les ventes par groupes :
Ce rapport doit maintenant être partagé avec deux utilisateurs invités et un utilisateur
interne : l’utilisateur interne peut tout voir, mais les utilisateurs invités ne peuvent voir
que les groupes auxquels ils ont accès. Cela signifie que nous devons filtrer les données
uniquement pour les utilisateurs invités. Pour filtrer les données de manière appropriée,
Contoso utilise le modèle de SNL dynamique, comme décrit dans le livre blanc et le
billet de blog. Cela signifie que Contoso ajoute les noms d’utilisateur aux données elles-
mêmes :
Ensuite, Contoso crée le modèle de données approprié qui filtre les données de manière
appropriée avec les bonnes relations :
Pour filtrer automatiquement les données en fonction de qui est connecté, Contoso doit
créer un rôle qui se transmet à l’utilisateur qui se connecte. Dans ce cas, Contoso crée
deux rôles : le premier est « securityrole » qui filtre la table Utilisateurs avec le nom
d’utilisateur actuel de l’utilisateur connecté à Power BI (cela fonctionne même pour les
utilisateurs invités Microsoft Entra B2B).
Contoso crée également un autre rôle « AllRole » pour ses utilisateurs internes qui
peuvent tout voir. Ce rôle n’a pas de prédicat de sécurité.
Après avoir chargé le fichier Power BI Desktop sur le service, Contoso peut affecter des
utilisateurs invités à « SecurityRole » et les utilisateurs internes à « AllRole »
À présent, lorsque les utilisateurs invités ouvrent le rapport, ils voient uniquement les
ventes du groupe A :
Dans la matrice à droite, vous pouvez voir le résultat des fonctions USERNAME() et
USERPRINCIPALNAME() qui retournent l’adresse e-mail des utilisateurs invités.
Comme vous pouvez le voir, la SNL dynamique fonctionne avec les utilisateurs internes
ou invités.
7 Notes
7 Notes
Lorsque vous installez une passerelle pour vous connecter à votre locataire
Power BI, vous devez utiliser un utilisateur créé au sein de votre locataire. Les
utilisateurs externes ne peuvent pas installer une passerelle et la connecter à votre
locataire._
Pour les utilisateurs externes, cela peut être plus compliqué, car les utilisateurs externes
ne sont généralement pas connus de l’AD local. Power BI offre une solution de
contournement en permettant aux administrateurs Contoso de mapper les noms
d’utilisateur externes aux noms d’utilisateur internes, comme décrit dans Gérer votre
source de données - Analysis Services . Par exemple, lucy@supplier1.com peut être
mappé à lucy_supplier1_com#EXT@contoso.com.
Cette méthode convient si Contoso n’a qu’une poignée d’utilisateurs ou si Contoso peut
mapper tous les utilisateurs externes à un seul compte interne. Pour les scénarios plus
complexes où chaque utilisateur a besoin de ses propres informations d’identification, il
existe une approche plus avancée qui utilise des attributs AD personnalisés pour
effectuer le mappage, comme décrit dans Gérer votre source de données - Analysis
Services . Cela permet à l’administrateur Contoso de définir un mappage pour chaque
utilisateur de votre instance Microsoft Entra ID (également les utilisateurs B2B externes).
Ces attributs peuvent être définis via le modèle objet AD à l’aide de scripts ou de code
afin que Contoso puisse automatiser entièrement le mappage à l’invitation ou à une
cadence planifiée.
Gouvernance
7 Notes
Par défaut, l’option Les autorisations d’utilisateurs invités sont limitées est définie
sur Oui. Par conséquent, les utilisateurs invités de Power BI ont des expériences
limitées, en particulier le partage d’environnement où les interfaces utilisateur du
sélecteur de personnes ne fonctionnent pas pour ces utilisateurs. Il est important
de travailler avec votre administrateur Microsoft Entra pour le définir sur Non,
comme indiqué ci-dessous pour garantir une bonne expérience.
Contrôler les invitations d’invités
Les administrateurs Power BI peuvent contrôler le partage externe uniquement pour
Power BI en visitant le portail d’administration Power BI. Mais les administrateurs
peuvent également contrôler le partage externe avec différentes stratégies Microsoft
Entra. Ces stratégies permettent aux administrateurs de :
Pour obtenir plus d’informations sur ces stratégies, consultez Déléguer les invitations
pour la collaboration Microsoft Entra B2B.
Toutes les actions Power BI effectuées par des utilisateurs externes sont également
auditées dans notre portail d’audit .
Étant donné que l’identité de l’utilisateur est contrôlée par votre organisation, tous
les services associés tels que la messagerie électronique, SharePoint, etc. sont
également sous le contrôle de votre organisation. Vos administrateurs
informatiques peuvent réinitialiser les mots de passe, désactiver l’accès aux
comptes ou auditer les activités dans ces services.
Les utilisateurs qui utilisent des comptes personnels pour leur entreprise sont
souvent limités pour accéder à certains services et peuvent donc avoir besoin d’un
compte d’organisation.
Certains services fonctionnent uniquement sur les utilisateurs de votre
organisation. Par exemple, il est possible que l’utilisation d’Intune pour gérer le
contenu sur les appareils personnels/mobiles d’utilisateurs externes en tirant parti
de Microsoft Entra B2B ne soit pas possible.
Dans l’application web, les rapports Power BI sont incorporés à partir d’un déploiement
Power BI Embedded. L’application web simplifierait l’accès aux rapports et à tous les
services associés dans une expérience cohérente visant à faciliter l’interaction des
fournisseurs avec Contoso. Cet environnement de portail sera isolé de l’environnement
Microsoft Entra ID interne de Contoso et de l’environnement Power BI interne de
Contoso pour veiller à ce que les fournisseurs ne puissent pas accéder à ces ressources.
En règle générale, les données sont stockées dans un entrepôt de données partenaire
distinct pour garantir aussi l’isolation des données. Cette isolation présente des
avantages, car elle limite le nombre d’utilisateurs externes ayant un accès direct aux
données de votre organisation, limite les données potentiellement disponibles pour
l’utilisateur externe et limite le partage accidentel avec des utilisateurs externes.
Un effort important est nécessaire pour créer, exploiter et maintenir un tel portail,
ce qui représente un investissement important en ressources et en temps.
La durée jusqu’à la solution est beaucoup plus longue que l’utilisation du partage
B2B, car une planification et une exécution minutieuses sur plusieurs flux de travail
sont nécessaires.
Lorsque le nombre de partenaires est faible, l’effort requis pour cette alternative
est probablement trop élevé pour justifier son implémentation.
La collaboration avec le partage ad hoc est le scénario principal auquel votre
organisation est confrontée.
Les rapports et les tableaux de bord sont différents pour chaque partenaire. Cette
alternative introduit une surcharge de gestion au-delà du simple partage direct
avec les partenaires.
Contoso peut-il forcer l’authentification multifacteur pour les utilisateurs invités si ses
partenaires n’ont pas l’authentification multifacteur ?
Oui. Pour plus d’informations, voir Accès conditionnel pour les utilisateurs de
collaboration B2B.
Puis-je inviter des utilisateurs invités avec des comptes de messagerie grand public ?
L’invitation d’utilisateurs invités avec des comptes de messagerie grand public est prise
en charge dans Power BI. Cela inclut des domaines tels que hotmail.com, outlook.com et
gmail.com. Toutefois, ces utilisateurs peuvent rencontrer des limitations au-delà de ce
que rencontrent les utilisateurs disposant de comptes professionnels ou scolaires.
Commentaires
Cette page a-t-elle été utile ? Yes No