You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: content/fr/agent/cluster_agent/external_metrics.md
+10-10Lines changed: 10 additions & 10 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -64,8 +64,8 @@ Une fois l'Agent de cluster Datadog opérationnel :
64
64
65
65
Appliquez cette modification en exécutant `kubectl apply -f custom-metric-server.yaml`
66
66
67
-
3. Téléchargez le [fichier des règles RBAC `rbac-hpa.yaml`][7].
68
-
2. Enregistrez l'Agent de cluster Datadog en tant que fournisseur de métriques externes via le service, en exposant le port `443`. Pour ce faire, appliquez les règles RBAC mentionnées ci-dessus :
67
+
2. Téléchargez le [fichier des règles RBAC `rbac-hpa.yaml`][7].
68
+
3. Enregistrez l'Agent de cluster Datadog en tant que fournisseur de métriques externes via le service, en exposant le port `443`. Pour ce faire, appliquez les règles RBAC mentionnées ci-dessus :
69
69
```
70
70
kubectl apply -f rbac-hpa.yaml
71
71
```
@@ -76,13 +76,13 @@ Une fois l'Agent de cluster Datadog lancé et le service enregistré, créez un
76
76
77
77
```yaml
78
78
spec:
79
-
metric:
79
+
metrics:
80
80
- type: External
81
81
external:
82
82
metricName: "<NOM_MÉTRIQUE>"
83
83
metricSelector:
84
84
matchLabels:
85
-
"<CLÉ_TAG>:<VALEUR_TAG>"
85
+
<CLÉ_TAG>:<VALEUR_TAG>
86
86
```
87
87
88
88
**Exemple **: le manifeste d'Autoscaler de pods horizontaux ci-dessous permet de procéder à l'autoscaling d'un déploiement NGINX en fonction de la métrique `nginx.net.request_per_s` de Datadog.
@@ -112,7 +112,7 @@ spec:
112
112
Notez que dans ce manifeste :
113
113
114
114
- L'Autoscaler de pods horizontaux est configuré de façon à effectuer l'autoscaling du déploiement `nginx`.
115
-
- Le nombre maximum de réplicas créés est de `5`, et le minimum est de `1`.
115
+
- Le nombre maximum de réplicas créés est de `3`, et le minimum est de `1`.
116
116
- La métrique utilisée est `nginx.net.request_per_s` et le contexte est `kube_container_name: nginx`. Ce format de métrique correspond à celui de Datadog.
117
117
118
118
Toutes les 30 secondes, Kubernetes interroge l'Agent de cluster Datadog pour obtenir la valeur de cette métrique et effectue l'autoscaling en fonction, si cela est nécessaire. Pour les cas d'utilisation avancés, il est possible de configurer plusieurs métriques dans le même Autoscaler de pods horizontaux, comme le décrit [la documentation sur l'autoscaling de pods horizontaux Kubernetes][9]. La plus grande des valeurs proposées est celle choisie.
@@ -140,13 +140,13 @@ Pour tirer parti du CRD `DatadogMetric`, suivez les étapes ci-dessous :
140
140
1. Installez le CRD `DatadogMetric` dans votre cluster.
@@ -220,7 +220,7 @@ L'Agent de cluster Datadog s'adapte en créant automatiquement des ressources `D
220
220
221
221
Si vous choisissez de migrer un Autoscaler de pods horizontaux ultérieurement pour appeler un objet `DatadogMetric`, la ressource créée automatiquement sera nettoyée par l'Agent de cluster Datadog quelques heures plus tard.
222
222
223
-
### Résolution des problèmes liés aux ressources DatadogMetric
223
+
### Résolution des problèmes liés à DatadogMetric
224
224
225
225
L'Agent de cluster Datadog se charge de mettre à jour la sous-ressource `status` de toutes les ressources `DatadogMetric` afin de refléter les résultats des requêtes envoyées à Datadog. Ces informations sont à examiner en priorité afin de comprendre ce qui se passe en cas de dysfonctionnement.
226
226
@@ -267,6 +267,6 @@ Les quatre conditions vous permettent d'en savoir plus sur l'état actuel de vot
Copy file name to clipboardExpand all lines: content/fr/getting_started/tagging/_index.md
+21-20Lines changed: 21 additions & 20 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -25,7 +25,7 @@ Les tags sont conçus pour ajouter des caractéristiques aux données de télém
25
25
Les tags relient différents types de données dans Datadog. Grâce à certaines clés de tag **réservées**, vous pouvez corréler différent(e)s métriques, traces et logs et déclencher des actions. Voici quelques exemples :
|`host`| Corrélation entre des métriques, des traces, des processus et des logs |
30
30
|`device`| Séparation de métriques, traces, processus et logs selon un appareil ou un disque |
31
31
|`source`| Filtrage de spans et création automatisée de pipelines pour la gestion des logs |
@@ -45,12 +45,12 @@ Voici quelques exigences en ce qui concerne l'utilisation de tags dans Datadog
45
45
46
46
1. Les noms des tags doivent **commencer par une lettre**. Ils peuvent ensuite contenir les caractères suivants :
47
47
48
-
* Des caractères alphanumériques
49
-
* Des underscores
50
-
* Des moins
51
-
* Des virgules
52
-
* Des points
53
-
* Des barres obliques
48
+
- Des caractères alphanumériques
49
+
- Des underscores
50
+
- Des moins
51
+
- Des virgules
52
+
- Des points
53
+
- Des barres obliques
54
54
55
55
Les autres caractères spéciaux sont remplacés par des underscores.
56
56
@@ -61,47 +61,47 @@ Voici quelques exigences en ce qui concerne l'utilisation de tags dans Datadog
61
61
4. Un tag peut être au format `valeur` ou `<KEY>:<VALUE>`. Pour un fonctionnement optimal, **nous recommandons de créer des tags au format `<KEY>:<VALUE>`.**`env`, `instance`, et `name` sont des clés de tag couramment utilisées. La clé précède toujours le caractère « : » de la définition globale du tag. Par exemple :
5. Les tags ne doivent pas provenir de sources illimitées, telles que des horodatages epoch, des ID d'utilisateur ou des ID de demande. Cela pourrait [accroître de façon significative le nombre de métriques][2] de votre organisation et augmenter vos frais.
68
+
5. Les tags ne doivent pas provenir de sources illimitées, telles que des horodatages epoch, des ID d'utilisateur ou des ID de requête. Cela pourrait [accroître de façon significative le nombre de métriques][2] de votre organisation et augmenter vos frais.
69
69
70
70
## Assigner des tags
71
71
72
72
### Méthodes de tagging
73
73
74
74
Vous pouvez utiliser l'une (ou l'ensemble) des méthodes suivantes pour assigner des tags. Consultez la [documentation relative à l'assignation des tags][3] pour en savoir plus :
|[Fichiers de configuration][4]| Assignation manuelle dans les principaux fichiers de configuration de votre Agent ou des intégrations |
79
+
|[IU][5]| Dans l'app Datadog |
80
+
|[API][6]| Lors de l'utilisation de l'API Datadog |
81
+
|[DogStatsD][7]| Lors de l'envoi de métriques via DogStatsD |
82
82
83
83
#### Tagging de service unifié
84
84
85
85
Datadog vous conseille d'utiliser le tagging de service unifié lorsque vous assignez des tags. Le tagging de service unifié permet de lier les données de télémétrie Datadog entre elles via trois tags standards : `env`, `service` et `version`. Pour découvrir comment configurer le tagging unifié pour votre environnement, consultez la documentation dédiée au [tagging de service unifié][8].
86
86
87
-
88
87
## Utiliser les tags
89
88
90
89
[Assignez des tags][3] au niveau des hosts et des [intégrations][9] pour pouvoir filtrer et regrouper vos métriques, traces et logs. Les tags peuvent être utilisés dans les sections suivantes de votre plateforme Datadog. Consultez la [documentation relative à l'utilisation des tags][1] pour en savoir plus :
|[Dashboards][11]| Filtrer et regrouper des métriques sur des graphiques |
96
95
|[Infrastructure][12]| Filtrer et regrouper des données sur les vues de la hostmap, de la liste d'infrastructures, des live containers et des live processes |
97
96
|[Monitors][13]| Créer et gérer des monitors ou gérer des downtimes |
98
97
|[Métriques][14]| Filtrer et regrouper des données avec le Metrics Explorer |
99
98
|[Intégrations][15]| Définir des limites facultatives pour AWS, Google Cloud et Azure |
100
-
|[APM][16]| Filtrer les données App Analytics ou accéder facilement à d'autres sections avec la Service map |
99
+
|[APM][16]| Filtrer les données Analytics ou accéder facilement à d'autres sections avec la Service map |
101
100
|[Notebooks][17]| Filtrer et regrouper des métriques sur des graphiques |
102
101
|[Logs][18]| Filtrer la recherche de logs, les analyses, les patterns, le live tailing et les pipelines |
103
-
|[SLO][19]|Recherchez des SLO ainsi que des SLO groupés basés sur des métriques ou sur des monitors. |
102
+
|[SLO][19]|Rechercher des SLO ainsi que des SLO groupés basés sur des métriques ou sur des monitors. |
104
103
|[Outils de développement][20]| Récupérer des informations ou configurer différentes sections dans l'IU avec l'API |
104
+
|[Facturation][21]| Obtenir des informations sur votre utilisation de Datadog en choisissant jusqu'à trois tags, tels que `env`, `team`, et `account_id`|
105
105
106
106
### Pour aller plus loin
107
107
@@ -126,4 +126,5 @@ Datadog vous conseille d'utiliser le tagging de service unifié lorsque vous ass
@@ -35,16 +39,16 @@ Recueillez des métriques du service Filebeat en temps réel pour :
35
39
- Visualiser et surveiller les états de Filebeat
36
40
- Être informé des failovers et des événements de Filebeat
37
41
38
-
## Implémentation
42
+
## Configuration
39
43
40
-
Le check Filebeat n'est **PAS** inclus avec le paquet de l'[Agent Datadog][1].
44
+
Le check Filebeat n'est **PAS** inclus avec le package de l'[Agent Datadog][1].
41
45
42
46
### Installation
43
47
44
48
Si vous utilisez la version 6.8 ou ultérieure de l'Agent, suivez les instructions ci-dessous pour installer le check Filebeat sur votre host. Consultez notre guide relatif à l'[installation d'intégrations développées par la communauté][2] pour installer des checks avec une [version < 6.8 de l'Agent][3] ou avec l'[Agent Docker][4] :
7. Configurez votre intégration comme [n'importe quelle autre intégration du paquet][7].
76
+
7. Configurez votre intégration comme [n'importe quelle autre intégration du paquet][6].
73
77
74
78
### Configuration
75
79
76
-
1. Modifiez le fichier `filebeat.d/conf.yaml` dans le dossier `conf.d/` à la racine du [répertoire de configuration de votre Agent][8] pour commencer à recueillir vos [métriques](#collecte-de-metriques) Filebeat. Consultez le [fichier d'exemple filebeat.d/conf.yaml][9] pour découvrir toutes les options de configuration disponibles.
80
+
1. Modifiez le fichier `filebeat.d/conf.yaml` dans le dossier `conf.d/` à la racine du [répertoire de configuration de votre Agent][7] pour commencer à recueillir vos [métriques](#collecte-de-metriques) Filebeat. Consultez le [fichier d'exemple filebeat.d/conf.yaml][8] pour découvrir toutes les options de configuration disponibles.
77
81
78
-
2.[Redémarrez l'Agent][10].
82
+
2.[Redémarrez l'Agent][9].
79
83
80
84
## Validation
81
85
82
-
[Lancez la sous-commande `status` de l'Agent][11] et cherchez `filebeat` dans la section Checks.
86
+
[Lancez la sous-commande `status` de l'Agent][10] et cherchez `filebeat` dans la section Checks.
83
87
84
88
## Données collectées
85
89
@@ -93,22 +97,24 @@ Le check Filebeat n'inclut aucun événement.
93
97
94
98
### Checks de service
95
99
96
-
Le check Filebeat n'inclut aucun check de service.
100
+
`filebeat.can_connect` :
101
+
102
+
Renvoie `Critical` si l'Agent ne parvient pas à se connecter à Filebeat pour recueillir des métriques. Si ce n'est pas le cas, renvoie `OK`.
0 commit comments