diff --git a/content/es/account_management/_index.md b/content/es/account_management/_index.md index 80e46b756d0..1124522480e 100644 --- a/content/es/account_management/_index.md +++ b/content/es/account_management/_index.md @@ -5,136 +5,141 @@ aliases: cascade: algolia: rank: 70 -description: Gestiona tu cuenta de Datadog y tu organización +description: Administra tu cuenta de Datadog y organización further_reading: - link: https://www.datadoghq.com/blog/volkswagen-organizations/ tag: Blog - text: Prácticas recomendadas para gestionar organizaciones de Datadog a escala -title: Gestión de cuentas + text: Mejores prácticas para gestionar organizaciones de Datadog a gran escala +title: Gestión de Cuentas --- -{{< site-region region="gov" >}} -
La plataforma Datadog for Government solo admite SAML o la autenticación básica mediante nombre de usuario/correo electrónico y contraseña. Antes de configurar la autenticación SAML, asegúrate de que se ha establecido al menos una cuenta con nombre de usuario/email y contraseña para mantener el acceso durante el proceso de configuración. Datadog recomienda habilitar la autenticación multifactor (MFA) para las cuentas basadas en contraseña. +{{< site-region region="gov,gov2" >}} +
La plataforma Datadog para Gobierno solo admite autenticación SAML o básica utilizando un nombre de usuario/correo electrónico y contraseña. Antes de configurar la autenticación SAML, asegúrate de que al menos una cuenta de nombre de usuario/correo electrónico y contraseña esté establecida para mantener el acceso durante el proceso de configuración. Datadog recomienda habilitar la autenticación de múltiples factores (MFA) para cuentas basadas en contraseña. -Si necesitas habilitar SAML para una cuenta de prueba, ponte en contacto con el el servicio de asistencia de Datadog.
+Si necesitas habilitar SAML para una cuenta de prueba, contacta a Soporte de Datadog.
{{< /site-region >}} -## Parámetros personales +## Configuración personal {#personal-settings} -Las páginas de parámetros personales de Datadog permiten controlar cómo te ven otras personas en tu organización, cambiar o salir de organizaciones, y gestionar tus preferencias de notificación. +Las páginas de configuración personal en Datadog te permiten controlar cómo apareces ante otros en tu organización, cambiar o dejar organizaciones, y gestionar tus preferencias de notificación. -### Perfil +### Perfil {#profile} -Tu perfil es la forma en que los demás miembros de tu organización te reconocen en Datadog. Define o actualiza tu nombre, dirección de correo electrónico y cargo desde la pestaña [Perfil][11], en la página **Parámetros personales**. +Tu perfil es cómo te reconocen los demás en tu organización dentro de Datadog. Establece o actualiza tu nombre, dirección de correo electrónico y título desde la pestaña [Perfil][11] dentro de la página {{< ui >}}Personal Settings{{< /ui >}}. -Para actualizar tu imagen, crea una cuenta en [Gravatar][1] y asóciala a tu dirección de correo electrónico. +Para actualizar tu foto, crea una cuenta en [Gravatar][1] y asóciala con tu dirección de correo electrónico. -Si inicias sesión en Datadog mediante la autenticación de Google, tu cuenta de Google proporcionará tu dirección de correo electrónico y **no** podrás editarla en Datadog. Para cambiar tu dirección de correo electrónico, consulta la [documentación de Google][2]. +Si inicias sesión en Datadog utilizando la autenticación de Google, tu dirección de correo electrónico es proporcionada por tu cuenta de Google y es **no** editable dentro de Datadog. Para cambiar tu dirección de correo electrónico en Google, consulta la [documentación de Google][2]. -### Preferencias +### Preferencias {#preferences} {{% site-region region="us,us3,us5,eu,ap1,ap2" %}} -Puedes gestionar tu zona horaria, preferencia de accesibilidad visual y suscripciones de correo electrónico desde la [pestaña Preferencias][3] en la página **Configuración personal**. +Puedes gestionar tu zona horaria, formato de hora, preferencia de accesibilidad visual y suscripciones de correo electrónico desde la pestaña [Preferencias][3] dentro de la página {{< ui >}}Personal Settings{{< /ui >}}. -#### Suscripciones por correo electrónico +#### Suscripciones por correo electrónico {#email-subscriptions} -En las suscripciones por correo electrónico, tienes acceso a los siguientes informes: -{{< site-region region="us3,us5,gov,ap1,ap2" >}} +Bajo suscripciones por correo electrónico, tienes acceso a los siguientes informes: +{{< site-region region="us3,us5,gov,gov2,ap1,ap2" >}}
Los resúmenes de correo electrónico no están disponibles en el sitio seleccionado ({{< region-param key="dd_site_name" >}}).
{{< /site-region >}} -* Daily Digest (Resumen diario) -* Weekly Digest (Resumen semanal) +* Resumen diario +* Resumen semanal -Si tienes dudas sobre si un resumen por correo electrónico es relevante para ti, puedes ver un ejemplo haciendo clic en el enlace **Example** (Ejemplo) que aparece junto a cada suscripción. También puedes usar el botón **Unsubscribe From All** (Darse de baja de todo) para anular todas sus suscripciones por correo electrónico. +Si no estás seguro de si un resumen de correo electrónico es relevante para ti, puedes ver un ejemplo haciendo clic en el {{< ui >}}Example{{< /ui >}} enlace junto a cada suscripción por correo electrónico. También puedes usar el {{< ui >}}Unsubscribe From All{{< /ui >}} botón para darte de baja de todas las suscripciones por correo electrónico. {{% /site-region %}} -{{% site-region region="gov" %}} -Puedes gestionar tu zona horaria y preferencias de accesibilidad visual desde la pestaña [**Preferencias**][3] (Preferences) en la página **Personal Settings** (Configuración personal). +{{% site-region region="gov,gov2" %}} +Puedes gestionar tu zona horaria, formato de hora y preferencia de accesibilidad visual desde la pestaña [**Preferencias**][3] dentro de la página {{< ui >}}Personal Settings{{< /ui >}}. {{% /site-region %}} -#### Accesibilidad visual +#### Formato de hora {#time-format} -La preferencia de accesibilidad visual ofrece cinco ajustes diferentes para abordar las necesidades por deficiencia de visión cromática, baja agudeza visual y sensibilidad a los colores brillantes. Si optas por una configuración de colores accesible, Datadog convertirá todos los gráficos que utilizan la paleta de colores clásica en un conjunto de colores adaptados a tus necesidades visuales. +Elige si las horas se muestran en formato de 12 horas o 24 horas en Datadog (por ejemplo, "2:30 pm" o "14:30"). Las cuentas nuevas tienen como formato predeterminado el de 12 horas. Los gráficos y ciertos datos tabulares se muestran en formato de 24 horas en todo momento. -**Nota**: Tus preferencias de accesibilidad visual se guardan localmente en tu navegador. Si usas otro navegador o borras la memoria caché, las preferencias volverán a la configuración predeterminada. +#### Accesibilidad visual {#visual-accessibility} -### Organizaciones +La preferencia de accesibilidad visual tiene cinco configuraciones diferentes para abordar la deficiencia de visión de color, baja agudeza visual y sensibilidad a colores brillantes. Si optas por una configuración de color accesible, Datadog traduce todos los gráficos que utilizan la paleta de colores clásica a un conjunto accesible de colores adaptados a tus necesidades visuales. -En la pestaña [Organizations][12] (Organizaciones) de **Personal Settings** (Configuración personal) se incluyen todas las organizaciones a las que estás asociado. Cambia de organización desde esta página o pasando el cursor por encima del menú de la cuenta en la barra de navegación de la izquierda. +**Nota**: Tu preferencia de accesibilidad visual se guarda localmente en tu navegador. Si usas un navegador diferente o borras tu caché, la preferencia se establece en la configuración predeterminada. -**Nota**: Si abandonas una organización, no podrás volver a unirte, a no ser que te invite un administrador de esa organización. +### Organizaciones {#organizations} -Para unirte a una organización existente, debes recibir la invitación de un administrador. Después de recibirla, se te enviará un correo electrónico con el asunto "Recibiste una invitación para unirte \". Haz clic en el botón **Unirse a la cuenta** del correo electrónico. +La [pestaña de Organizaciones][12] en {{< ui >}}Personal Settings{{< /ui >}} lista todas las organizaciones con las que estás asociado. Cambia entre estas organizaciones desde esta página o pasando el cursor sobre el menú de cuenta en la navegación del lado izquierdo. -Si eres administrador de una organización, consulta la documentación de referencia adicional para: +**Nota**: Si dejas una organización, no puedes volver a unirte a menos que seas invitado por un administrador de esa organización. + +Para unirte a una organización existente, debes ser invitado por un administrador. Después de que seas invitado, se te enviará un correo electrónico con el asunto "Has sido invitado a unirte a \". Haz clic en el botón {{< ui >}}Join Account{{< /ui >}} en el correo electrónico. + +Si eres un administrador de la organización, consulta la documentación adicional para: * [Gestionar usuarios en tu organización][4] -* [Configurar el inicio de sesión único con SAML][5] -* [Cambiar el nombre de tu organización][6] -* [Gestionar cuentas de varias organizaciones][7] -* [Cambiar tu plan de Datadog, y ver el historial de uso y facturación][8] +* [Configurar inicio de sesión único con SAML][5] +* [Renombrar tu organización][6] +* [Gestionar cuentas de múltiples organizaciones][7] +* [Cambiar tu plan de Datadog y ver el historial de uso y facturación][8] +* [Elegir la topología de tu organización (una organización vs. múltiples organizaciones)][15] -### Seguridad +### Seguridad {#security} -#### Claves de aplicación +#### Claves de aplicación {#application-keys} -La pestaña [Application Keys][13] (Claves de aplicación) de **Personal Settings** (Configuración personal) te permite gestionar las claves de tu aplicación. Para copiar una clave, pasa el cursor sobre ella hasta que aparezca el icono **Copy Key** (Copiar clave) a la derecha y haz clic en él. También puedes hacer clic en una clave concreta para editar su nombre, ver cuándo se creó, consultar el perfil del propietario, copiarla o revocarla. +La [pestaña de claves de aplicación][13] en {{< ui >}}Personal Settings{{< /ui >}} te permite gestionar tus claves de aplicación. Para copiar una clave, pasa el cursor sobre ella hasta que aparezca el ícono {{< ui >}}Copy Key{{< /ui >}} a la derecha, y haz clic en él. También puedes hacer clic en una clave específica para editar su nombre, ver cuándo fue creada, ver el perfil del propietario de la clave, copiarla o revocarla. -#### Aplicaciones +#### Aplicaciones {#apps} -La pestaña [Apps][14] (Aplicaciones) de **Personal Settings** (Configuración personal) te permite gestionar las aplicaciones que han sido instaladas o creadas por miembros de tu organización. Puedes filtrarlas con una cadena de búsqueda o elegir ver solo las aplicaciones activadas o desactivadas mediante casillas de verificación. +La [pestaña de aplicaciones][14] en {{< ui >}}Personal Settings{{< /ui >}} te permite gestionar las aplicaciones que han sido instaladas o creadas por miembros de tu organización. Puedes filtrar aplicaciones con una cadena de búsqueda, o elegir ver solo aplicaciones habilitadas o deshabilitadas usando casillas de verificación. -Al pasar el cursor por encima de una aplicación, la opción de activarla o desactivarla aparecerá a la derecha de la lista. +Cuando pasas el cursor sobre una aplicación, la opción para habilitar o deshabilitar aparece a la derecha de la lista de aplicaciones. -#### Verificación del correo electrónico -Verifica tu dirección de correo electrónico para mejorar la seguridad de tu cuenta y acceder a funciones de gestión adicionales. Los usuarios verificados tienen un mayor control sobre la seguridad de sus cuentas y pueden ver todas las organizaciones a las que pertenecen. +#### Verificación de correo electrónico {#email-verification} +Verifica tu dirección de correo electrónico para mejorar la seguridad de la cuenta y acceder a funciones adicionales de gestión. Los usuarios verificados tienen un mayor control sobre la seguridad de su cuenta y pueden ver todas las organizaciones a las que pertenecen. -- Los **usuarios que inician sesión en Google** se verifican automáticamente durante su primer inicio de sesión. -- Los **usuarios con contraseña** verifican su correo electrónico al establecer su contraseña por primera vez. -- **Los usuarios SAML** deben verificar manualmente su correo electrónico a través de Datadog. +- **Los usuarios de inicio de sesión de Google** son verificados automáticamente durante su primer inicio de sesión. +- **Los usuarios basados en contraseña** verifican su correo electrónico al establecer su contraseña por primera vez. +- **Los usuarios de SAML** deben verificar manualmente su correo electrónico a través de Datadog. -Una vez que apruebes la verificación, tendrás: -- La posibilidad de **cerrar sesión en todas las sesiones web activas** en todos los dispositivos, garantizando la seguridad en caso de compromiso de credenciales. -- La posibilidad de **ver y cambiar entre organizaciones** fuera de tu jerarquía orgánica actual. +Después de ser verificado, obtienes acceso a: +- La capacidad de **cerrar sesión en todas las sesiones web activas** en todos los dispositivos, asegurando la seguridad en caso de compromiso de credenciales. +- La capacidad de **ver y cambiar entre organizaciones** fuera de la jerarquía actual de tu organización. -Los usuarios no verificados pueden seguir accediendo a Datadog, pero solo pueden ver las organizaciones dentro de su jerarquía y no pueden revocar las sesiones activas. +Los usuarios no verificados aún pueden acceder a Datadog, pero están limitados a ver organizaciones dentro de su jerarquía y no pueden revocar sesiones activas. -#### Verificar tu correo electrónico +#### Verifica tu correo electrónico {#verify-your-email} Para verificar tu correo electrónico: -1. Ve a tus **Parámetros de perfil**. -2. Haz clic en **Verify Account** (Verificar cuenta). -3. Introduce el **código de verificación** enviado a tu correo electrónico registrado. -4. Haz clic en **Submit** (Enviar) para finalizar el proceso de verificación. +1. Navega a tu {{< ui >}}Profile Settings{{< /ui >}}. +2. Haz clic en {{< ui >}}Verify Account{{< /ui >}}. +3. Ingresa el **código de verificación** enviado a tu correo electrónico registrado. +4. Haz clic en {{< ui >}}Submit{{< /ui >}} para completar el proceso de verificación. -#### Cerrar sesión en todas las sesiones web activas +#### Cierra sesión en todas las sesiones web activas {#log-out-of-all-active-web-sessions}. Para cerrar sesión en todas las sesiones web activas: -Al cerrar sesión en todas las sesiones web activas, cierras sesión en todas las sesiones actuales en todos los dispositivos, incluido el que estás utilizando. +Cerrar sesión en todas las sesiones web activas te desconecta de todas las sesiones actuales en todos los dispositivos, incluido el que estás usando. Para cerrar sesión en todas las sesiones activas: -1. Ve a **Personal Settings** (Configuración personal). -2. Haz clic en **Log Out of All Web Sessions** (Cerrar sesión en todas las sesiones web). +1. Ve a {{< ui >}}Personal Settings{{< /ui >}}. +2. Haz clic en {{< ui >}}Log Out of All Web Sessions{{< /ui >}}. 3. Confirma la acción. -Después de confirmar, se cierran tus sesiones en todos los dispositivos y debes iniciarlas nuevamente. +Después de confirmar, se cierra sesión en todos los dispositivos y debes volver a iniciar sesión. -## Aspecto +## Apariencia {#appearance} -Puedes utilizar Datadog en modo oscuro. Para hacerlo, pasa el cursor sobre tu avatar en la barra lateral o pulsa: `Ctrl+Opt+D` / `Ctrl+Alt+D`. +Visualiza Datadog en modo oscuro al pasar el cursor sobre tu avatar en la barra lateral, o presionando `Ctrl+Opt+D` / `Ctrl+Alt+D`. -Para adaptar el aspecto al aspecto de tu ordenador, selecciona la opción *System* (Sistema). De esta manera, el aspecto de Datadog se adaptará automáticamente al tema que hayas definido en el sistema operativo. +Para adaptar la apariencia de tu computadora, selecciona la opción {{< ui >}}System{{< /ui >}}. Esto adapta automáticamente la apariencia de Datadog al tema que has configurado a nivel del sistema operativo. -## Conectarse a GitHub +## Conectando a GitHub {#connecting-to-github} -Si has instalado la [integración con GitHub][9] para crear eventos en Datadog, vincula tu cuenta personal de GitHub a tu cuenta de usuario de Datadog. Una vez que las cuentas estén vinculadas, cualquier comentario que publiques en los eventos de GitHub a través de Datadog se publicarán de forma automática en el tema o solicitud pull correspondiente en GitHub. +Si has instalado la [integración de GitHub][9] para crear eventos en Datadog, vincula tu cuenta personal de GitHub a tu cuenta de usuario de Datadog. Al vincular tus cuentas, cualquier comentario que publiques en eventos de GitHub en Datadog se publica automáticamente en el problema o solicitud de extracción correspondiente en GitHub. -## Deshabilitar la cuenta de tu organización +## Deshabilitando la cuenta de tu organización {#disabling-your-organizations-account}. -Para deshabilitar la cuenta de tu organización de Datadog, ponte en contacto con el [equipo de asistencia de Datadog][10]. +Para deshabilitar la cuenta de tu organización de Datadog, contacta a [soporte de Datadog][10]. [1]: https://gravatar.com [2]: https://support.google.com/accounts/answer/19870?hl=en @@ -149,4 +154,5 @@ Para deshabilitar la cuenta de tu organización de Datadog, ponte en contacto co [11]: https://app.datadoghq.com/personal-settings/profile [12]: https://app.datadoghq.com/personal-settings/organizations [13]: https://app.datadoghq.com/personal-settings/application-keys -[14]: https://app.datadoghq.com/personal-settings/apps \ No newline at end of file +[14]: https://app.datadoghq.com/personal-settings/apps +[15]: /es/getting_started/organization_topology/ \ No newline at end of file diff --git a/content/es/account_management/api-app-keys.md b/content/es/account_management/api-app-keys.md index 3c1c4597125..73b3bb2d0b3 100644 --- a/content/es/account_management/api-app-keys.md +++ b/content/es/account_management/api-app-keys.md @@ -1,180 +1,180 @@ --- algolia: tags: - - clave de API + - api key aliases: - /es/account_management/faq/how-do-i-reset-my-application-keys/ - /es/agent/faq/how-do-i-reset-my-datadog-api-keys/ - /es/account_management/faq/api-app-key-management/ -description: Gestiona claves de API, claves de aplicación y tokens de cliente para - aplicaciones de navegador con funciones de seguridad. -title: Claves de API y aplicación +description: Administra las claves de API, las claves de aplicación y los tokens de + cliente para aplicaciones de navegador con características de seguridad. +title: Claves de API y de Aplicación --- +## Claves de API {#api-keys} -## Claves de API +Las claves de API son únicas para su organización. Se requiere una [clave de API][1] por parte del Agente de Datadog para enviar métricas y eventos a Datadog. -Las claves de API son exclusivas de tu organización. El Datadog Agent requiere una [clave de API][1] para enviar métricas y eventos a Datadog. +## Claves de Aplicación {#application-keys} -## Claves de aplicación +Las [claves de aplicación][2], junto con la clave de API de su organización, otorgan a los usuarios acceso a la API programática de Datadog. Las claves de aplicación están asociadas con la cuenta de usuario que las creó y, por defecto, tienen los permisos del usuario que las creó. -Las [claves de aplicación][2], junto con la clave de API de tu organización, permiten a los usuarios acceder a la API programática de Datadog. Las claves de aplicación están asociadas a la cuenta de usuario que las creó y, por defecto, tienen los permisos del usuario que las creó. +### Modo de Lectura Única {#one-time-read-mode} -### Modo de lectura única +El modo de Lectura Única (OTR) es una característica de seguridad que limita la visibilidad de los secretos de la clave de aplicación solo al momento de creación. Cuando el modo OTR está habilitado, los secretos de la clave de aplicación solo se muestran una vez durante la creación y no se pueden recuperar más tarde por razones de seguridad. -El modo de lectura única (OTR) es una función de seguridad que limita la visibilidad de los secretos de las claves de aplicación únicamente al momento de la creación. Cuando el modo OTR está activado, los secretos de las claves de aplicación solo se muestran una vez durante la creación y no se pueden recuperar posteriormente por motivos de seguridad. +#### Para nuevas organizaciones {#for-new-organizations} -#### Para las nuevas organizaciones +Todas las claves de aplicación para nuevas organizaciones principales (y sus organizaciones hijas) creadas después del 20 de agosto de 2025 tienen el modo OTR habilitado por defecto. Esta configuración es permanente y no se puede cambiar. -Todas las claves de aplicación para nuevas organizaciones matrices (y sus organizaciones secundarias) creadas después del 20 de agosto de 2025 tienen el modo de OTR activado en forma predeterminada. Esta configuración es permanente y no puede modificarse. +#### Para organizaciones existentes {#for-existing-organizations} -#### Para las organizaciones existentes +Los administradores de la organización pueden habilitar o deshabilitar el modo OTR desde [**Configuración de la Organización** > **Claves de Aplicación**][2]. Después de habilitar el modo OTR: -Los administradores de la organización pueden activar o desactivar el modo de OTR desde [**Organization Settings** > **Application Keys** (Configuración de la organización > Claves de aplicación)][2]. Después de activar el modo de OTR: +- Los secretos de la clave de aplicación son visibles solo una vez, en el momento de la creación +- Ya no se pueden recuperar a través de la interfaz de usuario o la API +- La configuración puede ser activada o desactivada por los administradores de la organización durante 3 meses después de habilitarla +- Después de 3 meses de estar habilitado continuamente, el modo OTR se vuelve permanente y se elimina el interruptor -- Los secretos de las claves de aplicación solo son visibles una vez, en el momento de su creación -- Ya no se pueden recuperar a través de la interfaz de usuario ni la API. -- Los administradores de la organización pueden activar o desactivar la configuración durante 3 meses después de activarla. -- Transcurridos 3 meses de activación continua, el modo de OTR se convierte en permanente y se suprime la alternancia. +**Permisos**: Los usuarios deben tener tanto el `org_app_keys_write` como el `org_management` permisos para habilitar o deshabilitar el modo OTR para su organización. -**Permisos**: Los usuarios deben tener los permisos `org_app_keys_write` y `org_management` para activar o desactivar el modo de OTR para su organización. +### Contextos {#scopes} -### Contextos +Para proteger y asegurar mejor sus aplicaciones, puede especificar los contextos de autorización para sus claves de aplicación para definir permisos más granulares y minimizar el acceso que las aplicaciones tienen a sus datos de Datadog. Esto le brinda un control de acceso detallado sobre sus aplicaciones y minimiza las vulnerabilidades de seguridad al limitar el acceso innecesario. Por ejemplo, una aplicación que solo lee tableros no necesita derechos de administrador para gestionar usuarios o eliminar cualquiera de los datos de su organización. - -Para proteger mejor tus aplicaciones, puedes indicar contextos de autorización para tus claves de aplicación. De este modo, podrás definir permisos más específicos y minimizar el acceso que las aplicaciones tienen a tus datos de Datadog. Esto te da un control pormenorizado sobre tus aplicaciones y minimiza las vulnerabilidades de seguridad al limitar el acceso externo. Por ejemplo, una aplicación que solo lee dashboards no necesita derechos de administrador para gestionar usuarios ni eliminar los datos de tu organización. - -La forma recomendada de determinar el contexto de las claves de aplicación es otorgar los mínimos privilegios y permisos necesarios para que una aplicación funcione según lo previsto. A las claves de aplicación con contexto solo se les conceden los contextos indicados por el usuario y ningún otro permiso. Aunque puedes modificar los contextos de autorización de tus claves de aplicación en cualquier momento, deberás valorar cómo esos cambios podrían afectar a la funcionalidad o al acceso de tu aplicación. +La mejor práctica recomendada para definir los contextos de las claves de aplicación es otorgar a sus claves los privilegios y permisos mínimos necesarios para que una aplicación funcione como se espera. Las claves de aplicación con contexto se asignan únicamente a los contextos especificados por el usuario, sin permisos adicionales. Si bien puede modificar los contextos de autorización de sus claves de aplicación en cualquier momento, considere cómo esos cambios pueden afectar la funcionalidad o el acceso existente de su aplicación. **Notas:** -- Los usuarios o cuentas de servicio con [permisos][3] para crear o editar claves de aplicación pueden abarcar claves de aplicación. Un usuario debe tener el permiso `user_app_keys` para abarcar sus propias claves de aplicación o el permiso `org_app_keys_write` para abarcar claves de aplicación propiedad de cualquier usuario de su organización. Un usuario debe tener el permiso `service_account_write` para abarcar claves de aplicación para cuentas de servicio. -- Los propietarios de aplicaciones no pueden autorizar una aplicación si les faltan los permisos necesarios, ni siquiera si definen el contexto de una clave de aplicación con contextos de autorización de otra persona. -- Los errores debidos a la falta de permisos al escribir claves de aplicación o autorizar aplicaciones muestran un error `403 Forbidden`. Encontrará más información sobre las distintas respuestas de error en la documentación de [API de Datadog][4]. -- Si el rol o los permisos de algún usuario cambian, los contextos de autorización indicados para sus claves de aplicación seguirán iguales. +-Los usuarios o cuentas de servicio que tienen [permisos][3] para crear o editar claves de aplicación pueden establecer los contextos de autorización de dichas claves. Un usuario debe tener el `user_app_keys` permiso para definir los contextos de sus propias claves de aplicación, o el `org_app_keys_write` permiso para definir los contextos de las claves de aplicación de cualquier usuario en su organización. Un usuario debe tener el `service_account_write` permiso para definir los contextos de las claves de aplicación para cuentas de servicio. +- Los propietarios de la aplicación no pueden autorizar una aplicación si les falta algún permiso requerido, incluso si asignan a la clave de aplicación unos contextos de autorización que no poseen. +- Los errores debido a permisos faltantes al escribir claves de aplicación o autorizar aplicaciones muestran un error `403 Forbidden`. Más información sobre varias respuestas de error se puede encontrar en la documentación de la [API de Datadog][4]. +- Si el rol o los permisos de un usuario cambian, los contextos de autorización especificados para sus claves de aplicación permanecen sin cambios. -### Acceso a API de acciones +### Acceso a la API de Acciones {#actions-api-access} -Las API de acciones incluyen: +Las API de Acciones incluyen: - [App Builder][5] -- [Conexiones de acciones][6] -- [Workflow Automation (automatización de procesos)][7] +- [Actions Connections][6] +- [Workflow Automation][7] + +Para usar claves de aplicación con estas API, debe habilitar el acceso a la API de Acciones en la clave de aplicación. Esto se puede hacer [a través de la interfaz de usuario][2] o [API][21]. Por defecto, las claves de aplicación no se pueden usar con estas API. -Para utilizar claves de aplicación con estas API, debes activar el acceso a API de acciones en la clave de aplicación. Esto puede hacerse [a través de la interfaz de usuario][2] o [API][21]. En forma predeterminada, las claves de aplicación no se pueden utilizar con estas API. +{{< img src="account_management/click-enable-actions-api-access.png" alt="Haga clic en Habilitar para el Acceso a la API de Acciones" style="width:80%;" >}} -{{< img src="account_management/click-enable-actions-api-access.png" alt="Activar con un clic el acceso a la API de acciones" style="width:80%;" >}} +**Nota**: La sección {{< ui >}}Last used{{< /ui >}} solo se muestra si [Audit Trail está habilitado][22] en la cuenta y usted tiene [`Audit Trail Read`][23] permiso. -## Tokens de cliente +## Tokens de cliente {#client-tokens} -Por razones de seguridad, las claves de API no pueden utilizarse para enviar datos desde un navegador, un móvil o una aplicación de TV, ya que quedarían expuestas al cliente. En su lugar, las aplicaciones destinadas al usuario final utilizan tokens de cliente para enviar datos a Datadog. +Por razones de seguridad, las claves de API no se pueden usar para enviar datos desde un navegador, móvil o aplicación de TV, ya que estarían expuestas del lado del cliente. En su lugar, las aplicaciones orientadas al usuario final utilizan tokens de cliente para enviar datos a Datadog. - Varios tipos de clientes envían datos que requieren un token de cliente, como los siguientes ejemplos: -- Los recopiladores de logs para [navegador web][8], [Android][9], [iOS][10], [React Native][11], [Flutter][12] y [Roku][13] envían logs. -- Las aplicaciones [Real User Monitoring][14] envían eventos y logs. + Varios tipos de clientes envían datos que requieren un token de cliente, incluidos los siguientes ejemplos: +- Los recolectores de registros para [navegador web][8], [Android][9], [iOS][10], [React Native][11], [Flutter][12] y [Roku][13] envían registros. +- Las aplicaciones de [Real User Monitoring][14] envían eventos y registros. -Los tokens de cliente son exclusivos de tu organización. Para gestionarlos, accede a **Organization Settings** (Parámetros de organización) y haz clic en la pestaña **Client Tokens** (Tokens de cliente). +Los tokens de cliente son únicos para su organización. Para gestionar sus tokens de cliente, vaya a {{< ui >}}Organization Settings{{< /ui >}}, luego haga clic en la pestaña {{< ui >}}Client Tokens{{< /ui >}}. -**Nota**: Cuando se desactiva un usuario que ha creado un token de cliente, ese token de cliente permanece activo. +**Nota**: Cuando un usuario que creó un token de cliente es desactivado, el token de cliente permanece activo. -## Añadir una clave de API o token de cliente +## Agregue una clave API o un token de cliente {#add-an-api-key-or-client-token}. -Para añadir una clave de API o token de cliente de Datadog: +Para agregar una clave API de Datadog o un token de cliente: -1. Va a Configuración de la organización y, a continuación, haz clic en la pestaña [**API keys** (Claves de API)][1] o [**Client Tokens** (Tokens de cliente)][15]. -2. Haz clic en el botón **New Key** (Nueva clave) o **New Client Token** (Nuevo token de cliente), según lo que vayas a crear. -3. Indica un nombre para tu clave o token. -4. Haz clic en **Create API key** (Crear clave de API) o **Create Client Token** (Crear token de cliente). +1. Navegue a la configuración de la organización, luego haga clic en la pestaña [**Claves API**][1] o [**Tokens de Cliente**][15]. +2. Haga clic en el botón {{< ui >}}New Key{{< /ui >}} o {{< ui >}}New Client Token{{< /ui >}}, dependiendo de cuál esté creando. +3. Ingrese un nombre para su clave o token. +4. Haga clic en {{< ui >}}Create API key{{< /ui >}} o {{< ui >}}Create Client Token{{< /ui >}}. -{{< img src="account_management/api-key.png" alt="Navega a la página de claves de API para tu organización en Datadog" style="width:80%;" >}} +{{< img src="account_management/api-key.png" alt="Navegue a la página de Claves API para su organización en Datadog." style="width:80%;" >}} **Notas:** -- Tu organización debe tener al menos una clave de API y un máximo de 50. -- Los nombres de las claves deben ser únicos en toda tu organización. +- Su organización debe tener al menos una clave API y como máximo 50 claves API. +- Los nombres de las claves deben ser únicos en su organización. -## Eliminar claves de API o tokens de cliente +## Elimina las claves API o los tokens de cliente {#remove-api-keys-or-client-tokens} -Para eliminar una clave de API o un token de cliente de Datadog, ve a la lista de claves o tokens y haz clic en el icono **Delete** (Eliminar) {{< img src="icons/delete.png" inline="true" style="width:14px;">}} situado junto a la clave o token que desees eliminar. +Para eliminar una clave API de Datadog o un token de cliente, navegue a la lista de claves o tokens y haga clic en {{< ui >}}Delete{{< /ui >}} {{< img src="icons/delete.png" inline="true" style="width:14px;">}} el ícono junto a la clave o token que desea eliminar. -## Añadir claves de aplicación +## Agregue claves de aplicación {#add-application-keys} -Para añadir una clave de aplicación de Datadog, ve a [**Organization Settings** > **Application Keys** (Configuración de la organización > Claves de aplicación)][2]. Si tienes el [permiso][3] para crear claves de aplicación, haz clic en **New Key** (Nueva clave). +Para agregar una clave de aplicación de Datadog, navegue a [**Configuración de la Organización** > **Claves de Aplicación**][2]. Si tiene el [permiso][3] para crear claves de aplicación, haga clic en {{< ui >}}New Key{{< /ui >}}. -{{< img src="account_management/app-key.png" alt="Navega a la página de Claves de aplicación para tu organización en Datadog" style="width:80%;" >}} +{{< img src="account_management/app-key.png" alt="Navegue a la página de Claves de Aplicación para su organización en Datadog" style="width:80%;" >}} -{{< site-region region="ap2,gov" >}} -
Asegúrate de almacenar de forma segura tu clave de aplicación inmediatamente después de la creación, ya que el secreto de la clave no se puede recuperar más tarde.
+{{< site-region region="ap2,gov,gov2" >}} +
Asegúrese de almacenar de manera segura su clave de aplicación inmediatamente después de su creación, ya que el secreto de la clave no se puede recuperar más tarde.
{{< /site-region >}} -
Si tu organización tiene activado el modo de lectura única (OTR), asegúrate de almacenar de forma segura tu clave de aplicación inmediatamente después de la creación, ya que el secreto de la clave no se puede recuperar más tarde.
+
Si su organización tiene habilitado el modo de Lectura Única (OTR), asegúrese de almacenar de manera segura su clave de aplicación inmediatamente después de su creación, ya que el secreto de la clave no se puede recuperar más tarde.
**Notas:** -- Los nombres de las claves de aplicación no pueden quedar en blanco. +- Los nombres de las claves de aplicación no pueden estar en blanco. -## Eliminar claves de aplicación +## Elimine claves de aplicación {#remove-application-keys} -Para eliminar una clave de aplicación de Datadog, ve a [**Organization Settings** > **Application Keys** (Configuración de la organización > Claves de aplicación)][2]. Si tienes el [permiso][3] para crear y gestionar claves de aplicación, puedes ver tus propias claves y hacer clic en **Revoke** (Revocar) junto a la clave que deseas revocar. Si tienes el permiso para gestionar todas las claves de aplicación de la organización, puedes buscar la clave que deseas revocar y hacer clic en **Revoke** (Revocar) junto a ella. +Para eliminar una clave de aplicación de Datadog, navegue a [**Configuración de la Organización** > **Claves de Aplicación**][2]. Si tiene el [permiso][3] para crear y gestionar claves de aplicación, puede ver sus propias claves y hacer clic en {{< ui >}}Revoke{{< /ui >}} junto a la clave que desea revocar. Si tiene el permiso para gestionar todas las claves de aplicación de la organización, puede buscar la clave que desea revocar y hacer clic en {{< ui >}}Revoke{{< /ui >}} junto a ella. -## Retraso en la propagación de claves y coherencia final +## Retraso en la propagación de claves y consistencia eventual {#key-propagation-delay-and-eventual-consistency} -Las claves de API y de aplicación de Datadog siguen un modelo de coherencia eventual. Debido a la naturaleza distribuida de los sistemas de Datadog, las actualizaciones de las claves, como la creación y la revocación, pueden tardar unos segundos en propagarse por completo. +Las claves API y de aplicación de Datadog siguen un modelo de consistencia eventual. Debido a la naturaleza distribuida de los sistemas de Datadog, las actualizaciones a las claves, como la creación y revocación, pueden tardar unos segundos en propagarse completamente. Como resultado: -- No utilices nuevas claves de API o de aplicación inmediatamente en flujos de trabajo críticos. Deja un breve tiempo (unos segundos) para la propagación. Puedes implementar una estrategia de reintento con un backoff exponencial corto para manejar errores transitorios durante el intervalo de propagación. -- Para validar si una clave de API está activa y utilizable, llama al endpoint [/api/v1/validate][16]. -- Para verificar que una clave de aplicación está activa, utiliza el endpoint `/api/v2/validate_keys` con el par de claves adecuado. +- No utilice nuevas claves de API o de aplicación de inmediato en flujos de trabajo críticos. Permita un breve período (unos segundos) para la propagación. Puede implementar una estrategia de reintento con un retroceso exponencial corto para manejar errores transitorios durante la ventana de propagación. +- Para validar si una clave de API está activa y utilizable, llame al punto de conexión [/api/v1/validate][16]. +- Para verificar que una clave de aplicación esté activa, utilice el punto de conexión `/api/v2/validate_keys` con el par de claves apropiado. -Intentar utilizar una clave recién creada antes de que se haya propagado completamente puede provocar errores de autenticación temporales como 403 Forbidden o 401 Unauthorized. +Intentar usar una clave recién creada antes de que esté completamente propagada puede resultar en errores de autenticación temporales como 403 Prohibido o 401 No autorizado. -## Definir el contexto de claves de aplicación +## Claves de aplicación con ámbitos {#scope-application-keys} -Para especificar ámbitos de autorización para claves de aplicación, [realiza una solicitud a la API de Datadog ][4] o a la interfaz de usuario para crear o editar una clave de aplicación. Se pueden especificar ámbitos para claves de aplicación propiedad del [usuario actual][17] o una [cuenta de servicio][18]. Si no se especifica este campo, las claves de aplicación tendrán en forma predeterminada los mismos ámbitos y permisos que el usuario que las creó. +Para especificar los ámbitos de autorización para las claves de aplicación, [haga una solicitud a la API de Datadog][4] o a la interfaz de usuario para crear o editar una clave de aplicación. Los ámbitos pueden especificarse para las claves de aplicación propiedad de [el usuario actual][17] o de [una cuenta de servicio][18]. Si este campo no se especifica, las claves de aplicación por defecto tienen todos los mismos ámbitos y permisos que el usuario que las creó. **Notas:** -- Los nombres de los contextos distinguen entre mayúsculas y minúsculas. +- Los nombres de los ámbitos son sensibles a mayúsculas y minúsculas. -## Usar varias claves de API +## Uso de múltiples claves de API {#using-multiple-api-keys} -Valora la posibilidad de configurar varias claves de API para tu organización. Por ejemplo, usa distintas claves de API para cada uno de tus métodos de implementación: una para implementar un Agent en Kubernetes, en AWS; otra para hacerlo localmente con Chef; otra para scripts de Terraform que automaticen tus dashboards o monitores, y otra para desarrolladores que hagan implementaciones en local. +Considere configurar múltiples claves de API para su organización. Por ejemplo, use diferentes claves de API para cada uno de sus métodos de implementación: una para implementar un Agente en Kubernetes en AWS, otra para implementarlo en sus instalaciones con Chef, otra para los scripts de Terraform que automatizan sus tableros o seguimientos, y otra para desarrolladores que implementan localmente. -El uso de varias claves de API te permite rotar las claves como parte de tus protocolos de seguridad, o revocar una clave en concreto si se expone inadvertidamente o si quieres dejar de usar el servicio al que está asociada. +El uso de múltiples claves de API le permite rotar claves como parte de su práctica de seguridad, o revocar una clave específica si se expone inadvertidamente o si desea dejar de usar el servicio con el que está asociada. -Si tu organización necesita más del límite incorporado de 50 claves de API, ponte en contacto con [Asistencia técnica][19] para solicitar información sobre cómo aumentar tu límite. +Si su organización necesita más de 50 claves de API integradas, comuníquese con [Soporte][19] para preguntar sobre el aumento de su límite. -## Desactivar una cuenta de usuario +## Deshabilitando una cuenta de usuario {#disabling-a-user-account} -Cuando la cuenta de un usuario está desactivada, se revocan todas las claves de aplicación que haya creado ese usuario. No obstante, las claves de API creadas por la cuenta desactivada no se eliminarán y seguirán siendo válidas. +Si la cuenta de un usuario está deshabilitada, se revocan las claves de aplicación que el usuario creó. Cualquier clave de API que fue creada por la cuenta deshabilitada no se elimina y sigue siendo válida. -## Transferir claves +## Transferencia de claves {#transferring-keys} -Por motivos de seguridad, Datadog no transfiere claves de aplicaciones de un usuario a otro. Si necesitas compartir una clave de aplicación, utiliza una [cuenta de servicio][20]. +Por razones de seguridad, Datadog no transfiere claves de aplicación de un usuario a otro. Si necesita compartir una clave de aplicación, utilice una [cuenta de servicio][20]. -## Qué hacer si una clave de API o aplicación se ve expuesta +## Qué hacer si una clave de API o de aplicación fue expuesta {#what-to-do-if-an-api-or-application-key-was-exposed} -Si alguna clave privada está en riesgo o se ha filtrado públicamente, se deben tomar medidas lo antes posible para garantizar la seguridad de la cuenta. Eliminar el archivo que contiene la clave de un sitio público como GitHub **no** garantiza que otras personas no hayan accedido ya a él. +Si una clave privada ha sido comprometida o expuesta públicamente, se deben tomar medidas lo más rápido posible para garantizar la seguridad de su cuenta. Eliminar el archivo que contiene la clave de un sitio público como GitHub **no** garantiza que no haya sido accedido por otra parte. -Sigue estos pasos para proteger tu cuenta: +Siga estos pasos para ayudar a proteger su cuenta: -**Nota:** Revocar una clave activa puede afectar a tus servicios. Si el contexto de uso es amplio o indeterminado, plantéate seguir los pasos del 2 al 5 **antes** de revocar la clave afectada. +**Nota:** Revocar una clave activa puede causar un impacto en sus servicios. Si el alcance de uso es amplio o indeterminado, considere los pasos 2-5 **antes de** revocar la clave afectada. -1. Revoca la clave afectada. -2. Elimina el código que contiene la clave privada de cualquier archivo con acceso público: - - Publica el archivo saneado en tu repositorio público. - - Elimina los datos confidenciales de tu historial de confirmaciones. -3. Crea una clave nueva. -4. Actualiza los servicios afectados con la nueva clave. -5. Revisa la cuenta para comprobar si ha habido algún acceso no autorizado: - - Usuarios añadidos recientemente +1. Revocar la clave afectada. +2. Eliminar el código que contiene la clave privada de cualquier archivo accesible públicamente: + - Publique el archivo sanitizado en su repositorio público. + - Elimine los datos sensibles de su historial de commits. +3. Cree una nueva clave. +4. Actualice los servicios afectados con la nueva clave. +5. Revise su cuenta en busca de accesos no aprobados: + - Usuarios que han sido añadidos recientemente - Nuevos recursos - - Cambios en permisos o roles + - Cambios en roles o permisos -Si detectas alguna actividad inusual o necesitas más ayuda para proteger tu cuenta, ponte en contacto con [Asistencia técnica de Datadog][19]. +Si se identifica alguna actividad inusual, o necesita ayuda adicional para asegurar su cuenta, comuníquese con [Soporte][19]. -## Solucionar problemas +## Resolución de problemas {#troubleshooting} -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][19]. +¿Necesita ayuda? Contacte a [Soporte][19]. [1]: https://app.datadoghq.com/organization-settings/api-keys [2]: https://app.datadoghq.com/organization-settings/application-keys @@ -196,4 +196,6 @@ Si detectas alguna actividad inusual o necesitas más ayuda para proteger tu cue [18]: /es/api/latest/service-accounts/ [19]: /es/help/ [20]: /es/account_management/org_settings/service_accounts/ -[21]: /es/api/latest/action-connection/#register-a-new-app-key \ No newline at end of file +[21]: /es/api/latest/action-connection/#register-a-new-app-key +[22]: /es/account_management/audit_trail/#setup +[23]: /es/account_management/rbac/permissions/#compliance \ No newline at end of file diff --git a/content/es/account_management/rbac/permissions.md b/content/es/account_management/rbac/permissions.md index a216baf107d..ebfe0791db3 100644 --- a/content/es/account_management/rbac/permissions.md +++ b/content/es/account_management/rbac/permissions.md @@ -1,79 +1,86 @@ --- algolia: - category: Documentación + category: Documentation rank: 80 - subcategory: Permisos de Rol en Datadog + subcategory: Datadog Role Permissions aliases: - /es/account_management/faq/managing-global-role-permissions -description: Referencia completa de los permisos de Datadog, incluidas los roles gestionados, - los roles personalizados, los permisos confidenciales y la lista de permisos. +description: Referencia completa de los permisos de Datadog, incluyendo roles gestionados, + roles personalizados, permisos sensibles y la lista de permisos. disable_toc: true further_reading: - link: /account_management/rbac/ tag: Documentación - text: Aprende cómo crear, actualizar y borrar un rol. + text: Aprenda cómo crear, actualizar y eliminar un Rol - link: /api/v2/roles/#list-permissions tag: Documentación - text: Gestiona tus permisos con la API de permisos. -title: Permisos de rol en Datadog + text: Administre sus permisos con la API de Permisos +title: Permisos de Rol de Datadog --- +## Permisos {#permissions} -## Permisos +Los permisos definen el tipo de acceso que un usuario tiene a un recurso determinado. Típicamente, los permisos otorgan a un usuario el derecho a leer, editar o eliminar un objeto. Los permisos subyacen a los derechos de acceso de todos los roles, incluyendo los tres roles gestionados y los roles personalizados. -Los permisos definen el tipo de acceso que tiene un usuario a un recurso determinado. Por lo general, los permisos otorgan a un usuario el derecho a leer, editar o eliminar un objeto. Los permisos son la base de los derechos de acceso de todos los roles, incluidos los tres roles gestionados y los roles personalizados. +### Permisos sensibles {#sensitive-permissions} -### Permisos sensibles +Algunos permisos de Datadog proporcionan acceso a funcionalidades más privilegiadas que es importante conocer, tales como: -Algunos permisos de Datadog proporcionan acceso a funcionalidades más privilegiadas, que es importante conocer, como por ejemplo: - -- Acceso para cambiar parámetros de la organización -- Acceso para leer datos potencialmente confidenciales +- Acceso para cambiar la configuración de la organización +- Acceso para leer datos potencialmente sensibles - Acceso para realizar operaciones privilegiadas -Los permisos sensibles se marcan en las interfaces de Roles y Permisos para identificar que pueden necesitar un mayor análisis. Como práctica recomendada, los administradores que configuran las funciones deben prestar especial atención a estos permisos y confirmar cuáles de ellos están asignados a sus funciones y usuarios. +Los permisos sensibles están marcados en las interfaces de Roles y Permisos para identificar que pueden necesitar un mayor escrutinio. Como mejor práctica, los administradores que configuran roles deben prestar especial atención a estos permisos y confirmar cuáles de estos permisos están asignados a sus roles y usuarios. + +### Permisos en modo de vista previa {#preview-mode-permissions} + +Algunos permisos aparecen en "modo de vista previa" antes de ser completamente aplicados. Durante este período: + +- Los permisos de vista previa se marcan en la aplicación con una insignia de "Vista previa" +- No restringen el acceso hasta que finaliza el período de vista previa +- La vista previa generalmente dura de 2 a 4 semanas antes de que comience la aplicación +- Los administradores deben configurar los roles adecuadamente durante este período -### Permisos del modo de vista previa +El modo de vista previa le da a los administradores de su organización la capacidad de optar por ciertos nuevos permisos, para que puedan evitar perder acceso a recursos que anteriormente no estaban restringidos. Las notas de la versión asociadas con cada permiso de modo de vista previa indican cuándo se crea el permiso y cuándo se aplicará. Si bien estos permisos no restringen el acceso durante la vista previa, Datadog recomienda actualizar las configuraciones de roles antes de que se apliquen para evitar interrupciones. -Algunos permisos aparecen en "modo de vista previa" antes de aplicarse plenamente. Durante este periodo: +## Roles {#roles} -- Los permisos de vista previa se marcan en la aplicación con un distintivo de "Vista previa". -- No restringen el acceso hasta que finaliza el periodo de vista previa -- La vista previa suele durar de 2 a 4 semanas antes de que comience la ejecución. -- Los administradores deben configurar roles apropiados durante este período +### Roles gestionados {#managed-roles} -El modo de vista previa ofrece a los administradores de tu organización la posibilidad de optar por determinados permisos nuevos, de modo que puedan evitar perder el acceso a recursos que antes no tenían restricciones. Las notas de la versión asociadas a cada permiso del modo de vista previa indican cuándo se crea el permiso y cuándo se aplicará. Aunque estos permisos no restringen el acceso durante la vista previa, Datadog recomienda actualizar las configuraciones de roles antes de que entren en vigor para evitar interrupciones. +Por defecto, los usuarios existentes están asociados con uno de los tres roles gestionados: -## Roles +- Rol de Administrador de Datadog +- Rol Estándar de Datadog +- Rol de Datadog Read Only -### Roles gestionados +Todos los usuarios con uno de estos roles pueden leer datos, excepto por los recursos [individualmente restringidos para lectura][1]. Los usuarios de Datadog Admin y de Datadog Standard tienen permisos de escritura sobre los activos. Los usuarios de Datadog Admin tienen permisos adicionales de lectura y escritura para activos sensibles relacionados con la gestión de usuarios, la gestión de organizaciones, la facturación y el uso. -Por defecto, los usuarios existentes están asociados a uno de los tres roles gestionados: +Los roles gestionados son creados y mantenidos por Datadog. Sus permisos pueden ser actualizados automáticamente por Datadog a medida que se agregan nuevas funciones o cambian los permisos. Los usuarios no pueden modificar roles administrados directamente, pero pueden clonarlos para crear [roles personalizados](#custom-roles) con permisos específicos. Si es necesario, los usuarios pueden eliminar roles administrados de su cuenta. -- Rol de administrador de Datadog -- Rol estándar de Datadog -- Rol de sólo lectura de Datadog +### Roles personalizados {#custom-roles} -Todos los usuarios con uno de estos roles pueden leer datos, excepto los recursos [con restricción de lectura individual][1]. Los usuarios Admin y Standard tienen permisos de escritura sobre los recursos. Los usuarios Admin tienen permisos adicionales de lectura y escritura para activos confidenciales relacionados con la gestión de usuarios, la gestión de la organización, la facturación y el uso. +Crea un rol personalizado para combinar permisos en nuevos roles. Un rol personalizado te da la capacidad de definir una persona, por ejemplo, un administrador de facturación, y luego asignar los permisos apropiados para ese rol. Después de crear un rol, asigna o elimina permisos a este rol directamente [actualizando el rol en Datadog][2], o a través de la [API de Permisos de Datadog][3]. También puedes agregar un permiso a múltiples roles personalizados a la vez seleccionando esos roles desde la página de Roles y presionando {{< ui >}}Add Permission{{< /ui >}}. -Los roles gestionados son creados y mantenidos por Datadog. Sus permisos pueden ser actualizados automáticamente por Datadog a medida que se añaden nuevas funciones o cambian los permisos. Los usuarios no pueden modificar los roles gestionados directamente, pero pueden clonarlos para crear [roles personalizados](#custom-roles) con permisos específicos. Si es necesario, los usuarios pueden eliminar roles gestionados de sus cuentas. +A diferencia de los roles gestionados, los roles personalizados no reciben nuevos permisos cuando Datadog lanza nuevos productos y características, a menos que estén configurados para recibir Actualizaciones Automáticas. Si las Actualizaciones Automáticas están desactivadas, los roles personalizados solo reciben nuevos permisos para mantener la compatibilidad cuando Datadog lanza un nuevo permiso que limita la funcionalidad existente. -### Roles personalizados +Para configurar Actualizaciones Automáticas para roles personalizados: -Crea un rol personalizado para combinar permisos en nuevos roles. Un rol personalizado te permite definir una persona, por ejemplo, un administrador de facturación, y luego asignar los permisos apropiados para ese rol. Después de crear un rol, asigna permisos a este rol o elimínalos directamente [updating the role in Datadog (actualizando el rol en Datadog)][2], o a través de la [Datadog Permission API (API de permiso de Datadog)][3]. +1. Ve a la página de Configuración de la Organización y haz clic en la {{< ui >}}Roles{{< /ui >}} pestaña. +2. Haz clic en el rol que deseas actualizar y haz clic en {{< ui >}}Edit Role{{< /ui >}}. +3. Bajo {{< ui >}}Automatically Receives Permissions{{< /ui >}}, elige una opción del menú desplegable: Ninguno, Rol de Datadog Read Only, Rol Estándar de Datadog o Rol de Administrador de Datadog. -A diferencia de los roles gestionados, los roles personalizados no reciben nuevos permisos cuando Datadog lanza nuevos productos y funciones. Los roles personalizados solo reciben nuevos permisos para mantener la compatibilidad cuando Datadog lanza un nuevo permiso que bloquea una funcionalidad existente. +Si el rol personalizado está configurado para recibir actualizaciones automáticas, tu rol personalizado recibe cualquier nuevo permiso cada vez que se lanzan a la plantilla de rol seleccionada. No se añaden permisos ya lanzados. Puedes agregar o eliminar cualquier permiso de este rol y continuar recibiendo actualizaciones automáticas. -**Nota**: Al añadir un nuevo rol personalizado a un usuario, asegúrate de eliminar el rol de Datadog gestionado, asociado a ese usuario, para aplicar los permisos del nuevo rol. +**Nota**: Al agregar un nuevo rol personalizado a un usuario, asegúrate de eliminar el rol gestionado de Datadog asociado con ese usuario para hacer cumplir estrictamente los nuevos permisos del rol. -## Lista de permisos +## Lista de permisos {#permissions-list} -La siguiente tabla muestra el nombre, la descripción y el rol predeterminado de todos los permisos disponibles en Datadog. Cada tipo de recurso tiene sus correspondientes permisos de lectura y escritura. +La siguiente tabla enumera el nombre, la descripción y el rol predeterminado para todos los permisos disponibles en Datadog. Cada tipo de activo tiene permisos de lectura y escritura correspondientes. -Cada rol gestionado hereda todos los permisos de los roles menos potentes. Por lo tanto, el rol Estándar de Datadog tiene todos los permisos que se indican en la tabla con Datadog Sólo Lectura como rol por defecto. Además, el rol Administrador de Datadog contiene todos los permisos del rol Estándar de Datadog y del rol de Sólo lectura de Datadog. +Cada rol gestionado hereda todos los permisos de los roles menos poderosos. Por lo tanto, el Rol Estándar de Datadog tiene todos los permisos listados en la tabla con Datadog Read Only como rol predeterminado. Además, el Rol de Datadog Admin contiene todos los permisos tanto del Rol de Datadog Standard como del Rol de Datadog Read Only. {{% permissions %}} -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/agent/_index.md b/content/es/agent/_index.md index 6a4a9e73378..4f8a4943c32 100644 --- a/content/es/agent/_index.md +++ b/content/es/agent/_index.md @@ -21,88 +21,91 @@ cascade: rank: 80 tags: - agent -description: Instala y configura el Agente para recopilar datos +description: Instale y configure el Agente para recopilar datos further_reading: - link: /logs/ tag: Documentación - text: Recopila tus registros + text: Recopile sus registros - link: /infrastructure/process/ tag: Documentación - text: Recopila tus procesos + text: Recopile sus procesos - link: /tracing/ tag: Documentación - text: Recopila tus trazas + text: Recopile sus trazas - link: /agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ tag: Documentación text: ¿Por qué instalar el Agente en instancias en la nube? - link: https://www.datadoghq.com/blog/dont-fear-the-agent/ tag: Blog - text: No temas al Agente + text: No tema al Agente +- link: https://learn.datadoghq.com/courses/agent-on-host + tag: Centro de Aprendizaje + text: El Agente en un Servidor title: Agente ---
-El Agente v7 está disponible. Actualiza a la versión más reciente para beneficiarte de toda la nueva funcionalidad. +El Agente v7 está disponible. Actualice a la versión más reciente para beneficiarse de toda la nueva funcionalidad.
## Resumen {#overview} -El Agente de Datadog es un software que se ejecuta en tus hosts. Recopila eventos y métricas de los hosts y los envía a Datadog, donde puedes analizar tus datos de monitoreo y rendimiento. El Agente de Datadog es de código abierto y su código fuente está disponible en GitHub en [DataDog/datadog-agent][1]. +El Agente de Datadog es un software que se ejecuta en sus servidores. Recopila eventos y métricas de los servidores y los envía a Datadog, donde puede analizar sus datos de monitoreo y rendimiento. El Agente de Datadog es de código abierto y su código fuente está disponible en GitHub en [DataDog/datadog-agent][1].
{{< partial name="platforms/platforms.html" links="platforms" >}}

-Datadog recomienda que actualices el Agente de Datadog con cada lanzamiento menor y de parches, o, como mínimo, mensualmente.

+Datadog recomienda que actualice el Agente de Datadog con cada versión menor y de parche, o, como mínimo, mensualmente.

-Actualizar a una versión principal del Agente de Datadog y mantenerlo actualizado es la única forma soportada de obtener la última funcionalidad y correcciones del Agente.

-

Se recomienda instalar completamente el Agente. Sin embargo, un paquete independiente de DogStatsD está disponible para Amazon Linux, CentOS, Debian, Fedora, Red Hat, SUSE y Ubuntu. Este paquete se utiliza en entornos contenedorizados donde DogStatsD se ejecuta como un sidecar o en entornos que ejecutan un servidor DogStatsD sin la funcionalidad completa del Agente.

+Actualizar a una versión principal del Agente de Datadog y mantenerlo actualizado es la única forma soportada para obtener la última funcionalidad y correcciones del Agente.

+

Se recomienda instalar completamente el Agente. Sin embargo, hay un paquete independiente de DogStatsD disponible para Amazon Linux, CentOS, Debian, Fedora, Red Hat, SUSE y Ubuntu. Este paquete se utiliza en entornos contenedorizados donde DogStatsD se ejecuta como un sidecar o en entornos que ejecutan un servidor DogStatsD sin la funcionalidad completa del Agente.

## Gestión del Agente {#managing-the-agent} ### Gestión del Agente con Automatización de Flota (recomendado) {#managing-the-agent-with-fleet-automation-recommended} -[Automatización de Flota][15] es el flujo de trabajo principal dentro de la aplicación para instalar, actualizar, configurar y solucionar problemas del Agente de Datadog a gran escala. +[Fleet Automation][15] es el flujo de trabajo principal en la aplicación para instalar, actualizar, configurar y solucionar problemas del Agente de Datadog a gran escala. -{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="La vista de Automatización de Flota que permite gestionar centralmente sus Agentes de Datadog en un solo lugar." style="width:100%;">}} +{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="La vista de Fleet Automation que le permite gestionar centralmente sus Agentes de Datadog en un solo lugar." style="width:100%;">}} -- **Ver configuración e historial**: Ver cada Agente en su flota, su versión, productos habilitados, archivos de configuración y cambios históricos desde una sola página. -- **[Actualizar Agentes desactualizados][13]**: Activar actualizaciones remotas para sus Agentes y mantener su flota actualizada con unos pocos clics. -- **[Enviar una señal para soporte][14]**: Desde la pestaña de Soporte de un host, generar una señal y adjuntarla a un caso de Soporte existente o nuevo sin tener que usar la línea de comandos. -- **Auditar el uso de la clave API**: Identificar qué Agentes están utilizando una clave API específica y rotar claves de manera segura. +- **{{< ui >}}View configuration & history{{< /ui >}}**: Vea cada Agente en su flota, su versión, productos habilitados, archivos de configuración y cambios históricos desde una sola página. +- **[Upgrade outdated Agents][13]**: Inicie actualizaciones remotas para sus Agentes y mantenga actualizada su flota en unos pocos clics. +- **[Send a flare for support][14]**: Desde la pestaña {{< ui >}}Support{{< /ui >}} de un servidor, genere un flare y adjúntelo a una incidencia de soporte existente o nueva sin tener que usar la línea de comandos. +- **Auditar el uso de la clave de API**: Identifique cuáles agentes están utilizando una clave de API específica y rote las claves de manera segura. -### Interfaz Gráfica del Administrador del Agente de Datadog {#datadog-agent-manager-gui} +### Datadog Agent Manager GUI {#datadog-agent-manager-gui}
La interfaz gráfica del Agente no es compatible con plataformas Windows de 32 bits.
-Utilice la interfaz gráfica del Administrador del Agente de Datadog para: -- Ver la información de estado de su Agente -- Ver todas las verificaciones en ejecución -- Ver el registro del Agente -- Editar el archivo de configuración del Agente (`datadog.yaml`) -- Agregar o editar verificaciones de Agente -- Enviar bengalas +Usa la interfaz gráfica del Administrador del Agente de Datadog para: +- Vea la información de estado de su Agente +- Vea todas las verificaciones en ejecución +- Vea el registro del Agente +- Edite el archivo de configuración del Agente (`datadog.yaml`) +- Agregue o edite las verificaciones del Agente. +- Envíe flares. -La interfaz gráfica del administrador de Agente de Datadog está habilitada por defecto en Windows y macOS, y se ejecuta en el puerto `5002`. Utiliza el comando `datadog-agent launch-gui` para abrir la interfaz gráfica en tu navegador web predeterminado. +La interfaz gráfica del administrador del Agente de Datadog está habilitada por defecto en Windows y macOS, y se ejecuta en el puerto `5002`. Utilice el comando `datadog-agent launch-gui` para abrir la interfaz gráfica en su navegador web predeterminado. -Puedes cambiar el puerto predeterminado de la interfaz gráfica en tu archivo de configuración `datadog.yaml`. Para deshabilitar la interfaz gráfica, establece el valor del puerto en `-1`. En Linux, la interfaz gráfica está deshabilitada por defecto. +Puede cambiar el puerto predeterminado de la interfaz gráfica en su archivo de configuración `datadog.yaml`. Para deshabilitar la interfaz gráfica, establezca el valor del puerto en `-1`. En Linux, la interfaz gráfica está deshabilitada por defecto. Requisitos de la interfaz gráfica: -- Las cookies deben estar habilitadas en tu navegador. La interfaz gráfica genera y guarda un token en tu navegador, que se utiliza para autenticar todas las comunicaciones con el servidor de la interfaz gráfica. -- Para iniciar la interfaz gráfica, el usuario debe tener los permisos requeridos. Si puedes abrir `datadog.yaml`, puedes usar la interfaz gráfica. -- Por razones de seguridad, la interfaz gráfica solo puede ser accedida desde la interfaz de red local (`localhost`/`127.0.0.1`), por lo tanto, debes estar en el host donde se está ejecutando el Agente. No puedes ejecutar el Agente en una máquina virtual o un contenedor y acceder a él desde la máquina host. +- Las cookies deben estar habilitadas en su navegador. La interfaz gráfica genera y guarda un token en su navegador, que se utiliza para autenticar todas las comunicaciones con el servidor de la interfaz gráfica. +- Para iniciar la interfaz gráfica, el usuario debe tener los permisos requeridos. Si puede abrir `datadog.yaml`, puede usar la interfaz gráfica. +- Por razones de seguridad, la interfaz gráfica solo puede **ser accedida** desde la interfaz de red local (`localhost`/`127.0.0.1`), por lo tanto, debe estar en el servidor donde se está ejecutando el Agente. No puede ejecutar el Agente en una máquina virtual o un contenedor y acceder a él desde el servidor. ### Interfaz de línea de comandos {#command-line-interface} -Desde el Agente 6 en adelante, la interfaz de línea de comandos del Agente se basa en subcomandos. Para una lista completa de subcomandos del Agente, consulta [Comandos del Agente][2]. +A partir del Agente 6 y versiones posteriores, la interfaz de línea de comandos del Agente se basa en subcomandos. Para una lista completa de los subcomandos del Agente, consulte [Comandos del Agente][2]. ## Avanzando más con el Agente de Datadog {#getting-further-with-the-datadog-agent} -### Actualizar el Agente {#update-the-agent} +### Actualice el Agente {#update-the-agent} -Para actualizar manualmente el núcleo del Agente de Datadog entre dos versiones menores en un host determinado, ejecute el [comando de instalación correspondiente para su plataforma][7]. +Para actualizar manualmente el núcleo del Agente de Datadog entre dos versiones menores en un servidor determinado, ejecute el [comando de instalación correspondiente para su plataforma][7]. **Nota**: Si desea actualizar manualmente una integración específica del Agente, consulte la [guía de Gestión de Integraciones][8]. @@ -120,17 +123,17 @@ site: {{< region-param key="dd_site" >}} **Nota**: Consulte la [documentación de Introducción a los Sitios de Datadog][11] para más detalles sobre el parámetro `site`. -### Ubicación de los registros {#log-location} +### Ubicación de registros {#log-location} Consulte la [documentación de archivos de registro del Agente][12]. ## Sobrecarga del Agente {#agent-overhead} -Un ejemplo del consumo de recursos del Agente de Datadog se muestra a continuación. Se realizaron pruebas en una instancia de máquina Amazon EC2 `c5.xlarge` (4 VCPU/ 8GB RAM) y se observó un rendimiento comparable en instancias basadas en ARM64 con recursos similares. El `datadog-agent` estándar se estaba ejecutando con un chequeo de proceso para monitorear el Agente en sí. Habilitar más integraciones puede aumentar el consumo de recursos del Agente. -Habilitar las verificaciones de JMX obliga al Agente a usar más memoria dependiendo del número de beans expuestos por las JVMs monitoreadas. Habilitar los Agentes de traza y proceso también aumenta el consumo de recursos. +Un ejemplo del consumo de recursos del Agente de Datadog se muestra a continuación. Se realizaron pruebas en una instancia de máquina Amazon EC2 `c5.xlarge` (4 VCPU/ 8GB RAM) y se observó un rendimiento comparable en instancias basadas en ARM64 con recursos similares. La versión vanilla `datadog-agent` estaba ejecutándose con una verificación de proceso para monitorear el propio Agente. Habilitar más integraciones puede aumentar el consumo de recursos del Agente. +Habilitar las verificaciones JMX obliga al Agente a usar más memoria dependiendo del número de beans expuestos por las JVMs monitoreadas. Habilitar los Agentes de traza y de proceso también incrementa el consumo de recursos. * Versión de prueba del Agente: 7.34.0 -* CPU: ~ 0.08% del CPU utilizado en promedio +* CPU: ~ 0.08% de la CPU utilizada en promedio. * Memoria: ~ 130MB de RAM utilizada (memoria RSS) * Ancho de banda de red: ~ 140 B/s ▼ | 800 B/s ▲ * Disco: @@ -145,7 +148,7 @@ Los resultados a continuación se obtienen de una colección de *110KB de regist {{% tab "Nivel de compresión HTTP 6" %}} * Versión de prueba del Agente: 6.15.0 -* CPU: ~ 1.5% del CPU utilizado en promedio +* CPU: ~ 1.5% de la CPU utilizada en promedio. * Memoria: ~ 95MB de RAM utilizada. * Ancho de banda de red: ~ 14 KB/s ▲ @@ -153,7 +156,7 @@ Los resultados a continuación se obtienen de una colección de *110KB de regist {{% tab "Nivel de compresión HTTP 1" %}} * Versión de prueba del Agente: 6.15.0 -* CPU: ~ 1% del CPU utilizado en promedio +* CPU: ~ 1% de la CPU utilizada en promedio. * Memoria: ~ 95MB de RAM utilizada. * Ancho de banda de red: ~ 20 KB/s ▲ @@ -161,7 +164,7 @@ Los resultados a continuación se obtienen de una colección de *110KB de regist {{% tab "HTTP sin comprimir" %}} * Versión de prueba del Agente: 6.15.0 -* CPU: ~ 0.7% de la CPU utilizada en promedio +* CPU: ~ 0.7% de la CPU utilizada en promedio. * Memoria: ~ 90MB de RAM utilizada (memoria RSS) * Ancho de banda de red: ~ 200 KB/s ▲ @@ -172,17 +175,17 @@ Los resultados a continuación se obtienen de una colección de *110KB de regist ## Recursos adicionales {#additional-resources} {{< whatsnext desc="Esta sección incluye los siguientes temas:">}} {{< nextlink href="/agent/kubernetes">}}Kubernetes: Instalar y configurar el Agente de Datadog en Kubernetes.{{< /nextlink >}} - {{< nextlink href="/agent/cluster_agent">}}Agente de Clúster: Instalar y configurar el Agente de Clúster para Kubernetes, una versión del Agente de Datadog diseñada para recopilar datos de monitoreo de manera eficiente desde un clúster orquestado.{{< /nextlink >}} + {{< nextlink href="/agent/cluster_agent">}}Agente de clúster: Instalar y configurar el Agente de clúster para Kubernetes, una versión del Agente de Datadog diseñada para recopilar datos de monitoreo de manera eficiente en un clúster orquestado.{{< /nextlink >}} {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS: Instalar y configurar el Agente de Datadog en Amazon ECS.{{< /nextlink >}} {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate: Instalar y configurar el Agente de Datadog con Amazon ECS en AWS Fargate{{< /nextlink >}} - {{< nextlink href="/agent/iot">}}IoT: Instalar y configurar el Agente de IoT de Datadog, una versión del Agente de Datadog optimizada para monitorear dispositivos IoT y aplicaciones embebidas.{{< /nextlink >}} + {{< nextlink href="/agent/iot">}}IoT: Instalar y configurar el Agente de IoT de Datadog, una versión del Agente de Datadog optimizada para el seguimiento de dispositivos IoT y aplicaciones embebidas.{{< /nextlink >}} {{< nextlink href="/agent/logs">}}Recolección de Registros: Habilitar y configurar la recolección de registros en el Agente de Datadog.{{< /nextlink >}} {{< nextlink href="/agent/configuration/proxy">}}Proxy: Si la configuración de su red restringe el tráfico saliente, use un proxy para el tráfico del Agente.{{< /nextlink >}} {{< nextlink href="/agent/versions/">}}Versiones: El Agente 7 es la última versión principal del Agente de Datadog. Conozca los cambios entre las versiones principales del Agente y cómo actualizar.{{< /nextlink >}} - {{< nextlink href="/agent/troubleshooting">}}Solución de Problemas: Encuentre información sobre la solución de problemas para el Agente de Datadog.{{< /nextlink >}} + {{< nextlink href="/agent/troubleshooting">}}Solución de Problemas: Encuentre información de solución de problemas para el Agente de Datadog.{{< /nextlink >}} {{< nextlink href="/agent/guide">}}Guías: Estos son tutoriales detallados, paso a paso, para usar el Agente.{{< /nextlink >}} {{< nextlink href="/agent/security">}}Seguridad: Información sobre las principales capacidades y características de seguridad disponibles para los clientes para garantizar que su entorno esté seguro.{{< /nextlink >}} - {{< nextlink href="/getting_started/observability_pipelines">}}Configurar Pipelines de Observabilidad y Datadog: Desplegar el Trabajador de Pipelines de Observabilidad como un agregador para recopilar, transformar y enrutar todos sus registros y métricas a cualquier destino.{{< /nextlink >}} + {{< nextlink href="/getting_started/observability_pipelines">}}Configurar Pipelines de Observabilidad y Datadog: Despliegue el Observability Pipelines Worker como un agregador para recopilar, transformar y dirigir todos sus registros y métricas a cualquier destino.{{< /nextlink >}} {{< /whatsnext >}} ## Lectura Adicional {#further-reading} diff --git a/content/es/agent/configuration/agent-commands.md b/content/es/agent/configuration/agent-commands.md index 3e674da7535..74bf5541175 100644 --- a/content/es/agent/configuration/agent-commands.md +++ b/content/es/agent/configuration/agent-commands.md @@ -1,89 +1,88 @@ --- algolia: tags: - - comando del estado del Agent + - agent status command aliases: - /es/agent/faq/agent-status-and-information - /es/agent/faq/start-stop-restart-the-datadog-agent - /es/agent/faq/agent-commands - /es/agent/guide/agent-commands -description: Referencia completa de los comandos del Datadog Agent para iniciar, detener, - solucionar problemas y gestionar el Agent. +description: Referencia completa de los comandos del Agente de Datadog para iniciar, + detener, solucionar problemas y gestionar el Agente. further_reading: - link: /agent/troubleshooting/ tag: Documentación - text: Solucionar problemas del Agent -title: Comandos del Agent + text: Solución de problemas del Agente +title: Comandos del Agente --- -
-Para sistemas basados en Linux en los que no esté disponible el comando del envoltorio de servicios, consulta la lista de alternativas. +Para sistemas basados en Linux donde el comando envoltorio service no está disponible, consulte la lista de alternativas .
-## Iniciar, detener y reiniciar el Agent +## Iniciar, detener y reiniciar el Agente {#start-stop-and-restart-the-agent} -### Iniciar el Agent +### Iniciar el Agente {#start-the-agent} -Lista de comandos para iniciar el Datadog Agent: +Lista de comandos para iniciar el Agente de Datadog: | Plataforma | Comando | |------------|--------------------------------------------------------------------| | AIX | `startsrc -s datadog-agent` | -| Linux | Consulta la [documentación sobre el Agent][1] correspondiente a tu sistema operativo. | -| Docker | Utiliza el [comando de instalación][2]. | +| Linux | Consulte la [documentación del Agente][1] para su sistema operativo. | +| Docker | Use el [comando de instalación][2]. | | Kubernetes | `kubectl create -f datadog-agent.yaml` | -| macOS | `launchctl start com.datadoghq.agent` *o* a través de la aplicación systray | +| macOS | `launchctl start com.datadoghq.agent` *o* a través de la aplicación de la bandeja del sistema | | Fuente | `sudo service datadog-agent start` | -| Windows | Consulta la [documentación sobre el Windows Agent][3]. | +| Windows | Consulte la [documentación del Agente de Windows][3]. | -### Detener el Agent +### Detenga el Agente {#stop-the-agent} -Lista de comandos para detener el Datadog Agent: +Lista de comandos para detener el Agente de Datadog: | Plataforma | Comando | |------------|----------------------------------------------------------------------------------| | AIX | `stopsrc -s datadog-agent` | -| Linux | Consulta la [documentación sobre el Agent][1] correspondiente a tu sistema operativo. | +| Linux | Consulte la [documentación del Agente][1] para su sistema operativo. | | Docker | `docker exec -it agent stop` | -| Kubernetes | `kubectl delete pod `. Nota: El pod se reprograma automáticamente. | -| macOS | `launchctl stop com.datadoghq.agent` *o* a través de la aplicación systray | +| Kubernetes | `kubectl delete pod `—nota: el pod se reprograma automáticamente | +| macOS | `launchctl stop com.datadoghq.agent` *o* a través de la aplicación de la bandeja del sistema | | Fuente | `sudo service datadog-agent stop` | -| Windows | Consulta la [documentación sobre el Windows Agent][3]. | +| Windows | Consulte la [documentación del Agente de Windows][3]. | -### Reinicio del Agent +### Reinicie el Agente {#restart-the-agent} -Lista de comandos para reiniciar el Datadog Agent: +Lista de comandos para reiniciar el Agente de Datadog: | Plataforma | Comando | |------------|----------------------------------------------------------------------------------| -| Linux | Consulta la [documentación sobre el Agent][1] correspondiente a tu sistema operativo. | -| Docker | Utiliza el [comando de instalación][2]. | -| Kubernetes | `kubectl delete pod `. Nota: El pod se reprograma automáticamente. | -| macOS | Detener y luego iniciar el Agent con:
`launchctl stop com.datadoghq.agent`
`launchctl start com.datadoghq.agent`
o utilizar la aplicación systray | -| Fuente | *Plataforma no compatible* | -| Windows | Consulta la [documentación sobre el Windows Agent][3]. | +| Linux | Consulte la [documentación del Agente][1] para su sistema operativo. | +| Docker | Use el [comando de instalación][2]. | +| Kubernetes | `kubectl delete pod `—nota: el pod se reprograma automáticamente | +| macOS | Detenga y luego inicie el Agente con:
`launchctl stop com.datadoghq.agent`
`launchctl start com.datadoghq.agent`
O use la aplicación de la bandeja del sistema | +| Fuente | * Plataforma no soportada * | +| Windows | Consulte la [documentación del Agente de Windows][3]. | -## Estado e información del Agent +## Estado e información del Agente de Datadog {#agent-status-and-information} -### Estado del servicio +### Estado del servicio {#service-status} -Lista de comandos para mostrar el estado del Datadog Agent: +Lista de comandos para mostrar el estado del Agente de Datadog: | Plataforma | Comando | |-----------------|-------------------------------------------------------------------------------| | AIX | `lssrc -s datadog-agent` | -| Linux | Consulta la [documentación sobre el Agent][1] correspondiente a tu sistema operativo. | +| Linux | Consulte la [documentación del Agente][1] para su sistema operativo. | | Docker (Debian) | `sudo docker exec -it s6-svstat /var/run/s6/services/agent/` | | Kubernetes | `kubectl exec -it -- s6-svstat /var/run/s6/services/agent/` | -| macOS | `launchctl list com.datadoghq.agent` *o* a través de la aplicación systray | +| macOS | `launchctl list com.datadoghq.agent` *o* a través de la aplicación de la bandeja del sistema | | Fuente | `sudo service datadog-agent status` | -| Windows | Consulta la [documentación del Agent Windows][4]. | -| [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | +| Windows | Consulte la [documentación del Agente de Windows][4]. | +| [Agente de clúster (Kubernetes)][5] | `datadog-cluster-agent status` | -### Información del Agent +### Información del Agente {#agent-information} -Lista de comandos para mostrar el estado del Datadog Agent y las integraciones habilitadas. +Lista de comandos para mostrar el estado del Agente de Datadog y las integraciones habilitadas. | Plataforma | Comando | |------------|------------------------------------------------------| @@ -91,12 +90,12 @@ Lista de comandos para mostrar el estado del Datadog Agent y las integraciones h | Linux | `sudo datadog-agent status` | | Docker | `sudo docker exec -it agent status` | | Kubernetes | `kubectl exec -it -- agent status` | -| macOS | `datadog-agent status` o a través de la [GUI web][6] | +| macOS | `datadog-agent status` o a través de la [interfaz gráfica web][6] | | Fuente | `sudo datadog-agent status` | -| Windows | Consulta la [documentación del Agent Windows][4]. | -| [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | +| Windows | Consulte la [documentación del Agente de Windows][4]. | +| [Agente de clúster (Kubernetes)][5] | `datadog-cluster-agent status` | -Se mostrará una integración debidamente configurada en **Running Checks** (Checks en ejecución) sin que figuren avisos ni errores, tal y como aparece a continuación: +Una integración correctamente configurada se muestra bajo **Verificaciones en ejecución** sin advertencias ni errores, como se ve a continuación: ```text Running Checks @@ -110,43 +109,46 @@ Running Checks Average Execution Time : 0ms ``` -## Otros comandos +## Otros comandos {#other-commands} + +La interfaz de línea de comandos del Agente se basa en subcomandos. Para ver la lista de subcomandos disponibles, ejecute: -La interfaz de línea de comandos del Agent se basa en subcomandos. Para consultar la lista de subcomandos disponibles, ejecuta: ```shell --help ``` -Para ejecutar un subcomando, se debe invocar el archivo binario del Agent: +Para ejecutar un subcomando, se debe invocar el binario del Agente: + ```shell ``` -Algunas opciones tienen marcas y opciones detalladas en el subcomando `--help`. For example, use help with the `check`: +Algunas opciones tienen banderas y opciones detalladas en `--help`. Por ejemplo, utilice el subcomando `check` para obtener ayuda: + ```shell check --help ``` | Subcomando | Notas | |-------------------|-----------------------------------------------------------------------------| -| `check` | Ejecuta el check especificado. | -| `config` | [Gestión de la configuración del tiempo de ejecución][7]. | -| `configcheck` | Muestra todas las configuraciones cargadas y resueltas de un Agent en ejecución. | -| `diagnose` | Realiza un diagnóstico de conectividad en tu sistema. | -| `flare` | [Recopila una bengala y envíala a Datadog][8]. | -| `health` | Muestra el estado en que se encuentra el Agent en el momento de la ejecución del subcomando. | -| `help` | Ofrece ayuda con cualquier comando. | -| `hostname` | Muestra el nombre de host que utiliza el Agent. | -| `import` | Importa y convierte archivos de configuración de versiones anteriores del Agent. | -| `jmx` | Soluciona problemas de JMX. | -| `launch-gui` | Inicia la GUI del Datadog Agent. | -| `restart-service` | Reinicia el Agent en el administrador de control de servicios. Solo en Windows. | -| `start-service` | Inicia el Agent en el administrador de control de servicios. Solo en Windows. | -| `stream-logs` | Transmite los logs que procesa un Agent en ejecución. | -| `stopservice` | Detiene el Agent en el administrador de control de servicios. Solo en Windows. | -| `version` | Muestra información acerca de la versión. | - -## Referencias adicionales +| `check` | Ejecute la verificación especificada. | +| `config` | [Gestión de configuración en tiempo de ejecución][7]. | +| `configcheck` | Imprima todas las configuraciones cargadas y resueltas de un Agente en ejecución. | +| `diagnose` | Ejecute un diagnóstico de conectividad en su sistema. | +| `flare` | [Recolecte un flare y envíelo a Datadog][8]. | +| `health` | Imprima la salud actual del Agente. | +| `help` | Ayuda sobre cualquier comando. | +| `hostname` | Imprima el nombre de host utilizado por el Agente. | +| `import` | Importar y convertir archivos de configuración de versiones anteriores del Agente de Datadog. | +| `jmx` | Solución de problemas de JMX. | +| `launch-gui` | Iniciar la interfaz gráfica del Agente de Datadog. | +| `restart-service` | Reiniciar el Agente dentro del administrador de control de servicios. Solo en Windows. | +| `start-service` | Iniciar el Agente dentro del administrador de control de servicios. Solo en Windows. | +| `stream-logs` | Transmitir los registros que está procesando un Agente en ejecución. | +| `stopservice` | Detener el Agente dentro del administrador de control de servicios. Solo en Windows. | +| `version` | Imprimir información de versión. | + +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/agent/configuration/network.md b/content/es/agent/configuration/network.md index e3775baefeb..51a95618c9a 100644 --- a/content/es/agent/configuration/network.md +++ b/content/es/agent/configuration/network.md @@ -15,29 +15,29 @@ aliases: further_reading: - link: /getting_started/site tag: Documentación - text: Aprende sobre el sitio de Datadog + text: Conoce el sitio de Datadog - link: /logs/ tag: Documentación - text: Recopila tus registros + text: Recoja sus registros - link: /infrastructure/process tag: Documentación - text: Recopila tus procesos + text: Recoja sus procesos - link: tracing tag: Documentación - text: Recopila tus trazas + text: Recoja sus trazas title: Tráfico de red --- ## Resumen {#overview}
-El tráfico siempre es iniciado por el Agente hacia Datadog. Nunca se inician sesiones desde Datadog de regreso al Agente. +El Agente siempre inicia el tráfico hacia Datadog. Datadog nunca inicia sesiones de regreso al Agente.
-Todo el tráfico del Agente se envía a través de SSL. El destino depende del servicio y sitio de Datadog. Para ver destinos basados en tu [sitio de Datadog][11], haz clic en el selector `DATADOG SITE` a la derecha. +Todo el tráfico del Agente se envía a través de SSL. El destino depende del servicio y sitio de Datadog. Para ver destinos basados en su [sitio de Datadog][11], haga clic en el selector {{< ui >}}DATADOG SITE{{< /ui >}} a la derecha. ## Instalación {#installation} -Agrega los siguientes dominios a tu lista de inclusión para permitir la instalación del Agente: +Agregue los siguientes dominios a su lista de inclusión para permitir la instalación del Agente: - `install.datadoghq.com` - `yum.datadoghq.com` @@ -54,50 +54,51 @@ Este comportamiento se puede desactivar en la versión 7.72.0 y posteriores conf [APM][1] : `trace.agent.`{{< region-param key="dd_site" code="true" >}}
-`instrumentation-telemetry-intake.`{{< region-param key="dd_site" code="true" >}} +`instrumentación-telemetría-intake.`{{< region-param key="dd_site" code="true" >}} -[LLM Observabilidad][23] +[Observabilidad LLM][23] : `llmobs-intake.`{{< region-param key="dd_site" code="true" >}} -[Imágenes de Contenedor][13] +[Imágenes de contenedores][13] : `contimage-intake.`{{< region-param key="dd_site" code="true" >}} -[Contenedores en Vivo][3], [Proceso en Vivo][4], [Monitoreo de Red en la Nube][24], [Monitoreo de Servicio Universal][25] +[Contenedores en Vivo][3], [Procesos en Vivo][4], [Cloud Network Monitoring][24], [Universal Service Monitoring][25] : `process.`{{< region-param key="dd_site" code="true" >}} -[Monitoreo de Dispositivos de Red][10] +[Network Device Monitoring][10] : `ndm-intake.`{{< region-param key="dd_site" code="true" >}}
`snmp-traps-intake.`{{< region-param key="dd_site" code="true" >}}
`ndmflow-intake.`{{< region-param key="dd_site" code="true" >}} -[Ruta de Red][14] -: `netpath-intake.`{{< region-param key="dd_site" code="true" >}} +[Network Path][14] +: `netpath-intake.`{{< region-param key="dd_site" code="true" >}}
+En la versión 7.75+ del Agente, Network Path contacta servicios externos a través de HTTPS para resolver la IP pública del servidor de origen. Esto es opcional y la Ruta de Red funciona sin ello, pero si su red restringe el tráfico saliente y desea la resolución de IP pública de origen, agregue lo siguiente a su lista de permitidos: `icanhazip.com`, `ipinfo.io`, `checkip.amazonaws.com`, `api.ipify.org`, `whatismyip.akamai.com`. Consulte [Network Path Setup][33] para más detalles. [Orquestador][5] : `orchestrator.`{{< region-param key="dd_site" code="true" >}}
`contlcycle-intake.`{{< region-param key="dd_site" code="true" >}} -[Perfilado][7] +[Profiling][7] : `intake.profile.`{{< region-param key="dd_site" code="true" >}} -[Monitoreo de Usuario Real (RUM)][6] +[Real User Monitoring (RUM)][6] : {{< region-param key="browser_sdk_endpoint_domain" code="true" >}} -[Vulnerabilidades de Seguridad en la Nube][29] +[Cloud Security Vulnerabilities][29] : `sbom-intake.`{{< region-param key="dd_site" code="true" >}} -[Monitoreo Sintético en Ubicaciones Privadas][8] -: Trabajador Sintético v1.5.0 o posterior: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}} es el único punto final que necesitas configurar.
-Resultados de pruebas de API para el Trabajador Sintético > v0.1.6: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}}
-Resultados de pruebas de navegador para el Trabajador Sintético > v0.2.0: `intake-v2.synthetics.`{{< region-param key="dd_site" code="true" >}}
-Resultados de pruebas de API para el Trabajador Sintético < v0.1.5: `api.`{{< region-param key="dd_site" code="true" >}} +[Synthetic Monitoring Private Locations][8] +: Synthetics Worker v1.5.0 o posterior: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}} es el único punto de conexión que necesitas configurar.
+Resultados de pruebas de API para el Synthetics Worker > v0.1.6: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}}
+Resultados de pruebas de navegador para el Synthetics Worker > v0.2.0: `intake-v2.synthetics.`{{< region-param key="dd_site" code="true" >}}
+Resultados de pruebas de API para el Synthetics Worker < v0.1.5: `api.`{{< region-param key="dd_site" code="true" >}} {{% site-region region="us,eu,us3,us5,ap1,ap2" %}} -[Configuración Remota][101] +[Remote Configuration][101] : `config.`{{< region-param key="dd_site" code="true" >}} -[Monitoreo de Base de Datos][102] +[Database Monitoring][102] : `dbm-metrics-intake.`{{< region-param key="dd_site" code="true" >}}
`dbquery-intake.`{{< region-param key="dd_site" code="true" >}} @@ -108,24 +109,24 @@ Resultados de pruebas de API para el Trabajador Sintético < v0.1.5: `api.`{{< r {{% logs-tcp-disclaimer %}} -[Registros][30] & [registros HIPAA][31] +[Logs][30] & [HIPAA logs][31] : (Obsoleto) TCP: {{< region-param key=tcp_endpoint code="true" >}}
HTTP: {{< region-param key=agent_http_endpoint code="true" >}}
-Otro: Ver [puntos finales de registros][32] +Otros: Ver [puntos de conexión de logs][32] -[Registros HIPAA legado][31] (Obsoleto, TCP no soportado) +[Registros de HIPAA legado][31] (Obsoleto, TCP no soportado) : {{< region-param key=hipaa_logs_legacy code="true" >}} [Métricas][26], [Verificaciones de Servicio][27], [Eventos][28], y otros metadatos del Agente : `-app.agent.`{{< region-param key="dd_site" code="true" >}}
-Por ejemplo, el Agente v7.31.0 reporta a `7-31-0-app.agent.`{{< region-param key="dd_site" code="true" >}}. Debes agregar `*.agent.`{{< region-param key="dd_site" code="true" >}} a tu lista de inclusión en tu(s) firewall(s).
-Desde v6.1.0, el Agente también consulta la API de Datadog para proporcionar funcionalidad no crítica (Por ejemplo, mostrar la validez de la clave API configurada):
-Agente v7.18.0 o 6.18.0 y versiones posteriores: `api.`{{< region-param key="dd_site" code="true" >}}
+Por ejemplo, el Agente v7.31.0 reporta a `7-31-0-app.agent.`{{< region-param key="dd_site" code="true" >}}Debes agregar `*.agent.`{{< region-param key="dd_site" code="true" >}} a tu lista de inclusión en tu(s) firewall(s).
+Desde la versión 6.1.0, el Agente también consulta la API de Datadog para proporcionar funcionalidades no críticas (por ejemplo, mostrar la validez de la clave API configurada):
+Agente v7.18.0 o 6.18.0 y posteriores: `api.`{{< region-param key="dd_site" code="true" >}}
Agente < v7.18.0 o 6.18.0: `app.`{{< region-param key="dd_site" code="true" >}} [Agente flare][12] : `-flare.agent.`{{< region-param key="dd_site" code="true" >}}
-Por ejemplo, el Agente v7.31.0 envía datos de flare a `7-31-0-flare.agent.`{{< region-param key="dd_site" code="true" >}}. Debes agregar `*.agent.`{{< region-param key="dd_site" code="true" >}} a tu lista de inclusión en tu(s) firewall(s).
+Por ejemplo, el Agente v7.31.0 envía datos de flare a `7-31-0-flare.agent.`{{< region-param key="dd_site" code="true" >}}Debes agregar `*.agent.`{{< region-param key="dd_site" code="true" >}} a tu lista de inclusión en tu(s) firewall(s).
### Direcciones IP estáticas {#static-ip-addresses} @@ -161,21 +162,21 @@ La información está estructurada como JSON siguiendo este esquema: Cada sección tiene un endpoint dedicado, por ejemplo: - `https://ip-ranges.{{< region-param key="dd_site" >}}/logs.json` para las IPs utilizadas para recibir datos de logs a través de TCP. -- `https://ip-ranges.{{< region-param key="dd_site" >}}/apm.json` para las IPs utilizadas para recibir datos de APM. +- `https://ip-ranges.{{< region-param key="dd_site" >}}/apm.json` para las direcciones IP utilizadas para recibir datos de APM. ### Inclusión {#inclusion} -Agrega todos los `ip-ranges` a tu lista de inclusión. Aunque solo un subconjunto está activo en un momento dado, hay variaciones a lo largo del tiempo dentro de todo el conjunto debido a la operación y mantenimiento regular de la red. +Agregue todos los `ip-ranges` a su lista de inclusión. Aunque solo un subconjunto está activo en un momento dado, el conjunto completo varía con el tiempo debido a la operación y mantenimiento regulares de la red. ## Puertos abiertos {#open-ports}
-Todo el tráfico saliente se envía a través de SSL por TCP o UDP. +Todo el tráfico saliente se envía a través de SSL mediante TCP o UDP.

-Asegúrate de que el Agente sea accesible solo por tus aplicaciones o fuentes de red de confianza utilizando una regla de firewall o una restricción de red similar. El acceso no confiable puede permitir que actores maliciosos realicen varias acciones invasivas, incluyendo, pero no limitado a, escribir trazas y métricas en tu cuenta de Datadog, o obtener información sobre tu configuración y servicios. +Asegúrese de que el Agente sea accesible solo por sus aplicaciones o fuentes de red de confianza utilizando una regla de firewall o una restricción de red similar. El acceso no confiable puede permitir que actores maliciosos realicen varias acciones invasivas, incluyendo, pero no limitándose a, escribir trazas y métricas en su cuenta de Datadog, o obtener información sobre su configuración y servicios.
-Abre los siguientes puertos para beneficiarte de todas las funcionalidades del **Agente**: +Abra los siguientes puertos para beneficiarse de todas las funcionalidades del **Agent**: #### Saliente {#outbound} @@ -183,10 +184,10 @@ Abre los siguientes puertos para beneficiarte de todas las funcionalidades del * | Producto/Funcionalidad | Puerto | Protocolo | Descripción | | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | ---------------------------------------------- | ---------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| Agente
APM
Contenedores
Procesos en Vivo
Métricas
Monitoreo de Red en la Nube
Monitoreo Universal de Servicios | 443 | TCP | La mayoría de los datos del Agente utilizan el puerto 443. | +| Agente
APM
Contenedores
Procesos en Vivo
Métricas
Monitoreo de Red en la Nube
Monitoreo de Servicio Universal | 443 | TCP | La mayoría de los datos del Agente utilizan el puerto 443. | | [Escalado Automático de Agentes Personalizados][22] | 8443 | TCP | | -| Recolección de registros | {{< region-param key=web_integrations_port >}} | (Obsoleto) TCP | Registro a través de TCP.
**Nota**: La recolección de registros TCP **no está soportada**. Datadog no proporciona **garantías de entrega o confiabilidad** al usar TCP, y los datos de registro pueden perderse sin previo aviso. Para una ingestión confiable, utiliza el punto de entrada HTTP, un Agente oficial de Datadog o una integración de reenvío en su lugar. Para otros tipos de conexión, consulta [puntos finales de registros][21]. | -| NTP | 123 | UDP | Protocolo de Tiempo de Red (NTP). Consulta [objetivos NTP predeterminados][20].
Para información sobre la solución de problemas de NTP, consulta [problemas de NTP][19]. | +| Recolección de registros | {{< region-param key=web_integrations_port >}} | (Obsoleto) TCP | Registro por TCP.
**Nota**: La recolección de registros por TCP **no está soportada**. Datadog proporciona **ninguna garantía de entrega o fiabilidad** al usar TCP, y los datos de registro pueden perderse sin previo aviso. Para una ingestión confiable, utilice el punto de entrada HTTP, un Agente oficial de Datadog o una integración de reenvío en su lugar. Para otros tipos de conexión, consulte [logs endpoints][21]. | +| NTP | 123 | UDP | Network Time Protocol (NTP). Consulte [default NTP targets][20].
Para información sobre la solución de problemas de NTP, consulte [NTP issues][19]. | [19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ [20]: /es/integrations/ntp/#overview @@ -195,12 +196,12 @@ Abre los siguientes puertos para beneficiarte de todas las funcionalidades del * {{% /site-region %}} -{{% site-region region="us3,us5,gov,ap1,ap2" %}} +{{% site-region region="us3,us5,gov,gov2,ap1,ap2" %}} | Producto/Funcionalidad | Puerto | Protocolo | Descripción | | ------------------------------------------------------------------------------------------------------------------- | ---- | -------- | ---------------------------------------------------------------------------------------------------------------------------- | -| Agente
APM
Contenedores
Procesos en Vivo
Métricas
Monitoreo de Red en la Nube
Monitoreo de Servicio Universal | 443 | TCP | La mayoría de los datos del Agente utiliza el puerto 443. | -| NTP | 123 | UDP | Protocolo de Tiempo de Red (NTP). Vea [objetivos NTP predeterminados][20].
Para información sobre la solución de problemas de NTP, vea [problemas de NTP][19]. | +| Agent
APM
Containers
Live Processes
Metrics
Cloud Network Monitoring
Universal Service Monitoring | 443 | TCP | La mayoría de los datos del Agente utilizan el puerto 443. | +| NTP | 123 | UDP | Network Time Protocol (NTP). Consulte [destinos NTP predeterminados][20].
Para obtener información sobre la solución de problemas de NTP, consulte [problemas de NTP][19]. | [19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ [20]: /es/integrations/ntp/#overview @@ -209,17 +210,17 @@ Abre los siguientes puertos para beneficiarte de todas las funcionalidades del * #### Entrante {#inbound} -Utilizado para servicios de Agente que se comunican entre sí localmente dentro del host solamente. +Se utiliza para los servicios del agente que se comunican entre sí localmente dentro del servidor únicamente. | Producto/Funcionalidad | Puerto | Protocolo | Descripción | | ---------------------------- | ---- | -------- | ------------------------------------------------------------------------------------------------------------------------------ | -| [Interfaz Gráfica del Navegador del Agente][16] | 5002 | TCP | | +| [Interfaz gráfica del navegador del Agente][16] | 5002 | TCP | | | Receptor APM | 8126 | TCP | Incluye Trazado y el Profiler. | -| [DogStatsD][18] | 8125 | UDP | Puerto para DogStatsD a menos que `dogstatsd_non_local_traffic` esté configurado como verdadero. Este puerto está disponible en localhost IPv4: `127.0.0.1`. | -| servidor go_expvar (APM) | 5012 | TCP | Para más información, vea [la documentación de integración de go_expar][15]. | -| servidor de integración go_expvar | 5000 | TCP | Para más información, vea [la documentación de integración de go_expar][15]. | -| API IPC | 5001 | TCP | Puerto utilizado para Comunicación entre Procesos (IPC). | -| Depurador del Agente de Proceso | 6062 | TCP | Puntos finales de depuración para el Agente de Proceso. | +| [DogStatsD][18] | 8125 | UDP | Puerto para DogStatsD a menos que `dogstatsd_non_local_traffic` esté configurado como true. Este puerto está disponible en localhost IPv4: `127.0.0.1`. | +| servidor go_expvar (APM) | 5012 | TCP | Para más información, consulte [la documentación de integración de go_expvar][15]. | +| servidor de integración go_expvar | 5000 | TCP | Para más información, consulte [la documentación de integración de go_expvar][15]. | +| API IPC | 5001 | TCP | Puerto utilizado para la Comunicación entre Procesos (IPC). | +| Depuración del Agente de Proceso | 6062 | TCP | Puntos finales de depuración para el Agente de Proceso. | | Tiempo de ejecución del Agente de Proceso | 6162 | TCP | Configuraciones de tiempo de ejecución para el Agente de Proceso. | ## Configurar puertos {#configure-ports} @@ -227,52 +228,52 @@ Utilizado para servicios de Agente que se comunican entre sí localmente dentro Si necesita cambiar un puerto de entrada porque el puerto predeterminado ya está en uso por un servicio existente en su red, edite el archivo de configuración `datadog.yaml`. Puede encontrar la mayoría de los puertos en la sección **Configuración Avanzada** del archivo: {{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} -## @param expvar_port - integer - optional - default: 5000 {#param-expvar-port-integer-optional-default-5000} -## @env DD_EXPVAR_PORT - integer - optional - default: 5000 {#env-dd-expvar-port-integer-optional-default-5000} -## The port for the go_expvar server. {#the-port-for-the-go-expvar-server} +## @param expvar_port - integer - optional - default: 5000 HEADANCHOR:param-expvar-port-integer-optional-default-5000:ENDANCHOR +## @env DD_EXPVAR_PORT - integer - optional - default: 5000 HEADANCHOR:env-dd-expvar-port-integer-optional-default-5000:ENDANCHOR +## The port for the go_expvar server. HEADANCHOR:the-port-for-the-go-expvar-server:ENDANCHOR # -# expvar_port: 5000 {#expvar-port-5000} +# expvar_port: 5000 HEADANCHOR:expvar-port-5000:ENDANCHOR -## @param cmd_port - integer - optional - default: 5001 {#param-cmd-port-integer-optional-default-5001} -## @env DD_CMD_PORT - integer - optional - default: 5001 {#env-dd-cmd-port-integer-optional-default-5001} -## The port on which the IPC api listens. {#the-port-on-which-the-ipc-api-listens} +## @param cmd_port - integer - optional - default: 5001 HEADANCHOR:param-cmd-port-integer-optional-default-5001:ENDANCHOR +## @env DD_CMD_PORT - integer - optional - default: 5001 HEADANCHOR:env-dd-cmd-port-integer-optional-default-5001:ENDANCHOR +## The port on which the IPC api listens. HEADANCHOR:the-port-on-which-the-ipc-api-listens:ENDANCHOR # -# cmd_port: 5001 {#cmd-port-5001} - -## @param GUI_port - integer - optional {#param-gui-port-integer-optional} -## @env DD_GUI_PORT - integer - optional {#env-dd-gui-port-integer-optional} -## The port for the browser GUI to be served. {#the-port-for-the-browser-gui-to-be-served} -## Setting 'GUI_port: -1' turns off the GUI completely {#setting-gui-port-1-turns-off-the-gui-completely} -## Default is: {#default-is} -## * Windows & macOS : `5002` {#windows-macos-5002} -## * Linux: `-1` {#linux-1} +# cmd_port: 5001 HEADANCHOR:cmd-port-5001:ENDANCHOR + +## @param GUI_port - integer - optional HEADANCHOR:param-gui-port-integer-optional:ENDANCHOR +## @env DD_GUI_PORT - integer - optional HEADANCHOR:env-dd-gui-port-integer-optional:ENDANCHOR +## The port for the browser GUI to be served. HEADANCHOR:the-port-for-the-browser-gui-to-be-served:ENDANCHOR +## Setting 'GUI_port: -1' turns off the GUI completely HEADANCHOR:setting-gui-port-1-turns-off-the-gui-completely:ENDANCHOR +## Default is: HEADANCHOR:default-is:ENDANCHOR +## * Windows & macOS : `5002` HEADANCHOR:windows-macos-5002:ENDANCHOR +## * Linux: `-1` HEADANCHOR:linux-1:ENDANCHOR ## # -# GUI_port: {#gui-port} +# GUI_port: HEADANCHOR:gui-port:ENDANCHOR {{< /code-block >}} -El receptor APM y los puertos de DogStatsD se encuentran en las secciones **Configuración de Recolección de Trazas** y **Configuración de DogStatsD** del archivo de configuración `datadog.yaml`, respectivamente: +Los puertos del receptor APM y DogStatsD se encuentran en las secciones **Configuración de Recolección de Trazas** y **Configuración de DogStatsD** del archivo de configuración `datadog.yaml`, respectivamente: {{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} -## @param dogstatsd_port - integer - optional - default: 8125 {#param-dogstatsd-port-integer-optional-default-8125} -## @env DD_DOGSTATSD_PORT - integer - optional - default: 8125 {#env-dd-dogstatsd-port-integer-optional-default-8125} -## Override the Agent DogStatsD port. {#override-the-agent-dogstatsd-port} -## Note: Make sure your client is sending to the same UDP port. {#note-make-sure-your-client-is-sending-to-the-same-udp-port} +## @param dogstatsd_port - integer - optional - default: 8125 HEADANCHOR:param-dogstatsd-port-integer-optional-default-8125:ENDANCHOR +## @env DD_DOGSTATSD_PORT - integer - optional - default: 8125 HEADANCHOR:env-dd-dogstatsd-port-integer-optional-default-8125:ENDANCHOR +## Override the Agent DogStatsD port. HEADANCHOR:override-the-agent-dogstatsd-port:ENDANCHOR +## Note: Make sure your client is sending to the same UDP port. HEADANCHOR:note-make-sure-your-client-is-sending-to-the-same-udp-port:ENDANCHOR # -# dogstatsd_port: 8125 {#dogstatsd-port-8125} +# dogstatsd_port: 8125 HEADANCHOR:dogstatsd-port-8125:ENDANCHOR [...] -## @param receiver_port - integer - optional - default: 8126 {#param-receiver-port-integer-optional-default-8126} -## @env DD_APM_RECEIVER_PORT - integer - optional - default: 8126 {#env-dd-apm-receiver-port-integer-optional-default-8126} -## The port that the trace receiver should listen on. {#the-port-that-the-trace-receiver-should-listen-on} -## Set to 0 to disable the HTTP receiver. {#set-to-0-to-disable-the-http-receiver} +## @param receiver_port - integer - optional - default: 8126 HEADANCHOR:param-receiver-port-integer-optional-default-8126:ENDANCHOR +## @env DD_APM_RECEIVER_PORT - integer - optional - default: 8126 HEADANCHOR:env-dd-apm-receiver-port-integer-optional-default-8126:ENDANCHOR +## The port that the trace receiver should listen on. HEADANCHOR:the-port-that-the-trace-receiver-should-listen-on:ENDANCHOR +## Set to 0 to disable the HTTP receiver. HEADANCHOR:set-to-0-to-disable-the-http-receiver:ENDANCHOR # -# receiver_port: 8126 {#receiver-port-8126} +# receiver_port: 8126 HEADANCHOR:receiver-port-8126:ENDANCHOR {{< /code-block >}} -
Si cambia el valor del puerto de DogStatsD o del puerto del receptor APM aquí, también debe cambiar la configuración de la biblioteca de trazado APM para el puerto correspondiente. Consulte la información sobre la configuración de puertos en la documentación de Configuración de la Biblioteca para su lenguaje.
+
Si cambia el valor del puerto de DogStatsD o del puerto del receptor APM aquí, también debe cambiar la configuración del SDK de Datadog para el puerto correspondiente. Consulte la información sobre la configuración de puertos en la documentación de Configuración de Biblioteca para su lenguaje.
## Usando proxies {#using-proxies} @@ -281,17 +282,17 @@ Para una guía de configuración detallada sobre la configuración de proxies, c ## Almacenamiento en búfer de datos {#data-buffering} Si la red se vuelve inaccesible, el Agente almacena las métricas en memoria. -El uso máximo de memoria para almacenar las métricas está definido por la configuración `forwarder_retry_queue_payloads_max_size`. Cuando se alcanza este límite, se descartan las métricas. +El uso máximo de memoria para almacenar las métricas está definido por la configuración `forwarder_retry_queue_payloads_max_size`. Cuando se alcanza este límite, las métricas se descartan. El Agente v7.27.0 o posterior almacena las métricas en disco cuando se alcanza el límite de memoria. Habilite esta capacidad configurando `forwarder_storage_max_size_in_bytes` a un valor positivo que indique la cantidad máxima de espacio de almacenamiento, en bytes, que el Agente puede usar para almacenar las métricas en disco. Las métricas se almacenan en la carpeta definida por la configuración `forwarder_storage_path`, que por defecto es `/opt/datadog-agent/run/transactions_to_retry` en sistemas Unix, y `C:\ProgramData\Datadog\run\transactions_to_retry` en Windows. -Para evitar quedarse sin espacio de almacenamiento, el Agente almacena las métricas en disco solo si el espacio total de almacenamiento utilizado es inferior al 80 por ciento. Este límite está definido por la configuración `forwarder_storage_max_disk_ratio`. +Para evitar quedarse sin espacio de almacenamiento, el Agente almacena las métricas en disco solo si el espacio total de almacenamiento utilizado es menos del 80 por ciento. Este límite está definido por la configuración `forwarder_storage_max_disk_ratio`. -## Instalando el Operador de Datadog {#installing-the-datadog-operator} +## Instalando el Datadog Operator {#installing-the-datadog-operator} -Si está instalando el Operador de Datadog en un entorno de Kubernetes con conectividad limitada, necesita permitir los siguientes puntos finales para el puerto TCP 443, según su registro: +Si está instalando el Datadog Operator en un entorno de Kubernetes con conectividad limitada, necesita permitir los siguientes puntos de conexión para el puerto TCP 443, según su registro: - `registry.datadoghq.com` (Registro de Contenedores de Datadog) - `us-docker.pkg.dev/datadog-prod/public-images` (puede recibir redirecciones de `registry.datadoghq.com`) @@ -303,7 +304,7 @@ Si está instalando el Operador de Datadog en un entorno de Kubernetes con conec - `docker.io/datadog` (DockerHub) -## Lectura Adicional {#further-reading} +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -338,4 +339,5 @@ Si está instalando el Operador de Datadog en un entorno de Kubernetes con conec [29]: /es/security/cloud_security_management/vulnerabilities/ [30]: /es/logs/ [31]: /es/data_security/logs/#hipaa-enabled-customers -[32]: /es/logs/log_collection/#logging-endpoints \ No newline at end of file +[32]: /es/logs/log_collection/#logging-endpoints +[33]: /es/network_monitoring/network_path/setup/#source-public-ip-resolution \ No newline at end of file diff --git a/content/es/bits_ai/mcp_server/_index.md b/content/es/bits_ai/mcp_server/_index.md new file mode 100644 index 00000000000..e392a17d840 --- /dev/null +++ b/content/es/bits_ai/mcp_server/_index.md @@ -0,0 +1,112 @@ +--- +algolia: + rank: 90 + tags: + - mcp + - mcp server +description: Conecte agentes de IA a los datos de observabilidad de Datadog utilizando + el Servidor MCP para consultar métricas, registros, trazas y otras perspectivas. +further_reading: +- link: ide_plugins/vscode/?tab=cursor + tag: Documentación + text: Extensión de Datadog para Cursor +- link: bits_ai/mcp_server/setup + tag: Documentación + text: Configurar el Servidor MCP de Datadog +- link: bits_ai/mcp_server/tools + tag: Documentación + text: Herramientas del Servidor MCP de Datadog +- link: bits_ai/ + tag: Documentación + text: Descripción general de Bits AI +- link: https://www.datadoghq.com/blog/datadog-mcp-server-use-cases + tag: Blog + text: Cuatro formas en que los equipos de ingeniería utilizan el Servidor MCP de + Datadog para potenciar agentes de IA +- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/ + tag: Blog + text: Conecte sus agentes de IA a las herramientas y contextos de Datadog utilizando + el Servidor MCP de Datadog +- link: https://www.datadoghq.com/blog/datadog-cursor-extension/ + tag: Blog + text: Depure problemas de producción en vivo con la extensión de Datadog Cursor +- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/ + tag: Blog + text: 'Datadog + OpenAI: integración de Codex CLI para DevOps asistido por IA' +title: Servidor MCP de Datadog +--- +El Servidor MCP de Datadog actúa como un puente entre sus datos de observabilidad en Datadog y cualquier agente de IA que soporte el [Model Context Protocol (MCP)][1]. Proporcionando acceso estructurado a contextos, características y herramientas relevantes de Datadog, el Servidor MCP le permite consultar y recuperar perspectivas de observabilidad directamente desde clientes impulsados por IA como Cursor, OpenAI Codex, Claude Code o su propio agente de IA. + +**¿Listo para comenzar?** Seleccione su agente a continuación o consulte [Configurar el Servidor MCP de Datadog][27] para obtener instrucciones de conexión. + +{{< partial name="mcp_server/mcp_server_agents.html" >}} + +Esta demostración muestra el Servidor MCP de Datadog siendo utilizado en Cursor y Claude Code (active el audio para escuchar): + +{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="Demostración del Servidor MCP de Datadog en Cursor y Claude Code" video="true" >}} + + +## Avisos {#disclaimers} + +- El Servidor MCP de Datadog es elegible para HIPAA. Usted es responsable de asegurar que las herramientas de IA que conecte al Servidor MCP de Datadog cumplan con sus requisitos de cumplimiento, como HIPAA. +- El Servidor MCP de Datadog no es compatible con GovCloud. +- Datadog recopila cierta información sobre su uso del Servidor MCP Remoto de Datadog, incluyendo cómo interactúa con él, si ocurrieron errores al usarlo, qué causó esos errores y los identificadores de usuario de acuerdo con la Política de Privacidad de Datadog y el EULA de Datadog. Estos datos se utilizan para ayudar a mejorar el rendimiento y las características del servidor, incluyendo las transiciones hacia y desde el servidor y la página de inicio de sesión de Datadog aplicable para acceder a los Servicios, y el contexto (por ejemplo, las solicitudes del usuario) que llevan al uso de las herramientas MCP. Los datos se almacenan durante 120 días. + +## Límites de tasa de uso justo {#fair-use-rate-limits} + +El Servidor MCP viene con los siguientes límites de uso justo: +- 50 solicitudes/10 segundos, límites de ráfaga de llamadas a herramientas +- 5000 llamadas a herramientas diarias +- 50,000 llamadas a herramientas mensuales. + +Estos límites son **sujetos a cambios** y pueden ajustarse si su caso de uso requiere más. Por favor, contacte a [soporte de Datadog][37] para solicitudes o preguntas. + +## Monitoreo de las llamadas a herramientas del Servidor MCP de Datadog {#monitoring-the-datadog-mcp-server-tool-calls} + +Puede rastrear el uso del Servidor MCP de Datadog para su organización utilizando métricas de Datadog y el Registro de Auditoría. + +Todas las llamadas a herramientas se registran en el [Audit Trail][16] de Datadog con metadatos que las identifican como acciones MCP, incluyendo el nombre de la herramienta, argumentos, identidad del usuario y el cliente MCP utilizado. Vea [Rastrear llamadas a herramientas en el Audit Trail](#track-tool-calls-in-audit-trail) para más información. + +Datadog también emite dos métricas estándar que puede usar para monitorear la actividad del Servidor MCP: + +- `datadog.mcp.session.starts`: Emitido en cada inicialización de sesión. +- `datadog.mcp.tool.usage`: Una métrica de distribución emitida en cada llamada a la herramienta. + +Ambas métricas están etiquetadas con atributos como `user_id`, `user_email`, `client` (el nombre del cliente MCP, como `claude` o `cursor`), y `tool_name`. + +Debido a que `datadog.mcp.tool.usage` es una métrica de distribución, utiliza `count` (no `sum`) con `.as_count()` para obtener el número de llamadas a la herramienta. Por ejemplo, para consultar el número total de llamadas a la herramienta agrupadas por correo electrónico de usuario: + +``` +count:datadog.mcp.tool.usage{*} by {user_email}.as_count() +``` + +## Herramientas disponibles {#available-tools} + +Consulta [Herramientas del Servidor MCP de Datadog][2] para una referencia completa de las herramientas disponibles organizadas por conjunto de herramientas, con ejemplos de solicitudes. Para habilitar conjuntos de herramientas específicos, consulta [Configurar el Servidor MCP de Datadog][28] para obtener instrucciones. + +## Eficiencia del contexto {#context-efficiency} + +El Servidor MCP de Datadog está optimizado para proporcionar respuestas de manera que los agentes de IA obtengan contexto relevante sin ser sobrecargados con información innecesaria. Por ejemplo: + +- Las respuestas se truncan según la longitud estimada de las respuestas que cada herramienta proporciona. Las herramientas responden a los agentes de IA con instrucciones sobre cómo solicitar más información si la respuesta fue truncada. +- La mayoría de las herramientas tienen un parámetro `max_tokens` que permite a los agentes de IA solicitar menos o más información. + +## Rastrear llamadas a herramientas en el Audit Trail {#track-tool-calls-in-audit-trail} + +Puede ver información sobre las llamadas realizadas por las herramientas del Servidor MCP en el Audit Trail [16] de Datadog. Busque o filtre por el nombre del evento `MCP Server`. + +## Comentarios {#feedback} + +El Servidor MCP de Datadog se encuentra en pleno desarrollo. Utilice [este formulario de comentarios][19] para compartir cualquier comentario, caso de uso o problemas encontrados con sus solicitudes y consultas. + +## Lectura adicional {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://modelcontextprotocol.io/ +[2]: /es/bits_ai/mcp_server/tools +[16]: /es/account_management/audit_trail/ +[19]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform +[27]: /es/bits_ai/mcp_server/setup +[28]: /es/bits_ai/mcp_server/setup#toolsets +[37]: https://help.datadoghq.com/hc/en-us/requests/new \ No newline at end of file diff --git a/content/es/bits_ai/mcp_server/setup.md b/content/es/bits_ai/mcp_server/setup.md new file mode 100644 index 00000000000..01af0f15243 --- /dev/null +++ b/content/es/bits_ai/mcp_server/setup.md @@ -0,0 +1,743 @@ +--- +algolia: + rank: 75 + tags: + - mcp + - mcp server + - setup +description: Aprende a conectar tu agente de IA al servidor Datadog MCP. +further_reading: +- link: bits_ai/mcp_server + tag: Documentación + text: Servidor Datadog MCP +- link: bits_ai/mcp_server/tools + tag: Documentación + text: Herramientas del Servidor Datadog MCP +- link: ide_plugins/vscode/?tab=cursor + tag: Documentación + text: Extensión de Datadog para Cursor +title: Configura el Servidor Datadog MCP +--- +Aprende a poner en marcha y configurar el Servidor Datadog MCP, que te permite obtener información de telemetría y gestionar las características de la plataforma directamente desde clientes impulsados por IA. Selecciona tu cliente: + +{{< tabs >}} +{{% tab "Claude" %}} + +Conecta a Claude (incluyendo Claude Cowork) al Servidor Datadog MCP añadiéndolo como un {{< ui >}}custom connector{{< /ui >}} con la URL remota de MCP. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Sigue la guía del centro de ayuda de Claude sobre [conectores personalizados][1] para añadir un nuevo conector personalizado. + +1. Cuando se te pida una URL, ingresa el punto de conexión del Servidor Datadog MCP para tu [sitio de Datadog][2] ({{< region-param key="dd_site_name" >}}). Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. +
{{< region-param key="mcp_server_endpoint" >}}
+ + Para habilitar [herramientas específicas de producto](#toolsets), incluye el parámetro de consulta `toolsets` al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de APM y LLM Observability (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Completa el flujo de inicio de sesión de OAuth cuando se te pida. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[1]: https://support.claude.com/en/articles/11175166-get-started-with-custom-connectors-using-remote-mcp +[2]: /es/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con el sitio de Datadog seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Claude Code" %}} + +Dirige tu agente de IA al punto de conexión del Servidor Datadog MCP para tu [sitio de Datadog][1] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ejecuta en la terminal: +
claude mcp add --transport http datadog-mcp {{< region-param key="mcp_server_endpoint" >}}
+ + Alternativamente, agrega a `~/.claude.json`: +
{
+      "mcpServers": {
+        "datadog": {
+          "type": "http",
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+         }
+       }
+    }
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el parámetro de consulta `toolsets` al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de Observabilidad APM y LLM (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +
Si la autenticación remota no está disponible, usa autenticación binaria local en su lugar.
+ +[1]: /es/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} + +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+ +{{< /site-region >}} + +[1]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "Codex" %}} + +Dirige tu agente de IA al punto de conexión del servidor MCP para tu [sitio de Datadog][1] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto final seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Edita `~/.codex/config.toml` (o tu archivo de configuración de Codex CLI) para agregar el Servidor Datadog MCP con transporte HTTP y la URL del punto de conexión para tu sitio. Por ejemplo: + +
[mcp_servers.datadog]
+   url = "{{< region-param key="mcp_server_endpoint" >}}"
+   
+ + Para habilitar [herramientas específicas de producto](#toolsets), incluye el parámetro de consulta `toolsets` al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de Observabilidad APM y LLM (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Inicia sesión en el servidor MCP de Datadog: + + ```shell + codex mcp login datadog + ``` + + Esto abre tu navegador para completar el flujo de OAuth. Codex almacena las credenciales resultantes para que no necesites iniciar sesión nuevamente hasta que el token expire. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "Cursor" %}} + +Instala el [Plugin de Datadog][1] desde el Marketplace de Cursor; el plugin incluye el Servidor Datadog MCP y otros recursos. Si previamente instalaste el Servidor Datadog MCP manualmente, elimínalo de la configuración del IDE para evitar conflictos. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Puedes instalar el plugin desde el Marketplace de Cursor o desde dentro de Cursor: + - Desde el Marketplace de Cursor, abre el [Plugin de Datadog][1] y haz clic en **Agregar a Cursor**. + - En Cursor, navega a **Configuración de Cursor** > **Plugins**, luego busca el plugin de Datadog y haz clic en **Agregar a Cursor**. + +1. Después de la instalación del plugin, escribe `/ddsetup` en el chat del agente para realizar la configuración inicial. +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[1]: https://cursor.com/marketplace/datadog +[2]: /es/ide_plugins/vscode/?tab=cursor#installation +[3]: /es/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: https://cursor.com/marketplace/datadog +{{% /tab %}} + +{{% tab "Devin" %}} + +Conecta a Devin al Servidor MCP de Datadog habilitándolo desde el Mercado MCP de Devin. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. En Devin, ve a {{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Marketplace{{< /ui >}} y busca `Datadog`. +1. Selecciona tu sitio de Datadog para el {{< ui >}}Server URL{{< /ui >}}; por ejemplo, tu sitio seleccionado es {{< region-param key="dd_site_name" code="true" >}}. +1. Ingresa tus claves de API y de aplicación de Datadog. +1. Instala y habilita el Servidor Datadog MCP, y completa el flujo de inicio de sesión de OAuth cuando se te solicite. +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +
Para usar conjuntos de herramientas específicos del producto, configura un servidor MCP personalizado en Devin e incluye la toolsets consulta al final de la URL del punto de conexión. Consulta Conjuntos de herramientas para más información. +
+ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El Servidor Datadog MCP no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Gemini CLI" %}} + +Dirige tu agente de IA al punto de conexión del Servidor Datadog MCP para tu [sitio de Datadog][1] regional. Para las instrucciones correctas, utiliza el selector de **Sitio de Datadog** en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ejecuta en la terminal: +
gemini mcp add --transport http datadog {{< region-param key="mcp_server_endpoint" >}}
+ + Alternativamente, agrega a `~/.gemini/settings.json`: +
{
+      "mcpServers": {
+        "datadog": {
+          "httpUrl": "{{< region-param key="mcp_server_endpoint" >}}"
+        }
+      }
+    }
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de Observabilidad APM y LLM (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +
Si la autenticación remota no está disponible, usa autenticación binaria local en su lugar.
+ +[1]: /es/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "Goose" %}} + +Dirige tu agente de IA al punto de conexión del Servidor MCP para tu [sitio de Datadog][3] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Agrega el Servidor MCP de Datadog a Goose utilizando uno de los siguientes métodos: + - **Instalación con un clic (recomendada):** Utiliza el Servidor MCP de Datadog {{< region-param key="goose_mcp_install_deeplink" link="true" text="install deeplink" >}}. + - **Configuración manual:** Sigue las instrucciones de Goose para [agregar un servidor MCP][2], utilizando el punto final listado en esta sección como la URL del servidor HTTP transmitible. Para editar la configuración directamente, modifica `~/.config/goose/config.yaml`. + +1. Para habilitar [herramientas específicas del producto][1], incluye el parámetro de consulta `toolsets` al final de la URL del punto final. Por ejemplo, esta URL habilita _solo_ herramientas de APM y LLM Observability (usa para habilitar todos los conjuntos de herramientas generalmente disponibles, ideal para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ + To enable all generally available toolsets, use `toolsets=all`. This works best for clients that support tool filtering. + +1. Al iniciar la sesión por primera vez, elige tu cuenta de Datadog cuando se te pida autenticarte. + +1. Verifica que tienes los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[1]: /es/bits_ai/mcp_server#toolsets +[2]: https://goose-docs.ai/docs/getting-started/using-extensions#mcp-servers +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[3]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "IDEs de JetBrains" %}} + +JetBrains ofrece los plugins de [Junie][1] y [Asistente de IA][2] para su gama de IDEs. GitHub ofrece el plugin de [Copilot][4]. Alternativamente, muchos desarrolladores utilizan un CLI de Agent, como Claude Code, Codex o Gemini CLI, junto a su IDE. + +Dirige tu plugin al punto de conexión del Servidor MCP para tu [sitio de Datadog][3] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +{{% collapse-content title="Junie" level="h4" expanded=false id="jetbrains-junie" %}} +1. Ve a {{< ui >}}Tools{{< /ui >}} > {{< ui >}}Junie{{< /ui >}} > {{< ui >}}MCP Settings{{< /ui >}} y agrega el siguiente bloque: + +
{
+      "mcpServers": {
+        "datadog": {
+          "type": "http",
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+        }
+      }
+    }
+    
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el parámetro de consulta `toolsets` al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de Observabilidad APM y LLM (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Se te solicita iniciar sesión a través de OAuth. El indicador de estado en la configuración muestra una marca verde cuando la conexión se realiza correctamente. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{% /collapse-content %}} + +{{% collapse-content title="JetBrains AI Assistant" level="h4" expanded=false id="jetbrains-ai-assistant" %}} +1. Ve a {{< ui >}}Tools{{< /ui >}} > {{< ui >}}AI Assistant{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}} y agrega el siguiente bloque: + +
{
+      "mcpServers": {
+        "datadog": {
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+          "headers": {
+            "DD_API_KEY": "<TU_API_KEY>",
+            "DD_APPLICATION_KEY": "<TU_APP_KEY>"
+          }
+        }
+      }
+    }
+    
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de APM y LLM Observability (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, ideal para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. El indicador de estado en la configuración muestra una marca de verificación verde cuando la conexión se realiza correctamente. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{% /collapse-content %}} + +{{% collapse-content title="GitHub Copilot" level="h4" expanded=false id="github-copilot" %}} +1. Ve a {{< ui >}}Tools{{< /ui >}} > {{< ui >}}GitHub Copilot{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}} y agrega el siguiente bloque: + +
{
+      "servers": {
+        "datadog": {
+          "type": "http",
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+        }
+      }
+    }
+    
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del endpoint. Por ejemplo, esta URL habilita _solo_ herramientas de Observabilidad APM y LLM (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Haz clic en el elemento `Start` que aparece en el editor para iniciar el servidor. Se te solicita iniciar sesión a través de OAuth. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{% /collapse-content %}} + +{{% collapse-content title="CLIs de Agent" level="h4" expanded=false id="jetbrains-agent-clis" %}} +Muchos desarrolladores utilizan una CLI de Agent, como Claude Code, Codex o Gemini CLI, junto con su IDE de JetBrains. Consulta la configuración para esas herramientas CLI: +- [Claude Code][4] +- [Codex][5] +- [Gemini CLI][6] + +El [plugin de Datadog para IDEs de JetBrains][3] se integra con estas CLIs de Agent. Para una experiencia ininterrumpida, instala el plugin al mismo tiempo que configuras el Servidor MCP de Datadog. + +[3]: /es/ide_plugins/idea/ +[4]: /es/bits_ai/mcp_server/setup/?tab=claudecode +[5]: /es/bits_ai/mcp_server/setup/?tab=codex +[6]: /es/bits_ai/mcp_server/setup/?tab=geminicli +{{% /collapse-content %}} +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: https://plugins.jetbrains.com/plugin/26104-junie-the-ai-coding-agent-by-jetbrains +[2]: https://plugins.jetbrains.com/plugin/22282-jetbrains-ai-assistant +[3]: /es/getting_started/site/ +[4]: https://plugins.jetbrains.com/plugin/17718-github-copilot--your-ai-pair-programmer +{{% /tab %}} + +{{% tab "Kiro" %}} + +Dirige tu agente de IA al punto de conexión del Servidor MCP para tu [sitio de Datadog][3] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Agrega lo siguiente a tu [archivo de configuración de Kiro MCP][2] (`~/.kiro/settings/mcp.json` para configuración a nivel de usuario): + +
{
+      "mcpServers": {
+        "datadog": {
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+        }
+      }
+    }
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de APM y LLM Observability (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, ideal para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[2]: https://kiro.dev/docs/mcp/configuration/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[3]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "OpenCode" %}} + +Dirige tu agente de IA al punto de conexión del Servidor MCP para tu [sitio de Datadog][1] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Agrega lo siguiente a tu archivo de configuración `opencode.json`: +
{
+     "mcp": {
+       "datadog": {
+         "type": "remote",
+         "url": "{{< region-param key="mcp_server_endpoint" >}}\
+         "enabled": true
+       }
+     }
+   }
+ +1. Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ herramientas de APM y LLM Observability: + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ + Para habilitar todos los conjuntos de herramientas generalmente disponibles, usa `toolsets=all`. Esto funciona mejor para clientes que soportan filtrado de herramientas. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[1]: /es/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "VS Code" %}} + +La [extensión de Cursor y VS Code de Datadog][1] incluye acceso integrado al Servidor MCP de Datadog gestionado. GitHub Copilot también puede acceder al Servidor MCP de Datadog en VS Code (requiere una suscripción activa a GitHub Copilot). + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Instala la extensión (omite `--profile` y el nombre del perfil para instalar en el perfil predeterminado de VS Code): + ```shell + code --install-extension datadog.datadog-vscode --profile + ``` + Alternativamente, instala la [extensión de Datadog][2]. Si ya tienes la extensión instalada, asegúrate de que sea la última versión. +1. Inicia sesión en tu cuenta de Datadog. +1. **Reinicia el IDE.** +1. Confirma que el servidor MCP de Datadog esté disponible y que las [herramientas][3] estén listadas: Abre el panel de chat, selecciona el modo agente y haz clic en el botón {{< ui >}}Configure Tools{{< /ui >}}. + {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="Configura el botón de Herramientas en VS Code" style="width:70%;" >}} +1. Si previamente instalaste el servidor MCP de Datadog manualmente, elimínalo de la configuración del IDE para evitar conflictos. Abre la paleta de comandos (`Shift` + `Cmd/Ctrl` + `P`) y ejecuta `MCP: Open User Configuration`. +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +[2]: /es/ide_plugins/vscode/?tab=vscode#installation +[3]: /es/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: /es/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "Warp" %}} + +[Warp][1] es un terminal agente con soporte MCP integrado. Dirige el agente Warp al punto de conexión del servidor MCP para tu [sitio de Datadog][2] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto de conexión seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. En la aplicación Warp, ve a {{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Servers{{< /ui >}} y haz clic en {{< ui >}}+ Add{{< /ui >}}. + +1. Pega la siguiente configuración: + +
{
+      "Datadog": {
+        "url": "{{< region-param key="mcp_server_endpoint" >}}"
+      }
+    }
+ + To enable [product-specific tools](#toolsets), include the `toolsets` query parameter at the end of the endpoint URL. For example, this URL enables _only_ APM and LLM Observability tools (use `toolsets=all` to enable all generally available toolsets, best for clients that support tool filtering): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Haz clic en {{< ui >}}Start{{< /ui >}} en el servidor de Datadog. Warp abre tu navegador para completar el flujo de inicio de sesión de OAuth. Las credenciales se almacenan de forma segura en tu dispositivo y se reutilizan para sesiones futuras. + +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +[1]: https://www.warp.dev/ +[2]: /es/getting_started/site/ +{{% /tab %}} + +{{% tab "Otro" %}} + +Para la mayoría de los otros [clientes soportados](#supported-clients), utiliza estas instrucciones para la autenticación remota. Para Cline o cuando la autenticación remota no es confiable o no está disponible, utiliza [la autenticación binaria local](#local-binary-authentication). + +Dirige tu agente de IA al punto de conexión del servidor MCP para tu [sitio de Datadog][1] regional. Para las instrucciones correctas, utiliza el selector {{< ui >}}Datadog Site{{< /ui >}} en el lado derecho de esta página de documentación para seleccionar tu sitio. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Punto final seleccionado ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Agrega el Servidor MCP de Datadog al archivo de configuración de tu cliente utilizando el transporte HTTP y la URL del punto de conexión de tu sitio. Por ejemplo: + +
{
+      "mcpServers": {
+        "datadog": {
+          "type": "http",
+          "url": "{{< region-param key="mcp_server_endpoint" >}}"
+        }
+      }
+    }
+ +1.Para habilitar [herramientas específicas de producto](#toolsets), incluye el `toolsets` parámetro de consulta al final de la URL del punto de conexión. Por ejemplo, esta URL habilita _solo_ APM y LLM Observability (usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles, lo mejor para clientes que soportan filtrado de herramientas): + +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
+ +1. Verifica que tengas los [permisos](#required-permissions) requeridos para los recursos de Datadog a los que deseas acceder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
El servidor MCP de Datadog no es compatible con tu sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+ +{{< /site-region >}} + +[1]: /es/getting_started/site/ +{{% /tab %}} +{{< /tabs >}} + +## Conjuntos de herramientas {#toolsets} + +El Servidor MCP de Datadog soporta _conjuntos de herramientas_, que te permiten usar solo las [herramientas MCP][49] que necesitas, ahorrando valioso espacio en la ventana de contexto. Para usar un conjunto de herramientas, incluye el `toolsets` parámetro de consulta en la URL del punto de conexión al conectarte al Servidor MCP ([autenticación remota](#authentication) solamente). Usa `toolsets=all` para habilitar todos los conjuntos de herramientas generalmente disponibles a la vez. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Por ejemplo, basado en el [sitio de Datadog][17] que seleccionaste ({{< region-param key="dd_site_name" >}}) : + +- Recupera solo las herramientas básicas (este es el valor predeterminado si no se especifica `toolsets`): +
{{< region-param key="mcp_server_endpoint" >}}
+ +- Recupera solo las herramientas relacionadas con Synthetic Testing: +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=synthetics
+ +- Recupera herramientas básicas, de Synthetic Testing y de Entrega de Software: +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=core,synthetics,software-delivery
+ +- Recupera todas las herramientas generalmente disponibles: +
{{< region-param key="mcp_server_endpoint" >}}?toolsets=all
+ +
Habilitar todos los conjuntos de herramientas aumenta el número de definiciones de herramientas enviadas a tu cliente de IA, lo que consume espacio en la ventana de contexto. toolsets=all funciona mejor con clientes que soportan filtrado de herramientas, como Claude Code.
+ +[17]: /es/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +### Conjuntos de herramientas disponibles {#available-toolsets} + +Estos conjuntos de herramientas están disponibles en general. Consulta [Herramientas del Servidor MCP de Datadog][49] para una referencia completa de herramientas disponibles organizadas por conjunto de herramientas, con ejemplos de prompts. + +- `core`: El conjunto de herramientas predeterminado para registros, métricas, trazas, tableros, monitores, incidentes, servidores, servicios, eventos y notebook. +- `alerting`: Herramientas para validar y crear monitores, buscar grupos de monitores, recuperar plantillas de monitores, analizar la cobertura de monitores y buscar SLOs +- `cases`: Herramientas para [Case Management][42], incluyendo la creación, búsqueda y actualización de casos; gestión de proyectos; y vinculación de Jira issues +- `dashboards`: Herramientas para recuperar, crear, actualizar y eliminar [tableros][46], además de referencia y validación de esquemas de widgets +- `dbm`: Herramientas para interactuar con [Database Monitoring][33] +- `ddsql`: Herramientas para consultar datos de Datadog usando [DDSQL][44], un dialecto SQL con soporte para recursos de infraestructura, registros, métricas, RUM, tramos y otras fuentes de datos de Datadog +- `error-tracking`: Herramientas para interactuar con Datadog [Error Tracking][32] +- `feature-flags`: Herramientas para [feature flags][35], incluyendo la creación, listado y actualización de flags y sus entornos +- `kubernetes`: Herramientas para buscar y describir recursos de [Kubernetes][51] y recuperar manifiestos en todos los clúster +- `llmobs`: Herramientas para buscar y analizar tramos y experimentos de [LLM Observability][36] +- `networks`: Herramientas para análisis de [Cloud Network Monitoring][37] y [Network Device Monitoring][38] +- `onboarding`: Herramientas de incorporación agentic para la configuración guiada de Datadog +- `product-analytics`: Herramientas para interactuar con consultas de [Product Analytics][41] +- `reference-tables`: Herramientas para gestionar [Reference Tables][48], incluyendo el listado de tablas, lectura de filas, adición de filas y creación de tablas desde almacenamiento en la nube +- `security`: Herramientas para escaneo de seguridad de código y búsqueda de [señales de seguridad][39] y [hallazgos de seguridad][40] +- `software-delivery`: Herramientas para interactuar con la Entrega de Software ([CI Visibility][30] y [Test Optimization][31]) +- `synthetics`: Herramientas para interactuar con [Synthetic tests][29] +- `workflows`: Herramientas para [Workflow Automation][43], incluyendo el listado, inspección, ejecución y configuración de flujos de trabajo para uso de agentes + +### Conjuntos de herramientas de vista previa {#preview-toolsets} + +Estos conjuntos de herramientas están en vista previa. Regístrate para un conjunto de herramientas completando el formulario de Product Preview o contacta a [Datadog support][47] para solicitar acceso. +- `apm`: ([Regístrate][45]) Herramientas para un análisis de trazas [APM][34] en profundidad, búsqueda de tramos, información de Watchdog e investigación de rendimiento + +## Clientes soportados {#supported-clients} + +| Cliente | Desarrollador | Notas | +|--------|------|------| +| [Cursor][3] | Cursor | Datadog [Cursor y extensión de VS Code][15] recomendados. | +| [Claude Code][4] | Anthropic | | +| [Claude][19] | Anthropic | Utilice [ la configuración del conector personalizado ](?tab=claude#installation). Incluye Claude Cowork. | +| [Codex CLI][6] | OpenAI | | +| [Gemini CLI][50] | Google | | +| [Warp][28] | Warp | | +| [VS Code][7] | Microsoft | Datadog [Cursor y extensión de VS Code][16] recomendados. | +| [JetBrains IDEs][18] | JetBrains | [plugin de Datadog][18] recomendado. | +| [Kiro][9], [Kiro CLI][10] | Amazon Web Services | | +| [Goose][8] | Agentic AI Foundation | | +| [Cline][11] | Varios | Consulte la {{< ui >}}Other{{< /ui >}} pestaña arriba. Utilice la autenticación binaria local para Cline si la autenticación remota no es confiable. | + +
El servidor MCP de Datadog está en desarrollo activo, y podrían estar disponibles clientes compatibles adicionales.
+ +## Permisos requeridos {#required-permissions} + +Las herramientas del servidor MCP requieren los siguientes [permisos de rol de usuario de Datadog][22]: + +| Permiso | Requerido para | +|------------|-------------| +| mcp_read | Herramientas que leen datos de Datadog (por ejemplo, consultar monitores, buscar registros, recuperar tableros) | +| mcp_write | Herramientas que crean o modifican recursos en Datadog (por ejemplo, crear monitores, silenciar servidores) | + +Además de `mcp_read` o `mcp_write`, los usuarios necesitan los permisos estándar de Datadog para el recurso subyacente. Por ejemplo, usar una herramienta MCP que lee monitores requiere tanto `mcp_read` como el permiso de [Lectura de Monitores][24]. Consulte [Permisos de Rol de Datadog][25] para la lista completa de permisos a nivel de recurso. + +Los usuarios con el **Rol Estándar de Datadog** tienen ambos permisos del servidor MCP por defecto. Si su organización utiliza [roles personalizados][23], agregue los permisos manualmente: +1. Vaya a [**Configuración de la Organización > Roles**][26] como administrador, y haga clic en el rol que desea actualizar. +1. Haga clic en {{< ui >}}Edit Role{{< /ui >}} (icono de lápiz). +1. En la lista de permisos, seleccione las casillas de verificación {{< ui >}}MCP Read{{< /ui >}} y {{< ui >}}MCP Write{{< /ui >}}. +1. Seleccione cualquier otro permiso a nivel de recurso que necesite para el rol. +1. Haga clic en {{< ui >}}Save{{< /ui >}}. + +Los administradores de la organización pueden gestionar el acceso global de MCP y las capacidades de escritura desde [Configuración de la Organización][27]. + +## Autenticación {#authentication} + +El servidor MCP utiliza OAuth 2.0 para [autenticación][14]. Si no puede pasar por el flujo de OAuth (por ejemplo, en un servidor), puede proporcionar una clave de API de Datadog y una clave de aplicación como `DD_API_KEY` y `DD_APPLICATION_KEY` en los encabezados HTTP. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Por ejemplo, según el [sitio de Datadog][17] seleccionado ({{< region-param key="dd_site_name" >}}): + +
{
+  "mcpServers": {
+    "datadog": {
+      "type": "http",
+      "url": "{{< region-param key="mcp_server_endpoint" >}}\
+      "headers": {
+          "DD_API_KEY": "<YOUR_API_KEY>",
+          "DD_APPLICATION_KEY": "<YOUR_APPLICATION_KEY>"
+      }
+    }
+  }
+}
+
+ +[17]: /es/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +Por seguridad, utilice una clave de API con alcance restringido y una clave de aplicación de una [cuenta de servicio][13] que tenga solo los permisos requeridos. + +### Autenticación binaria local {#local-binary-authentication} + +Se recomienda la autenticación local para Cline y cuando la autenticación remota no es confiable o no está disponible. Después de la instalación, normalmente no necesita actualizar el binario local para beneficiarse de las actualizaciones del servidor MCP, ya que las herramientas son remotas. + +{{% collapse-content title="Configure el binario local del servidor MCP de Datadog" level="h5" expanded=false id="mcp-local-binary" %}} + +1. Instale el binario del servidor MCP de Datadog (macOS y Linux): + ```bash + curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash + ``` + Esto instala el binario en `~/.local/bin/datadog_mcp_cli`. + + Para Windows, descargue la [versión de Windows][20]. + +2. Ejecute `datadog_mcp_cli login` manualmente para recorrer el flujo de inicio de sesión de OAuth y elegir un [sitio de Datadog][21]. + +3. Configura tu cliente de IA para usar el transporte stdio con `datadog_mcp_cli` como el comando. Por ejemplo, en macOS (reemplaza `` con tu nombre de usuario del sistema operativo): + ```json + { + "mcpServers": { + "datadog": { + "type": "stdio", + "command": "/Users//.local/bin/datadog_mcp_cli", + "args": [], + "env": {} + } + } + } + ``` + + Para otros sistemas operativos, reemplaza la ruta `command` con la ubicación del binario descargado: + - Linux: `/home//.local/bin/datadog_mcp_cli` + - Windows: `\bin\datadog_mcp_cli.exe` + +
Para Claude Code, puedes ejecutar en su lugar: +
claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli
+ +4. Reinicia completamente tu cliente de IA para aplicar la configuración y cargar el servidor MCP. +{{% /collapse-content %}} + +## Prueba el acceso al servidor MCP {#test-access-to-the-mcp-server} + +1. Instala el [inspector de MCP][2], una herramienta para desarrolladores para probar y depurar servidores MCP. + + ```bash + npx @modelcontextprotocol/inspector + ``` +2. En la interfaz web del inspector, para {{< ui >}}Transport Type{{< /ui >}}, selecciona {{< ui >}}Streamable HTTP{{< /ui >}}. +3. Para {{< ui >}}URL{{< /ui >}}, ingresa el punto de conexión del servidor MCP para tu sitio regional de Datadog. + {{< site-region region="us,us3,us5,eu,ap1,ap2" >}} + Por ejemplo, para {{< region-param key="dd_site_name" >}}: {{< region-param key="mcp_server_endpoint" >}} + {{< /site-region >}} +4. Haz clic en {{< ui >}}Connect{{< /ui >}}, luego ve a {{< ui >}}Tools{{< /ui >}} > {{< ui >}}List Tools{{< /ui >}}. +5. Verifica si las [herramientas disponibles][12] aparecen. + +## Lectura adicional {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/account_management/api-app-keys/ +[2]: https://github.com/modelcontextprotocol/inspector +[3]: https://cursor.com +[4]: https://claude.com/product/claude-code +[5]: https://claude.com/download +[6]: https://chatgpt.com/codex +[7]: https://code.visualstudio.com/ +[8]: https://github.com/block/goose +[9]: https://kiro.dev/ +[10]: https://kiro.dev/cli/ +[11]: https://cline.bot/ +[12]: /es/bits_ai/mcp_server/tools +[13]: /es/account_management/org_settings/service_accounts/ +[14]: https://modelcontextprotocol.io/specification/draft/basic/authorization +[15]: /es/ide_plugins/vscode/?tab=cursor +[16]: /es/ide_plugins/vscode/ +[17]: /es/getting_started/site/#navigate-the-datadog-documentation-by-site +[18]: /es/ide_plugins/idea/ +[19]: https://claude.ai +[20]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe +[21]: /es/getting_started/site/ +[22]: /es/account_management/rbac/permissions/#mcp +[23]: /es/account_management/rbac/?tab=datadogapplication#custom-roles +[24]: /es/account_management/rbac/permissions/#monitors +[25]: /es/account_management/rbac/permissions/ +[26]: https://app.datadoghq.com/organization-settings/roles +[27]: https://app.datadoghq.com/organization-settings/preferences +[28]: https://www.warp.dev/ +[29]: /es/synthetics/ +[30]: /es/continuous_integration/ +[31]: /es/tests/ +[32]: /es/error_tracking/ +[33]: /es/database_monitoring/ +[34]: /es/tracing/ +[35]: /es/feature_flags/ +[36]: /es/llm_observability/mcp_server/ +[37]: /es/network_monitoring/cloud_network_monitoring/ +[38]: /es/network_monitoring/devices/ +[39]: /es/security/threats/security_signals/ +[40]: /es/security/misconfigurations/findings/ +[41]: /es/product_analytics +[42]: /es/service_management/case_management/ +[43]: /es/actions/workflows/ +[44]: /es/ddsql_editor/ +[45]: https://www.datadoghq.com/product-preview/apm-mcp-toolset/ +[46]: /es/dashboards/ +[47]: /es/help/ +[48]: /es/reference_tables/ +[49]: /es/bits_ai/mcp_server/tools +[50]: https://github.com/google-gemini/gemini-cli +[51]: /es/containers/monitoring/kubernetes_explorer/ \ No newline at end of file diff --git a/content/es/containers/kubernetes/prometheus.md b/content/es/containers/kubernetes/prometheus.md index cdc2c018e49..2593200abc1 100644 --- a/content/es/containers/kubernetes/prometheus.md +++ b/content/es/containers/kubernetes/prometheus.md @@ -6,57 +6,56 @@ aliases: - /es/agent/prometheus - /es/agent/kubernetes/prometheus description: Recopila Prometheus y OpenMetrics de las cargas de trabajo de Kubernetes - utilizando el módulo Datadog Agent con Autodiscovery + utilizando el Datadog Agent con Autodiscovery further_reading: - link: https://www.datadoghq.com/blog/kubernetes-operator-performance tag: Blog - text: Monitorizar tus operadores de Kubernetes para que las aplicaciones funcionen + text: Monitorea tus operadores de Kubernetes para mantener las aplicaciones funcionando sin problemas - link: /agent/kubernetes/log/ tag: Documentación - text: Recopilar logs de tus aplicaciones + text: Recopila los registros de tu aplicación - link: /agent/kubernetes/apm/ tag: Documentación - text: Recopilar tus trazas (traces) de aplicaciones + text: Recopila las trazas de tu aplicación - link: /agent/kubernetes/integrations/ tag: Documentación - text: Recopila automáticamente los datos de métricas y logs de tus aplicaciones + text: Recopila automáticamente las métricas y registros de tus aplicaciones - link: /agent/guide/autodiscovery-management/ tag: Documentación - text: Limitar la recopilación de datos a un subconjunto de contenedores + text: Limita la recopilación de datos a un subconjunto de contenedores solamente - link: /agent/kubernetes/tag/ tag: Documentación - text: Asignar etiquetas (tags) a todos los datos emitidos por un contenedor + text: Asigna etiquetas a todos los datos emitidos por un contenedor - link: /integrations/guide/prometheus-metrics/ tag: Documentación - text: Asignación de métricas de Prometheus a métricas de Datadog -title: Recopilación de métricas de Kubernetes Prometheus y OpenMetrics + text: Mapeo de métricas de Prometheus a métricas de Datadog +title: Recopilación de métricas de Prometheus y OpenMetrics en Kubernetes --- +## Resumen {#overview} -## Información general +Recopila tus métricas expuestas de Prometheus y OpenMetrics de tu aplicación que se ejecuta dentro de Kubernetes utilizando el Datadog Agent y las integraciones de [OpenMetrics][1] o [Prometheus][2]. Por defecto, todas las métricas recuperadas por la verificación genérica de Prometheus se consideran métricas personalizadas. -Recopila tus métricas de Prometheus y OpenMetrics expuestas desde tu aplicación que se ejecuta dentro de Kubernetes utilizando el Datadog Agent y las integraciones de [OpenMetrics][1] o [Prometheus][2]. Por defecto, todas las métricas recuperadas por el check genérico de Prometheus se consideran métricas personalizadas. +A partir de la versión 6.5.0, el Datadog Agent incluye verificaciones de [OpenMetrics][3] y [Prometheus][4] capaces de extraer puntos de conexión de Prometheus. Para un uso más avanzado de la interfaz `OpenMetricsCheck`, incluyendo la escritura de una verificación personalizada, consulta la sección de [Herramientas para Desarrolladores][5]. -A partir de la versión 6.5.0, el Agent incluye checks de [OpenMetrics][3] y [Prometheus][4] capaces de rastrear los endpoints de Prometheus. Para un uso más avanzado de la interfaz `OpenMetricsCheck`, incluida la escritura de un check personalizado, consulta la sección [Herramientas para desarrolladores][5]. +Esta página explica el uso básico de estas verificaciones, que te permiten extraer métricas personalizadas de los puntos de conexión de Prometheus. Para una explicación de cómo las métricas de Prometheus y OpenMetrics se mapean a las métricas de Datadog, consulta la guía de [Mapeo de métricas de Prometheus a métricas de Datadog][6]. -En esta página se explica el uso básico de estos checks, que te permiten extraer métricas personalizadas desde los endpoints de Prometheus. Para obtener una explicación de cómo se asignan las métricas de Prometheus y OpenMetrics a las métricas de Datadog, consulta la guía [Asignación de métricas de Prometheus a métricas de Datadog][6]. +**Nota**: Datadog recomienda utilizar la verificación de OpenMetrics ya que es más eficiente y soporta completamente el formato de texto de Prometheus. Utiliza la verificación de Prometheus solo cuando el punto de conexión de métricas no soporte un formato de texto. -**Nota**: Datadog recomienda utilizar el check de OpenMetrics, ya que es más eficiente y admite totalmente el formato de texto de Prometheus. Utiliza el check de Prometheus sólo cuando el endpoint de métricas no admita un formato de texto. +## Configuración {#setup} -## Instalación +### Instalación {#installation} -### Instalación +[Despliega el Datadog Agent en tu clúster de Kubernetes][7]. Las verificaciones de OpenMetrics y Prometheus están incluidas en el paquete del [Datadog Agent][8], por lo que no necesitas instalar nada más en tus contenedores o servidores. -[Despliega el Datadog Agent en tu clúster de Kubernetes][7]. Los checks de OpenMetrics y Prometheus están incluidos en el paquete de [Datadog Agent ][8], por lo que no necesitas instalar nada más en tus contenedores o hosts. +### Configuración {#configuration} -### Configuración - -Configura tu check de OpenMetrics o Prometheus con Autodiscovery, aplicando las siguientes `annotations` a tu **pod** exponiendo las métricas de OpenMetrics/Prometheus: +Configura tu verificación de OpenMetrics o Prometheus utilizando Autodiscovery, aplicando lo siguiente `annotations` a tu **pod** que expone las métricas de OpenMetrics/Prometheus: {{< tabs >}} {{% tab "Kubernetes (AD v2)" %}} -**Nota:** AD Annotations v2 se introdujo en Datadog Agent versión 7.36 para simplificar la configuración de la integración. Para versiones anteriores de Datadog Agent, utiliza AD Annotations v1. +**Nota**: Las Anotaciones de AD v2 se introdujeron en la versión 7.36 del Datadog Agent para simplificar la configuración de la integración. Para versiones anteriores del Datadog Agent, utiliza las Anotaciones de AD v1. ```yaml # (...) @@ -110,36 +109,36 @@ spec: {{% /tab %}} {{< /tabs >}} -Con los siguientes valores de parámetros de configuración: +Con los siguientes valores de marcador de posición de configuración: -| Parámetro | Descripción | +| Marcador de posición | Descripción | |------------------------------------------|----------------------------------------------------------------------------------------------------| | `` | Coincide con el nombre del contenedor que expone las métricas. | -| `` | La ruta de URL para las métricas que brinda el contenedor, en formato Prometheus. | -| `` | Establece el espacio de nombres que se usará como prefijo para cada métrica cuando se visualiza en Datadog. | -| `` | Clave de métricas de Prometheus a recuperar del endpoint de Prometheus. | -| `` | Transforma la clave de métrica `` en `` en Datadog. | +| `` | Ruta URL para las métricas servidas por el contenedor, en formato Prometheus. | +| `` | Establece el espacio de nombres que se prefijará a cada métrica cuando se visualice en Datadog. | +| `` | Clave de métricas de Prometheus que se debe obtener del punto de conexión de Prometheus. | +| `` | Transforma la clave métrica `` a `` en Datadog. | -La configuración `metrics` es una lista de métricas para recuperar como métricas personalizadas. Incluye cada métrica a recuperar y el nombre de métrica deseado en Datadog como pares de clave-valor, por ejemplo, `{"":""}`. Para evitar cargos por métricas personalizadas, Datadog recomienda limitar el contexto para incluir solo las métricas que necesites. Alternativamente, puedes proporcionar una lista de cadenas de nombres de métrica, interpretadas como expresiones regulares, para obtener las métricas deseadas con sus nombres actuales. Si deseas **todas** las métricas, utiliza `".*"` en lugar de `"*"`. +La configuración `metrics` es una lista de métricas para recuperar como métricas personalizadas. Incluye cada métrica a obtener y el nombre de la métrica deseada en Datadog como pares clave-valor, por ejemplo, `{"":""}`. Para evitar cargos excesivos por métricas personalizadas, Datadog recomienda limitar el alcance a solo incluir las métricas que necesitas. Alternativamente, puedes proporcionar una lista de nombres de métricas como cadenas, interpretadas como expresiones regulares, para traer las métricas deseadas con sus nombres actuales. Si deseas **todas** las métricas, entonces usa `".*"` en lugar de `"*"`. -**Nota:** Las expresiones regulares pueden potencialmente enviar un montón de métricas personalizadas. +**Nota:** Las expresiones regulares pueden enviar potencialmente muchas métricas personalizadas. -Para obtener una lista completa de los parámetros disponibles para las instancias, incluidos `namespace` y `metrics`, consulta la [configuración de ejemplo openmetrics.d/conf.yaml][9]. +Para una lista completa de parámetros disponibles para instancias, incluyendo `namespace` y `metrics`, consulta el [archivo de configuración de muestra openmetrics.d/conf.yaml][9]. -**Nota**: El check se limita a 2000 métricas en forma predeterminada. Especifica el parámetro opcional `max_returned_metrics` para modificar este límite. +**Nota**: La verificación se limita a 2000 métricas por defecto. Especifica el parámetro opcional `max_returned_metrics` para modificar este límite. -## Empezando +## Primeros pasos {#getting-started} -### Recopilación sencilla de métricas (OpenMetrics Check) +### Recolección de métricas simple (Verificación de OpenMetrics) {#simple-metric-collection-openmetrics-check} -1. [Inicia el Datadog Agent][10]. +1. [Lanza el Datadog Agent][10]. -2. Utiliza [Prometheus `prometheus.yaml`][11] para iniciar un ejemplo de despliegue de Prometheus con la configuración de Autodiscovery en el pod: +2. Usa el [Prometheus `prometheus.yaml`][11] para lanzar un ejemplo de despliegue de Prometheus con la configuración de Autodiscovery en el pod: {{< tabs >}} {{% tab "Kubernetes (AD v2)" %}} - **Nota:** AD Annotations v2 se introdujo en Datadog Agent versión 7.36 para simplificar la configuración de la integración. Para versiones anteriores de Datadog Agent, utiliza AD Annotations v1. + **Nota:** Las Anotaciones de AD v2 se introdujeron en la versión 7.36 del Datadog Agent para simplificar la configuración de la integración. Para versiones anteriores del Datadog Agent, utiliza las Anotaciones de AD v1. ```yaml # (...) @@ -202,32 +201,32 @@ Para obtener una lista completa de los parámetros disponibles para las instanci {{% /tab %}} {{< /tabs >}} - Comando para crear el despliegue de Prometheus: + Command to create the Prometheus Deployment: ```shell kubectl create -f prometheus.yaml ``` -3. Entra en tu page (página) [Fleet Automation][16] y filtra por la integración `openmetrics` para ver información detallada sobre el estado de tus checks. +3. Accede a tu página de [Fleet Automation][16] y filtra por la `openmetrics` integración para ver información detallada sobre el estado de tus verificaciones. -4. Ve a tu página [Resumen de métrica][12] para ver las métricas recopiladas de este pod de ejemplo. Esta configuración recopilará las métricas `promhttp_metric_handler_requests` , `promhttp_metric_handler_requests_in_flight` y todas las métricas expuestas empezando por `go_memory`. +4. Accede a tu página de [Resumen de Métricas][12] para ver las métricas recopiladas de este pod de ejemplo. Esta configuración recopilará la métrica `promhttp_metric_handler_requests`, `promhttp_metric_handler_requests_in_flight` y todas las métricas expuestas que comiencen con `go_memory`. - {{< img src="integrations/guide/prometheus_kubernetes/openmetrics_v2_collected_metric_kubernetes.png" alt="Métrica de Prometheus recopilada en Kubernetes">}} + {{< img src="integrations/guide/prometheus_kubernetes/openmetrics_v2_collected_metric_kubernetes.png" alt="Métrica de Prometheus recopilada de Kubernetes">}} -## Recopilación de métricas con anotaciones de Prometheus (Prometheus Check) +## Recopilación de métricas con anotaciones de Prometheus (Verificación de Prometheus) {#metric-collection-with-prometheus-annotations-prometheus-check} -Con Prometheus Autodiscovery, el Datadog Agent es capaz de detectar anotaciones nativas de Prometheus (por ejemplo: `prometheus.io/scrape`, `prometheus.io/path`, `prometheus.io/port`) y programar checks de OpenMetrics automáticamente para recopilar métricas de Prometheus en Kubernetes. +Con Prometheus Autodiscovery, el Datadog Agent puede detectar anotaciones nativas de Prometheus (por ejemplo: `prometheus.io/scrape`, `prometheus.io/path`, `prometheus.io/port`) y programar verificaciones de OpenMetrics automáticamente para recopilar métricas de Prometheus en Kubernetes. -**Nota**: Datadog recomienda utilizar el check de OpenMetrics, ya que es más eficiente y admite totalmente el formato de texto de Prometheus. Utiliza el check de Prometheus sólo cuando el endpoint de métricas no admita un formato de texto. +**Nota**: Datadog recomienda usar la verificación de OpenMetrics ya que es más eficiente y soporta completamente el formato de texto de Prometheus. Utiliza la verificación de Prometheus solo cuando el punto de conexión de métricas no soporte un formato de texto. -### Requisitos +### Requisitos {#requirements} -- Datadog Agent v7.27+ o v6.27+ (para checks de pod) -- Datadog Cluster Agent v1.11+ (para checks de servicio y endpoint) +- Datadog Agent v7.27+ o v6.27+ (para verificaciones de pod) +- Datadog Cluster Agent v1.11+ (para verificaciones de servicio y punto de conexión) -### Configuración +### Configuración {#configuration-1} -Es recomendado primero comprobar qué pods y servicios tienen la anotación `prometheus.io/scrape=true` antes de activar esta función. Esto se puede hacer con los siguientes comandos: +Se recomienda primero verificar qué pods y servicios tienen la anotación `prometheus.io/scrape=true` antes de habilitar esta función. Esto se puede hacer con los siguientes comandos: ```shell kubectl get pods -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/scrape=="true")].metadata.name}' --all-namespaces @@ -235,16 +234,16 @@ kubectl get pods -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/sc kubectl get services -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/scrape=="true")].metadata.name}' --all-namespaces ``` -Una vez activada la función de extracción de Prometheus, Datadog Agent recopila métricas personalizadas de estos recursos. Si no deseas recopilar las métricas personalizadas de estos recursos, puedes eliminar esta anotación o actualizar las reglas de Autodiscovery tal y como se describe en la [sección de configuración avanzada](#advanced-configuration). +Una vez que la función de raspado de Prometheus esté habilitada, el Agente de Datadog recopila métricas personalizadas de estos recursos. Si no deseas recopilar las métricas personalizadas de estos recursos, puedes eliminar esta anotación o actualizar las reglas de Autodiscovery como se describe en la [sección de configuración avanzada](#advanced-configuration). -**Nota**: Activar esta función sin la configuración avanzada puede causar un aumento significativo de las métricas personalizadas, lo que puede afectar tu facturación. Consulta la sección [configuración avanzada](#advanced-configuration) para saber cómo recopilar métricas únicamente de un subconjunto de contenedores/pods/servicios. +**Nota**: Habilitar esta función sin configuración avanzada puede causar un aumento significativo en las métricas personalizadas, lo que puede llevar a implicaciones de facturación. Consulta la [sección de configuración avanzada](#advanced-configuration) para aprender cómo recopilar métricas solo de un subconjunto de contenedores/pods/servicios. -#### Configuración básica +#### Configuración básica {#basic-configuration} {{< tabs >}} {{% tab "Datadog Operator" %}} -Actualiza tu configuración del Datadog Operador para que contenga lo siguiente: +Actualiza la configuración de tu Datadog Operator para que contenga lo siguiente: {{< code-block lang="yaml" filename="datadog-agent.yaml" >}} apiVersion: datadoghq.com/v2alpha1 @@ -283,14 +282,16 @@ datadog: {{% /tab %}} {{% tab "Manual (DaemonSet)" %}} -En tu manifiesto de DaemonSet para el Agent `daemonset.yaml` , añade las siguientes variables de entorno para el contenedor del Agent: +En tu manifiesto de DaemonSet para el Datadog Agent `daemonset.yaml`, agrega las siguientes variables de entorno para el contenedor del Datadog Agent: + ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED value: "true" - name: DD_PROMETHEUS_SCRAPE_VERSION value: "2" ``` -Si el Cluster Agent está habilitado, dentro de su manifiesto `cluster-agent-deployment.yaml`, añade las siguientes variables de entorno para el contenedor del Cluster Agent: +Si el Datadog Cluster Agent está habilitado, dentro de su manifiesto `cluster-agent-deployment.yaml`, agrega las siguientes variables de entorno para el contenedor del Datadog Cluster Agent: + ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED value: "true" @@ -301,33 +302,33 @@ Si el Cluster Agent está habilitado, dentro de su manifiesto `cluster-agent-dep {{% /tab %}} {{< /tabs >}} -Esto indica a Datadog Agent que detecte los pods que tienen anotaciones nativas de Prometheus y genere los checks de OpenMetrics correspondientes. +Esto instruye al Datadog Agent a detectar los pods que tienen anotaciones nativas de Prometheus y generar las verificaciones correspondientes de OpenMetrics. -También indica a Datadog Cluster Agent (si está habilitado) que detecte los servicios que tienen anotaciones nativas de Prometheus y genere los checks correspondientes de OpenMetrics. +También instruye al Agente de Clúster de Datadog (si está habilitado) a detectar los servicios que tienen anotaciones nativas de Prometheus y generar las verificaciones correspondientes de OpenMetrics. -- `prometheus.io/scrape=true`: obligatorio. -- `prometheus.io/path`: opcional, por defecto es `/metrics`. -- `prometheus.io/port`: opcional, por defecto es `%%port%%`, una [variable de plantilla][13] que se sustituye por el puerto del contenedor/servicio. +- `prometheus.io/scrape=true`: Requerido. +- `prometheus.io/path`: Opcional, por defecto es `/metrics`. +- `prometheus.io/port`: Opcional, el valor por defecto es `%%port%%`, una [variable de plantilla][13] que es reemplazada por el puerto del contenedor/servicio. -Esta configuración genera un check que recopila todas las métricas expuestas utilizando la configuración por defecto de la [integración de OpenMetrics][1]. +Esta configuración genera una verificación que recopila todas las métricas expuestas utilizando la configuración predeterminada de la [integración de OpenMetrics][1]. -#### Configuración avanzada +#### Configuración avanzada {#advanced-configuration} Puedes configurar aún más la recopilación de métricas (más allá de las anotaciones nativas de Prometheus) con el campo `additionalConfigs`. -##### Configuraciones adicionales del check de OpenMetrics +##### Configuraciones adicionales de verificación de OpenMetrics {#additional-openmetrics-check-configurations} -Utiliza `additionalConfigs.configurations` para definir configuraciones adicionales del check de OpenMetrics. Consulta la [lista de parámetros de OpenMetrics compatibles][15] que puedes pasar en `additionalConfigs`. +Usa `additionalConfigs.configurations` para definir configuraciones adicionales de verificación de OpenMetrics. Consulta la [lista de parámetros de OpenMetrics soportados][15] que puedes pasar en `additionalConfigs`. -##### Reglas personalizadas de Autodiscovery +##### Reglas de Autodiscovery personalizadas {#custom-autodiscovery-rules} -Utiliza `additionalConfigs.autodiscovery` para definir reglas personalizadas de Autodiscovery. Estas reglas pueden basarse en nombres de contenedores, anotaciones de Kubernetes o ambos. +Utiliza `additionalConfigs.autodiscovery` para definir reglas personalizadas de Autodiscovery. Estas reglas pueden basarse en nombres de contenedores, anotaciones de Kubernetes o en ambos. `additionalConfigs.autodiscovery.kubernetes_container_names` -: una lista de nombres de contenedores a los que apuntar, en formato de expresión regular. +: Una lista de nombres de contenedores a los que dirigirse, en formato de expresión regular. `additionalConfigs.autodiscovery.kubernetes_annotations` -: Dos mapas (`include` y `exclude`) de anotaciones para definir reglas de detección. +: Dos mapas (`include` y `exclude`) de anotaciones para definir reglas de descubrimiento. Por defecto: ```yaml @@ -339,14 +340,14 @@ Utiliza `additionalConfigs.autodiscovery` para definir reglas personalizadas de Si se definen tanto `kubernetes_container_names` como `kubernetes_annotations`, se utiliza la lógica **AND** (ambas reglas deben coincidir). -##### Ejemplos +##### Ejemplos {#examples} -La siguiente configuración se dirige a un contenedor llamado `my-app` que se ejecuta en un pod con la anotación `app=my-app`. La configuración del check de OpenMetrics se personaliza para activar la opción `send_distribution_buckets` y definir un tiempo de espera personalizado de 5 segundos. +La siguiente configuración apunta a un contenedor llamado `my-app` que se ejecuta en un pod con la anotación `app=my-app`. La configuración de verificación de OpenMetrics se personaliza para habilitar la opción `send_distribution_buckets` y definir un tiempo de espera personalizado de 5 segundos. {{< tabs >}} {{% tab "Datadog Operator" %}} -Actualiza tu configuración del Datadog Operador para que contenga lo siguiente: +Actualiza la configuración de tu Datadog Operator para que contenga lo siguiente: {{< code-block lang="yaml" filename="datadog-agent.yaml" >}} apiVersion: datadoghq.com/v2alpha1 @@ -398,7 +399,7 @@ datadog: {{% /tab %}} {{% tab "Manual (DaemonSet)" %}} -Para el DaemonSet, la configuración avanzada se define en la variable de entorno`DD_PROMETHEUS_SCRAPE_CHECKS`, no en un campo `additionalConfigs`. +Para DaemonSet, la configuración avanzada se define en la variable de entorno `DD_PROMETHEUS_SCRAPE_CHECKS`, no en un campo `additionalConfigs`. ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED @@ -415,13 +416,13 @@ Para el DaemonSet, la configuración avanzada se define en la variable de entorn {{% /tab %}} {{< /tabs >}} -## De la integración personalizada a la oficial +## De la integración personalizada a la oficial {#from-custom-to-official-integration} -Por defecto, todas las métricas recuperadas por el check genérico de Prometheus se consideran métricas personalizadas. Si estás monitorizando software comercial y crees que merece tener una integración oficial, no dudes en [contribuir][5]. +Por defecto, todas las métricas recuperadas por la verificación genérica de Prometheus se consideran métricas personalizadas. Si estás monitoreando software estándar y crees que merece una integración oficial, ¡no dudes en [contribuir][5]! -Las integraciones oficiales tienen sus propios directorios específicos. Hay un mecanismo de instancia por defecto en el check genérico para codificar la configuración predeterminada y los metadatos de métricas. Por ejemplo, consulta la integración [kube-proxy][14]. +Las integraciones oficiales tienen sus propios directorios dedicados. Hay un mecanismo de instancia por defecto en la verificación genérica para codificar la configuración y los metadatos de métricas por defecto. Por ejemplo, referencia la integración de [kube-proxy][14]. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -429,13 +430,13 @@ Las integraciones oficiales tienen sus propios directorios específicos. Hay un [2]: /es/integrations/prometheus/ [3]: https://github.com/DataDog/integrations-core/tree/master/openmetrics [4]: https://github.com/DataDog/integrations-core/tree/master/prometheus -[5]: /es/developers/custom_checks/prometheus/ +[5]: /es/extend/custom_checks/prometheus/ [6]: /es/integrations/guide/prometheus-metrics [7]: /es/agent/kubernetes/#installation [8]: /es/getting_started/tagging/ [9]: https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example [10]: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes -[11]: /resources/yaml/prometheus.yaml +[11]: /es/resources/yaml/prometheus.yaml [12]: https://app.datadoghq.com/metric/summary [13]: /es/agent/faq/template_variables/ [14]: https://github.com/DataDog/integrations-core/tree/master/kube_proxy diff --git a/content/es/dashboards/_index.md b/content/es/dashboards/_index.md index 7c4803fdd13..cca07bd2927 100644 --- a/content/es/dashboards/_index.md +++ b/content/es/dashboards/_index.md @@ -16,106 +16,107 @@ cascade: tags: - snapshot - dashboards -description: Visualiza tus datos para obtener más información +description: Visualiza tus datos para obtener información further_reading: -- link: https://app.datadoghq.com/release-notes?category=Dashboards - tag: Notas de versiones - text: ¡Ëchales un vistazo a las últimas versiones de dashboards de Datadog! (Se - requiere iniciar sesión en la aplicación). - link: /dashboards/sharing/ tag: Documentación - text: Compartir gráficos fuera de Datadog + text: Comparte tus gráficos fuera de Datadog +- link: https://datadoghq.dev/integrations-core/guidelines/dashboards/#best-practices + tag: Mejores prácticas + text: Crea excelentes Dashboards de integración +- link: https://dtdg.co/fe + tag: Habilitación de la fundación + text: Únete a una sesión interactiva sobre mejores visualizaciones con Dashboards - link: https://www.datadoghq.com/blog/datadog-clipboard/ tag: Blog - text: Añade widgets del dashboard a tu portapapeles + text: Agrega widgets de Dashboards a tu portapapeles - link: https://www.datadoghq.com/blog/datadog-dashboards/ tag: Blog - text: Una nueva experiencia con los dashboards de Datadog -- link: https://datadoghq.dev/integrations-core/guidelines/dashboards/#best-practices - tag: Prácticas recomendadas - text: Crea unos dashboards de integración excelentes -- link: https://dtdg.co/fe - tag: Habilitación de los fundamentos - text: Participa en una sesión interactiva sobre las mejores visualizaciones con - dashboards + text: La nueva experiencia de Dashboards de Datadog +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: Blog + text: Diseña Dashboards ejecutivos efectivos con Datadog +- link: https://app.datadoghq.com/release-notes?category=Dashboards + tag: Notas de la versión + text: ¡Consulta las últimas versiones de los Dashboards de Datadog! (Se requiere + inicio de sesión en la aplicación). title: Dashboards --- +## Resumen {#overview} -## Información general - -Los dashboards proporcionan información en tiempo real sobre el rendimiento y el estado de los sistemas y las aplicaciones de una organización. Permiten a los usuarios analizar visualmente los datos, realizar un seguimiento de los indicadores clave de rendimiento (KPI) y monitorizar tendencias de forma eficaz. Con los dashboards, los equipos pueden identificar anomalías, priorizar problemas, detectar problemas de forma proactiva, diagnosticar sus causas raíz y garantizar el cumplimiento de los objetivos de confiabilidad. Permite a tus equipos tomar decisiones informadas, optimizar las operaciones del sistema e impulsar el éxito empresarial, proporcionando una interfaz centralizada y fácil de utilizar para monitorizar y analizar los indicadores críticos de métricas y de rendimiento. +Los Dashboards proporcionan información en tiempo real sobre el rendimiento y la salud de los sistemas y aplicaciones dentro de una organización. Permiten a los usuarios analizar visualmente los datos, rastrear indicadores clave de rendimiento (KPI) y monitorear tendencias de manera eficiente. Con los Dashboards, los equipos pueden identificar anomalías, priorizar problemas, detectar proactivamente problemas, diagnosticar causas raíz y asegurar que se cumplan los objetivos de confiabilidad. Empodera a tus equipos para tomar decisiones informadas, optimizar las operaciones del sistema y impulsar el éxito empresarial al proporcionar una interfaz centralizada y fácil de usar para monitorear y analizar métricas críticas e indicadores de rendimiento. -{{< whatsnext desc="Funciones del dashboard:">}} - {{< nextlink href="/dashboards/configure" >}}Configuración: Información general sobre las opciones de configuración de dashboards{{< /nextlink >}} - {{< nextlink href="/dashboards/list" >}}Lista de dashboards: Búsqueda, visualización o creación de dashboards y listas{{< /nextlink >}} - {{< nextlink href="/dashboards/template_variables" >}}Variable de plantilla: Filtrado dinámico de widgets en un dashboard{{< /nextlink >}} +{{< whatsnext desc="Características de Dashboards:">}} + {{< nextlink href="/dashboards/configure" >}}Configurar: Resumen de las opciones de configuración para los Dashboards{{< /nextlink >}} + {{< nextlink href="/dashboards/list" >}}Dashboard List: Buscar, ver o crear Dashboards y listas{{< /nextlink >}} + {{< nextlink href="/dashboards/template_variables" >}}Variable de plantilla: Filtra dinámicamente los widgets en un Dashboard{{< /nextlink >}} {{< nextlink href="/dashboards/guide/datadog_clipboard/" >}}Portapapeles de Datadog{{< /nextlink >}} - {{< nextlink href="/api/latest/dashboards" >}}API: Gestión de dashboards mediante programación{{< /nextlink >}} + {{< nextlink href="/api/latest/dashboards" >}}API: Administrar Dashboards programáticamente{{< /nextlink >}} {{< /whatsnext >}} -{{< whatsnext desc="Funciones gráficas:">}} - {{< nextlink href="/dashboards/widgets" >}}Widgets: Obtén información sobre la configuración de diferentes visualizaciones{{< /nextlink >}} - {{< nextlink href="/dashboards/querying" >}}Consultas: Visualiza las opciones de formatos para las consultas gráficas{{< /nextlink >}} - {{< nextlink href="/dashboards/functions" >}}Funciones: Modifica consultas sobre métricas y los gráficos resultantes{{< /nextlink >}} - {{< nextlink href="/dashboards/change_overlays" >}}Superposiciones: Superpone automáticamente eventos de cambios en gráficos{{< /nextlink >}} +{{< whatsnext desc="Características de graficación:">}} + {{< nextlink href="/dashboards/widgets" >}}Widgets: Aprender la configuración para diferentes visualizaciones{{< /nextlink >}} + {{< nextlink href="/dashboards/querying" >}}Consultas: Ver las opciones de formato para consultas gráficas{{< /nextlink >}} + {{< nextlink href="/dashboards/functions" >}}Funciones: Modificar consultas de métricas y gráficos resultantes{{< /nextlink >}} + {{< nextlink href="/dashboards/change_overlays" >}}Superposiciones: Superponer automáticamente eventos de cambio en gráficos{{< /nextlink >}} {{< /whatsnext >}} -## Para empezar +## Comenzar {#get-started} -Para crear un dashboard: -1. Haz clic en **+Nuevo dashboard** en la page (página) [Listas de dashboards][4] o en **Nuevo dashboard** en el menú de navegación. -2. Introduce un nombre para el dashboard y elige una opción de diseño. +Para crear un Dashboard: +1. Haga clic en **+Nuevo Dashboard** en la página de [Dashboard List][4] o **Nuevo Dashboard** en el menú de navegación. +2. Ingrese un nombre para el Dashboard y elija una opción de diseño. -{{< img src="dashboards/create-dashboard.png" alt="Añadir un nuevo dashboard" style="width:70%;">}} +{{< img src="dashboards/create-dashboard.png" alt="Agregando un nuevo Dashboard" style="width:70%;">}} Dashboards -: Tienen un diseño basado en cuadrículas, que puede incluir una variedad de objetos como imágenes, gráficos y logs. Suelen utilizarse como tableros de estado o vistas narrativas que se actualizan en tiempo real y pueden representar puntos específicos del pasado. Tienen una anchura máxima de 12 cuadrados de cuadrícula y también resultan útiles para tareas de depuración. +: Un diseño basado en cuadrícula, que puede incluir una variedad de objetos como imágenes, gráficos y registros. Se utilizan comúnmente como Dashboards de estado o vistas narrativas que se actualizan en tiempo real, y pueden representar puntos fijos en el pasado. Tienen un ancho máximo de 12 cuadros de cuadrícula y también funcionan bien para depuración. -Timeboards (Tableros temporales) -: Tienen un diseño automático que representa un único punto en el tiempo, ya sea fijo o en tiempo real, en todo el dashboard. Suelen utilizarse para solucionar problemas, la correlación y la exploración general de datos. +Timeboards +: Diseños automáticos que representan un único punto en el tiempo—ya sea fijo o en tiempo real—en todo el Dashboard. Se utilizan comúnmente para la resolución de problemas, correlación y exploración general de datos. -Screenboards (Pantallas) -: Dashboards con un diseño de forma libre que puede incluir una variedad de objetos, como imágenes, gráficos y logs. Suelen utilizarse como tableros de estado o vistas narrativas que se actualizan en tiempo real o que representan puntos específicos del pasado. +Paneles visuales +: Paneles visuales con diseños de forma libre que pueden incluir una variedad de objetos como imágenes, gráficos y registros. Se utilizan comúnmente como paneles visuales de estado o vistas narrativas que se actualizan en tiempo real o representan puntos fijos en el pasado. -{{< whatsnext desc="Consulta los siguientes recursos:" >}} - {{< nextlink href="/getting_started/dashboards/" >}}Empezando con los dashboards{{< /nextlink >}} - {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Curso de aprendizaje: Presentación de los dashboards{{< /nextlink >}} - {{< nextlink href="https://learn.datadoghq.com/courses/building-better-dashboards" >}}Curso de aprendizaje: Crear mejores dashboards{{< /nextlink >}} +{{< whatsnext desc="Vea los siguientes recursos:" >}} + {{< nextlink href="/getting_started/dashboards/" >}}Introducción a Dashboards{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Curso de Aprendizaje: Introducción a Dashboards{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/building-better-dashboards" >}}Curso de Aprendizaje: Creando Mejores Dashboards{{< /nextlink >}} {{< /whatsnext >}} -## Frecuencia de actualización +## Tasa de actualización {#refresh-rate} -La frecuencia de actualización de un dashboard privado depende del periodo de tiempo que se esté visualizando. Cuanto más corto sea el periodo, más a menudo se actualizarán los datos. Los dashboards compartidos públicamente se actualizan cada treinta segundos, independientemente del intervalo de tiempo que se haya seleccionado. +La tasa de actualización de un Dashboard privado depende del marco de tiempo que esté visualizando. Cuanto más corto sea el marco de tiempo, más frecuentemente se actualizan los datos. Los Dashboards compartidos públicamente se actualizan cada treinta segundos, independientemente del marco de tiempo seleccionado. -| Periodo de tiempo | Frecuencia de actualización | +| Marco de tiempo | Tasa de actualización | |--------------|--------------| | 1 minuto | 10 segundos | | 2 minutos | 10 segundos | -| 5 minutos | 10 segundos | -| 10 minutos | 10 segundos | -| 30 minutos | 20 segundos | -| 1 hora | 20 segundos | -| 3 horas | 1 minuto | -| 4 horas | 1 minuto | -| 1 día | 3 minutos | -| 2 días | 10 minutos | -| 1 semana | 1 hora | -| 1 mes | 1 hora | -| 3 meses | 1 hora | -| 6 meses | 1 hora | -| 1 año | 1 hora | +| 5 minutos | 10 segundos | +| 10 minutos | 10 segundos | +| 30 minutos | 20 segundos | +| 1 hora | 20 segundos | +| 3 horas | 1 minuto | +| 4 horas | 1 minuto | +| 1 día | 3 minutos | +| 2 días | 10 minutos | +| 1 semana | 1 hora | +| 1 mes | 1 hora | +| 3 meses | 1 hora | +| 6 meses | 1 hora | +| 1 año | 1 hora | -## Ver dashboards en dispositivos móviles +## Ver Dashboards en dispositivos móviles {#view-dashboards-on-mobile-devices} -Consulta tus dashboards en formato móvil con la aplicación móvil de Datadog, disponible en [Apple App Store][2] y [Google Play Store][3]. La aplicación móvil viene equipada con widgets móviles en la pantalla de inicio que te permiten monitorizar servicios de salud y de infraestructura sin abrir la aplicación móvil. +Vea sus Dashboards en un formato amigable para móviles con la aplicación móvil de Datadog, disponible en el [Apple App Store][2] y [Google Play Store][3]. La aplicación móvil de Datadog viene equipada con widgets para la pantalla de inicio que te permiten monitorear la salud del servicio y la infraestructura sin abrir la aplicación. -**Nota**: Para configurar o editar un dashboard, debes iniciar sesión en la interfaz de usuario del navegador de Datadog. Para obtener más información sobre la instalación de la aplicación, consulta la documentación de la [aplicación móvil de Datadog][1]. +**Nota**: Para configurar o editar un Dashboard, debes iniciar sesión en la interfaz de usuario del navegador de Datadog. Para más información sobre la instalación de la aplicación, consulte la documentación de la [Aplicación Móvil de Datadog][1]. -## Referencias adicionales +## Lectura adicional {#further-reading} -{{< learning-center-callout header="Try Creating Graph Widgets in the Datadog Learning Center" btn_title="Enroll Now" btn_url="https://learn.datadoghq.com/courses/dashboard-graph-widgets">}} Explora los widgets de series temporales, valor de consulta, top list (lista principal), tabla, distribución y gráfico circular. Aprende a configurar los widgets y a comprender cuándo debe utilizarse cada tipo de widget. {{< /learning-center-callout >}} +{{< learning-center-callout header="Intenta crear widgets de gráficos en el Datadog Learning Center" btn_title="Inscríbete ahora" btn_url="https://learn.datadoghq.com/courses/dashboard-graph-widgets">}} Explora widgets de series temporales, consulta de valores, lista principal, tabla, distribución y gráfico de pastel. Aprende a configurar los widgets y desarrolla una comprensión de cuándo se debe utilizar cada tipo de widget. {{< /learning-center-callout >}} -{{< learning-center-callout header="Try Creating Table, List, SLO, and Architecture Widgets in the Datadog Learning Center" btn_title="Enroll Now" btn_url="https://learn.datadoghq.com/courses/discovering-table-list-widgets">}} Explora los widgets de tabla, lista, SLOs y arquitectura. Aprende a rastrear las métricas y el rendimiento de una aplicación web y descubre cómo presentar datos importantes. {{< /learning-center-callout >}} +{{< learning-center-callout header="Intenta crear widgets de tabla, lista, SLO y arquitectura en el Datadog Learning Center" btn_title="Inscríbete ahora" btn_url="https://learn.datadoghq.com/courses/discovering-table-list-widgets">}} Explora widgets de tabla, lista, SLO y arquitectura. Aprende a rastrear las métricas y el rendimiento de una aplicación web y descubre cómo presentar datos importantes. {{< /learning-center-callout >}} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/extend/dogstatsd/_index.md b/content/es/extend/dogstatsd/_index.md new file mode 100644 index 00000000000..afe01350b74 --- /dev/null +++ b/content/es/extend/dogstatsd/_index.md @@ -0,0 +1,637 @@ +--- +aliases: +- /es/guides/dogstatsd/ +- /es/guides/DogStatsD/ +- /es/developers/faq/how-to-remove-the-host-tag-when-submitting-metrics-via-dogstatsd/ +- /es/integrations/faq/dogstatsd-and-docker +- /es/agent/kubernetes/dogstatsd +- /es/developers/dogstatsd/ +description: Descripción general de las características de DogStatsD, incluidos los + tipos de datos y el etiquetado. +further_reading: +- link: integrations/node + tag: Documentación + text: Habilitar DogStatsD para Node.js a través de la integración de Node.js +- link: extend/dogstatsd + tag: Documentación + text: Introducción a DogStatsD +- link: extend/libraries + tag: Documentación + text: Bibliotecas de cliente de API y DogStatsD creadas oficialmente y por la comunidad +- link: https://www.datadoghq.com/blog/monitor-azure-app-service-linux/ + tag: Blog + text: Monitorea tus aplicaciones web de Linux en Azure App Service con Datadog +- link: https://www.datadoghq.com/blog/datadog-csi-driver/ + tag: Blog + text: Aporta observabilidad de alto rendimiento a entornos de Kubernetes seguros + con el controlador CSI de Datadog +- link: https://learn.datadoghq.com/courses/create-custom-metrics-dogstatsd + tag: Centro de Aprendizaje + text: Crea Custom Metrics con DogStatsD +title: DogStatsD +--- +La forma más fácil de enviar las métricas personalizadas de tu aplicación a Datadog es enviarlas a DogStatsD, un servicio de agregación de métricas incluido con el Datadog Agent. DogStatsD implementa el protocolo [StatsD][1] y añade algunas extensiones específicas de Datadog: + +- Tipo de métrica de histograma +- Verificaciones de servicio +- Eventos +- Etiquetado + +Cualquier cliente StatsD compatible funciona con DogStatsD y el Datadog Agent, pero no incluye las [extensiones específicas de Datadog](#dive-into-dogstatsd). + +**Nota**: DogStatsD NO implementa temporizadores de StatsD como un tipo de métrica nativa (aunque sí los soporta a través de [histogramas][2]). + +DogStatsD está disponible en el Registro de Contenedores de Datadog, GAR, ECR, Azure ACR y Docker Hub: + +| Registro | Imagen | +| -------------------------- | --------------------------------------- | +| Registro de Contenedores de Datadog | [registry.datadoghq.com/dogstatsd][33] | +| Registro de Artefactos de Google | [gcr.io/datadoghq/dogstatsd][4] | +| Amazon ECR | [public.ecr.aws/datadog/dogstatsd][34] | +| Azure ACR | datadoghq.azurecr.io/dogstatsd | +| Docker Hub | [hub.docker.com/r/datadog/dogstatsd][3] | + +
Docker Hub está sujeto a límites de tasa de descarga de imágenes. Si no eres cliente de Docker Hub, Datadog recomienda que utilices el Registro de Contenedores de Datadog o un registro de proveedor de nube en su lugar. Para instrucciones, consulta Cómo cambiar tu registro de contenedores.
+ +## Cómo funciona {#how-it-works} + +DogStatsD acepta [métricas personalizadas][5], [eventos][6] y [verificaciones de servicio][7] a través de UDP y las agrega y reenvía periódicamente a Datadog. + +Debido a que utiliza UDP, tu aplicación puede enviar métricas a DogStatsD y continuar su trabajo sin esperar una respuesta. Si DogStatsD alguna vez deja de estar disponible, tu aplicación no experimenta una interrupción. + +{{< img src="metrics/custom_metrics/dogstatsd_metrics_submission/dogstatsd.png" alt="dogstatsd" >}} + +A medida que recibe datos, DogStatsD agrega múltiples puntos de datos para cada métrica única en un solo punto de datos durante un período de tiempo llamado _el intervalo de vaciado_. DogStatsD utiliza un intervalo de vaciado de 10 segundos. + +## Configuración {#setup} + +DogStatsD consiste en un servidor, que se incluye con el Datadog Agent, y una biblioteca cliente, que está disponible en múltiples lenguajes. El servidor DogStatsD está habilitado por defecto en el puerto UDP `8125` para el Datadog Agent v6+. Puedes establecer un puerto personalizado para el servidor si es necesario. Configura tu cliente para que coincida con la dirección y el puerto del servidor DogStatsD del Datadog Agent. + +### Servidor DogStatsD del Datadog Agent {#datadog-agent-dogstatsd-server} + +{{< tabs >}} +{{% tab "Host Agent" %}} + +Si necesitas cambiar el puerto, configura la opción `dogstatsd_port` en el archivo principal de configuración del [Datadog Agent][1], y reinicia el Datadog Agent. También puedes configurar DogStatsD para usar un [socket de dominio UNIX][2]. + +Para habilitar un puerto UDP personalizado para el servidor DogStatsD del Datadog Agent: + +1. Establece el parámetro `dogstatsd_port`: + + ```yaml + ## @param dogstatsd_port - integer - optional - default: 8125 + ## Override the Agent DogStatsD port. + ## Note: Make sure your client is sending to the same UDP port. + # + dogstatsd_port: 8125 + ``` + +2. [Reinicia tu Datadog Agent][3]. + +[1]: /es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file +[2]: /es/extend/dogstatsd/unix_socket/ +[3]: /es/agent/configuration/agent-commands/ +{{% /tab %}} +{{% tab "Agente de Contenedor" %}} + +Por defecto, DogStatsD escucha en el puerto UDP **8125**, por lo que necesitas vincular este puerto a tu puerto de host al ejecutar el Agente en un contenedor. Si tus métricas de StatsD provienen de fuera de `localhost`, debes establecer `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` en `true` para permitir la recolección de métricas. Para ejecutar el Agente con el servidor DogStatsD activo, ejecuta el siguiente comando: + +```shell +docker run -d --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC="true" \ + -p 8125:8125/udp \ + registry.datadoghq.com/agent:latest +``` + +Si necesitas cambiar el puerto utilizado para recolectar métricas de StatsD, utiliza la variable de entorno `DD_DOGSTATSD_PORT="`. También puedes configurar DogStatsD para usar un [socket de dominio UNIX][1]. + +[1]: /es/extend/dogstatsd/unix_socket/ +{{% /tab %}} +{{% tab "Datadog Operator" %}} + +La recolección de métricas de StatsD está habilitada por defecto en [socket de dominio UNIX][1]. Para comenzar a recolectar tus métricas de StatsD a través de UDP, necesitas activar la función DogStatsD en la configuración del Datadog Operator. + +1. Agrega `features.dogstatsd.hostPortConfig.enabled` a tu manifiesto de `datadog-agent.yaml`: + + ```yaml + features: + dogstatsd: + hostPortConfig: + enabled: true + ``` + + This is an example `datadog-agent.yaml` manifest: + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + features: + dogstatsd: + hostPortConfig: + enabled: true + ``` + + This enables the Agent to collect StatsD metrics over UDP on port `8125`. + +2. Aplica el cambio: + + ```shell + kubectl apply -f datadog-agent.yaml + ``` + +**Advertencia**: El parámetro `features.dogstatsd.hostPortConfig.hostPort` abre un puerto en tu host. Asegúrate de que tu firewall solo permita el acceso desde tus aplicaciones o fuentes de confianza. Si tu complemento de red no soporta `hostPorts`, agrega `hostNetwork: true` en las especificaciones de tu pod Agent. Esto comparte el espacio de nombres de red de tu host con el Datadog Agent. También significa que todos los puertos abiertos en el contenedor están abiertos en el host. Si un puerto se utiliza tanto en el host como en tu contenedor, hay un conflicto (ya que comparten el mismo espacio de nombres de red) y el pod no se inicia. Algunas instalaciones de Kubernetes no permiten esto. + +### Envía métricas de StatsD al Agent {#send-statsd-metrics-to-the-agent} + +Tu aplicación necesita una forma confiable de determinar la dirección IP de su host. Esto se simplifica en Kubernetes 1.7, que amplía el conjunto de atributos que puedes pasar a tus pods como variables de entorno. En versiones 1.7 y superiores, puedes pasar la IP del host a cualquier pod agregando una variable de entorno al PodSpec. Por ejemplo, tu manifiesto de aplicación podría verse así: + +```yaml +env: + - name: DD_AGENT_HOST + valueFrom: + fieldRef: + fieldPath: status.hostIP +``` + +Con esto, cualquier pod que ejecute tu aplicación puede enviar métricas de DogStatsD con el puerto `8125` en `$DD_AGENT_HOST`. + +**Nota**: Como buena práctica, Datadog recomienda usar unified service tagging al asignar atributos. Unified service tagging vincula la telemetría de Datadog a través del uso de tres etiquetas estándar: `env`, `service` y `version`. Para aprender a unificar tu entorno, consulta [unified service tagging][4]. + +[1]: /es/extend/dogstatsd/unix_socket/ +[2]: https://github.com/containernetworking/cni +[3]: https://kubernetes.io/docs/setup/independent/troubleshooting-kubeadm/#hostport-services-do-not-work +[4]: /es/getting_started/tagging/unified_service_tagging +{{% /tab %}} +{{% tab "Helm" %}} + +Para recopilar métricas personalizadas con [DogStatsD][1] usando Helm: + +1. Actualiza tu archivo [datadog-values.yaml][2] para habilitar DogStatsD: + + ```yaml + dogstatsd: + port: 8125 + useHostPort: true + nonLocalTraffic: true + ``` + + **Note**: `hostPort` functionality requires a networking provider that adheres to the [CNI specification][3], such as Calico, Canal, or Flannel. For more information, including a workaround for non-CNI network providers, see the Kubernetes documentation: [HostPort services do not work][4]. + + **Warning**: The `hostPort` parameter opens a port on your host. Make sure your firewall only allows access from your applications or trusted sources. If your network plugin doesn't support `hostPorts`, so add `hostNetwork: true` in your Agent pod specifications. This shares the network namespace of your host with the Datadog Agent. It also means that all ports opened on the container are opened on the host. If a port is used both on the host and in your container, they conflict (since they share the same network namespace) and the pod does not start. Some Kubernetes installations do not allow this. + +2. Actualiza la configuración de tu Datadog Agent: + + ``` shell + helm upgrade -f datadog-values.yaml datadog/datadog + ``` + +3. Actualiza tus pods de aplicación: Tu aplicación necesita una forma confiable de determinar la dirección IP de tu host. Esto se simplifica en Kubernetes 1.7, que amplía el conjunto de atributos que puedes pasar a tus pods como variables de entorno. En versiones 1.7 y superiores, puedes pasar la IP del host a cualquier pod agregando una variable de entorno al PodSpec. Por ejemplo, tu manifiesto de aplicación podría verse así: + + ```yaml + env: + - name: DD_AGENT_HOST + valueFrom: + fieldRef: + fieldPath: status.hostIP + ``` + + With this, any pod running your application is able to send DogStatsD metrics through port `8125` on `$DD_AGENT_HOST`. + +[1]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ +[2]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml +[3]: https://github.com/containernetworking/cni +[4]: https://kubernetes.io/docs/setup/independent/troubleshooting-kubeadm/#hostport-services-do-not-work +{{% /tab %}} +{{< /tabs >}} + +### Detección de origen {#origin-detection} + +El Datadog Agent v6.10.0 soporta _detección de origen_, lo que permite a DogStatsD detectar de dónde provienen las métricas del contenedor y etiquetar automáticamente las métricas. Cuando la detección de origen está habilitada, todas las métricas recibidas a través de UDP son etiquetadas por el mismo pod +etiquetas como métricas de Autodiscovery. + +#### En un cliente de DogStatsD {#in-a-dogstatsd-client} + +La detección de origen está habilitada por defecto en todos los clientes de DogStatsD. + +Para **deshabilitar** la detección de origen en un cliente, realice una de las siguientes acciones: +- Establezca la variable de entorno `DD_ORIGIN_DETECTION_ENABLED=false` +- Configure la biblioteca de DogStatsD para deshabilitar la detección de origen. Para instrucciones, consulte la [documentación de su biblioteca específica de DogStatsD][10]. + +#### En el Agente de Datadog {#in-the-datadog-agent} +La detección de origen no está habilitada por defecto en el Agente de Datadog. Para **habilitar** la detección de origen en el Agente de Datadog, establezca la variable de entorno `DD_DOGSTATSD_ORIGIN_DETECTION_CLIENT` en `true`. + +Establezca [`shareProcessNamespace:true` en la especificación del pod][12] para ayudar al Agente en la detección de origen en EKS Fargate. + +#### Cómo se detectan los orígenes {#how-origins-are-detected} + +La detección de origen se puede lograr de varias maneras. La detección de origen a través de cgroups está habilitada por defecto. La detección de origen sobre UDP o `DD_EXTERNAL_ENV` requiere configuración. + +{{< tabs >}} +{{% tab "Cgroups" %}} +En Linux, el ID del contenedor se puede extraer de las entradas `procfs` relacionadas con `cgroups`. El cliente lee de `/proc/self/cgroup` o `/proc/self/mountinfo` para intentar analizar el ID del contenedor. + +En cgroup v2, el ID del contenedor se puede inferir resolviendo la ruta del cgroup desde `/proc/self/cgroup`, combinándola con el punto de montaje del cgroup desde `/proc/self/mountinfo`. El inode del directorio resultante se envía al Agente de Datadog. Si el Agente de Datadog está en el mismo nodo que el cliente, esta información se puede utilizar para identificar el UID del pod. +{{% /tab %}} + +{{% tab "UDP" %}} +Para habilitar la detección de origen sobre UDP, agregue las siguientes líneas a su manifiesto de aplicación: + +```yaml +env: +- name: DD_ENTITY_ID + valueFrom: + fieldRef: + fieldPath: metadata.uid +``` + +El cliente de DogStatsD adjunta una etiqueta interna, `entity_id`. El valor de esta etiqueta es el contenido de la variable de entorno `DD_ENTITY_ID`, que es el UID del pod. + +
Para UDP, pod_name las etiquetas no se añaden por defecto para evitar crear demasiadas métricas personalizadas.
+{{% /tab %}} + +{{% tab "DD_EXTERNAL_ENV" %}} +Agrega la siguiente etiqueta a tu pod: + +``` +admission.datadoghq.com/enabled: "true" +``` + +Si tu pod tiene esta etiqueta, el [Controlador de Admisiones][1] inyecta una variable de entorno, `DD_EXTERNAL_ENV`. El valor de esta variable se envía en un campo con la métrica, que puede ser utilizado por el Agente de Datadog para determinar el origen de la métrica. + +[1]: /es/containers/cluster_agent/admission_controller +{{% /tab %}} +{{< /tabs >}} + +#### Cardinalidad de etiqueta {#tag-cardinality} + +Consulte [Asignación de Etiquetas: Cardinalidad de Etiqueta][11] para más información sobre la cardinalidad de etiqueta. + +##### Globalmente {#globally} + +Puedes especificar la cardinalidad de etiqueta globalmente configurando la variable de entorno `DD_CARDINALITY`, o pasando un campo `'cardinality'` al constructor. + +##### Por métrica {#per-metric} + +Puedes especificar la cardinalidad de etiqueta por métrica pasando el valor en el parámetro `cardinality`. Los valores válidos para este parámetro son `"none"`, `"low"`, `"orchestrator"` o `"high"`. + +### Cliente DogStatsD {#dogstatsd-client} + +Instala la biblioteca del cliente DogStatsD para tu lenguaje preferido y configúrala para que coincida con la dirección y el puerto del servidor DogStatsD del Agente de Datadog. + +#### Instala el cliente DogStatsD {#install-the-dogstatsd-client} + +Las bibliotecas oficiales del cliente Datadog-DogStatsD están disponibles para los siguientes lenguajes. Cualquier cliente StatsD compatible funciona con DogStatsD y el Agente, pero no incluye las características específicas de Datadog mencionadas anteriormente: +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} + +{{< programming-lang lang="python" >}} + +```shell +pip install datadog +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} + +```shell +gem install dogstatsd-ruby +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} + +```shell +go get github.com/DataDog/datadog-go/v5/statsd +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="java" >}} + +El Cliente Java DataDog StatsD se distribuye con Maven Central y se puede [descargar desde Maven][1]. Comience agregando la siguiente configuración a su `pom.xml`: + +```xml + + com.datadoghq + java-dogstatsd-client + 4.2.1 + +``` + +[1]: https://search.maven.org/search?q=g:com.datadoghq%20a:java-dogstatsd-client +{{< /programming-lang >}} + +{{< programming-lang lang="PHP" >}} + +Agregue lo siguiente a su `composer.json`: + +```text +"datadog/php-datadogstatsd": "1.6.*" +``` + +**Nota**: La primera versión lanzada en Composer es _0.0.3_ + +O clone manualmente el repositorio en [github.com/DataDog/php-datadogstatsd][1] y configúrelo con `require './src/DogStatsd.php'`. + + + +[1]: https://github.com/DataDog/php-datadogstatsd#php-datadog-statsd-client +{{< /programming-lang >}} + +{{< programming-lang lang=".NET" >}} + +Instale el paquete directamente usando el CLI de Nuget o obtenga [el PackageReference de NuGet][1]: + +```shell +dotnet add package DogStatsD-CSharp-Client +``` + +[1]: https://www.nuget.org/packages/DogStatsD-CSharp-Client +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + + +#### Instancie el cliente DogStatsD {#instantiate-the-dogstatsd-client} + +Una vez que su cliente DogStatsD esté instalado, instáncielo en su código: +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} + +{{< programming-lang lang="python" >}} + +```python +from datadog import initialize, statsd + +options = { + 'statsd_host':'127.0.0.1', + 'statsd_port':8125 +} + +initialize(**options) +``` + +
+ Por defecto, las instancias del cliente DogStatsD de Python (incluida la statsd instancia global) no pueden compartirse entre procesos, pero son seguras para hilos. Debido a esto, el proceso padre y cada proceso hijo deben crear sus propias instancias del cliente o el almacenamiento en búfer debe deshabilitarse explícitamente configurando disable_buffering a True. Consulte la documentación sobre datadog.dogstatsd para más detalles. +
+ +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} + +```ruby +# Import the library +require 'datadog/statsd' + +# Create a DogStatsD client instance. +statsd = Datadog::Statsd.new('localhost', 8125) +``` + +
+ Si utiliza DogStatsD con el Agente de Contenedor o en Kubernetes, debe instanciar el host al que se envían las métricas de StatsD con la variable de entorno $DD_DOGSTATSD_SOCKET si utiliza un Socket de Dominio UNIX, o con la variable de entorno $DD_AGENT_HOST si está utilizando el método de enlace de puerto del host. +
+ +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} + +```go +dogstatsd_client, err := statsd.New("127.0.0.1:8125") +if err != nil { + log.Fatal(err) +} +``` + +Para más opciones, consulte [GoDoc de Datadog][1]. + + + +[1]: https://pkg.go.dev/github.com/DataDog/datadog-go/v5/statsd +{{< /programming-lang >}} + +{{< programming-lang lang="java" >}} + +```java +import com.timgroup.statsd.NonBlockingStatsDClientBuilder; +import com.timgroup.statsd.StatsDClient; + +public class DogStatsdClient { + + public static void main(String[] args) throws Exception { + + StatsDClient statsd = new NonBlockingStatsDClientBuilder() + .prefix("statsd") + .hostname("localhost") + .port(8125) + .build(); + + + // alternatively + StatsDClient statsdAlt = new NonBlockingStatsDClient( + new NonBlockingStatsDClientBuilder( + .prefix("statsd") + .hostname("localhost") + .port(8125) + .resolve())); + + } +} +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="PHP" >}} + +Instancie un nuevo objeto DogStatsd usando composer: + +```php + '127.0.0.1', + 'port' => 8125, + ) + ); +``` + +{{< /programming-lang >}} + +{{< programming-lang lang=".NET" >}} + +Configure la clase DogStatsd: + +```csharp +// The code is located under the StatsdClient namespace +using StatsdClient; + +// ... + +var dogstatsdConfig = new StatsdConfig +{ + StatsdServerName = "127.0.0.1", + StatsdPort = 8125, +}; + +using (var dogStatsdService = new DogStatsdService()) +{ + if (!dogStatsdService.Configure(dogstatsdConfig)) + throw new InvalidOperationException("Cannot initialize DogstatsD. Set optionalExceptionHandler argument in the `Configure` method for more information."); + // ... +} // Flush metrics not yet sent +``` + +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +### Parámetros de instanciación del cliente {#client-instantiation-parameters} + +**Nota**: Como mejor práctica, Datadog recomienda usar unified service tagging al asignar etiquetas. El unified service tagging vincula la telemetría de Datadog a través del uso de tres etiquetas estándar: `env`, `service` y `version`. Para aprender cómo unificar su entorno, consulte [unified service tagging][8]. + +Además de la configuración requerida de DogStatsD (`url` y `port`), los siguientes parámetros opcionales están disponibles para su cliente DogStatsD: + +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} +{{< programming-lang lang="python" >}} +| Parámetro | Tipo | Predeterminado | Descripción | +| ---------------------- | --------------- | ----------- | -------------------------------------------------------------------------------------------------------------- | +| `statsd_host` | Cadena | `localhost` | El host de su servidor DogStatsD. | +| `statsd_port` | Entero | `8125` | El puerto de su servidor DogStatsD. | +| `statsd_socket_path` | Cadena | `null` | La ruta al socket de dominio UNIX de DogStatsD (anula `host` y `port`, solo es compatible con el Agente v6+). | +| `statsd_constant_tags` | Lista de cadenas | `null` | Etiquetas para aplicar a todas las métricas, eventos y verificaciones de servicio. | +| `statsd_namespace` | Cadena | `null` | Espacio de nombres para prefijar todas las métricas, eventos y verificaciones de servicio. | + +Para la lista completa de parámetros opcionales disponibles para `datadog.initialize()` así como parámetros disponibles solo al instanciar explícitamente instancias de `datadog.dogstatsd.DogStatsd`, consulte la [biblioteca de Python de Datadog][1]. + + +[1]: https://datadogpy.readthedocs.io/en/latest +{{< /programming-lang >}} +{{< programming-lang lang="ruby" >}} + +| Parámetro | Tipo | Predeterminado | Descripción | +| --------------- | --------------- | ----------- | -------------------------------------------------------------------------------------------------------------- | +| `host` | Cadena | `localhost` | El host de su servidor DogStatsD. | +| `port` | Entero | `8125` | El puerto de su servidor DogStatsD. | +| `socket_path` | Cadena | `null` | La ruta al socket de dominio UNIX de DogStatsD (anula `host` y `port`, solo es compatible con el Agente v6+). | +| `tags` | Lista de cadenas | `null` | Etiquetas para aplicar a todas las métricas, eventos y verificaciones de servicio. | +| `namespace` | Cadena | `null` | Espacio de nombres para prefijar a todas las métricas, eventos y verificaciones de servicio. | +| `single_thread` | Booleano | `false` | Hace que el cliente envíe las métricas en el hilo principal cuando está habilitado en lugar de en un hilo secundario. | + +Para la lista completa de parámetros opcionales, consulte el [repositorio de dogstatsd-ruby][1] en GitHub. + + +[1]: https://github.com/DataDog/dogstatsd-ruby +{{< /programming-lang >}} +{{< programming-lang lang="go" >}} + +El cliente de Go tiene múltiples opciones para configurar el comportamiento del cliente. + +| Parámetro | Tipo | Descripción | +| ----------------- | --------------- | --------------------------------------------------------------------------- | +| `WithNamespace()` | Cadena | Configure un espacio de nombres para prefijar a todas las métricas, eventos y verificaciones de servicio. | +| `WithTags()` | Lista de cadenas | Etiquetas globales aplicadas a cada métrica, evento y verificación. | + +Para todas las opciones disponibles, consulte [GoDoc de Datadog][1]. + + +[1]: https://pkg.go.dev/github.com/DataDog/datadog-go/v5/statsd#Option +{{< /programming-lang >}} +{{< programming-lang lang="java" >}} + +A partir de la versión 2.10.0, la forma recomendada de instanciar el cliente es con el NonBlockingStatsDClientBuilder. Usted +puede utilizar los siguientes métodos de constructor para definir los parámetros del cliente. + +| Método de Constructor | Tipo | Predeterminado | Descripción | +| -------------------------------------------- | -------------- | --------- | ---------------------------------------------------------------------------------- | +| `prefix(String val)` | Cadena | null | El prefijo que se aplicará a todas las métricas, eventos y verificaciones. | +| `hostname(String val)` | Cadena | localhost | El nombre del servidor StatsD objetivo. | +| `port(int val)` | Entero | 8125 | El puerto del servidor StatsD objetivo. | +| `constantTags(String... val)` | Cadena varargs | null | Etiquetas globales que se aplicarán a cada métrica, evento y verificación. | +| `blocking(boolean val)` | Booleano | falso | El tipo de cliente a instanciar: bloqueante vs no bloqueante. | +| `socketBufferSize(int val)` | Entero | -1 | El tamaño del búfer de socket subyacente. | +| `enableTelemetry(boolean val)` | Booleano | falso | Reporte de telemetría del cliente. | +| `entityID(String val)` | Cadena | null | ID de entidad para la detección de origen. | +| `errorHandler(StatsDClientErrorHandler val)` | Entero | null | Manejador de errores en caso de un error interno del cliente. | +| `maxPacketSizeBytes(int val)` | Entero | 8192/1432 | El tamaño máximo del paquete; 8192 sobre UDS, 1432 para UDP. | +| `processorWorkers(int val)` | Entero | 1 | El número de hilos de trabajo del procesador que ensamblan los búferes para su envío. | +| `senderWorkers(int val)` | Entero | 1 | El número de hilos de trabajo del remitente que envían los búferes al socket. | +| `poolSize(int val)` | Entero | 512 | Tamaño del grupo de búferes de paquetes de red. | +| `queueSize(int val)` | Entero | 4096 | Número máximo de mensajes no procesados en la cola. | +| `timeout(int val)` | Entero | 100 | El tiempo de espera en milisegundos para operaciones bloqueantes. Aplica solo a sockets unix. | + +Para más información, busca el paquete Java DogStatsD [package][1] para la clase NonBlockingStatsDClient y la clase NonBlockingStatsDClientBuilder. Asegúrese de ver la versión que coincide con la versión de su cliente. + + +[1]: https://javadoc.io/doc/com.datadoghq/java-dogstatsd-client/latest/index.html +{{< /programming-lang >}} +{{< programming-lang lang="PHP" >}} + +| Parámetro | Tipo | Predeterminado | Descripción | +| ------------------ | --------------- | ----------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| `host` | El servidor de DogStatsD. | `localhost` | Si esto no está configurado, el Agente revisa la variable de entorno `DD_AGENT_HOST` o `DD_DOGSTATSD_URL`. | +| `port` | El puerto de su servidor DogStatsD. | `8125` | Si esto no está configurado, el Agente revisa la variable de entorno `DD_DOGSTATSD_PORT` o `DD_DOGSTATSD_URL`. | +| `socket_path` | Cadena | `null` | La ruta al socket de dominio UNIX de DogStatsD (anula `host` y `port`). Esto solo es compatible con el Agente v6+. Si esto no está configurado, el Agente revisa la variable de entorno `DD_DOGSTATSD_URL`. | +| `global_tags` | Lista de Cadenas | `null` | Etiquetas que se aplicarán a todas las métricas, eventos y verificaciones de servicio. La etiqueta `@dd.internal.entity_id` se agrega a global_tags de la variable de entorno `DD_ENTITY_ID`. | +| `origin_detection` | Booleano | Verdadero | ¿Se deben agregar campos de detección de origen a cada métrica? | +| `container_id` | Cadena | `null` | Un id de contenedor para etiquetar todas las métricas para la detección de origen. | + +{{< /programming-lang >}} +{{< programming-lang lang=".NET" >}} + +| Parámetro | Tipo | Predeterminado | Descripción | +| ------------------ | --------------- | ----------- | -------------------------------------------------------------------- | +| `StatsdServerName` | El nombre del servidor StatsD objetivo. | `localhost` | | +| `StatsdPort` | Entero | `8125` | El puerto del servidor StatsD objetivo. | +| `Prefix` | Cadena | `null` | Prefijo que se aplicará a cada métrica, evento y verificación de servicio. | +| `ConstantTags` | Lista de cadenas | `null` | Etiquetas globales que se aplicarán a cada métrica, evento y verificación de servicio. | +| `OriginDetection` | Bool | Verdadero | ¿Se deben agregar campos de detección de origen a cada métrica? | +| `ContainerID` | Cadena | `null` | Un id de contenedor para etiquetar todas las métricas para la detección de origen. | + +{{< /programming-lang >}} +{{< /programming-lang-wrapper >}} + +## Profundiza en DogStatsD {#dive-into-dogstatsd} + +DogStatsD y StatsD son ampliamente similares, sin embargo, DogStatsD contiene características avanzadas que son específicas de Datadog, incluyendo tipos de datos disponibles, eventos, verificaciones de servicio y etiquetas: + +{{< whatsnext desc="">}} +{{< nextlink href="/metrics/custom_metrics/dogstatsd_metrics_submission/" >}}Envía métricas a Datadog con DogStatsD.{{< /nextlink >}} +{{< nextlink href="/events/guides/dogstatsd/" >}}Envía eventos a Datadog con DogStatsD.{{< /nextlink >}} +{{< nextlink href="/extend/service_checks/dogstatsd_service_checks_submission/" >}}Envía verificaciones de servicio a Datadog con DogStatsD.{{< /nextlink >}} +{{< /whatsnext >}} + +Si está interesado en aprender más sobre el formato de datagrama utilizado por DogStatsD, o desea desarrollar su propia biblioteca de Datadog, consulte la sección de [datagrama y uso de shell][9], que también explica cómo enviar métricas y eventos directamente desde la línea de comandos. + +## Lectura adicional {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/statsd/statsd +[2]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ +[3]: https://hub.docker.com/r/datadog/dogstatsd +[4]: https://gcr.io/datadoghq/dogstatsd +[5]: /es/metrics/custom_metrics/ +[6]: /es/events/guides/dogstatsd/ +[7]: /es/extend/service_checks/dogstatsd_service_checks_submission/ +[8]: /es/getting_started/tagging/unified_service_tagging +[9]: /es/extend/dogstatsd/datagram_shell/ +[10]: /es/extend/community/libraries/ +[11]: /es/getting_started/tagging/assigning_tags/?tab=containerizedenvironments#tags-cardinality +[12]: https://kubernetes.io/docs/tasks/configure-pod-container/share-process-namespace/ +[33]: https://registry.datadoghq.com/v2/dogstatsd/tags/list +[34]: https://gallery.ecr.aws/datadog/dogstatsd \ No newline at end of file diff --git a/content/es/getting_started/_index.md b/content/es/getting_started/_index.md index 0e1fb51bb72..3e5f315e338 100644 --- a/content/es/getting_started/_index.md +++ b/content/es/getting_started/_index.md @@ -4,30 +4,32 @@ aliases: - /es/getting_started/faq/ cascade: algolia: - category: Empezando + category: Getting Started rank: 50 description: Introducción a la plataforma de observabilidad de Datadog con guías para - la instalación, la configuración y puesta en marcha de las principales funciones. -disable_sidebar: verdadero + la instalación, configuración y comenzar con las características clave. +disable_sidebar: true further_reading: - link: https://learn.datadoghq.com/ - tag: Centro de aprendizaje - text: Haz un curso para empezar a utilizar Datadog + tag: Centro de Aprendizaje + text: Toma un curso para comenzar con Datadog - link: https://datadoghq.com/blog/ tag: Blog - text: Obtén información sobre los nuevos productos y funciones de Datadog, integraciones - y mucho más + text: Conoce sobre nuevos productos y características de Datadog, integraciones + y más - link: https://app.datadoghq.com/help/quick_start tag: Aplicación - text: Explorar la Guía de inicio rápido -title: Empezando + text: Explora la Guía de Inicio Rápido +- link: https://learn.datadoghq.com/courses/introduction-to-observability + tag: Centro de Aprendizaje + text: Introducción a la Observabilidad +title: Comenzando --- +## ¿Qué es Datadog? {#what-is-datadog} -## ¿Qué es Datadog? +Datadog es una plataforma de observabilidad que apoya cada fase del desarrollo de software en cualquier stack. La plataforma consiste en muchos productos que te ayudan a construir, probar, monitorear, depurar, optimizar y asegurar tu software. Estos productos pueden ser utilizados individualmente o combinados en una solución personalizada. -Datadog es una plataforma de observabilidad que respalda cada fase del desarrollo de software en cualquier stack tecnológico. La plataforma consta de muchos productos que permiten crear, probar, monitorizar, depurar, optimizar y proteger tu software. Estos productos pueden utilizarse individualmente o combinados en una solución personalizada. - -En la tabla siguiente, se enumeran algunos ejemplos de productos de Datadog: +La tabla a continuación lista algunos ejemplos de productos de Datadog: @@ -38,35 +40,35 @@ En la tabla siguiente, se enumeran algunos ejemplos de productos de Datadog: - + - + - + @@ -74,73 +76,75 @@ En la tabla siguiente, se enumeran algunos ejemplos de productos de Datadog:

Desarrollo

    -
  • Resalta las vulnerabilidades del código en tu editor de textos o en GitHub con Code Security.
  • -
  • Organiza una sesión remota de programación en parejas con CoScreen.
+
  • Destaca las vulnerabilidades de código en tu editor de texto o en GitHub con Code Security.
  • +
  • Facilita una sesión de programación en pareja remota con CoScreen.
  • Tests

    Pruebas

    • Bloquea el código defectuoso para que no se despliegue en producción con PR Gates.
    • -
    • Incentiva a tus usuarios de todo el mundo a probar tu aplicación web, API o aplicación móvil con Synthetic Monitoring.
    • +
    • Simula usuarios alrededor del mundo para probar tu aplicación web, API o aplicación móvil con Synthetic Monitoring.

    Monitorización

    Monitoreo

    Resolución de problemas

    Resolución de Problemas

      -
    • Gestiona errores e incidencias, resumiendo los problemas y recomendando correcciones.
    • -
    • Mide el índice de abandono de los usuarios y detecta la frustración de los usuarios con Real User Monitoring.
    • +
    • Gestione errores e incidentes, resumiendo problemas y sugiriendo soluciones.
    • +
    • Mida la rotación de usuarios y detecte la frustración del usuario con Real User Monitoring.

    Seguridad

    -Además, cientos de [integraciones][1] te permiten superponer funciones de Datadog a las tecnologías que ya utilizas. Por ejemplo, la [integración de AWS][2] recopila logs, eventos y métricas de más de 90 servicios de AWS. +Además, cientos de [integraciones][1] te permiten integrar las características de Datadog con las tecnologías que ya utilizas. Por ejemplo, la [integración de AWS][2] recopila registros, eventos y métricas de más de 90 servicios de AWS. -## Más información +## Aprende más {#learn-more} -{{< learning-center-callout header="Únete a una sesión de webinar de Enablement" hide_image="true" btn_title="Inscríbete" btn_url="https://www.datadoghq.com/technical-enablement/session/datadog-overview/">}} - Esta sesión de capacitación básica ayuda a responder a la pregunta clave: "¿Qué es Datadog y qué puede hacer por mí?". Aprenderás cómo enviar datos a Datadog y qué páginas visitar para comprender mejor el estado de tus diversos entornos, aplicaciones e infraestructura. +{{< learning-center-callout header="Únete a una sesión de seminario web de capacitación" hide_image="true" btn_title="Regístrate" btn_url="https://www.datadoghq.com/technical-enablement/session/datadog-overview/">}} + Esta sesión de habilitación de fundamentos ayuda a responder la pregunta clave: "¿Qué es Datadog y qué puede hacer por mí?" Aprenderás cómo enviar datos a Datadog y qué páginas visitar para comprender mejor el estado de tus diversos entornos, aplicaciones e infraestructura. {{< /learning-center-callout >}} -### Haz un curso -El Centro de aprendizaje de Datadog ofrece experiencia práctica en la plataforma de Datadog. Los [cursos introductorios][3] abarcan prácticas de observabilidad, conceptos clave de Datadog y mucho más. - -Para comenzar rápidamente con la navegación por Datadog, prueba el [Curso de inicio rápido][4]. - -### Conocer más sobre un área de producto -{{< whatsnext desc="Empíeza con una de las siguientes guías:">}} -{{< nextlink href="/getting_started/application" >}}Datadog: Descubre cómo utilizar la interfaz de usuario de Datadog: dashboards, lista de infraestructuras, mapas y mucho más.{{< /nextlink >}} -{{< nextlink href="/getting_started/site" >}}Sitio Datadog: Selecciona el sitio Datadog adecuado para tu región y tus requisitos de seguridad.{{< /nextlink >}} -{{< nextlink href="/getting_started/devsecops" >}}Paquetes DevSecOps: Empieza con los paquetes DevSecOps de infraestructura.{{< /nextlink >}} -{{< nextlink href="/getting_started/agent" >}}Agent: Envía métricas y eventos de tus hosts a Datadog.{{< /nextlink >}} -{{< nextlink href="/getting_started/api" >}}API: Empieza a utilizar la API HTTP de Datadog.{{< /nextlink >}} -{{< nextlink href="/getting_started/integrations" >}}Integraciones: Aprende a recopilar métricas, trazas y logs con las integraciones de Datadog.{{< /nextlink >}} -{{< nextlink href="/getting_started/search" >}}Búsqueda: Aprende los fundamentos de la búsqueda y el filtrado en productos de Datadog.{{< /nextlink >}} -{{< nextlink href="/getting_started/tagging" >}}Etiquetas (Tags): Empieza a etiquetar tus métricas, trazas y logs.{{< /nextlink >}} -{{< nextlink href="/getting_started/OpenTelemetry" >}}OpenTelemetry: Aprende a enviar métricas, trazas y logs de OpenTelemetry a Datadog. {{< /nextlink >}} -{{< nextlink href="/getting_started/learning_center" >}}Centro de aprendizaje: Sigue un recorrido de aprendizaje, toma una clase o un laboratorio autoguiado y explora el programa de certificación de Datadog.{{< /nextlink >}} +### Toma un curso {#take-a-course} +El Centro de Aprendizaje de Datadog ofrece experiencia práctica con la plataforma de Datadog. Los [cursos de Introducción][3] cubren prácticas de observabilidad, conceptos clave de Datadog y más. + +Para la introducción más rápida a la navegación en Datadog, prueba el [curso de Inicio Rápido][4]. + +### Profundiza en un área de producto {#dive-deeper-into-a-product-area} +{{< whatsnext desc="Comienza con una de las guías a continuación:">}} +{{< nextlink href="/getting_started/application" >}}Datadog: Descubre cómo usar la interfaz de usuario de Datadog: Tableros, lista de infraestructura, mapas y más.{{< /nextlink >}} +{{< nextlink href="/getting_started/site" >}}Sitio de Datadog: Selecciona el sitio de Datadog apropiado para tu región y requisitos de seguridad.{{< /nextlink >}} +{{< nextlink href="/getting_started/devsecops" >}}Paquetes de DevSecOps: Comienza con los paquetes de Infraestructura DevSecOps.{{< /nextlink >}} +{{< nextlink href="/getting_started/agent" >}}Agente: Envía métricas y eventos desde tus servidores a Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/api" >}}API: Comienza con la API HTTP de Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/integrations" >}}Integraciones: Aprende cómo recopilar métricas, trazas y registros con las integraciones de Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/search" >}}Búsqueda: Aprende los fundamentos de la búsqueda y filtrado en los productos de Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/tagging" >}}Etiquetas: Comienza a etiquetar tus métricas, registros y trazas.{{< /nextlink >}} +{{< nextlink href="/getting_started/opentelemetry" >}}OpenTelemetry: Aprende cómo enviar métricas, trazas y registros de OpenTelemetry a Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/learning_center" >}}Centro de Aprendizaje: Sigue un camino de aprendizaje, toma una clase o laboratorio autodirigido y explora el programa de certificación de Datadog.{{< /nextlink >}} {{< /whatsnext >}} -{{< whatsnext desc="Servicios de plataforma:">}} -{{< nextlink href="/getting_started/dashboards" >}}Dashboards: Crea, comparte y realiza un mantenimiento de aquellos dashboards que responden a las preguntas relacionadas con el trabajo que más te importan.{{< /nextlink >}} -{{< nextlink href="/getting_started/incident_management" >}}Gestión de incidencias: Comunica y realiza un seguimiento de los problemas en tus sistemas.{{< /nextlink >}} -{{< nextlink href="/getting_started/monitors" >}}Monitores: Configura alertas y notificaciones para que tu equipo sepa cuándo ocurren cambios críticos.{{< /nextlink >}} -{{< nextlink href="/getting_started/notebooks" >}}Notebooks: Combina gráficos, métricas, logs y monitores en directo para aislar los problemas y crear guías interactivas.{{< /nextlink >}} -{{< nextlink href="/getting_started/workflow_automation" >}}Workflow Automation: Automatiza los procesos de extremo a extremo en respuesta a las alertas y señales de seguridad.{{< /nextlink >}} +{{< whatsnext desc="Servicios de Plataforma:">}} +{{< nextlink href="/getting_started/dashboards" >}}Tableros: Crea, comparte y mantén tableros que respondan a las preguntas clave de tu trabajo.{{< /nextlink >}} +{{< nextlink href="/getting_started/incident_management" >}}Incident Management: Comunica y da seguimiento a los problemas en tus sistemas.{{< /nextlink >}} +{{< nextlink href="/getting_started/monitors" >}}Monitors: Configura alertas y notificaciones para que tu equipo sepa cuándo ocurren cambios críticos.{{< /nextlink >}} +{{< nextlink href="/getting_started/notebooks" >}}Notebooks: Combina gráficos en vivo, métricas, registros y monitores para aislar problemas y crear guías interactivas.{{< /nextlink >}} +{{< nextlink href="/getting_started/organization_topology" >}}Topología de Organización: Elige entre implementaciones de Datadog de una sola organización y de múltiples organizaciones, y gestiona el aislamiento con controles de acceso.{{< /nextlink >}} +{{< nextlink href="/getting_started/teams" >}}Teams: Construye un modelo de propiedad confiable sincronizando datos de Teams desde proveedores de identidad, GitHub y otras fuentes en Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/workflow_automation" >}}Workflow Automation: Automatiza procesos de extremo a extremo en respuesta a alertas y señales de seguridad.{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Producto:">}} -{{< nextlink href="/getting_started/containers" >}}Contenedores: Aprende a utilizar Agent Autodiscovery y el Datadog Operator.{{< /nextlink >}} -{{< nextlink href="/getting_started/serverless" >}}Serverless para AWS Lambda: Aprende a recopilar métricas, logs y trazas de tu infraestructura sin servidor.{{< /nextlink >}} -{{< nextlink href="/getting_started/internal_developer_portal" >}}Portal interno para desarrolladores: Unifica telemetría, metadatos y flujos de trabajo para acelerar la entrega. {{< /nextlink >}} -{{< nextlink href="/getting_started/tracing" >}}Rastreo: Configura el Agent para rastrear una aplicación pequeña.{{< /nextlink >}} -{{< nextlink href="/getting_started/profiler" >}}Profiler: Utiliza el Continuous Profiler para encontrar y solucionar problemas de rendimiento en tu código.{{< /nextlink >}} +{{< nextlink href="/getting_started/containers" >}}Containers: Aprende cómo usar Agent Autodiscovery y el operador de Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/serverless" >}}Serverless para AWS Lambda: Aprende cómo recopilar métricas, registros y trazas de tu infraestructura serverless.{{< /nextlink >}} +{{< nextlink href="/getting_started/internal_developer_portal" >}}Internal Developer Portal: Unifica telemetría, metadatos y flujos de trabajo para acelerar la entrega. {{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}Rastreo: Configura el Agente para rastrear una pequeña aplicación.{{< /nextlink >}} +{{< nextlink href="/getting_started/profiler" >}}Profiler: Utiliza Continuous Profiler para encontrar y solucionar problemas de rendimiento en tu código.{{< /nextlink >}} {{< nextlink href="/getting_started/database_monitoring" >}}Database Monitoring: Visualiza la salud y el rendimiento de las bases de datos, y soluciona rápidamente cualquier problema que surja.{{< /nextlink >}} -{{< nextlink href="/getting_started/synthetics" >}}Synthetic Monitoring: Empieza a probar y monitorizar tus endpoints de API y tus experiencias empresariales clave con tests Synthetic.{{< /nextlink >}} -{{< nextlink href="/getting_started/continuous_testing" >}}Continuous Testing: Ejecuta tests Synthetic de extremo a extremo en tus pipelines y tus IDE de CI.{{< /nextlink >}} -{{< nextlink href="/getting_started/session_replay" >}}Session Replay: Observa en profundidad como interactúan tus usuarios con tu producto con Session Replays.{{< /nextlink >}} -{{< nextlink href="/getting_started/application_security" >}}App and API Protection: Descubre las prácticas recomendadas para poner a tu equipo en marcha con AAP.{{< /nextlink >}} -{{< nextlink href="/getting_started/cloud_security_management" >}}Cloud Security: Descubre las prácticas recomendadas para poner a tu equipo en marcha con Cloud Security.{{< /nextlink >}} -{{< nextlink href="/getting_started/cloud_siem" >}}Cloud SIEM: Descubre las prácticas recomendadas para poner a tu equipo en marcha con Cloud SIEM.{{< /nextlink >}} -{{< nextlink href="/getting_started/logs" >}}Logs: Envía tus primeros logs y utiliza el procesamiento de logs para enriquecerlos.{{< /nextlink >}} -{{< nextlink href="/getting_started/ci_visibility" >}}CI Visibility: Recopila datos de pipelines CI configurando integraciones con tus proveedores CI.{{< /nextlink >}} -{{< nextlink href="/getting_started/feature_flags" >}}Marcadores de funciones: Gestiona la entrega de funciones y personaliza la experiencia del usuario gracias a la observabilidad incorporada.{{< /nextlink >}} -{{< nextlink href="/getting_started/test_optimization" >}}Test Optimization: Recopila datos de tests CI configurando servicios de test en Datadog.{{< /nextlink >}} -{{< nextlink href="/getting_started/test_impact_analysis" >}}Test Impact Analysis: Optimiza tu paquete de tests y reduce los costes de CI ejecutando solo los tests pertinentes para tu cambio de código.{{< /nextlink >}} -{{< nextlink href="/getting_started/code_security" >}}Code Security: Analiza tu código y tus bibliotecas de código abierto en tus aplicaciones, desde el desarrollo hasta la ejecución.{{< /nextlink >}} +{{< nextlink href="/getting_started/synthetics" >}}Synthetic Monitoring: Comienza a probar y monitorear tus puntos de conexión de API y los viajes clave de negocio con pruebas Synthetic.{{< /nextlink >}} +{{< nextlink href="/getting_started/continuous_testing" >}}Continuous Testing: Ejecuta pruebas Synthetic de extremo a extremo en tus canalizaciones de CI y IDEs.{{< /nextlink >}} +{{< nextlink href="/getting_started/session_replay" >}}Session Replay: Obtén una visión detallada de cómo los usuarios interactúan con tu producto mediante reproducciones de sesión.{{< /nextlink >}} +{{< nextlink href="/getting_started/application_security" >}}App and API Protection: Descubre las mejores prácticas para que tu equipo comience a trabajar con AAP.{{< /nextlink >}} +{{< nextlink href="/getting_started/cloud_security_management" >}}Cloud Security: Descubre las mejores prácticas para que tu equipo comience a trabajar con Cloud Security.{{< /nextlink >}} +{{< nextlink href="/getting_started/cloud_siem" >}}Cloud SIEM: Descubre las mejores prácticas para que tu equipo comience a trabajar con Cloud SIEM.{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}Registros: Envía tus primeros registros y utiliza el procesamiento de registros para enriquecerlos.{{< /nextlink >}} +{{< nextlink href="/getting_started/ci_visibility" >}}Visibilidad de CI: Recopila datos de pipelines de CI configurando integraciones con tus proveedores de CI.{{< /nextlink >}} +{{< nextlink href="/getting_started/feature_flags" >}}Banderas de Características: Gestiona la entrega de características y personaliza las experiencias de los usuarios, con observabilidad incorporada.{{< /nextlink >}} +{{< nextlink href="/getting_started/test_optimization" >}}Optimización de Pruebas: Recopila datos de pruebas de CI configurando servicios de pruebas en Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/test_impact_analysis" >}}Análisis de Impacto de Pruebas: Optimiza tu conjunto de pruebas y reduce los costos de CI ejecutando solo las pruebas que son relevantes para tus cambios de código.{{< /nextlink >}} +{{< nextlink href="/getting_started/code_security" >}}Code Security: Analiza tu código propio y las bibliotecas de código abierto en tus aplicaciones, desde el desarrollo hasta el tiempo de ejecución.{{< /nextlink >}} {{< /whatsnext >}} -## Probar la versión preliminar de un producto o una función +## Prueba un producto o característica en vista previa {#try-a-preview-product-or-feature} -Los equipos de productos Datadog añaden con frecuencia nuevas funciones que pueden ayudarte. Puedes probar algunas de ellas antes de que estén disponibles, para ver si te sirven, y luego darnos tu opinión para mejorarlas. Para ver una lista completa de las versiones preliminares activas, obtener más información e inscribirte para participar, visita el [programa de versiones preliminares de productos Datadog][5]. +Los equipos de producto de Datadog están agregando frecuentemente nuevas características que podrían ayudarte. Puedes probar algunas de estas antes de que estén disponibles en general para ver si te ayudan y para darnos retroalimentación para mejorarlas. Para ver una lista completa de vistas previas activas, obtener más información y registrarte para participar, visita [Programa de Vista Previa de Productos de Datadog][5]. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/getting_started/agent/_index.md b/content/es/getting_started/agent/_index.md index eac31811bc2..1706b4a67bd 100644 --- a/content/es/getting_started/agent/_index.md +++ b/content/es/getting_started/agent/_index.md @@ -1,187 +1,149 @@ --- +description: Guía para instalar y configurar el Agente de Datadog para recopilar métricas, + eventos y registros a nivel de sistema desde los hosts. further_reading: -- link: /agent/basic_agent_usage/ +- link: agent/ tag: Documentación - text: Uso básico del Agent + text: El Agente de Datadog - link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participa en una sesión interactiva para monitorizar mejor tu infraestructura + tag: Habilitación de la Fundación + text: Únete a una sesión interactiva para potenciar la supervisión de tu infraestructura - link: /agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ - tag: FAQ - text: ¿Por qué debería instalar el Datadog Agent en mis instancias de nube? -title: Empezando con el Agent + tag: Preguntas frecuentes + text: ¿Por qué debería instalar el Agente de Datadog en mis instancias en la nube? +- link: https://www.datadoghq.com/blog/lambda-managed-instances + tag: Blog + text: Monitorea instancias administradas de AWS Lambda con Datadog +title: Introducción al Agente --- +## Resumen {#overview} -Esta guía sirve de introducción al Agent y te explica cómo usarlo para enviar métricas de nivel de sistema a la plataforma de Datadog. Se utilizará como ejemplo la instalación del Agent en Ubuntu. Estos son los puntos que trataremos: +Esta guía presenta el Agente de Datadog y cubre: - - Instalación del Agent - - Verificar que el Agent se esté ejecutando - - Configurar las funciones del Agent - - Solucionar problemas en los recursos + - [Introducción al Agente](#what-is-the-datadog-agent) + - [Instalación](#installation) + - [Datos recopilados por el Agente](#data-collected-by-the-agent) + - [Configuraciones y características avanzadas](#advanced-configurations-and-features) + - [Solución de problemas](#troubleshooting) -## Información general -### Acerca del Agent +## ¿Qué es el Agente de Datadog? {#what-is-the-datadog-agent} -El Datadog Agent es un software que se ejecuta en tus hosts. Recopila eventos y métricas de los hosts y los envía a Datadog, donde puedes analizar tus datos de monitorización y rendimiento. Puede ejecutarse en tus hosts locales (Windows, MacOS), entornos contenedorizados (Docker, Kubernetes) y en los centros de datos on-premise. Para instalarlo y configurarlo, puedes utilizar herramientas de gestión de configuración (como Chef, Puppet o Ansible). +El Agente de Datadog es un software que se ejecuta en tus hosts. Recopila eventos y métricas de los hosts y los envía a Datadog, donde puedes analizar tus datos de monitoreo y rendimiento. -El Agent puede recopilar entre 75 y 100 métricas de nivel de sistema cada 15-20 segundos. Con configuración adicional, el Agent puede enviar datos, logs y trazas en tiempo real desde los procesos en ejecución a la plataforma de Datadog. El Datadog Agent es de código abierto, y su código fuente está disponible en GitHub: [DataDog/datadog-agent][1]. +El Agente puede ejecutarse en: +- Hosts locales (Windows, Linux, macOS) +- Entornos en contenedores (Docker, Kubernetes) +- Centros de datos locales -### Sobrecarga del Agent +También puedes instalar y configurar el Agente utilizando herramientas de gestión de configuración como Chef, Puppet o Ansible. -La cantidad de espacio y recursos que ocupa el Agent depende de la configuración y de los datos que el Agent esté configurado para enviar. Al principio, puedes esperar alrededor de un 0,08% de CPU utilizada de media con un espacio en disco de aproximadamente 880MB a 1,3GB. +El Agente puede recopilar de 75 a 100 métricas a nivel de sistema cada 15 a 20 segundos. Con una configuración adicional, puede enviar datos en vivo, registros y trazas de procesos en ejecución a Datadog. El Agente de Datadog es de código abierto, y su código fuente está disponible en GitHub en [DataDog/datadog-agent][1]. -Para obtener más información sobre estos puntos de referencia, consulta [Sobrecarga del Agent][2]. +### El archivo de configuración del Agente {#the-agent-configuration-file} -### Datos recopilados +El archivo de configuración principal del Agente es `datadog.yaml`. Los parámetros requeridos son: +- Tu [clave de API de Datadog][16], que se utiliza para asociar los datos del Agente con tu organización. +- Tu [sitio de Datadog][41] ({{< region-param key="dd_site" code="true" >}}). -#### Métricas del Agent +Consulta el [archivo de muestra `config_template.yaml`][23] para todas las opciones de configuración disponibles. Puedes ajustar los archivos de configuración del Agente para aprovechar otras características de Datadog. -Las métricas del Agent que presentamos a continuación son información que el Agent envía a Datadog sobre sí mismo. Su propósito es que dispongas de datos como en qué hosts y contenedores se están ejecutando Agents, cuándo se inicia un Agent y qué versión de Python se está utilizando. -| Métrica | Descripción | -| -------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| `datadog.agent.python.version` | La métrica está etiquetada con `python_version`. | -| `datadog.agent.running` | Muestra un valor de `1` si el Agent envía información a Datadog. | -| `datadog.agent.started` | Envía un count con un valor de `1` cuando se inicia el Agent (disponible en v6.12+). | - -Para ver la lista completa de métricas del Agent, consulta la integración de [Métricas del Agent][3]. - -#### Checks - -Dependiendo de la plataforma que utilices, el Agent puede tener varios checks básicos activados de forma predeterminada que recopilen métricas. - -| Check | Métricas | Platformas | -| ----------- | ------------- | ------------------ | -| CPU | [Sistema][4] | Todas | -| Disco | [Disco][5] | Todas | -| E/S | [Sistema][4] | Todas | -| Memoria | [Sistema][4] | Todas | -| Red | [Red][6] | Todas | -| NTP | [NTP][7] | Todas | -| Tiempo de actividad | [Sistema][4] | Todas | -| Identificador de archivos | [Sistema][4] | Todas menos Mac | -| Carga | [Sistema][4] | Todas menos Windows | -| Docker | [Docker][8] | Docker | -| Winproc | [Sistema][4] | Windows | - -Para recopilar métricas de otras tecnologías, consulta la página de [Integraciones][9]. - -## Diferencias entre Agents para hosts y para contenedores - -En esta guía, te enseñaremos a instalar y configurar un Agent en un host. Si tu intención es instalar Agents en un entorno contenedorizado, deberías tener en cuenta que existen algunas diferencias. - -1. En un host, el Agent se configura mediante un archivo YAML (como podrás comprobar más adelante en esta guía). En cambio, las opciones de configuración del Agent en un contenedor se habilitan con [variables de entorno][10] como, por ejemplo: - - `DD_API_KEY` para la clave de API de Datadog - - `DD_SITE` para el sitio de Datadog - -2. De un modo similar, mientras que en un host las [integraciones][9] se identifican mediante el archivo de configuración del Agent, en un entorno de contenedor se identifican automáticamente mediante la función Autodiscovery de Datadog. Para más información, consulta [Autodiscovery básico del Agent][11]. - -Consulta [Docker Agent][12] o [Kubernetes][13] para ver un tutorial sobre cómo ejecutar el Agent en un entorno contenedorizado. - -## ¿Por qué debería instalar el Agent? - -Para que el Agent envíe datos desde cualquiera de las numerosas integraciones basadas en Agent, tiene que estar instalado. No tiene necesidad de desviar los datos a la plataforma de Datadog; por ejemplo, puedes enviar logs y métricas a través de la API de Datadog. Sin embargo, el Agent es el método recomendado obstante para desviar tus datos hacia la plataforma de Datadog. - -El Agent recopila datos del host cada 15 segundos para ofrecer información precisa sobre lo que sucede en tus entornos. Como se ha mencionado anteriormente en la sección [Checks][14], el Agent tiene varios checks activados que recopilan más de 50 métricas predeterminadas para brindar más información sobre los datos de nivel de sistema. - -## Configuración - -### Requisitos previos +## Instalación {#installation} +### Requisitos previos {#prerequisites} 1. Crea una [cuenta de Datadog][15]. 2. Ten a mano tu [clave de API de Datadog][16]. -3. Ten la IU de Datadog abierta. +### Configura {#setup} -**Nota**: Este tutorial utiliza el sistema operativo Ubuntu. Consulta la página [Uso básico del Agent][17] para obtener una lista completa de las plataformas compatibles. +Utiliza [Fleet Automation][39], el flujo de trabajo dentro de la aplicación de Datadog, para instalar, actualizar, configurar y solucionar problemas del Agente de Datadog en un solo host o a gran escala. -### Instalación +Consulta la [documentación del Agente][40] para obtener configuración adicional del Agente para tu plataforma específica. -En la interfaz de usuario de Datadog, ve a la página [Instalación del Agent][18] y haz clic en **Ubuntu**. Para instalar el Datadog Agent en un host, utiliza el comando de instalación de una línea de esa página (el ejemplo se muestra a continuación), actualizado con tu [clave de API de Datadog][16]. -Ejemplo para Ubuntu de un comando de instalación de una línea: +## Datos recopilados por el Agente {#data-collected-by-the-agent} -```shell -DD_API_KEY= DD_SITE="{{< region-param key="dd_site" >}}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" -``` +Para brindarte visibilidad completa de tu infraestructura, el Agente de Datadog informa métricas sobre su propia salud y configuración, así como métricas recopiladas de tus hosts y servicios a través de sus verificaciones predeterminadas. -Utiliza la [página de instalación del Agent][18] para consultar las instrucciones de instalación más actualizadas para tu sistema operativo. +### Métricas del Agente {#agent-metrics} -### Validación +El Agente informa las siguientes métricas a Datadog sobre sí mismo. Estas métricas proporcionan información sobre qué hosts o contenedores tienen Agentes en ejecución, cuándo se inició cada Agente y la versión de Python que está utilizando el Agente. -#### Comando del terminal +| Métrica | Descripción | +| -------------------------------- |------------------------------------------------- | +| `datadog.agent.running` | Muestra un valor de `1` si el Agente está informando a Datadog. | +| `datadog.agent.started` | Un conteo enviado con un valor de `1` cuando el Agente se inicia (disponible en v6.12+). | +| `datadog.agent.python.version` | La métrica está etiquetada con el `python_version`. | -Ejecuta el [comando de estado][19] del Agent para verificar la instalación. -```shell -sudo datadog-agent status -``` -Si la instalación se realiza correctamente, devolverá un informe de estado de Agent con la información del Agent al comienzo. Ejemplo: - -```text -=============== -Agent (v7.36.1) -=============== - - Status date: 2022-06-15 15:54:48.364 EDT / 2022-06-15 19:54:48.364 UTC (1655322888364) - Agent start: 2022-06-15 15:54:29.85 EDT / 2022-06-15 19:54:29.85 UTC (1655322869850) - Pid: 9801 - Go Version: go1.17.6 - Python Version: 3.8.11 - Build arch: amd64 - Agent flavor: agent - Check Runners: 6 - Log Level: info -``` +Consulta la integración de [Métricas de Agente][3] para obtener una lista completa de métricas de Agente. -#### Eventos +### Verificaciones {#checks} -En la interfaz de usuario de Datadog, ve a la [Página del Event Explorer][20]. Cuando se inicia o reinicia un Agent, envía eventos a Datadog. El siguiente mensaje aparece si tu Agent se instala correctamente: +Dependiendo de tu plataforma, el Agente tiene varias verificaciones básicas habilitadas por defecto que recopilan métricas. -```text -Agent de Datadog (v. 7.XX.X) iniciado en -``` +| Verificación | Métricas | Plataformas | +| ----------- | ------------- | ------------------ | +| CPU | [Sistema][4] | Todo | +| Disco | [Disco][5] | Todo | +| IO | [Sistema][4] | Todo | +| Memoria | [Sistema][4] | Todo | +| Network | [Network][6] | Todo | +| NTP | [NTP][7] | Todo | +| Tiempo de actividad | [Sistema][4] | Todo | +| Manejador de archivos | [Sistema][4] | Todo excepto Mac | +| Carga | [Sistema][4] | Todo excepto Windows | +| Docker | [Docker][8] | Docker | +| Winproc | [Sistema][4] | Windows | + +Para recopilar métricas de otras tecnologías, consulta la página de [Integraciones][9]. -#### Checks de servicio -El Agent está configurado para ofrecer los siguientes checks de servicio: - - `datadog.agent.up`: devuelve `OK` si el Agent se conecta a Datadog. -
    AIX Agents no informan el check de servicio datadog.agent.up. Puedes utilizar la métrica datadog.agent.running para monitorizar el tiempo de actividad de un AIX Agent. La métrica emite un valor de 1 si el Agent está informando a Datadog.
    - - `datadog.agent.check_status`: devuelve `CRITICAL` si un Agent check no puede enviar métricas a Datadog, en caso contrario devuelve `OK`. +### Verificaciones de servicio {#service-checks} +El Agente está configurado para proporcionar las siguientes verificaciones de servicio: -Estos checks pueden utilizarse en la plataforma de Datadog para visualizar el estado del Agent a través de monitores y dashboards de forma rápida. Consulta [Información general sobre el check de servicio][21] para obtener más información. + - `datadog.agent.up`: Devuelve **OK** si el Agente se conecta a Datadog. + - `datadog.agent.check_status`: Devuelve **CRÍTICO** si una verificación del Agente no puede enviar métricas a Datadog; de lo contrario, devuelve **OK**. -#### Métricas +Estas verificaciones se pueden utilizar en Datadog para visualizar el estado del Agente a través de monitores y tableros de un vistazo. Consulta [Descripción general de las verificaciones de servicio][21] para obtener más información. -En la interfaz de usuario de Datadog, ve a la [página Resumen de métricas][22] y busca la métrica `datadog.agent.started` o la métrica `datadog.agent.running`. Si estas métricas no son visibles de inmediato, es posible que el Agent tarde unos minutos en enviar los datos a la plataforma de Datadog. -Haz clic en cualquiera de las métricas para que se abra un panel de métrica. Aquí, podrás ver metadatos adicionales sobre el lugar desde el que se recopilaron las métricas, así como cualquier etiqueta asociada. Como no se ha configurado ninguna etiqueta en el host a estas alturas del tutorial, solo deberías ver las etiquetas predeterminadas que Datadog asigna a las métricas, como `version` y `host`. Para obtener más información sobre cómo añadir etiquetas, consulta la siguiente sección sobre los archivos de configuración del Agent. +## Configuraciones y características avanzadas {#advanced-configurations-and-features} -Explora otras métricas predeterminadas, como `ntp.offset` o `system.cpu.idle`. +{{% collapse-content title="Diferencias entre el Agente para hosts y contenedores" level="h4" expanded=false id="id-for-anchoring" %}} -## Archivos de configuración del Agent +Existen diferencias clave entre la instalación de Agentes en un host y en un entorno de contenedores: -El archivo de configuración principal del Agent es `datadog.yaml`. Estos son los parámetros obligatorios: -- tu [clave de API de Datadog][16], que se utiliza para asociar los datos del Agent con tu organización, y -- el sitio de Datadog ({{< region-param key="dd_site" code="true" >}}). +- **Diferencias de configuración**: + - **Host**: El Agente se configura utilizando un archivo YAML. + - **Contenedor**: Las opciones de configuración se pasan utilizando [variables de entorno][10], por ejemplo: + + ```sh + `DD_API_KEY` # Datadog API key + `DD_SITE` # Datadog site + ``` -Consulta el [ejemplo de archivo `config_template.yaml`][23] para ver todas las opciones disponibles de configuración. +- **Detección de integraciones**: + - **Host**: [Integraciones][9] se identifican a través del archivo de configuración del Agente. + - **Contenedor**: Las integraciones se identifican automáticamente utilizando la función de Autodiscovery de Datadog. Consulta [Autodiscovery básico del Agente][11] para obtener más información. -Puedes modificar los archivos de configuración del Agent para aprovechar otras funciones de Datadog, incluidas las etiquetas (tags). +Además, consulta el [Agente de Docker][12] o [Kubernetes][13] para una guía sobre cómo ejecutar el Agente en un entorno de contenedores. +{{% /collapse-content %}} -#### Configurar etiquetas (tags) mediante el archivo de configuración del Agent -Las etiquetas añaden una capa adicional de metadatos a tus métricas y eventos. Te permiten contexto y comparar los datos en visualizaciones de Datadog. Cuando los datos se envían a Datadog desde múltiples hosts, el etiquetado de esta información te permite limitar los datos que más te interesa visualizar. +{{% collapse-content title="Configurando etiquetas a través del archivo de configuración del Agente" level="h4" expanded=false id="id-for-anchoring" %}} -Por ejemplo, supongamos que tienes datos recopilados de diferentes equipos y sólo te interesa ver las métricas del equipo alfa, el etiquetado de esos hosts específicos con `team:alpha` o `team:bravo` te permite filtrar hasta las métricas que están etiquetadas con `team:alpha`. Consulta [Empezando con etiquetas][24] para obtener más información sobre el etiquetado de tus datos. +Las etiquetas añaden una capa adicional de metadatos a tus métricas y eventos. Te permiten delimitar y comparar tus datos en las visualizaciones de Datadog. Cuando se envían datos a Datadog desde múltiples hosts, etiquetar esta información te permite reducir el enfoque a los datos que más te interesa visualizar. -1. Localiza el [archivo principal de configuración][25] del Agent. Para Ubuntu, las localizaciones del archivos son `/etc/datadog-agent/datadog.yaml`. +Por ejemplo, supongamos que tienes datos recopilados de diferentes equipos y solo te interesa ver las métricas del equipo alfa; etiquetar esos hosts específicos con la etiqueta `team:alpha` o `team:bravo` te da la capacidad de filtrar las métricas que están etiquetadas con `team:alpha`. Consulta [Introducción a las etiquetas][24] para aprender más sobre cómo etiquetar tus datos. -2. En el archivo `datadog.yaml`, localiza el parámetro `tags`. Puedes definir las etiquetas de nivel de host en la configuración de `datadog.yaml` para aplicar las etiquetas en todas las métricas, trazas y logs que se desvíen desde este host. +1. Localiza el [archivo de configuración principal][25] de tu Agente. Para Ubuntu, la ubicación del archivo es `/etc/datadog-agent/datadog.yaml`. + +2. En el archivo `datadog.yaml`, localiza el parámetro `tags`. Las etiquetas a nivel de host se pueden establecer en la configuración `datadog.yaml` para aplicar etiquetas a todas las métricas, trazas y registros enviados desde este host. ```yaml ## @param tags - list of key:value elements - optional @@ -199,7 +161,7 @@ Por ejemplo, supongamos que tienes datos recopilados de diferentes equipos y só # - : ``` -3. Quita la marca de comentario del parámetro de etiquetas y de la etiqueta `team:infra` del ejemplo. También puedes añadir tu propia etiqueta personalizada (por ejemplo, `test:agent_walkthrough`). +3. Descomente el parámetro de etiquetas y el ejemplo de etiqueta proporcionado `team:infra`. También puede agregar su propia etiqueta personalizada, por ejemplo `test:agent_walkthrough`. ```yaml ## @param tags - list of key:value elements - optional ## @env DD_TAGS - space separated list of strings - optional @@ -216,64 +178,86 @@ Por ejemplo, supongamos que tienes datos recopilados de diferentes equipos y só - test:agent_walkthrough ``` -4. Reinicia el Agent ejecutando el [comando de reinicio] del Agent [26]. El comando de reinicio de Ubuntu: +4. Reinicie el Agente ejecutando el [comando de reinicio][26] del Agente. El comando de reinicio de Ubuntu: ```shell sudo service datadog-agent restart ``` -5. Unos minutos más tarde, ve de nuevo a la [página Resumen de métricas][22] y haz clic en la métrica `datadog.agent.started`. Además de las etiquetas `host` y `version` predeterminadas, verás la etiqueta `team` y las etiquetas personales que hayas añadido. También puedes filtrar las métricas con el campo `Tag` en la parte superior de la página. +5. Después de unos minutos, vuelva a la [Metrics Summary page][22] y haga clic en la métrica `datadog.agent.started`. Además de las etiquetas predeterminadas `host` y `version`, también puede ver la etiqueta `team` y cualquier etiqueta personal que haya agregado. También puede filtrar métricas por el campo `Tag` en la parte superior de la página. + +6. Ve a la [Event Explorer page][20] y encuentra las etiquetas personalizadas mostradas con el último evento del Agente. -6. Ve a la [página del Event Explorer][20] y busca las etiquetas personalizadas que aparecen con el último evento del Agent. +{{% /collapse-content %}} -#### Otras opciones de configuración +{{% collapse-content title="Encontrando métricas en la interfaz de usuario de Datadog" level="h4" expanded=false id="id-for-anchoring" %}} -La recopilación de datos de [logs][27], [trazas (traces)][28] y [procesos][29] puede habilitarse a través del archivo de configuración del Agent. No son funciones activadas por defecto. Por ejemplo, en el archivo de configuración, el parámetro `logs_enabled` está establecido en false. +Puedes confirmar que el Agente está funcionando correctamente al verificar sus métricas predeterminadas en la interfaz de usuario de Datadog. Ve a la [Metrics Summary page][22] y busca la métrica `datadog.agent.started` o la métrica `datadog.agent.running`. Si estas métricas no son visibles de inmediato, puede tardar unos minutos para que el Agente envíe los datos a Datadog. + +Haz clic en cualquiera de las métricas y se abrirá un panel de Métricas. Este panel muestra metadatos adicionales sobre dónde se recopilan estas métricas y cualquier etiqueta asociada. Si no hay etiquetas configuradas en un servidor, deberías ver solo las etiquetas predeterminadas que Datadog asigna a las métricas, incluyendo `version` y `host`. Consulta la sección anterior sobre cómo configurar etiquetas a través de los archivos de configuración del Agente para aprender más sobre cómo agregar etiquetas. + +Explora otras métricas predeterminadas como `ntp.offset` o `system.cpu.idle`. +{{% /collapse-content %}} + + +{{% collapse-content title="Sobrecarga del Agente" level="h4" expanded=false id="id-for-anchoring" %}} + +La cantidad de espacio y recursos que ocupa el Agente depende de la configuración y de qué datos está enviando el Agente. Al principio, puedes esperar alrededor del 0.08% de CPU utilizada en promedio con un espacio en disco de aproximadamente 880MB a 1.3GB. + +Consulta [Agent Overhead][2] para aprender más sobre estos puntos de referencia. +{{% /collapse-content %}} + +{{% collapse-content title="Opciones de configuración adicionales" level="h4" expanded=false id="id-for-anchoring" %}} + +La recopilación de datos de [registros][27], [trazas][28] y [procesos][29] se puede habilitar a través del archivo de configuración del Agente. Estas características no están habilitadas por defecto. Por ejemplo, en el archivo de configuración, el parámetro `logs_enabled` está configurado como falso. ```yaml ################################## -## Configuración de la recopilación de logs ## +## Log collection Configuration ## ################################## ## @param logs_enabled - boolean - optional - default: false ## @env DD_LOGS_ENABLED - boolean - optional - default: false -## Para activar la recopilación de logs del Datadog Agent, establece logs_enabled como true. +## Enable Datadog Agent log collection by setting logs_enabled to true. # # logs_enabled: false ``` -Para configurar otras funciones de Datadog mediante el archivo de configuración del Agent, es necesario: -- Activar [la ingesta de trazas de OTLP][30] -- [Personalizar la recopilación de logs][31] para filtrar o limpiar datos confidenciales -- Configurar datos personalizados a través de [DogStatsD][32] +Otras características de Datadog que se pueden configurar a través del archivo de configuración del Agente incluyen: +- Habilitando [OTLP Trace Ingestion][30] +- [Personalizando la recolección de registros][31] para filtrar o eliminar datos sensibles +- Configurando datos personalizados a través de [DogStatsD][32] + +A lo largo de su configuración, cuando la documentación se refiere al archivo `datadog.yaml` o al archivo de configuración del Agente, este es el archivo que necesita configurar. + +{{% /collapse-content %}} -Durante la configuración, cuando veas que la documentación hace referencia al archivo `datadog.yaml` o al archivo de configuración del Agent, ten en cuenta que se trata del archivo que tienes que configurar. -## Comandos +## Comandos {#commands} -Consulta [Comandos del Agent][33] para [Iniciar][34], [Detener][35] o [Reiniciar][26] tu Agent. +Consulte [Agent Commands][33] para [Start][34], [Stop][35] o [Restart][26] su Agente. -## Solucionar problemas +## Solucionando problemas {#troubleshooting} -Si necesitas ayuda para solucionar problemas relacionados con el Agent: +Para obtener ayuda con la solución de problemas del Agente: -- Consulta [Solucionar problemas del Agent][36] -- Ve los [archivos de log del Agent][37] -- Contacta con el [soporte de Datadog][38] +- Consulte [Agent Troubleshooting][36] +- Vea los [Archivos de Registro del Agente][37] +- Contacte a [Datadog support][38] -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}}

    -## Siguientes pasos +## Próximos pasos {#next-steps} -{{< whatsnext desc="After the Agent is installed:">}} -{{< nextlink href="/getting_started/integrations" >}}Obtén información sobre las integraciones{{< /nextlink >}} -{{< nextlink href="/getting_started/application" >}}Obtén información sobre la IU de Datadog{{< /nextlink >}} -{{< nextlink href="/getting_started/logs" >}}Obtén información sobre cómo recopilar logs a través del Agent{{< /nextlink >}} -{{< nextlink href="/getting_started/tracing" >}}Obtén información sobre cómo recopilar trazas a través del Agent{{< /nextlink >}} +{{< whatsnext desc="Después de que el Agente esté instalado:">}} +{{< nextlink href="/getting_started/integrations" >}}Aprenda sobre Integrations{{< /nextlink >}} +{{< nextlink href="/getting_started/application" >}}Aprenda sobre Datadog UI{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}Aprenda cómo recolectar Registros a través del Agente{{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}Aprenda cómo recolectar Trazas a través del Agente{{< /nextlink >}} {{< /whatsnext >}} [1]: https://github.com/DataDog/datadog-agent @@ -292,11 +276,11 @@ Si necesitas ayuda para solucionar problemas relacionados con el Agent: [14]: /es/getting_started/agent/#checks [15]: https://www.datadoghq.com [16]: https://app.datadoghq.com/organization-settings/api-keys -[17]: /es/agent/basic_agent_usage/?tab=agentv6v7 +[17]: /es/agent/supported_platforms [18]: https://app.datadoghq.com/account/settings/agent/latest [19]: /es/agent/configuration/agent-commands/#agent-status-and-information [20]: https://app.datadoghq.com/event/explorer -[21]: /es/developers/service_checks/#visualize-your-service-check-in-datadog +[21]: /es/extend/service_checks/#visualize-your-service-check-in-datadog [22]: https://app.datadoghq.com/metric/summary [23]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml [24]: /es/getting_started/tagging/ @@ -307,10 +291,13 @@ Si necesitas ayuda para solucionar problemas relacionados con el Agent: [29]: /es/infrastructure/process/?tab=linuxwindows#introduction [30]: /es/opentelemetry/otlp_ingest_in_the_agent/?tab=host [31]: /es/agent/logs/advanced_log_collection/ -[32]: /es/developers/dogstatsd/?tab=hostagent +[32]: /es/extend/dogstatsd/?tab=hostagent [33]: /es/agent/configuration/agent-commands/ [34]: /es/agent/configuration/agent-commands/#start-the-agent [35]: /es/agent/configuration/agent-commands/#stop-the-agent [36]: /es/agent/troubleshooting/ [37]: /es/agent/configuration/agent-log-files/ -[38]: /es/help/ \ No newline at end of file +[38]: /es/help/ +[39]: /es/agent/fleet_automation/ +[40]: /es/agent/?tab=Host-based +[41]: /es/getting_started/site/ \ No newline at end of file diff --git a/content/es/getting_started/tagging/_index.md b/content/es/getting_started/tagging/_index.md index 04da88be4c3..7ae40bd737d 100644 --- a/content/es/getting_started/tagging/_index.md +++ b/content/es/getting_started/tagging/_index.md @@ -1,7 +1,7 @@ --- algolia: tags: - - etiquetado + - tagging aliases: - /es/getting_started/getting_started_with_tags - /es/guides/getting_started/tagging/ @@ -9,103 +9,116 @@ aliases: - /es/tagging - /es/guides/tagging/ - /es/faq/when-i-query-can-i-use-wildcards-in-metric-names-and-events/ -description: Descubre cómo asignar y usar etiquetas en Datadog. +description: Aprende a asignar y usar etiquetas en Datadog. further_reading: - link: /getting_started/tagging/assigning_tags/ tag: Documentación - text: Descubre cómo asignar etiquetas + text: Aprende a asignar etiquetas - link: /getting_started/tagging/unified_service_tagging/ tag: Documentación - text: Descubre cómo configurar el etiquetado de servicios unificado + text: Aprende a configurar el etiquetado de servicio unificado - link: /getting_started/tagging/using_tags/ tag: Documentación - text: Descubre cómo usar las etiquetas + text: Aprende a usar etiquetas - link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participa en una sesión interactiva sobre la eficacia del etiquetado con Datadog -title: Empezando con las etiquetas (tags) + tag: Habilitación de Fundamentos + text: Únete a una sesión interactiva sobre etiquetado efectivo con Datadog +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: Blog + text: Diseña tableros ejecutivos efectivos con Datadog +- link: https://learn.datadoghq.com/courses/tagging-best-practices + tag: Centro de Aprendizaje + text: Mejores Prácticas de Etiquetado +title: Introducción a las Etiquetas --- +## Resumen {#overview} -## Información general +Las etiquetas son una forma de agregar dimensiones a las telemetrías de Datadog para que puedan ser filtradas, agregadas y comparadas en las visualizaciones de Datadog. [Usar etiquetas][1] te permite observar el rendimiento agregado a través de varios hosts y (opcionalmente) reducir el conjunto aún más basado en elementos específicos. En resumen, el etiquetado es un método para observar puntos de datos agregados. -Las etiquetas son una forma de añadir dimensiones a las telemetrías de Datadog para que puedan filtrarse, agregarse y compararse en las visualizaciones de Datadog. [Usar etiquetas][1] te permite observar el rendimiento conjunto en varios hosts y, de manera opcional, reducir ese conjunto en función de ciertos elementos. En resumen, el etiquetado es un método para observar puntos de datos de manera conjunta. +Una etiqueta puede estar formateada como `:` o ``. Datadog recomienda usar el formato `:`, ya que a menudo es semánticamente más claro y permite capacidades de consulta más ricas (por ejemplo, agrupando por clave). Al usar un par `:`: -Las etiquetas son pares `key:value` que contienen dos partes: +- La etiqueta **clave** es el identificador. Las claves de etiqueta comúnmente utilizadas son `env`, `instance` y `name`. +- La etiqueta **valor** es el dato o la información específica asociada con la clave. Los valores de etiqueta no son únicos por recurso y pueden ser utilizados en muchos recursos en un par `:`. -- La clave de etiqueta es el identificador. La clave de etiqueta sólo puede existir una vez en cada recurso y distingue entre mayúsculas y minúsculas. -- El valor de etiqueta son los datos específicos o la información asociada a la clave. Los valores de etiqueta no son únicos por recurso y pueden utilizarse en muchos recursos en un par `key-value`. +El etiquetado vincula distintos tipos de datos en Datadog, permitiendo la correlación y la ejecución de acciones entre métricas, trazas y registros. Esto se logra con las claves de etiqueta **reservadas**: +| Clave de etiqueta | Permite | +|-----------|------------------------------------------------------------------------| +| `host` | Correlación entre métricas, trazas, procesos y registros. | +| `device` | Segregación de métricas, trazas, procesos y registros por dispositivo o disco. | +| `source` | Filtrado de tramos y creación automatizada de canalizaciones para Log Management. | +| `service` | Alcance de datos específicos de la aplicación a través de métricas, trazas y registros. | +| `env` | Alcance de datos específicos de la aplicación a través de métricas, trazas y registros. | +| `version` | Alcance de datos específicos de la aplicación a través de métricas, trazas y registros. | +| `team` | Asignando la propiedad a cualquier recurso. | -El etiquetado vincula distintos tipos de datos en Datadog, lo que permite la correlación y las llamadas a la acción entre métricas, trazas (traces) y logs. Esto se consigue con claves de etiqueta **reservadas**: +Datadog recomienda observar contenedores, máquinas virtuales e infraestructura en la nube a nivel `service` en conjunto. Por ejemplo, observe el uso de CPU a través de una colección de hosts que representa un servicio, en lugar de observar el uso de CPU del servidor A o del servidor B por separado. -| Clave de etiqueta | Qué permite | -| --------- | --------------------------------------------------------------------- | -| `host` | Correlación entre métricas, trazas, procesos y logs. | -| `device` | Segregación de métricas, trazas, procesos y logs por dispositivo o disco. | -| `source` | Filtrado por tramos y creación automatizada de pipelines para la gestión de logs. | -| `service` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | -| `env` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | -| `version` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | -| `team` | Asignar una propiedad a cualquier recurso | +Debido a que los contenedores y los entornos en la nube cambian regularmente de servidores, es importante usar etiquetas para agregar tus métricas. -Datadog recomienda analizar los contenedores, las máquinas virtuales y la infraestructura en la nube de forma conjunta a nivel de `service`. Por ejemplo, puedes observar el uso de la CPU en una serie de hosts que represente un servicio, en lugar del uso de la CPU para el servidor A o B por separado. +## Defina etiquetas {#define-tags} -Puesto que los contenedores y entornos en la nube se renuevan con frecuencia en los hosts, es importante usar etiquetas para agregar las métricas. +Las cadenas de etiquetas (es decir, el contenido completo de `:` o ``) deben cumplir con los siguientes requisitos: -## Definir etiquetas +- Las cadenas de etiquetas deben **comenzar con una letra** (esto se aplica independientemente de si la etiqueta utiliza el formato `:` o ``). Después de la letra inicial, la cadena de etiquetas puede contener los caracteres que se enumeran a continuación: -Estos son los requisitos de etiquetado de Datadog: - -1. Las etiquetas deben **empezar por una letra** y pueden incluir lo siguiente: - - - Caracteres alfanuméricos - - Guiones bajos - - Signos de resta + - Letras (se admiten todas las letras Unicode; por ejemplo, a, ó, 気, 녕, ك y ดี) + - Números + - Guiones bajos (los guiones bajos iniciales y finales se eliminan, y los guiones bajos contiguos se colapsan en uno solo) + - Guiones - Dos puntos - Puntos - - Barras - - Los demás caracteres especiales se convertirán en guiones bajos. - -2. Las etiquetas pueden tener **hasta 200 caracteres** y admiten letras Unicode (que incluyen la mayoría de conjuntos de caracteres, incluidos idiomas como el japonés). -3. Las etiquetas se cambiarán a minúsculas. Por tanto, no se recomiendan las etiquetas `CamelCase`. Las integraciones basadas en (un rastreador de) autenticación convierten ese tipo de ortografía en guiones bajos. Ejemplo: `TestTag` --> `test_tag`. -4. Una etiqueta puede estar en formato `value` o `:`. Las claves de etiquetas más utilizadas son `env`, `instance` y `name`. La clave siempre precede a los primeros dos puntos de la definición de la etiqueta global. Ejemplo: - + - Barras diagonales + - (Solo para etiquetas en registros [ingresados a través de HTTP][28]) signos de arroba (`@`) + + Todos los demás caracteres (incluidos comas, emoji, barras invertidas y espacios) se convierten en guiones bajos. + + **Notas**: + - Una etiqueta que comienza con un dígito puede ser aceptada en algunos contextos, como las etiquetas `env` establecidas a nivel de Agent. Sin embargo, las etiquetas que no siguen las reglas de nomenclatura estándar pueden no funcionar de manera consistente en todos los productos de Datadog y pueden aumentar la cardinalidad de las etiquetas. Comience las etiquetas con una letra a menos que un producto específico lo soporte explícitamente de otra manera. + - La variable de entorno `DD_TAGS` utiliza espacios en blanco como separador entre etiquetas. Los espacios en blanco en los valores de `DD_TAGS` **no** se convierten a guiones bajos. Por ejemplo, `DD_TAGS="test:this is a test"` produce cuatro etiquetas separadas: `test:this`, `is`, `a` y `test`. Para establecer un valor de etiqueta que contenga espacios, use un archivo de configuración YAML o anotaciones de integración, donde los espacios en blanco se convierten a guiones bajos. + +- Las etiquetas pueden tener hasta **200 caracteres** de longitud. Si la etiqueta tiene el formato `:`, la clave, `:`, y el valor cuentan para el límite de caracteres. +- [Las etiquetas de span][26] y las etiquetas métricas se normalizan a minúsculas, por lo que se debe evitar el uso de camel case en las claves de las etiquetas. Los proveedores de la nube normalizan el camel case de manera inconsistente. Por ejemplo, AWS convierte `TestTag` a `testtag`, mientras que Alibaba Cloud convierte `TestTag` a `test_tag`. + - A diferencia de las etiquetas, [los atributos de span][27] y los atributos de log son sensibles a mayúsculas y minúsculas y no se normalizan. +- Al usar el formato `:`, la clave siempre precede al primer dos puntos de la definición de etiqueta global. Por ejemplo: + | Etiqueta | Clave | Valor | | ------------------ | ------------- | -------------- | | `env:staging:east` | `env` | `staging:east` | | `env_staging:east` | `env_staging` | `east` | -5. Las etiquetas no deben originarse en fuentes sin enlazar, como marcas de tiempo epoch, ID de usuario o ID de solicitud. De ser así, [la cantidad de métricas podría aumentar][2] infinitamente en tu organización y afectar a tu facturación. -6. Las limitaciones (como el cambio a minúsculas) solo se aplican a las etiquetas de métricas, no a los atributos de logs ni a las etiquetas de tramos. +- Las etiquetas no deben originarse de fuentes sin límites, como marcas de tiempo de época, identificadores de usuario o identificadores de solicitud. Hacerlo puede causar un crecimiento sin límites en el número de [métricas][2]. + -## Asignación de etiquetas +## Asignar etiquetas {#assign-tags} -### Métodos de etiquetado +### Métodos de etiquetado {#tagging-methods} -Las etiquetas se pueden asignar con cualquiera de los siguientes métodos o con todos ellos: +Las etiquetas pueden ser asignadas utilizando cualquiera (o todos) de los siguientes métodos. -| Método | Asignación de etiquetas | +| Método | Asignar etiquetas | | ------------------------ | --------------------------------------------------------------- | -| [Archivos de configuración][3] | Manualmente en tu Agent principal o en los archivos de configuración de la integración. | -| [IU][4] | En el sitio de Datadog. | -| [API][5] | Al usar la API de Datadog. | +| [Archivos de configuración][3] | Manualmente en sus archivos de configuración principales del Agent o integración. | +| [Interfaz de Usuario][4] | En el sitio de Datadog. | +| [API][5] | Al utilizar la API de Datadog. | | [DogStatsD][6] | Al enviar métricas con DogStatsD. | -Para más información, consulta la sección [Asignar etiquetas][7]. +Para más información, consulte [Asignación de Etiquetas][7]. + +#### Etiquetado de servicio unificado {#unified-service-tagging} -#### Etiquetado de servicios unificado +Como mejor práctica, Datadog recomienda utilizar el etiquetado de servicio unificado al asignar etiquetas. El etiquetado de servicio unificado vincula la telemetría de Datadog a través del uso de tres etiquetas estándar: `env`, `service` y `version`. Para aprender a configurar su entorno con etiquetado unificado, consulte [Etiquetado de Servicio Unificado][8]. -Datadog recomienda utilizar el etiquetado de servicios unificado al asignar etiquetas. Este sistema asocia toda la telemetría de Datadog mediante el uso de tres etiquetas estándar: `env`, `service` y `version`. Para saber cómo configurar tu entorno con el etiquetado unificado, consulta la sección [Etiquetado de servicios unificado][8]. +### Herencia de etiquetas {#tag-inheritance} -### Herencia de etiquetas +Todas las métricas, registros, trazas e integraciones pasan por un proceso de herencia de `host-tag` a medida que los datos se ingieren en Datadog. Dado que los datos están asociados con un nombre de host determinado, esos componentes heredan todas las etiquetas `host-level` asociadas con ese host. Estas etiquetas son visibles en la [lista de infraestructura][12] para un host determinado, provenientes ya sea del proveedor de la nube o del Datadog Agent. Consulte [etiquetas `host-level` faltantes en nuevos hosts o nodos][25] para más información. -Todas las métricas, logs, trazas e integraciones pasan por un proceso de herencia de `host-tag` a medida que los datos se introducen en Datadog. Dado que los datos están asociados a un nombre de host determinado, esos componentes heredan todas las etiquetas `host-level` asociadas a ese host. Estas etiquetas son visibles en la [lista de infraestructura][12] de un host determinado, y proceden del proveedor de la nube o del Datadog Agent. Consulta [las etiquetas `host-level` faltantes en nuevos hosts o nodos][25] para más información. +Debido a que las etiquetas pueden ser heredadas de múltiples fuentes, elija nombres de clave únicos y específicos para evitar duplicarlas entre fuentes. Por ejemplo, si ha establecido una clave `service` en un host (`service:my-host`) y una clave `service` en un pod que se ejecuta en ese host (`service:my-service`), sus datos heredan ambas etiquetas. Opte por nombres de clave más diferenciados (como `infra_service`) para evitar claves de etiqueta duplicadas. -### Precedencia de las etiquetas +### Prioridad de etiquetas {#tag-precedence} -El Datadog Agent **no** impone un orden de precedencia para las etiquetas establecidas a partir de diferentes fuentes. En su lugar, el Agent recopila todas las etiquetas de cada fuente disponible, almacena cada valor único para una clave de etiqueta determinada y los emite todos con la telemetría. +El Agente de Datadog **no** impone un orden de prioridad para las etiquetas establecidas desde diferentes fuentes. En cambio, el Agente recopila todas las etiquetas de cada fuente disponible, almacena cada valor único para una clave de etiqueta dada y emite todas ellas con la telemetría. -Esto significa que una misma clave de etiqueta puede tener varios valores si está configurada de forma diferente en las distintas fuentes. Por ejemplo, si la etiqueta `service` se establece como `payments` en una variable de entorno, `checkout` en el YAML Agent y `orders` en una configuración de cliente de rastreo, la telemetría para ese servicio podría incluir: +Esto significa que una sola clave de etiqueta puede tener múltiples valores si se configura de manera diferente entre fuentes. Por ejemplo, si la etiqueta `service` se establece en `payments` en una variable de entorno, `checkout` en el YAML del Agente y `orders` en una configuración de cliente de trazado, la telemetría para ese servicio podría incluir: ``` service:payments @@ -113,33 +126,33 @@ service:checkout service:orders ``` -Los filtros o dashboards descendentes deben filtrar explícitamente el valor deseado si solo se espera uno. +Los filtros o tableros descendentes deben filtrar explícitamente el valor deseado si espera solo uno. -## Utilización +## Uso {#usage} -Después de haber [asignado etiquetas][7] a nivel de host e [integración][9], comienza a utilizarlas para filtrar y agrupar tus métricas, trazas y logs. Las etiquetas se utilizan en las siguientes áreas de tu plataforma Datadog. +Después de haber [asignado etiquetas][7] a nivel de servidor y [de integración][9], comience a usarlas para filtrar y agrupar sus métricas, trazas y registros. Las etiquetas se utilizan en las siguientes áreas de su plataforma Datadog. -| Área | Uso de las etiquetas para | +| Área | Usar Etiquetas para | | -------------------- | ------------------------------------------------------------------------------------------------ | -| [Events (Eventos)][10] | Filtrar el flujo de eventos. | +| [Eventos][10] | Filtrar el flujo de eventos. | | [Dashboards][11] | Filtrar y agrupar métricas en gráficos. | -| [Infrastructura][12] | Filtrar y agrupar en el mapa del host, la lista de infraestructuras, los Live Containers y las visualizaciones de Live Processes. | -| [Monitores][13] | Crear y gestionar monitores, o controlar caídas del sistema. | -| [Métricas][14] | Filtrar y agrupar en el navegador de métricas. | -| [Integraciones][15] | Limitar opcionalmente las métricas de AWS, Google Cloud y Azure. | -| [APM][16] | Filtrar servicios, trazas y perfiles, o navegar a otras áreas con el Mapa de servicios. | -| [RUM y Session Replay][17] | Filtrar la búsqueda de eventos, análisis, patrones, reproducciones y problemas en el navegador RUM. | -| [Monitorización Synthetic y tests continuos][18] | Filtra y agrupa los tests Synthetic o aquellos que se ejecutan en pipelines CI con el Explorador de monitorización Synthetic y de resultados de tests. | -| [Notebooks][19] | Filtrar y agrupar métricas en gráficos. | -| [Logs][20] | Filtrar la búsqueda de logs, análisis, patrones, Live Tail y pipelines. | -| [SLOs][21] | Buscar SLOs, SLOs basados en métricas agrupadas y SLOs basados en monitores agrupados. | -| [Desarrolladores][22] | Obtener información o configurar distintas áreas en la IU con la API. | -| [Facturación][23] | Generar informes sobre el uso de Datadog eligiendo hasta tres etiquetas, por ejemplo: `env`, `team` y `account_id`. | -| [CI Visibility][24] | Filtra y agrupa ejecuciones de pruebas o pipelines con el explorador de visibilidad CI. | - -Para obtener más información, consulta la sección [Uso de etiquetas][1]. - -## Referencias adicionales +| [Infrastructure][12] | Filtrar y agrupar en el mapa de servidores, lista de infraestructura, contenedores en vivo y vistas de procesos en vivo. | +| [Monitors][13] | Administrar monitores, crear monitores o gestionar el tiempo de inactividad. | +| [Metrics][14] | Filtrar y agrupar con el Metric Explorer. | +| [Integrations][15] | Opcionalmente limitar métricas para AWS, Google Cloud y Azure. | +| [APM][16] | Filtrar servicios, trazas y perfiles, o navegar a otras áreas con el Service Map. | +| [RUM & Session Replay][17] | Filtrar búsqueda de eventos, análisis, patrones, repeticiones y problemas con el RUM Explorer. | +| [Synthetic Monitoring & Continuous Testing][18] | Filtrar y agrupar pruebas Synthetic o pruebas que se ejecutan en pipelines de CI con el Synthetic Monitoring & Testing Results Explorer. | +| [Notebooks][19] | Filtrar y agrupar métricas en gráficos. | +| [Logs][20] | Filtrar búsqueda de registros, análisis, patrones, seguimiento de las últimas líneas y pipelines. | +| [SLOs][21] | Buscar SLOs, SLOs agrupados por métricas y SLOs agrupados por monitors. | +| [Developers][22] | Obtener información o configurar diferentes áreas en la interfaz de usuario con la API. | +| [Billing][23] | Informar sobre el uso de Datadog eligiendo hasta tres etiquetas, por ejemplo: `env`, `team` y `account_id`. | +| [CI Visibility][24] | Filtrar y agrupar ejecuciones de prueba o ejecuciones de canalización con el CI Visibility Explorer. | + +Para más información, consulte [Using Tags][1]. + +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -167,4 +180,7 @@ Para obtener más información, consulta la sección [Uso de etiquetas][1]. [22]: /es/getting_started/tagging/using_tags/#developers [23]: /es/account_management/billing/usage_attribution/ [24]: /es/getting_started/tagging/using_tags/#ci-visibility -[25]: /es/containers/kubernetes/log/?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes \ No newline at end of file +[25]: /es/containers/troubleshooting/log-collection?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes +[26]: /es/tracing/trace_collection/tracing_naming_convention/#span-tags +[27]: /es/tracing/trace_collection/tracing_naming_convention/#span-attributes +[28]: /es/api/latest/logs/#send-logs \ No newline at end of file diff --git a/content/es/getting_started/tagging/unified_service_tagging.md b/content/es/getting_started/tagging/unified_service_tagging.md index 339b2c9dbd6..82fad6a293c 100644 --- a/content/es/getting_started/tagging/unified_service_tagging.md +++ b/content/es/getting_started/tagging/unified_service_tagging.md @@ -1,95 +1,93 @@ --- algolia: tags: - - etiquetas (tags) de servicios unificadas - - unificado - - servicio unificado - - etiquetas (tags) de servicios -description: Conecta la telemetría a través de trazas, métricas y logs utilizando - etiquetas estandarizadas de entorno, servicio y versión para una monitorización - coherente. + - unified service tags + - unified + - unified service + - service tags +description: Conecte la telemetría a través de trazas, métricas y registros utilizando + etiquetas estandarizadas de entorno, servicio y versión para un monitoreo consistente. further_reading: - link: /getting_started/tagging/using_tags tag: Documentación - text: Descubre cómo utilizar las etiquetas (tags) en la aplicación de Datadog + text: Aprenda cómo usar etiquetas en la aplicación de Datadog - link: /tracing/version_tracking tag: Documentación - text: Uso de etiquetas (tags) de versión en APM de Datadog para monitorizar despliegues + text: Utilice etiquetas de versión dentro de Datadog APM para monitorear implementaciones - link: https://www.datadoghq.com/blog/autodiscovery-docker-monitoring/ tag: Blog - text: Más información sobre Autodiscovery -title: Etiquetado de servicios unificado + text: Aprenda más sobre Autodiscovery +title: Unified Service Tagging --- +## Visión general {#overview} -## Información general +Unified Service Tagging integra la telemetría de Datadog utilizando tres [etiquetas reservadas][1]: `env`, `service` y `version`. -El etiquetado de servicios unificado asocia la telemetría de Datadog utilizando tres [etiquetas (tags) reservadas][1]: `env`, `service` y `version`. +Con estas tres etiquetas, usted puede: -Estas tres etiquetas (tags) te permiten: +- Identificar el impacto de la implementación con métricas de trazas y contenedores filtradas por versión +- Navegar sin problemas a través de trazas, métricas y registros con etiquetas consistentes +- Ver datos del servicio basados en el entorno o la versión de manera unificada -- Identificar el impacto del despliegues con métricas de rastreo y de contenedor filtradas por versión -- Navegar sin problemas a través de trazas (traces), métricas y logs con etiquetas (tags) coherentes -- Ver datos de servicios basados en el entorno o la versión de manera unificada - -{{< img src="tagging/unified_service_tagging/overview.mp4" alt="Etiquetado de servicios unificado" video=true >}} +{{< img src="tagging/unified_service_tagging/overview.mp4" alt="Unified Service Tagging" video=true >}} **Notas**: -- Se espera que la etiqueta (tag) de `version` cambie con cada nuevo despliegue de la aplicación. Dos versiones diferentes del código de tu aplicación deberían tener diferentes etiquetas de `version`. -- El servicio oficial de un log es por defecto la imagen corta del contenedor, si no hay una configuración de logs de Autodiscovery presente. Para reemplazar el servicio oficial de un log, añade [etiquetas (labels) de Docker/anotaciones de pod][2] de Autodiscovery. Por ejemplo: `"com.datadoghq.ad.logs"='[{"service": "service-name"}]'` -- La información del host se excluye para la base de datos y los tramos (spans) de caché porque el host asociado con el tramo no es el host de base de datos/caché. +- Se espera que la etiqueta `version` cambie con cada nueva implementación de la aplicación. Dos versiones diferentes del código de su aplicación deben tener etiquetas `version` distintas. +- El servicio oficial de un registro se establece por defecto en la imagen corta del contenedor si no hay una configuración de registros de Autodescubrimiento presente. Para anular el servicio oficial de un registro, agregue Autodiscovery [etiquetas de Docker/anotaciones de pod][2]. Por ejemplo: `"com.datadoghq.ad.logs"='[{"service": "service-name"}]'` +- La información del host se excluye para los tramos de base de datos y caché porque el host asociado al tramo no es el host de la base de datos/caché. -### Requisitos +### Requisitos {#requirements} -- El etiquetado de servicios unificado requiere la configuración de un [Datadog Agent ][3] de 6.19.x/7.19.x o posterior. +- Unified Service Tagging requiere la configuración de un [Datadog Agent][3] que sea 6.19.x/7.19.x o superior. -- El etiquetado de servicios unificado requiere una versión de rastreador que admita nuevas configuraciones de las [etiquetas reservadas][1]. Obtén más información por idioma en las [instrucciones de configuración][4]. +- Unified Service Tagging requiere una versión de SDK que soporte nuevas configuraciones de las [etiquetas reservadas][1]. Se puede encontrar más información por idioma en las [instrucciones de configuración][4]. -| Lenguaje | Versión mínima del rastreador | +| Idioma | Versión mínima de SDK | |--------------|------------| | .NET | 1.17.0+ | -| C++ | v0.1.0 o posterior | -| Go | 1.24.0 o posterior | -| Java | 0.50.0 o posterior | -| Node | 0.20.3 o posterior | -| PHP | 0.47.0 o posterior | -| Python | 0.38.0 o posterior | -| Ruby | 0.34.0 o posterior | +| C++ | 0.1.0+ | +| Go | 1.24.0+ | +| Java | 0.50.0+ | +| Node | 0.20.3+ | +| PHP | 0.47.0+ | +| Python | 0.38.0+ | +| Ruby | 0.34.0+ | -- Para llevar a cabo el etiquetado de servicios unificado, es necesario conocer la configuración de etiquetas (tags). Si no sabes muy bien cómo configurar etiquetas, lee antes la documentación [Empezando con el etiquetado][1] y [Asignación de etiquetas][5]. +- Unified service tagging requiere conocimiento sobre la configuración de etiquetas. Si no está seguro de cómo configurar etiquetas, lea la documentación de [Introducción a la Etiquetación][1] y [Asignación de Etiquetas][5] antes de proceder a la configuración. -## Configuración +## Configuración {#configuration} -Para empezar a configurar el etiquetado de servicios unificado, elige tu entorno: +Para comenzar a configurar unified service tagging, elija su entorno: -- [contenedorizado](#containerized-environment) -- [no contenedorizado](#non-containerized-environment) -- [Serverless](#serverless-environment) +- [Contenerizado](#containerized-environment) +- [No contenerizado](#non-containerized-environment) +- [Sin servidor](#serverless-environment) - [OpenTelemetry](#opentelemetry) -### Entorno contenedorizado +### Entorno contenerizado {#containerized-environment} -En entornos contenedorizados, `env`, `service` y `version` se configuran a través de variables de entorno o etiquetas (labels) del servicio; por ejemplo, etiquetas del despliegue de Kubernetes y del pod o etiquetas del contenedor de Docker. El Datadog Agent detecta esta configuración de etiquetado y la aplica a los datos que recopila de los contenedores. +En entornos contenerizados, `env`, `service` y `version` se configuran a través de las variables de entorno o etiquetas del servicio (por ejemplo, etiquetas de implementación y pod de Kubernetes, etiquetas de contenedor de Docker). El Agente de Datadog detecta esta configuración de etiquetado y la aplica a los datos que recopila de los contenedores. -Para configurar el etiquetado de servicios unificado en un entorno contenedorizado: +Para configurar unified service tagging en un entorno contenerizado: -1. Activa [Autodiscovery][6]. Esto permitirá al Datadog Agent identificar automáticamente los servicios que se ejecutan en un contenedor concreto y recopilar datos de esos servicios para asignar variables de entorno a las etiquetas (tags) `env`, `service,` y `version`. +1. Habilitar [Autodiscovery][6]. Esto permite que el Agente de Datadog identifique automáticamente los servicios que se ejecutan en un contenedor específico y recopile datos de esos servicios para mapear las variables de entorno a las etiquetas `env`, `service,` y `version`. -2. Si utilizas [Docker][2], asegúrate de que el Agent pueda acceder al [socket de Docker][7] de tu contenedor. Esto permitirá al Agent detectar las variables de entorno y asignarlas a etiquetas (tags) estándar. +2. Si está utilizando [Docker][2], asegúrese de que el Datadog Agent pueda acceder al [socket de Docker][7] de su contenedor. Esto permite que el Datadog Agent detecte las variables de entorno y las mapee a las etiquetas estándar. -3. Configura el entorno que corresponda a tu servicio de orquestación de contenedores, según la configuración completa o parcial, tal y como se indica a continuación. +3. Configure su entorno que corresponde a su servicio de orquestación de contenedores basado en configuración completa o configuración parcial como se detalla a continuación. -#### Configuración +#### Configuración {#configuration-1} {{< tabs >}} {{% tab "Kubernetes" %}} -Si has implementado el Agent de clúster de Datadog con el [controlador de admisión][1] activado, este último mutará los manifiestos del pod e introducirá todas las variables de entorno requeridas (en función de las condiciones de mutación establecidas). En ese caso, no será necesaria la configuración manual de las variables de entorno `DD_` en los manifiestos del pod. Para obtener más información, consulta la [documentación del controlador de admisión][1]. +Si implementó el Datadog Cluster Agent con el [Controlador de Admisión][1] habilitado, éste muta los manifiestos de los pods e inyecta todas las variables de entorno requeridas (según las condiciones de mutación configuradas). En ese caso, la configuración manual de `DD_` variables de entorno en los manifiestos de los pods es innecesaria. Para más información, consulte la [documentación del Controlador de Admisión][1]. -##### Configuración completa +##### Configuración completa {#full-configuration} -Para obtener todo el rango del etiquetado de servicios unificado al utilizar Kubernetes, añade variables de entorno tanto a nivel del objeto del despliegue como a nivel de las especificaciones de la plantilla del pod: +Para obtener el rango completo de Unified Service Tagging al usar Kubernetes, agregue variables de entorno tanto al nivel del objeto de implementación como al de la especificación de la plantilla del pod: ```yaml apiVersion: apps/v1 @@ -123,7 +121,7 @@ template: fieldPath: metadata.labels['tags.datadoghq.com/version'] ``` -También puedes utilizar las variables de atributos de recursos de OpenTelemetry para configurar las etiquetas (tags) `env`, `service` y `version`: +También puede usar las variables de entorno de OpenTelemetry Resource Attributes para establecer las etiquetas `env`, `service` y `version`: ```yaml containers: @@ -134,13 +132,13 @@ También puedes utilizar las variables de atributos de recursos de OpenTelemetry - name: OTEL_SERVICE_NAME value: "" ``` -

    La variable de entorno OTEL_SERVICE_NAME tiene prioridad sobre el atributo service.name de la variable de entorno OTEL_RESOURCE_ATTRIBUTES.
    +
    La variable de entorno OTEL_SERVICE_NAME tiene prioridad sobre el atributo service.name en la variable de entorno OTEL_RESOURCE_ATTRIBUTES.
    -##### Configuración parcial +##### Configuración parcial {#partial-configuration} -###### Métricas a nivel del pod +###### Métricas a nivel de pod {#pod-level-metrics} -Para configurar métricas a nivel del pod, añade las siguientes etiquetas (labels) estándar (`tags.datadoghq.com`) a las especificaciones del pod de un despliegue, StatefulSet o tarea: +Para configurar métricas a nivel de pod, agregue las siguientes etiquetas estándar (`tags.datadoghq.com`) a la especificación del pod de una Implementación, StatefulSet o Job: ```yaml template: @@ -150,9 +148,9 @@ template: tags.datadoghq.com/service: "" tags.datadoghq.com/version: "" ``` -Estas etiquetas (labels) abarcan la CPU, la memoria, la red y las métricas de disco de Kubernetes a nivel del pod, y pueden utilizarse para introducir `DD_ENV`, `DD_SERVICE` y `DD_VERSION` en el contenedor de tu servicio a través de la [API descendente de Kubernetes][2]. +Estas etiquetas abarcan las métricas a nivel de pod de CPU, memoria, red y disco en Kubernetes, y se pueden utilizar para inyectar `DD_ENV`, `DD_SERVICE` y `DD_VERSION` en el contenedor de su servicio a través de la [API descendente de Kubernetes][2]. -Si tienes varios contenedores en cada pod, podrás especificar etiquetas (labels) estándar según el contenedor: +Si tiene múltiples contenedores por pod, puede especificar etiquetas estándar por contenedor: ```yaml tags.datadoghq.com/.env @@ -160,13 +158,13 @@ tags.datadoghq.com/.service tags.datadoghq.com/.version ``` -###### Métricas de estado +###### Métricas de estado {#state-metrics} -Para configurar [métricas de estado de Kubernetes][3]: +Para configurar [Métricas de Estado de Kubernetes][3]: -1. Configura `join_standard_tags` como `true` en tu archivo de configuración. Para conocer la localización de los parámetros, consulta este [archivo de configuración de ejemplo][4]. +1. Establezca `join_standard_tags` en `true` en su archivo de configuración. Consulte este [archivo de configuración de ejemplo][4] para la ubicación de la configuración. -2. Añade las mismas etiquetas (labels) estándar a la colección de etiquetas del recurso principal. Por ejemplo: `Deployment`. +2. Agregue las mismas etiquetas estándar a la colección de etiquetas del recurso padre, por ejemplo: `Deployment`. ```yaml apiVersion: apps/v1 @@ -185,9 +183,9 @@ Para configurar [métricas de estado de Kubernetes][3]: tags.datadoghq.com/version: "" ``` -###### Rastreador de APM y cliente StatsD +###### SDK de Datadog y cliente de StatsD {#datadog-sdk-and-statsd-client} -Para configurar las variables de entorno del [rastreador de APM][5] y del [cliente StatsD][6], utiliza la [API descendente de Kubernetes][2] con el siguiente formato: +Para configurar las variables de entorno del Datadog SDK y del StatsD client, utilice la [API descendente de Kubernetes][2] en el siguiente formato: ```yaml containers: @@ -207,24 +205,24 @@ containers: fieldPath: metadata.labels['tags.datadoghq.com/version'] ``` -##### Etiquetado automático de versiones para datos de APM en entornos contenedorizados +##### Etiquetado automático de versiones para datos de APM en entornos en contenedores {#automatic-version-tagging-for-apm-data-in-containerized-environments} -
    Esta función sólo está habilitada para los datos de Application Performance Monitoring (APM).
    +
    Esta función solo está habilitada para datos de Application Performance Monitoring (APM).
    -Puedes utilizar la etiqueta (tag) `version` en APM para [monitorizar despliegues][7] e identificar despliegues de código fallidos mediante la [detección automática de despliegues fallidos][8]. +Puede usar la etiqueta `version` en APM para [monitorear implementaciones][7] e identificar implementaciones de código defectuosas a través de la [Detección Automática de Implementaciones Defectuosas][8]. -Para datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. +Para los datos de APM, Datadog establece la etiqueta `version` para usted en el siguiente orden de prioridad. Si establece manualmente `version`, Datadog no sobrescribe su valor de `version`. -| Prioridad | Valor de versión | +| Prioridad | Valor de Versión | |--------------|------------| -| 1 | {tu valor de versión} | +| 1 | {your version value} | | 2 | {image_tag}_{first_7_digits_of_git_commit_sha} | -| 3 | {image_tag} o {first_7_digits_of_git_commit_sha} si sólo uno está disponible | +| 3 | {image_tag} or {first_7_digits_of_git_commit_sha} if only one is available | Requisitos: -- Datadog Agent versión 7.52.0 o posterior -- Si tus servicios se ejecutan en un entorno contenedorizado y `image_tag` es suficiente para el seguimiento de los despliegues de nuevas versiones, no es necesaria ninguna configuración adicional. -- Si tus servicios no se ejecutan en un entorno contenedorizado o si también te gustaría incluir el git SHA, [integra información de Git en tus artefactos de creación][9] +- Versión del Agente de Datadog 7.52.0 o superior +- Si sus servicios se ejecutan en un entorno en contenedores y `image_tag` es suficiente para rastrear nuevas implementaciones de versiones, no se necesita configuración adicional. +- Si sus servicios no se están ejecutando en un entorno contenerizado, o si también desea incluir el Git SHA, [incorpore la información de Git en sus artefactos de compilación][9]. [1]: /es/agent/cluster_agent/admission_controller/ @@ -240,11 +238,11 @@ Requisitos: {{% /tab %}} {{% tab "Docker" %}} -##### Configuración completa +##### Configuración completa {#full-configuration-1} -Configura las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` y las etiquetas (labels) de Docker correspondientes a tu contenedor, para acceder a todo el rango del etiquetado de servicios unificado. +Establezca las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` y las etiquetas de Docker correspondientes para su contenedor para obtener el rango completo de unified service tagging. -Los valores de `service` y `version` pueden proporcionarse en el archivo de Docker: +Los valores para `service` y `version` se pueden proporcionar en el Dockerfile: ```yaml ENV DD_SERVICE @@ -254,13 +252,13 @@ LABEL com.datadoghq.tags.service="" LABEL com.datadoghq.tags.version="" ``` -Puesto que `env` probablemente se determine en el momento del despliegue, puedes introducir la etiqueta (label) y la variable de entorno más adelante: +Dado que `env` probablemente se determina en el momento de la implementación, puede inyectar la variable de entorno y la etiqueta más tarde: ```shell docker run -e DD_ENV= -l com.datadoghq.tags.env= ... ``` -Si lo prefieres, también puedes configurar todo en el momento del despliegue: +También puede preferir establecer todo en el momento de la implementación: ```shell docker run -e DD_ENV="" \ @@ -272,9 +270,9 @@ docker run -e DD_ENV="" \ ... ``` -##### Configuración parcial +##### Configuración parcial {#partial-configuration-1} -Si tu servicio no necesita las variables de entorno de Datadog (por ejemplo, si se trata de un software de terceros como Redis, PostgreSQL, NGINX y aplicaciones sin rastreo de APM), puedes utilizar simplemente las etiquetas (labels) de Docker: +Si su servicio no necesita las variables de entorno de Datadog (por ejemplo, software de terceros como Redis, PostgreSQL, NGINX y aplicaciones que no son rastreadas por APM), puede usar las etiquetas de Docker: ```yaml com.datadoghq.tags.env @@ -282,27 +280,27 @@ com.datadoghq.tags.service com.datadoghq.tags.version ``` -Como se explica en la configuración completa, estas etiquetas (labels) se pueden configurar en un archivo de Docker o como argumentos para iniciar el contenedor. +Como se explicó en la configuración completa, estas etiquetas se pueden establecer en un Dockerfile o como argumentos para lanzar el contenedor. -##### Etiquetado automático de versiones para datos de APM en entornos contenedorizados +##### Etiquetado automático de versiones para datos de APM en entornos contenedorizados {#automatic-version-tagging-for-apm-data-in-containerized-environments-1} -
    Esta función sólo está habilitada para los datos de Application Performance Monitoring (APM).
    +
    Esta función solo está habilitada para datos de Application Performance Monitoring (APM) .
    -Puedes utilizar la etiqueta (tag) `version` en APM para [monitorizar despliegues][1] e identificar despliegues de código fallidos mediante la [detección automática de despliegues fallidos][2]. +Puede usar la etiqueta `version` en APM para [monitorear implementaciones][1] e identificar implementaciones de código defectuosas a través de [Detección Automática de Implementaciones Defectuosas][2]. -Para datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. +Para los datos de APM, Datadog establece la etiqueta `version` para usted en el siguiente orden de prioridad. Si establece manualmente `version`, Datadog no sobrescribe su valor de `version`. -| Prioridad | Valor de versión | +| Prioridad | Valor de Versión | |--------------|------------| -| 1 | {tu valor de versión} | -| 2 | {image_tag}_{first_7_digits_of_git_commit_sha} | -| 3 | {image_tag} o {first_7_digits_of_git_commit_sha} si sólo uno está disponible | +| 1 | {su valor de versión} | +| 2 | {image_tag}_{primer_7_dígitos_del_git_commit_sha} | +| 3 | {image_tag} o {primer_7_dígitos_del_git_commit_sha} si solo uno está disponible | Requisitos: -- Datadog Agent versión 7.52.0 o posterior -- Si tus servicios se ejecutan en un entorno contenedorizado y `image_tag` es suficiente para el seguimiento de los despliegues de nuevas versiones, no es necesaria ninguna configuración adicional. -- Si tus servicios no se ejecutan en un entorno contenedorizado o si también te gustaría incluir el git SHA, [integra información de Git en tus artefactos de creación][3] - +- Versión del Agente de Datadog 7.52.0 o superior +- Si sus servicios se ejecutan en un entorno contenedorizado y `image_tag` es suficiente para rastrear nuevas implementaciones de versiones, no se necesita configuración adicional. +- Si sus servicios no se están ejecutando en un entorno contenedorizado, o si también desea incluir el SHA de Git, [inserte información de Git en sus artefactos de construcción][3]. + [1]: /es/tracing/services/deployment_tracking/ [2]: /es/watchdog/faulty_deployment_detection/ @@ -313,12 +311,12 @@ Requisitos: {{% tab "ECS" %}}
    -En ECS Fargate con Fluent Bit o FireLens, el etiquetado de servicios unificado solo está disponible para métricas y trazas, no para la recopilación de logs. +En ECS Fargate usando Fluent Bit o FireLens, unified service tagging solo está disponible para métricas y trazas, no para la recolección de logs.
    -##### Configuración completa +##### Configuración completa {#full-configuration-2} -Configura las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` (con el etiquetado automático de versiones opcional) y las etiquetas (labels) de Docker correspondientes en el entorno de ejecución de cada contenedor de servicio, para obtener el rango completo del etiquetado de servicios unificado. Por ejemplo, puedes definir toda esta configuración en un mismo lugar a través de tu definición de tareas de ECS. +Establezca las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` (opcional con etiquetado automático de versiones) y las etiquetas de Docker correspondientes en el entorno de ejecución de cada contenedor de servicio para obtener el rango completo de unified service tagging. Por ejemplo, puede establecer toda esta configuración en un solo lugar a través de la definición de tarea de ECS: ``` "environment": [ @@ -334,7 +332,7 @@ Configura las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` (con el "name": "DD_VERSION", "value": "" } - + ], "dockerLabels": { "com.datadoghq.tags.env": "", @@ -343,12 +341,12 @@ Configura las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` (con el } ```
    -En ECS Fargate, debes añadir estas etiquetas a tu contenedor de aplicaciones, no al contenedor del Datadog Agent. +En ECS Fargate, debe agregar estas etiquetas a su contenedor de aplicación, no al contenedor del Datadog Agent.
    -##### Configuración parcial +##### Configuración parcial {#partial-configuration-2} -Si tu servicio no necesita las variables de entorno de Datadog (por ejemplo, si se trata de un software de terceros como Redis, PostgreSQL, NGINX y aplicaciones sin rastreo de APM), puedes utilizar simplemente las etiquetas (labels) de Docker en tu definición de tareas de ECS: +Si su servicio no necesita las variables de entorno de Datadog (por ejemplo, software de terceros como Redis, PostgreSQL, NGINX y aplicaciones que no son rastreadas por APM), puede usar las etiquetas de Docker en su definición de tarea de ECS: ``` "dockerLabels": { @@ -358,24 +356,24 @@ Si tu servicio no necesita las variables de entorno de Datadog (por ejemplo, si } ``` -##### Etiquetado automático de versiones para datos de APM en entornos contenedorizados +##### Etiquetado automático de versiones para datos de APM en entornos contenedorizados {#automatic-version-tagging-for-apm-data-in-containerized-environments-2} -
    Esta función sólo está habilitada para los datos de Application Performance Monitoring (APM).
    +
    Esta función solo está habilitada para datos de Application Performance Monitoring (APM) .
    -Puedes utilizar la etiqueta (tag) `version` en APM para [monitorizar despliegues][1] e identificar despliegues de código fallidos mediante la [detección automática de despliegues fallidos][2]. +Puede usar la etiqueta `version` en APM para [monitorear implementaciones][1] e identificar implementaciones de código defectuosas a través de [Detección Automática de Implementaciones Defectuosas][2]. -Para datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. +Para los datos de APM, Datadog establece la etiqueta `version` para usted en el siguiente orden de prioridad. Si establece manualmente `version`, Datadog no sobrescribe su valor de `version`. -| Prioridad | Valor de versión | +| Prioridad | Valor de Versión | |--------------|------------| -| 1 | {tu valor de versión} | -| 2 | {image_tag}_{first_7_digits_of_git_commit_sha} | -| 3 | {image_tag} o {first_7_digits_of_git_commit_sha} si sólo uno está disponible | +| 1 | {su valor de versión} | +| 2 | {image_tag}_{primer_7_dígitos_del_git_commit_sha} | +| 3 | {image_tag} o {primer_7_dígitos_del_git_commit_sha} si solo uno está disponible | Requisitos: -- Datadog Agent versión 7.52.0 o posterior -- Si tus servicios se ejecutan en un entorno contenedorizado y `image_tag` es suficiente para el seguimiento de los despliegues de nuevas versiones, no es necesaria ninguna configuración adicional. -- Si tus servicios no se ejecutan en un entorno contenedorizado o si también te gustaría incluir el git SHA, [integra información de Git en tus artefactos de creación][3] +- Versión del Agente de Datadog 7.52.0 o superior +- Si sus servicios se ejecutan en un entorno contenedorizado y `image_tag` es suficiente para rastrear nuevas implementaciones de versiones, no se necesita configuración adicional. +- Si sus servicios no se están ejecutando en un entorno contenedorizado, o si también desea incluir el SHA de Git, [inserte información de Git en sus artefactos de construcción][3]. [1]: /es/tracing/services/deployment_tracking/ [2]: /es/watchdog/faulty_deployment_detection/ @@ -384,85 +382,85 @@ Requisitos: {{% /tab %}} {{% /tabs %}} -### Entorno no contenedorizado +### Entorno no contenedorizado {#non-containerized-environment} -Según cómo crees e implementes los archivos binarios o ejecutables de tus servicios, tendrás distintas opciones disponibles para configurar las variables de entorno. Dado que puedes ejecutar uno o varios servicios por host, Datadog recomienda definir el contexto de estas variables de entorno en un solo proceso. +Dependiendo de cómo construya y despliegue los binarios o ejecutables de sus servicios, puede tener varias opciones disponibles para establecer variables de entorno. Dado que puede ejecutar uno o más servicios por host, Datadog recomienda limitar estas variables de entorno a un solo proceso. -Para crear un único punto de configuración de toda la telemetría emitida directamente desde la herramienta de gestión de [trazas][8], [logs][9], [recursos RUM][10], [tests Synthetic][11], [métricas de StatsD][12] o métricas del sistema de tus servicios, tienes dos opciones: +Para formar un único punto de configuración para toda la telemetría emitida directamente desde el tiempo de ejecución de sus servicios para [traces][8], [registros][9], [recursos RUM][10], [pruebas Synthetic][11], [métricas StatsD][12] o métricas del sistema, ya sea: -1. Exportar las variables de entorno en el comando de tu ejecutable: +1. Exporte las variables de entorno en el comando para su ejecutable: ``` DD_ENV= DD_SERVICE= DD_VERSION= /bin/my-service ``` -2. También puedes utilizar [Chef][13], [Ansible][14] u otra herramienta de orquestación para rellenar el archivo de configuración systemd o initd de un servicio con las variables de entorno `DD`. Cuando se inicie el proceso del servicio, este tendrá acceso a las variables. +2. O use [Chef][13], [Ansible][14] u otra herramienta de orquestación para poblar el archivo de configuración systemd o initd de un servicio con las variables de entorno `DD`. Cuando se inicia el proceso del servicio, tiene acceso a esas variables. {{< tabs >}} {{% tab "Trazas" %}} - Al configurar tus trazas para llevar a cabo el etiquetado de servicios unificado: + Al configurar sus trazas para unified service tagging: - 1. Configura el [rastreador de APM][1] con `DD_ENV` para que la definición de `env` sea lo más parecida posible a la aplicación que genera las trazas. Este método permite que la etiqueta (tag) `env` se obtenga automáticamente de una etiqueta de los metadatos del tramo. + 1. Configure el [Datadog SDK][1] con `DD_ENV` para mantener la definición de `env` más cerca de la aplicación que está generando las trazas. Este método permite que la etiqueta `env` se obtenga automáticamente de una etiqueta en los metadatos del tramo. - 2. Configura tramos con `DD_VERSION` para añadir la versión a todos los tramos del servicio que pertenece al rastreador (generalmente, `DD_SERVICE`). De este modo, si tu servicio crea tramos con el nombre de un servicio externo, esos tramos no recibirán `version` como etiqueta (tag). + 2. Configure los tramos con `DD_VERSION` para agregar la versión a todos los tramos que pertenecen al servicio que pertenece al SDK (generalmente `DD_SERVICE`). Esto significa que si su servicio crea tramos con el nombre de un servicio externo, esos tramos no reciben `version` como etiqueta. - Siempre que la versión esté presente en tramos, se añadirá a las métricas de rastreo generadas a partir de esos tramos. La versión se puede añadir al código manualmente o bien automáticamente mediante el rastreador de APM. Cuando están configurados, APM y los [clientes DogStatsD][2] los utilizan para etiquetar datos de trazas y métricas de StatsD con `env`, `service` y `version`. Si el rastreador de APM está habilitado, también introducirá los valores de estas variables en tus logs. + Mientras la versión esté presente en los tramos, se agrega a las métricas de traza generadas a partir de esos tramos. La versión se puede agregar manualmente en el código o automáticamente por el Datadog SDK. Cuando se configuran, estos son utilizados por el APM y los [clientes de DogStatsD][2] para etiquetar los datos de traza y las métricas de StatsD con `env`, `service` y `version`. Si está habilitado, el Datadog SDK también inyecta los valores de estas variables en sus registros. - **Nota**: Solo puede haber **un servicio por tramo**. Por lo general, las métricas de rastreo también tienen un único servicio. Sin embargo, si tienes otro servicio definido en las etiquetas (tags) de tus hosts, esa etiqueta de servicio configurada aparecerá en todas las métricas de rastreo emitidas desde ese host. + **Nota**: Solo puede haber **un servicio por tramo**. Las métricas de traza generalmente tienen un solo servicio también. Sin embargo, si tiene un servicio diferente definido en las etiquetas de sus hosts, esa etiqueta de servicio configurada aparece en todas las métricas de traza emitidas desde ese host. [1]: /es/tracing/setup/ -[2]: /es/developers/dogstatsd/ +[2]: /es/extend/dogstatsd/ {{% /tab %}} - {{% tab "Logs" %}} + {{% tab "Registros" %}} - Si utilizas [trazas y logs conectados][1], activa la introducción automática de logs siempre que tu rastreador de APM lo permita. De esta forma, el rastreador de APM introducirá automáticamente `env`, `service` y `version` en tus logs, lo que significa que no tendrás que configurar esos campos manualmente en otros lugares. + Si está utilizando [registros y trazas conectados][1], habilite la inyección automática de registros si es compatible con su Datadog SDK. Luego, el Datadog SDK inyecta automáticamente `env`, `service` y `version` en sus registros, eliminando así la configuración manual para esos campos en otros lugares. [1]: /es/tracing/other_telemetry/connect_logs_and_traces/ {{% /tab %}} - {{% tab "RUM y Session Replay" %}} + {{% tab "RUM y Reproducción de sesión" %}} -Si utilizas [RUM y trazas conectados][1], especifica la aplicación de navegador en el campo `service` , define el entorno en el campo `env` y enumera las versiones en el campo `version` de tu archivo de inicialización. + Si está utilizando [RUM y trazas conectados][1], especifique la aplicación del navegador en el campo `service`, defina el entorno en el campo `env` y enumere las versiones en el campo `version` de su archivo de inicialización. - Cuando [crees una aplicación de RUM][2], confirma los nombres de `env` y `service`. + Cuando [cree una aplicación RUM][2], confirme los nombres `env` y `service`. [1]: /es/real_user_monitoring/correlate_with_other_telemetry/apm/ -[2]: /es/real_user_monitoring/browser/setup/ +[2]: /es/real_user_monitoring/application_monitoring/browser/setup/ {{% /tab %}} {{% tab "Synthetics" %}} -Si utilizas [trazas y tests conectados del navegador Synthetic][1], especifica una URL a la que haya que enviar las cabeceras en la sección **APM Integration for Browser Tests** (Integración de APM para tests de navegador) de la [página de configuración de integraciones][2]. + Si está utilizando [pruebas de navegador Synthetics conectadas y trazas][1], especifique una URL para enviar encabezados en la sección **APM Integration for Browser Tests** de la [Integration Settings page][2]. - Puedes utilizar `*` como comodín. Ejemplo: `https://*.datadoghq.com`. + Puede usar `*` para comodines, por ejemplo: `https://*.datadoghq.com`. [1]: /es/synthetics/apm/ [2]: https://app.datadoghq.com/synthetics/settings/integrations {{% /tab %}} - {{% tab "Métricas personalizadas" %}} + {{% tab "Custom Metrics" %}} -Las etiquetas (tags) se añaden solo a modo de anexo en el caso de las [métricas de StatsD personalizadas][1]. Por ejemplo, si tienes dos valores distintos para `env`, las métricas se etiquetan con ambos entornos. No existe ningún orden que haga que una etiqueta reemplace a otra con el mismo nombre. + Las etiquetas se añaden de manera acumulativa para [métricas de StatsD personalizadas][1]. Por ejemplo, si tiene dos valores diferentes para `env`, las métricas se etiquetan con ambos entornos. No hay un orden en el que una etiqueta anule a otra del mismo nombre. -Si tu servicio tiene acceso a `DD_ENV`, `DD_SERVICE` y `DD_VERSION`, el cliente DogStatsD añadirá automáticamente las etiquetas (tags) correspondientes a tus métricas personalizadas. + Si su servicio tiene acceso a `DD_ENV`, `DD_SERVICE` y `DD_VERSION`, entonces el cliente DogStatsD agrega automáticamente las etiquetas correspondientes a sus métricas personalizadas. - **Nota**: Los clientes DogStatsD de Datadog en .NET y PHP no admiten esta funcionalidad. + **Nota**: Los clientes de Datadog DogStatsD para .NET y PHP no soportan esta funcionalidad. [1]: /es/metrics/ {{% /tab %}} - {{% tab "Métricas de sistema" %}} + {{% tab "Métricas del sistema" %}} -Puedes añadir etiquetas (tags) `env` y `service` a las métricas de tu infraestructura. En contextos no contenedorizados, el etiquetado de las métricas de servicios se configura a nivel del Agent. + Puede agregar etiquetas `env` y `service` a sus métricas de infraestructura. En contextos no contenedorizados, la etiquetación para métricas de servicio se configura a nivel del Agente. - Dado que esta configuración no cambia en cada invocación del proceso de un servicio, no recomendamos añadir `version`. + Debido a que esta configuración no cambia con cada invocación del proceso de un servicio, no se recomienda agregar `version`. -#### Un solo servicio por host +#### Un solo servicio por host {#single-service-per-host} -Define la siguiente configuración en el [archivo de configuración principal][1] del Agent: +Establezca la siguiente configuración en el [archivo de configuración principal del Agente][1]: ```yaml env: @@ -470,17 +468,17 @@ tags: - service: ``` -Esta configuración garantiza el etiquetado uniforme de `env` y `service` en todos los datos emitidos por el Agent. +Esta configuración garantiza una etiquetación consistente de `env` y `service` para todos los datos emitidos por el Agente. -#### Varios servicios por host +#### Múltiples servicios por host {#multiple-services-per-host} -Define la siguiente configuración en el [archivo de configuración principal][1] del Agent: +Establezca la siguiente configuración en el [archivo de configuración principal del Agente][1]: ```yaml env: ``` -Para obtener etiquetas (tags) de `service` únicas en las métricas de CPU, de memoria y de E/S de disco a nivel del proceso, deberás configurar un [check del proceso][2] en la carpeta de configuración del Agent (por ejemplo, en la carpeta `conf.d` en `process.d/conf.yaml`): +Para obtener etiquetas `service` únicas en métricas de CPU, memoria y disco I/O a nivel de proceso, configure una [verificación de proceso][2] en la carpeta de configuración del Agente (por ejemplo, en la carpeta `conf.d` bajo `process.d/conf.yaml`): ```yaml init_config: @@ -495,20 +493,20 @@ instances: service: nginx-web-app ``` -**Nota**: Si ya tienes una etiqueta (tag) `service` configurada globalmente en el archivo de configuración principal de tu Agent, las métricas del proceso se etiquetan con dos servicios. Como esto puede resultar confuso para la interpretación de las métricas, se recomienda establecer la etiqueta `service` únicamente en la configuración del check del proceso. +**Nota**: Si ya tiene una etiqueta `service` configurada globalmente en el archivo de configuración principal de su Agente, las métricas del proceso se etiquetan con dos servicios. Dado que esto puede causar confusión al interpretar las métricas, se recomienda configurar la etiqueta `service` solo en la configuración de la verificación de proceso. [1]: /es/agent/configuration/agent-configuration-files [2]: /es/integrations/process {{% /tab %}} {{< /tabs >}} -### Entorno serverless +### Entorno Serverless {#serverless-environment} -Para obtener más información sobre las funciones de AWS Lambda, consulta [cómo conectar tu telemetría de Lambda mediante el uso de etiquetas (tags)][15]. +Para más información sobre funciones de AWS Lambda, consulte [cómo conectar su telemetría de Lambda usando etiquetas][15]. -### OpenTelemetry +### OpenTelemetry {#opentelemetry} -Cuando utilices OpenTelemetry, asigna los siguientes [atributos de recursos][16] a sus correspondientes convenciones de Datadog: +Al usar OpenTelemetry, mapee los siguientes [atributos de recurso][16] a sus convenciones correspondientes de Datadog: | Convención de OpenTelemetry | Convención de Datadog | | --- | --- | @@ -517,15 +515,15 @@ Cuando utilices OpenTelemetry, asigna los siguientes [atributos de recursos][16] | `service.name` | `service` | | `service.version` | `version` | -1: `deployment.environment` queda obsoleto en favor de `deployment.environment.name` en [convenciones semánticas de OpenTelemetry v1.27.0][17]. -2: `deployment.environment.name` es compatible con el Datadog Agent v7.58.0 o posterior y con Datadog Exporter v0.110.0 o posterior. +1: `deployment.environment` está obsoleto en favor de `deployment.environment.name` en [convenciones semánticas de OpenTelemetry v1.27.0][17]. +2: `deployment.environment.name` es compatible con Datadog Agent 7.58.0+ y Datadog Exporter v0.110.0+. -
    Las variables de entorno específicas de Datadog como DD_SERVICE, DD_ENV o DD_VERSION no se admiten predefinidas en la configuración de OpenTelemetry.
    +
    Las variables de entorno específicas de Datadog como DD_SERVICE, DD_ENV o DD_VERSION no son compatibles de forma predeterminada en su configuración de OpenTelemetry.
    {{< tabs >}} -{{% tab "Environment variables" %}} +{{% tab "Variables de entorno" %}} -Para definir atributos de recursos utilizando variables de entorno, configura `OTEL_RESOURCE_ATTRIBUTES` con los valores adecuados: +Para establecer atributos de recursos utilizando variables de entorno, configure `OTEL_RESOURCE_ATTRIBUTES` con los valores apropiados: ```shell export OTEL_RESOURCE_ATTRIBUTES="service.name=my-service,deployment.environment=production,service.version=1.2.3" @@ -535,9 +533,9 @@ export OTEL_RESOURCE_ATTRIBUTES="service.name=my-service,deployment.environment= {{% tab "SDK" %}} -Para definir los atributos de los recursos en el código de tu aplicación, crea un `Resource` con los atributos elegidos y asócialo a tu `TracerProvider`. +Para establecer atributos de recursos en el código de su aplicación, cree un `Resource` con los atributos deseados y asócialo con su `TracerProvider`. -El siguiente es un ejemplo de uso de Python: +Aquí hay un ejemplo usando Python: ```python from opentelemetry.sdk.resources import Resource @@ -553,9 +551,9 @@ tracer_provider = TracerProvider(resource=resource) {{% /tab %}} -{{% tab "Recopilador" %}} +{{% tab "Collector" %}} -Para definir atributos de recursos desde el recopilador OpenTelemetry, utiliza el [procesador de transformación][100] en el archivo de configuración de tu recopilador. El procesador de transformación permite modificar los atributos de los datos de telemetría recopilados antes de enviarlos al exportador de Datadog: +Para establecer atributos de recursos desde el OpenTelemetry Collector, use el [procesador de transformación][100] en su archivo de configuración del Collector. El procesador de transformación le permite modificar los atributos de los datos de telemetría recopilados antes de enviarlos al exportador de Datadog: ```yaml processors: @@ -574,7 +572,7 @@ processors: {{% /tab %}} {{< /tabs >}} -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/glossary/_index.md b/content/es/glossary/_index.md index 4120fd21bb1..c97a5aa53c7 100644 --- a/content/es/glossary/_index.md +++ b/content/es/glossary/_index.md @@ -3,13 +3,12 @@ aliases: - /es/glossary/terms/wall_time/ cascade: disable_toc: true -filter_all: Todas +filter_all: All scrollspy: offset: 5 target: '#glossary-nav' title: Glosario --- - {{< jqmath-vanilla >}} -
    ¡Bienvenido a nuestro glosario! Este glosario se encuentra en progreso y estamos creando una lista completa de términos de manera activa, lo que tomará tiempo. Si tienes comentarios sobre el funcionamiento de este glosario o los términos que te gustaría encontrar, haz clic en Feedback (Comentarios) y háznoslo saber.
    \ No newline at end of file +
    ¡Bienvenido a nuestro Glosario! Este es un trabajo en progreso y estamos construyendo activamente una lista completa de términos, lo cual tomará tiempo. Si tienes comentarios sobre cómo funciona este glosario, o términos que te gustaría ver definidos, por favor haz clic en Feedback y háznoslo saber.
    \ No newline at end of file diff --git a/content/es/infrastructure/_index.md b/content/es/infrastructure/_index.md index 5ed70bba985..cd83dbf7af6 100644 --- a/content/es/infrastructure/_index.md +++ b/content/es/infrastructure/_index.md @@ -15,36 +15,37 @@ cascade: further_reading: - link: https://app.datadoghq.com/release-notes?category=Infrastructure%20Monitoring tag: Notas de la versión - text: ¡Echa un vistazo a las últimas versiones de la Monitorización de la infraestructura - de Datadog! (Es necesario iniciar sesión en la aplicación) + text: ¡Consulta las últimas versiones de Datadog Infrastructure Monitoring! (Se + requiere inicio de sesión en la aplicación). - link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participa en una sesión interactiva para potenciar la monitorización de tu - infraestructura -title: Infraestructura + tag: Habilitación de Fundación + text: Únete a una sesión interactiva para potenciar tu Infrastructure Monitoring +- link: https://learn.datadoghq.com/courses/getting-started-infra-cnm + tag: Centro de Aprendizaje + text: Introducción a Infrastructure Monitoring y Cloud Network Monitoring (CNM) +title: Infrastructure --- - -{{< learning-center-callout header="Únete a una sesión de Enablement" hide_image="true" btn_title="Inscríbite" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Infrastructure+Monitoring">}} - Explora y regístrate para las sesiones de Foundation Enablement. Obtén información sobre cómo la monitorización de infraestructura basada en SaaS de Datadog ofrece métricas, visualizaciones y alertas para asegurar que tus equipos de ingeniería puedan mantener y optimizar tus entornos híbridos o en la nube. +{{< learning-center-callout header="Únete a una sesión de seminario web de habilitación" hide_image="true" btn_title="Regístrate" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Infrastructure+Monitoring">}} + Explora y regístrate para las sesiones de Habilitación de Fundación. Aprende cómo el Infrastructure Monitoring basado en SaaS de Datadog proporciona métricas, visualizaciones y alertas para asegurar que tus equipos de ingeniería puedan mantener y optimizar tus entornos en la nube o híbridos. {{< /learning-center-callout >}} -## Información general +## Resumen {#overview} -{{< img src="infrastructure/Hostmap-compressed.mp4" alt="Vídeo del mapa de hosts filtrado por hosts de Nginx" video="true">}} +{{< img src="infrastructure/Hostmap-compressed.mp4" alt="Video del mapa de servidores filtrado a los servidores de Nginx" video="true">}} -La monitorización de la infraestructura incluye funciones básicas de Datadog que visualizan, monitorizan y miden el rendimiento de tus hosts, contenedores y procesos. +El Infrastructure Monitoring incluye características centrales de Datadog que visualizan, monitorean y miden el rendimiento de tus servidores, Containers y procesos. -## Componentes +## Componentes {#components} -{{< whatsnext desc="En esta sección se incluyen los siguientes temas:">}} - {{< nextlink href="/infrastructure/list" >}}Lista de infraestructuras: consulta una lista de todos tus hosts que monitoriza Datadog.{{< /nextlink >}} - {{< nextlink href="/infrastructure/hostmap" >}}Mapas de hosts y contenedores: visualiza tus hosts en una sola pantalla con agrupaciones, métricas y filtros personalizados que se destacan a través de distintos colores y formas.{{< /nextlink >}} - {{< nextlink href="/infrastructure/containers" >}}Vista de contenedores: monitoriza los contenedores de tu entorno con visibilidad en tiempo real.{{< /nextlink >}} - {{< nextlink href="/infrastructure/process" >}}Vista de procesos: monitoriza tus procesos con visibilidad en tiempo real de los elementos más granulares de un despliegue.{{< /nextlink >}} +{{< whatsnext desc="Esta sección incluye los siguientes temas:">}} + {{< nextlink href="/infrastructure/list" >}}Infrastructure List - Consulta una lista de todos tus servidores monitoreados por Datadog.{{< /nextlink >}} + {{< nextlink href="/infrastructure/hostmap" >}}Mapas de servidores y Containers - Visualiza tus servidores juntos en una pantalla con agrupaciones, filtros y métricas personalizadas que se hacen comprensibles por color y forma.{{< /nextlink >}} + {{< nextlink href="/infrastructure/containers" >}}Containers View - Monitorea los Containers en tu entorno con visibilidad en tiempo real.{{< /nextlink >}} + {{< nextlink href="/infrastructure/process" >}}Processes View - Monitorea tus procesos con visibilidad en tiempo real de los elementos más granulares en un despliegue.{{< /nextlink >}} {{< /whatsnext >}} -## Referencias adicionales +##Lectura Adicional{#further-reading} {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/infrastructure/hostmap.md b/content/es/infrastructure/hostmap.md index 83bdfb60989..5231f552496 100644 --- a/content/es/infrastructure/hostmap.md +++ b/content/es/infrastructure/hostmap.md @@ -4,128 +4,60 @@ aliases: - /es/infrastructure/containermap/ - /es/guides/hostmap further_reading: +- link: https://www.datadoghq.com/blog/datadog-host-map + tag: Blog + text: Un nuevo mapa de servidores para infraestructura moderna - link: /infrastructure/livecontainers/ tag: Documentación - text: Obtén visibilidad en tiempo real de todos los contenedores de tu entorno + text: Obtén visibilidad en tiempo real de todos los contenedores en tu entorno - link: /infrastructure/process/ tag: Documentación - text: Comprender lo que sucede en cualquier nivel del sistema -title: Mapas de hosts y contenedores + text: Entiende lo que está sucediendo en cualquier nivel de tu sistema +title: Mapa de servidores --- +El [mapa de servidores][1] de Datadog visualiza tus servidores, pods, contenedores y clústeres, ayudándote a entender y diagnosticar tu infraestructura. -## Información general +{{< img src="infrastructure/hostmap/new-host-map.png" alt="El mapa de servidores muestra los servidores agrupados por Availability Zone y coloreados por uso de CPU. Las celdas hexagonales varían de verde (bajo uso) a naranja-rojo (alto uso). Los grupos incluyen un grupo sin Availability Zone con 395 servidores, otro con eastus con 183 y otro con eastus-1 con 153, además de muchas otras regiones." style="width:100%;" >}} -Los mapas de infraestructuras ([mapas de hosts][4] y [mapas de contenedores][5]) te ayudan a visualizar hosts y contenedores en una pantalla, con métricas que se destacan a través de distintos colores y formas. +## Uso {#usage} -{{< img src="infrastructure/containermap/containermap.png" alt="Un mapa de contenedores que muestra los contenedores como rectángulos agrupados por zona de disponibilidad de AWS." style="width:80%;">}} +{{< img src="infrastructure/hostmap/query-selector.png" alt="El menú desplegable del selector de consultas muestra una lista de consultas sugeridas como '¿Cuál es el uso de CPU en mis servidores?' y '¿Cuántos errores se están registrando en mi infraestructura?', junto con consultas personalizadas guardadas. Un botón de Create y un campo de búsqueda de Filter views están en la parte superior." style="width:60%;" >}} -Utiliza el selector desplegable de la parte superior izquierda para cambiar entre hosts y contenedores. +Utiliza el menú desplegable en la esquina superior izquierda para ver consultas sugeridas, o las consultas personalizadas guardadas escritas por ti o por alguien más en tu organización. Para escribir una consulta personalizada, haz clic en {{< ui >}}Create{{< /ui >}}. -## Instalación +{{< img src="infrastructure/hostmap/draft-query.png" alt="El editor de Draft Query con dos niveles. El objeto padre está configurado como servidor con Rellenar por uso de CPU. El objeto hijo está configurado como pod con Rellenar por Readiness." style="width:100%;" >}} -Después de desplegar el [Agent][6], no se necesita ninguna otra configuración. Para recopilar información del contenedor de Docker en la instalación estándar en lugar de con el [Docker Agent][7], el usuario `dd-agent` debe contar con permisos para acceder a `docker.sock`. El permiso se puede otorgar al añadir `dd-agent` al grupo `docker`. +- {{< ui >}}Parent/Child Object{{< /ui >}}: Selecciona recursos ({{< ui >}}Host{{< /ui >}}, {{< ui >}}Pod{{< /ui >}}, {{< ui >}}Container{{< /ui >}}, {{< ui >}}Cluster{{< /ui >}}) para ver. Los objetos padre e hijo tienen relaciones jerárquicas. +- {{< ui >}}Fill by{{< /ui >}}: Por defecto, el color de cada objeto representa el uso de CPU, donde el color varía de verde (0% utilizado) a naranja (100% utilizado). Utiliza el menú desplegable {{< ui >}}Fill by{{< /ui >}} para colorear tus objetos según diversas métricas o señales, como memoria o registros de errores. +- {{< ui >}}Size by{{< /ui >}}: Si no especificas un objeto hijo, puedes usar el selector {{< ui >}}Size by{{< /ui >}} para dimensionar cada objeto según una métrica o señal. + {{< img src="infrastructure/hostmap/size-by.png" alt="El editor de consultas del mapa de servidores con el objeto padre configurado como servidor, Rellenar por configurado como uso de CPU y Tamaño por configurado como registros de errores. El mapa a continuación muestra 1.61k servidores como hexágonos de distintos tamaños y colores, con un tooltip en un servidor que muestra un uso promedio de CPU del 88%." style="width:85%;" >}} +- {{< ui >}}Group by{{< /ui >}}: Organiza espacialmente tus objetos en grupos. Puedes usar múltiples agrupaciones. Por ejemplo, si agrupas por `tags.availability-zone` `tags.instance-type`, tus objetos se organizan primero por Availability Zone y luego se subdividen por tipo de instancia. -## Uso + {{< img src="infrastructure/hostmap/group-by.png" alt="El mapa de servidores agrupado por las etiquetas tags.availability-zone y tags.instance-type. Los servidores se organizan primero en secciones de Availability Zone, como us-east-1a y us-east-1b, y luego se subdividen por tipo de instancia, como m5a.2xlarge y t2.micro. Las celdas se colorean según el uso de CPU de verde a naranja-rojo." style="width:85%;" >}} +- {{< ui >}}Filter{{< /ui >}}: Limita el mapa de servidores a un subconjunto específico de tu infraestructura. Por ejemplo, puedes filtrar por `production` para ver solo tus recursos de producción. La entrada {{< ui >}}Filter{{< /ui >}} admite operadores lógicos (`AND`, `NOT`, `OR`) y comodines (`*`). Por ejemplo: `(tags.availability-zone:ap* OR tags.availability-zone:eu*) NOT tags.agent_version:5.3*`. -### Filtro +## Casos de uso {#use-cases} -Utiliza la casilla de entrada **Filter** (Filtro) para limitar un mapa de infraestructuras a un subconjunto específico de una infraestructura. La barra de entrada de filtro de la parte superior izquierda permite filtrar el mapa de infraestructuras por etiquetas (tags), así como por los atributos que proporciona Datadog. +### Solucionar el rendimiento degradado del servidor {#troubleshoot-degraded-server-performance} -Si la barra de entrada de filtro está vacía, el mapa muestra todos los hosts/contenedores que informan la métrica seleccionada a Datadog. +Identifica si los problemas de rendimiento provienen de servidores sobrecargados, pods no saludables, reinicios de contenedores o cuellos de botella a nivel de clúster. Verifica `kubernetes_state.pod.status:unready` o `system.cpu.user > 80` y utiliza visualizaciones jerárquicas para aislar la causa raíz. -Por ejemplo, si etiquetas tus hosts por el entorno en el que se encuentran, puedes filtrar por «producción» para eliminar del mapa los hosts de tu entorno de prueba y otros entornos. Si deseas eliminar todos los roles de host excepto uno en producción, también añade ese rol al filtro; los filtros se combinan con `AND`. +### Identifica los puntos críticos de costo {#identify-cost-hotspots} +Identifica los clústeres, nodos o cargas de trabajo que contribuyen desproporcionadamente al gasto en la nube consultando etiquetas como `tags.kube_node_instance_type`, `tags.cloud_provider` o etiquetas de asignación personalizadas. Combina esto con señales de CPU y memoria de contenedores/servidores para detectar subaprovisionamiento o sobreaprovisionamiento. -**Nota**: Existe una distinción entre filtrar por `tag:value` y `"tag:value"`. El filtrado por `tag:value` coincide estrictamente con la etiqueta, mientras que el filtrado por `"tag:value"` realiza una búsqueda en ese texto. +### Gestión del Datadog Agent a nivel de flota {#fleet-wide-datadog-agent-management} -### Grupo +Encuentra servidores o contenedores que ejecuten versiones desactualizadas del Datadog Agent utilizando consultas como `tags.agent_version < 7.50`. Luego, agrupa por Availability Zone, clúster o servicio para impulsar la planificación de despliegues. -Utiliza la casilla de entrada **Group** (Grupo) para organizar de manera espacial tus hosts/contenedores en grupos. Cualquier host/contenedor en un grupo comparte la etiqueta, o etiquetas, por el que se agrupa. +### Monitorea los despliegues de Kubernetes o las migraciones de infraestructura {#monitor-kubernetes-rollouts-or-infrastructure-migrations}. -Por ejemplo, puedes agrupar tus hosts por zona de disponibilidad de AWS. Si añades una segunda etiqueta de agrupación, como tipo de instancia, los hosts se subdividen en grupos: primero por zona de disponibilidad y luego por tipo de instancia, como se muestra a continuación. +Visualiza la distribución y salud de los pods, nodos y clústeres durante un despliegue o migración. Visualiza tus clústeres, anidados con pods, y observa los cambios en tiempo real para detectar regresiones. -{{< img src="infrastructure/hostmap/hostmappart2image2.png" alt="Un mapa de hosts donde los hosts (representados por hexágonos) se dividen en dos grupos, por zona de disponibilidad. Dentro de cada grupo de zonas de disponibilidad, los hosts se subdividen por tipo de instancia." >}} +### Verifica la higiene de etiquetado y metadatos {#verify-tagging-and-metadata-hygiene}. -### Relleno y tamaño +Utiliza operadores lógicos para validar si tus servidores y pods están correctamente etiquetados para propiedad, entorno, región o asignación de costos. Por ejemplo, `tags.env:prod AND NOT (tags.team:*)` para mostrar recursos no asignados o etiquetados incorrectamente. -De manera predeterminada, el color de cada host se establece para representar el porcentaje de uso de la CPU en ese host/contenedor, donde el color va del verde (0 % utilizado) al naranja (100 % utilizado). Puedes seleccionar diferentes métricas desde el selector **Fill** (Relleno). - -Los mapas de infraestructuras también pueden comunicar una métrica opcional adicional con el tamaño del hexágono o rectángulo. Puedes seleccionar esta métrica en el selector **Size** (Tamaño). - -**Nota**: La métrica de utilización de la CPU utiliza la medida más confiable y actualizada de utilización de la CPU, ya sea que la informe el Datadog Agent o directamente AWS o vSphere. - -### Etiquetas (tags) - -Puedes aplicar [etiquetas][1] de forma manual o utilizar [integraciones][2] para aplicarlas de manera automática. Luego, puedes utilizar estas etiquetas para filtrar tus hosts o contenedores. - -Por ejemplo, si algunos de tus hosts se ejecutan en AWS, se encontrarán disponibles las siguientes etiquetas específicas de AWS: - -* `availability-zone` -* `region` -* `image` -* `instance-type` -* `security-group` -* cualquier etiqueta de EC2 que puedas utilizar, como `name` - -El Datadog Agent también recopila metadatos del host e información de la aplicación, algunos de los cuales se pueden utilizar como filtro o para agrupar términos. Esos campos incluyen: - -- `field:metadata_agent_version` -- `field:metadata_platform` -- `field:metadata_processor` -- `field:metadata_machine` -- `field:apps` - -### Ampliar - -Cuando hayas identificado un host o contenedor que desees investigar, haz clic en él para obtener más detalles. Se ampliará y mostrará hasta seis integraciones que informan métricas de ese host. Si hay más de seis integraciones, se enumerarán bajo el encabezado **Apps** (Aplicaciones) en el panel de detalles del host, como se muestra en la siguiente captura de pantalla. - -Haz clic en el nombre de una integración a fin de obtener un dashboard condensado de métricas para esa integración. En la siguiente captura de pantalla, se hizo clic en «system» (sistema) para obtener métricas del sistema, como el uso de la CPU, el uso de la memoria, la latencia del disco, etc. - -{{< img src="infrastructure/hostmap/blog-host-maps-01.png" alt="Una vista de lo que se muestra cuando un usuario hace clic en un host en particular. Se muestra un panel de información en la parte inferior y se enumeran varias aplicaciones, así como secciones para métricas y checks de estado." style="width:75%;" >}} - -### Visualizar hosts en el mapa de hosts que no tienen un Agent instalado - -De forma predeterminada, el mapa de hosts solo muestra los hosts que informan la métrica seleccionada, que luego se puede utilizar a fin de establecer un color o tamaño para el hexágono individual dentro de la cuadrícula. - -### Actualización y significado de los datos - -Los datos del mapa de hosts se actualizan aproximadamente una vez por minuto, a menos que interactúes de manera continua con el mapa. La parte inferior izquierda de la pantalla indica cuándo se actualizaron los datos por última vez. - -## Casos de uso - -### Optimización de recursos - -Si eres usuario de AWS, es posible que utilices varios tipos de instancias. Algunas instancias se encuentran optimizadas para la memoria, otras para la computación, algunas son pequeñas y otras son grandes. - -Si deseas reducir tu gasto en AWS, puedes empezar por averiguar para qué se utilizan las costosas instancias. Primero, agrupa por `instance-type` y, a continuación, por `role` o `name`. Echa un vistazo a tus costosos tipos de instancias, como **c3.8xlarge**. ¿Hay roles de host cuya CPU esté infrautilizada? Si es así, amplía los hosts individuales y observa si se ha necesitado toda esa potencia computacional en los últimos meses, o si este grupo de hosts es un candidato para migrar a un tipo de instancia más barato. - -A continuación se muestra un subconjunto de la infraestructura de Datadog. Como puedes ver, las instancias **c3.2xlarge** se encuentran muy cargadas. - -{{< img src="infrastructure/hostmap/hostmappart1image2.png" alt="La vista de una cantidad de hosts, representados por hexágonos, que se han agrupado por tipo de instancia: m3.large, c3.2xlarge y m1.xlarge. La mayoría de los hosts en m3.large y m1.xlarge son de color verde para indicar una baja utilización de la CPU, pero los hosts en c3.2xlarge son de color naranja, lo que significa una alta utilización de la CPU." style="width:80%;">}} - -Si haces clic en el grupo c3.2xlarge y luego en el subgrupo por rol (como se muestra a continuación), verás que solo algunos de los roles se encuentran cargados, mientras que otros están casi inactivos. Si cambiaras estos siete nodos verdes a un c3.xlarge, ahorrarías casi 13.000 $ al año. (0,21 $ ahorrados por hora por host x 24 horas/día * 365 días/año * 7 hosts = 12.877,20 $/año) - -{{< img src="infrastructure/hostmap/hostmappart1image3.png" alt="El grupo c3.2xlarge que se mostró anteriormente, ahora un subgrupo por rol. Algunos grupos son naranja uniformemente, pero otros son todos verdes." style="width:80%;">}} - -### Ubicación de las zonas de disponibilidad - -Los mapas de hosts te permiten ver las distribuciones de máquinas en cada una de tus zonas de disponibilidad (AZ). Filtra los hosts que te interesen, agrúpalos por AZ y podrás ver de inmediato si es necesario reequilibrar los recursos. - -En el ejemplo que se muestra a continuación, hay una distribución desigual de hosts con `role:daniels` en las zonas de disponibilidad. (Daniels es el nombre de una aplicación interna). - -{{< img src="infrastructure/hostmap/hostmappart1image4.png" alt="Mapa de hosts filtrado por role:daniels y agrupado por zona de disponibilidad. Se muestran tres grupos de hosts." style="width:80%;" >}} - -### Investigación del problema - -Imagina que tienes un problema en la producción. Es posible que las CPUs de algunos de tus hosts se encuentren vinculadas, lo que genera tiempos de respuesta prolongados. Los mapas de hosts pueden ayudarte a ver rápidamente si hay algo diferente entre los hosts cargados y no cargados. Puedes agrupar de manera rápida por dimensiones que te gustaría investigar y determinar de forma visual si los servidores problemáticos pertenecen a un grupo determinado. -Por ejemplo, puedes agrupar por AZ, región, tipo de instancia, imagen o cualquier etiqueta que utilices en el sistema. - -En la siguiente captura de pantalla, algunos hosts tienen mucha menos memoria utilizable que otros, a pesar de ser parte del mismo clúster. La agrupación por imagen de máquina revela que había dos imágenes diferentes en uso y una de ellas está sobrecargada. - -{{< img src="infrastructure/hostmap/hostmappart1image5.png" alt="Mapas de hosts de Datadog con dos bandas de uso de memoria" style="width:80%;" >}} - -{{< img src="infrastructure/hostmap/hostmappart1image6.png" alt="Mapas de hosts de Datadog con dos grupos de imágenes" style="width:80%;">}} - -## Leer más +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/logs/explorer/search_syntax.md b/content/es/logs/explorer/search_syntax.md index ea0792f0192..8d904259697 100644 --- a/content/es/logs/explorer/search_syntax.md +++ b/content/es/logs/explorer/search_syntax.md @@ -2,144 +2,154 @@ aliases: - /es/logs/search-syntax - /es/logs/search_syntax/ -description: Busca a través de todos tus logs. +description: Busca en todos tus registros. further_reading: - link: /getting_started/search/ tag: Documentación text: Introducción a la búsqueda en Datadog - link: /logs/explorer/#visualize tag: Documentación - text: Aprende a visualizar logs + text: Aprende a visualizar registros - link: /logs/explorer/#patterns tag: Documentación - text: Detecta patrones en tus logs + text: Detecta patrones dentro de tus registros - link: /logs/log_configuration/processors tag: Documentación - text: Aprender a procesar tus logs + text: Aprende a procesar tus registros - link: /logs/explorer/saved_views/ tag: Documentación - text: Más información sobre las vistas guardadas + text: Aprende sobre Saved Views - link: /logs/explorer/calculated_fields/formulas tag: Documentación - text: Más información sobre fórmulas de campos calculados -title: Sintaxis de búsqueda de logs + text: Aprende más sobre Fórmulas de Campos Calculados +- link: https://learn.datadoghq.com/courses/log-explorer + tag: Centro de Aprendizaje + text: Introducción a Log Explorer +title: Sintaxis de Búsqueda de Registros --- - -## Información general +## Resumen {#overview} Un filtro de consulta se compone de términos y operadores. -Existen dos tipos de términos: +Hay dos tipos de términos: * Un **término único** es una sola palabra como `test` o `hello`. -* Una **secuencia** es un grupo de palabras rodeadas de comillas dobles, como `"hello dolly"`. +* Una **secuencia** es un grupo de palabras rodeadas por comillas dobles, como `"hello dolly"`. -Para combinar varios términos en una consulta compleja, puedes utilizar cualquiera de los siguientes operadores booleanos que distinguen entre mayúsculas y minúsculas: +Para combinar múltiples términos en una consulta compleja, puedes usar cualquiera de los siguientes operadores booleanos sensibles a mayúsculas y minúsculas: | | | | |--------------|--------------------------------------------------------------------------------------------------------|------------------------------| | **Operador** | **Descripción** | **Ejemplo** | -| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se añade nada, se toma AND por defecto). | autenticación Y fallo | -| `OR` | **Unión**: cualquiera de los dos términos está en los eventos seleccionados. | autenticación O contraseña | -| `-` | **Exclusión**: el siguiente término NO figura en el evento (se aplica a cada búsqueda de texto sin formato individual). | autenticación Y contraseña | +| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se agrega nada, se toma AND por defecto) | autenticación AND fallo | +| `OR` | **Unión**: cualquiera de los términos está contenido en los eventos seleccionados | autenticación OR contraseña | +| `-` | **Exclusión**: el siguiente término NO está en el evento (aplica a cada búsqueda de texto sin procesar individual) | autenticación AND -contraseña | -## Búsqueda de texto completo +## Búsqueda de texto completo {#full-text-search} -
    La función de búsqueda de texto completo solo está disponible en Log Management y funciona en las consultas de monitor, dashboard y notebook. La sintaxis de búsqueda de texto completo no puede utilizarse para definir filtros de índice, filtros de archivo, filtros de pipeline de log, filtros de rehidratación ni en Live tail.
    +
    La función de búsqueda de texto completo solo está disponible en Log Management y funciona en consultas de monitor, Dashboards y notebook. La sintaxis de búsqueda de texto completo no se puede utilizar para definir filtros de índice, filtros de archivo, filtros de canalización, filtros de rehidratación, o en Live Tail.
    -Utiliza la sintaxis `*:search_term` para realizar una búsqueda de texto completo en todos los atributos de log, incluido el mensaje de log. +Usa la sintaxis `*:search_term` para realizar una búsqueda de texto completo en todos los atributos de registro, incluyendo el mensaje de registro. -### Ejemplo de término único +### Ejemplo de término único {#single-term-example} | Sintaxis de búsqueda | Tipo de búsqueda | Descripción | | ------------- | ----------- | --------------------------------------------------------- | -| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. | -| `hello` | Texto libre | Busca la cadena exacta `hello` solo en los atributos `message`, `@title`, `@error.message` y `@error.stack`. | +| `*:hello` | Texto completo | Busca en todos los atributos de registro la cadena exacta `hello`. | +| `hello` | Texto libre | Busca solo en los atributos `message`, `@title`, `@error.message` y `@error.stack` la cadena exacta `hello`. | -### Ejemplo de término de búsqueda con comodín +### Ejemplo de término de búsqueda con comodín {#search-term-with-wildcard-example} | Sintaxis de búsqueda | Tipo de búsqueda | Descripción | | ------------- | ----------- | ------------------------------------------------------------------------------------------- | -| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. | -| `*:hello*` | Texto completo | Busca en todos los atributos de log las cadenas que empiecen por `hello`. Por ejemplo, `hello_world`. | +| `*:hello` | Texto completo | Busca en todos los atributos de registro la cadena exacta `hello`. | +| `*:hello*` | Texto completo | Busca en todos los atributos de registro cadenas que comienzan con `hello`. Por ejemplo, `hello_world`. | -### Ejemplo de términos múltiples con coincidencia exacta +### Ejemplo de múltiples términos con coincidencia exacta {#multiple-terms-with-exact-match-example} | Sintaxis de búsqueda | Tipo de búsqueda | Descripción | | ------------------- | ----------- |--------------------------------------------------------------------------------------------------- | -| `*:"hello world"` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello world`. | -| `hello world` | Texto libre | Busca sólo en el mensaje de log las palabras `hello` y `world`. Por ejemplo `hello beautiful world`. | - -## Caracteres especiales de escape y espacios +| `*:"hello world"` | Texto completo | Busca en todos los atributos de registro la cadena exacta `hello world`. | +| `hello world` | Texto libre | Busca solo en el mensaje del registro las palabras `hello` y `world`. Por ejemplo `hello beautiful world`. | -Los siguientes caracteres se consideran especiales y deben escaparse con el carácter `\`: `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#` y espacios. -- `/` no se considera un carácter especial y no necesita escape. -- `@` no puede utilizarse en las consultas de búsqueda dentro del Log Explorer porque está reservado para la [búsqueda de atributos](#attributes-search). +## Escapar caracteres especiales y espacios {#escape-special-characters-and-spaces} -No se pueden buscar caracteres especiales en un mensaje de log. Puedes buscar caracteres especiales cuando están dentro de un atributo. +Los siguientes caracteres se consideran especiales y requieren ser escapados con el carácter `\`: `=` `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#`, y espacios. +- `/` no se considera un carácter especial y no necesita ser escapado. +- `@` no se puede usar en consultas de búsqueda dentro de Logs Explorer porque está reservado para [Búsqueda de Atributos](#attributes-search). -Para buscar caracteres especiales, analízalos en un atributo con el [Analizador Grok][1] y busca los logs que contengan ese atributo. +No se puede buscar caracteres especiales en un mensaje de registro. Se pueden buscar caracteres especiales cuando están dentro de un atributo. +Para buscar caracteres especiales, conviértelos en un atributo con el [Grok Parser][1], y busca registros que contengan ese atributo. -## Búsqueda de atributos +## Búsqueda de atributos {#attributes-search} Para buscar en un atributo específico, añade `@` para especificar que estás buscando en un atributo. -Por ejemplo, si el nombre de tu atributo es **url** y quieres filtrar por el valor **url** `www.datadoghq.com`, introduce: +Por ejemplo, si el nombre de tu atributo es **url** y deseas filtrar por el valor de **url** `www.datadoghq.com`, ingresa: ``` @url:www.datadoghq.com ``` +### Atributos reservados {#reserved-attributes} + +[Atributos reservados][8] como `host`, `source`, `status`, `service`, `trace_id` y `message` no requieren el prefijo `@`. Puedes buscar estos atributos directamente: + +``` +service:web-app +status:error +host:i-1234567890abcdef0 +``` **Notas**: -1. **No** es necesario definir una faceta para buscar en los atributos y etiquetas (tags). +1. No es **necesario** definir una faceta para buscar en atributos y etiquetas. -2. Las búsquedas por atributos distinguen entre mayúsculas y minúsculas. Utiliza [búsqueda de texto completo](#full-text-search) para obtener resultados que no distingan entre mayúsculas y minúsculas. Otra opción es utilizar el filtro `lowercase` con tu Analizador Grok mientras haces un análisis para obtener resultados que no distingan entre mayúsculas y minúsculas durante la búsqueda. +2. Las búsquedas de atributos son sensibles a mayúsculas y minúsculas. Usa [búsqueda de texto completo](#full-text-search) para obtener resultados que no distingan entre mayúsculas y minúsculas. Otra opción es usar el `lowercase` filtro con tu Grok Parser mientras realizas el parseo para obtener resultados que no distingan entre mayúsculas y minúsculas durante la búsqueda. -3. La búsqueda de un valor de atributo que contenga caracteres especiales requiere un carácter de escape o comillas dobles. - - Por ejemplo, para un atributo `my_attribute` con el valor `hello:world`, busca utilizando: `@my_attribute:hello\:world` o `@my_attribute:"hello:world"`. - - Para buscar una coincidencia con un único carácter especial o espacio, utiliza el comodín `?`. Por ejemplo, para un atributo `my_attribute` con los valores `hello world`, realiza la búsqueda utilizando: `@my_attribute:hello?world`. +3. Buscar un valor de atributo que contenga caracteres especiales requiere escapar o usar comillas dobles. + - Por ejemplo, para un atributo `my_attribute` con el valor `hello:world`, busca usando: `@my_attribute:hello\:world` o `@my_attribute:"hello:world"`. + - Para coincidir con un solo carácter especial o espacio, usa el `?` Wildcard. Por ejemplo, para un atributo `my_attribute` con el valor `hello world`, busca usando: `@my_attribute:hello?world`. Ejemplos: -| Consulta de búsqueda | Descripción | +| Consulta de búsqueda | Descripción | |----------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `@http.url_details.path:"/api/v1/test"` | Busca todos los logs que coincidan con `/api/v1/test` en el atributo `http.url_details.path`. | -| `@http.url:/api\-v1/*` | Busca todos los logs que contengan un valor en el atributo `http.url` que empiece por `/api-v1/` | -| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | Busca todos los logs que contengan un valor `http.status_code` entre 200 y 299, y que contengan un valor en el atributo `http.url_details.path` que empiece por `/api-v1/` | -| `-@http.status_code:*` | Busca todos los logs que no contengan el atributo `http.status_code` | +| `@http.url_details.path:"/api/v1/test"` | Busca todos los registros que coincidan con `/api/v1/test` en el atributo `http.url_details.path`. | +| `@http.url:/api\-v1/*` | Busca todos los registros que contengan un valor en el atributo `http.url` que comience con `/api-v1/` |. +| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | Busca todos los registros que contengan un valor `http.status_code` entre 200 y 299, y que contengan un valor en el atributo `http.url_details.path` que comience con `/api-v1/` |. +| `-@http.status_code:*` | Busca todos los registros que no contengan el atributo `http.status_code` |. -### Buscar utilizando la notación CIDR -Classless Inter Domain Routing (CIDR) es una notación que permite a los usuarios definir un rango de direcciones IP (también llamadas bloques de CIDR) de forma sucinta. CIDR se utiliza normalmente para definir una red (como una VPC) o una subred (como una subred pública/privada dentro de una VPC). +### Busca utilizando la notación CIDR {#search-using-cidr-notation}. +El Enrutamiento Inter-Dominio Sin Clase (CIDR) es una notación que permite a los usuarios definir un rango de direcciones IP (también llamadas bloques CIDR) de manera concisa. CIDR se utiliza comúnmente para definir una red (como una VPC) o una subred (como una subred pública/privada dentro de una VPC). -Los usuarios pueden utilizar la función `CIDR()` para consultar atributos en logs utilizando la notación CIDR. La función `CIDR()` necesita que se le pase un atributo de log como parámetro por el que filtrar, seguido de uno o varios bloques de CIDR. +Los usuarios pueden utilizar la función `CIDR()` para consultar atributos en registros utilizando la notación CIDR. La función `CIDR()` necesita recibir un atributo de registro como parámetro para filtrar, seguido de uno o múltiples bloques CIDR. -#### Ejemplos -- `CIDR(@network.client.ip,13.0.0.0/8)` coincide y filtra logs que tengan direcciones IP en el campo `network.client.ip` que caen bajo el bloque de CIDR 13.0.0.0/8. -- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` coincide y filtra logs que tengan cualquier dirección IP en un atributo matriz `network.ip.list` que pertenezca a los bloques de CIDR 13.0.0.0/8 o 15.0.0.0/8. -- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` coincidiría y filtraría eventos de rechazo desde el firewall de palo alto que se originan en la subred 13.0.0.0/8 -- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` mostrará todos los logs de VPC que no se originan en la subred 13.0.0.0/8, pero que están designados para la subred de destino 15.0.0.0/8 porque deseas analizar el tráfico de red en tus entornos entre subredes. +#### Ejemplos {#examples} +- `CIDR(@network.client.ip,13.0.0.0/8)` coincide y filtra registros que tienen direcciones IP en el campo `network.client.ip` que caen bajo el bloque CIDR 13.0.0.0/8. +- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` Coincide y filtra registros que tienen cualquier dirección IP en un atributo de arreglo `network.ip.list` que caen bajo los bloques CIDR 13.0.0.0/8 o 15.0.0.0/8. +- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` Coincidiría y filtraría eventos de rechazo del firewall Palo Alto que se originan en la subred 13.0.0.0/8. +- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` mostrará todos los registros de VPC que no se originan en la subred 13.0.0.0/8 pero están designados para la subred de destino 15.0.0.0/8 porque quieres analizar el tráfico de red en tus entornos entre subredes. -La función `CIDR()` es compatible con las notaciones CIDR de IPv4 e IPv6 y funciona en Log Explorer, Live Tail, widgets de log en dashboards, monitores de log y configuraciones de log. +La función `CIDR()` admite tanto las notaciones CIDR de IPv4 como de IPv6 y funciona en Log Explorer, Live Tail, widgets de registro en Dashboards, monitores de registro y configuraciones de registro. -## Comodines +## Wildcards {#wildcards} -Puedes utilizar comodines con la búsqueda de texto libre. Sin embargo, solo busca términos en el mensaje de log, el texto de la columna `content` en Log Explorer. Consulta [búsqueda de texto completo](#full-text-search) si deseas buscar un valor en un atributo de log. +Puedes utilizar Wildcards con búsqueda de texto libre. Sin embargo, solo busca términos en el mensaje del registro, el texto en la columna `content` en Log Explorer. Consulta [Búsqueda de texto completo](#full-text-search) si deseas buscar un valor en un atributo de registro. -### Comodín de varios caracteres +### Wildcard de múltiples caracteres {#multi-character-wildcard} -Para realizar una búsqueda de comodín de varios caracteres en el mensaje de log (la columna `content` en Log Explorer), utiliza el símbolo `*` como se indica a continuación: +Para realizar una búsqueda con Wildcard de múltiples caracteres en el mensaje del registro (la columna `content` en Log Explorer), utiliza el símbolo `*` de la siguiente manera: -* `service:web*` coincide con cada mensaje de log que tenga un servicio que empiece con `web`. -* `web*` coincide con todos los mensajes de log que empiecen con `web`. -* `*web` coincide con todos los mensajes de log que terminan con `web`. +* `service:web*` coincide con cada mensaje de registro que tiene un servicio que comienza con `web`. +* `web*` coincide con todos los mensajes de registro que comienzan con `web`. +* `*web` coincide con todos los mensajes de registro que terminan con `web`. -**Nota**: Los comodines solo funcionan fuera de las comillas dobles. Por ejemplo, `"*test*"` coincide con un log que tenga la cadena `*test*` en su mensaje. `*test*` coincide con un log que tenga el test de cadena en cualquier parte de su mensaje. +**Nota**: Los wildcards solo funcionan como wildcards fuera de comillas dobles. Por ejemplo, `"*test*"` coincide con un registro que tiene la cadena `*test*` en su mensaje. `*test*` coincide con un registro que tiene la cadena test en cualquier parte de su mensaje. -Las búsquedas con comodines funcionan dentro de etiquetas y atributos (con o sin facetas) con esta sintaxis. Esta consulta devuelve todos los servicios que terminan con la cadena `mongo`: +Las búsquedas con Wildcard funcionan dentro de etiquetas y atributos (con o sin facetas) con esta sintaxis. Esta consulta devuelve todos los servicios que terminan con la cadena `mongo`:

    @@ -147,73 +157,86 @@ Las búsquedas con comodines funcionan dentro de etiquetas y atributos (con o si service:*mongo ``` -Las búsquedas con comodines también pueden utilizarse para buscar en el texto sin formato de un log que no forme parte de un atributo de log. Por ejemplo, esta consulta devuelve todos los logs con contenido (mensaje) que contengan la cadena `NETWORK`: +Las búsquedas con Wildcard también se pueden usar para buscar en el texto plano de un registro que no es parte de un atributo de registro. Por ejemplo, esta consulta devuelve todos los registros con contenido (mensaje) que contienen la cadena `NETWORK`: ``` *NETWORK* ``` -Sin embargo, este término de búsqueda no devuelve logs que contengan la cadena `NETWORK` si se encuentra en un atributo de log y no forma parte del mensaje de log. +Sin embargo, este término de búsqueda no devuelve registros que contengan la cadena `NETWORK` si está en un atributo de registro y no es parte del mensaje del registro. -### Buscar comodín +### Buscar wildcard {#search-wildcard} -Cuando busques un valor de atributo o etiqueta que contenga caracteres especiales o requiera caracteres de escape o comillas dobles, utiliza el comodín `?` para que coincida con un único carácter especial o espacio. Por ejemplo, para buscar un atributo `my_attribute` con el valor `hello world`: `@my_attribute:hello?world`. +Al buscar un valor de atributo o etiqueta que contenga caracteres especiales o que requiera escape o comillas dobles, utiliza el wildcard `?` para coincidir con un solo carácter especial o espacio. Por ejemplo, para buscar un atributo `my_attribute` con el valor `hello world`: `@my_attribute:hello?world`.

    -## Valores numéricos +## Valores numéricos {#numerical-values} -Para buscar en un atributo numérico, primero [añádelo como faceta][2]. A continuación, puedes utilizar operadores numéricos (`<`,`>`, `<=` o `>=`) para realizar una búsqueda sobre facetas numéricas. -Por ejemplo, recupera todos los logs que tengan un tiempo de respuesta superior a 100ms con: +Para buscar en un atributo numérico, primero agrégalo como faceta. Luego puedes usar operadores numéricos (`<`, `>`, `<=` o `>=`) para realizar una búsqueda en las facetas numéricas. +Por ejemplo, recupera todos los registros que tienen un tiempo de respuesta superior a 100 ms con:

    ``` @http.response_time:>100 ``` -Puedes buscar atributos numéricos dentro de un rango específico. Por ejemplo, recupera todos tus errores 4xx con: +Puedes buscar un atributo numérico dentro de un rango específico. Por ejemplo, recupera todos tus errores 4xx con: ``` @http.status_code:[400 TO 499] ``` -## Etiquetas +## Etiquetas {#tags} -Tus logs heredan las etiquetas de los [hosts][3] y las [integraciones][4] que las generan. Pueden utilizarse para buscar y también como facetas: +Tus registros heredan etiquetas de [hosts][3] y [integrations][4] que las generan. Pueden ser utilizadas en la búsqueda y también como facetas: * `test` está buscando la cadena "test". -* `env:(prod OR test)` coincide con todos los logs con la etiqueta `env:prod` o la etiqueta `env:test` -* `(env:prod AND -version:beta)` coincide con todos los logs que contengan la etiqueta `env:prod` y que no contengan la etiqueta `version:beta` +* `env:(prod OR test)` coincide con todos los registros con la etiqueta `env:prod` o la etiqueta `env:test` +* `(env:prod AND -version:beta)` coincide con todos los registros que contienen la etiqueta `env:prod` y que no contienen la etiqueta `version:beta` -Si tus etiquetas no siguen las [prácticas recomendadas de etiqueta][5] y no utilizan la sintaxis `key:value`, utiliza esta consulta de búsqueda: +Si tus etiquetas no siguen [las mejores prácticas de etiquetas][5] y no utilizan la sintaxis `key:value`, usa esta consulta de búsqueda: * `tags:` -## Matrices +## Arreglos {#arrays} -En el ejemplo siguiente, al hacer clic en el valor `Peter` de la faceta, se devuelven todos los logs que contiene un atributo `users.names`, cuyo valor es `Peter` o una matriz que contiene `Peter`: +En el siguiente ejemplo, al hacer clic en el valor `Peter` en la faceta, se devuelven todos los registros que contienen un atributo `users.names`, cuyo valor es `Peter` o un arreglo que contiene `Peter`: -{{< img src="logs/explorer/search/array_search.png" alt="Matriz y facetas" style="width:80%;">}} +{{< img src="logs/explorer/search/array_search.png" alt="Arreglo y facetas" style="width:80%;">}} -**Nota**: Buscar también puede utilizarse en atributos de matriz sin facetas utilizando una sintaxis equivalente. +**Nota**: La búsqueda también se puede utilizar en atributos de arreglo sin faceta, utilizando una sintaxis equivalente. -En el siguiente ejemplo, los logs de CloudWatch para Windows contienen una matriz de objetos JSON bajo `@Event.EventData.Data`. No se puede crear una faceta sobre una matriz de objetos JSON, pero se puede buscar utilizando la siguiente sintaxis. +En el siguiente ejemplo, los registros de CloudWatch para Windows contienen un arreglo de objetos JSON bajo `@Event.EventData.Data`. No puedes crear una faceta en un arreglo de objetos JSON, pero puedes buscar utilizando la siguiente sintaxis. -* `@Event.EventData.Data.Name:ObjectServer` coincide con todos los logs con la clave `Name` y el valor `ObjectServer`. +* `@Event.EventData.Data.Name:ObjectServer` coincide con todos los registros que tienen la clave `Name` y el valor `ObjectServer`. -{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="Consulta sin facetas en una matriz de objetos JSON" style="width:80%;">}} -

    +{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="Consulta sin facet en un arreglo de objetos JSON" style="width:80%;">}} + +### Búsqueda de arreglo anidado {#nested-array-search} + +Para buscar un campo anidado en un atributo de arreglo, utiliza el prefijo `@` con la ruta completa del atributo. El Explorador de registros coincide con cualquier elemento en el arreglo: + +* `@network.ip.attributes.ip:2a02\:1810*` coincide con todos los registros donde al menos un elemento en el arreglo `network.ip.attributes` tiene un campo `ip` que comienza con `2a02:1810`. + +Para coincidir con registros donde un arreglo contiene múltiples valores específicos, lista los valores entre paréntesis: + +* `@user_perms:(4 6)` coincide con todos los registros donde el arreglo `user_perms` contiene tanto `4` como `6`. + +Para coincidir con registros donde un arreglo contiene cualquier valor dentro de un rango, utiliza una consulta de rango: + +* `@user_perms:[2 TO 6]` coincide con todos los registros donde el arreglo `user_perms` contiene al menos un valor entre `2` y `6`. -## Campos calculados +## Campos calculados {#calculated-fields} -Los campos calculados función como atributos de log y pueden utilizarse para la búsqueda, agregación, visualización y definición de otros campos calculados. Utiliza el prefijo `#` cuando hagas referencia a nombres de campos calculados. +Los campos calculados funcionan como atributos de registro y pueden ser utilizados para búsqueda, agregación, visualización y definición de otros campos calculados. Utiliza el prefijo `#` para referenciar los nombres de los campos calculados. -{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un campo calculado llamado request_duration que se utiliza para filtrar resultados en el Log Explorer" style="width:100%;" >}} +{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un campo calculado llamado request_duration utilizado para filtrar resultados en el Explorador de registros" style="width:100%;" >}} -## Búsquedas guardadas +## Búsquedas guardadas {#saved-searches} -Las [Vistas guardadas][6] contienen tu consulta de búsqueda, columnas, horizonte temporal y faceta. +[Saved Views][6] contienen tu consulta de búsqueda, columnas, horizonte temporal y faceta. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -223,4 +246,5 @@ Las [Vistas guardadas][6] contienen tu consulta de búsqueda, columnas, horizont [4]: /es/integrations/#cat-log-collection [5]: /es/getting_started/tagging/#tags-best-practices [6]: /es/logs/explorer/saved_views/ -[7]: /es/logs/explorer/facets/#facet-panel \ No newline at end of file +[7]: /es/logs/explorer/facets/#facet-panel +[8]: /es/logs/log_configuration/attributes_naming_convention/#reserved-attributes \ No newline at end of file diff --git a/content/es/logs/log_collection/_index.md b/content/es/logs/log_collection/_index.md index 58f04817bd3..0a07860221d 100644 --- a/content/es/logs/log_collection/_index.md +++ b/content/es/logs/log_collection/_index.md @@ -11,7 +11,7 @@ aliases: - /es/logs/faq/how-to-send-logs-to-datadog-via-external-log-shippers - /es/logs/languages - /es/integrations/windows_event_log/ -description: Configura tu entorno para recopilar registros de tu host, contenedores +description: Configura tu entorno para recopilar registros de tu servidor, contenedores y servicios. further_reading: - link: https://www.datadoghq.com/blog/log-file-control-with-logrotate/ @@ -25,34 +25,40 @@ further_reading: text: Descubre cómo procesar tus registros - link: /logs/log_configuration/parsing tag: Documentación - text: Aprende más sobre el análisis + text: Aprende más sobre el parseo. - link: /logs/live_tail/ tag: Documentación - text: Funcionalidad de cola en vivo de Datadog + text: Funcionalidad de seguimiento de las últimas líneas en vivo de Datadog. - link: /logs/explorer/ tag: Documentación text: Ve cómo explorar tus registros - link: /logs/logging_without_limits/ tag: Documentación text: Registro Sin Límites* +- link: https://learn.datadoghq.com/courses/advanced-log-configuration + tag: Centro de Aprendizaje + text: Configuración Avanzada de Registros +- link: https://learn.datadoghq.com/courses/log-config-docker + tag: Centro de Aprendizaje + text: Configura la recopilación de registros para una aplicación en contenedor. title: Recopilación de Registros e Integraciones --- ## Resumen {#overview} Elige una opción de configuración a continuación para comenzar a ingerir tus registros. Si ya estás utilizando un demonio de envío de registros, consulta la documentación dedicada para [Rsyslog][1], [Syslog-ng][2], [NXlog][3], [FluentD][4] o [Logstash][5]. -Consulta la [lista de puntos finales de recopilación de registros de Datadog disponibles](#logging-endpoints) si deseas enviar tus registros directamente a Datadog. +Consulta la [lista de puntos de conexión de recopilación de registros de Datadog disponibles](#logging-endpoints) si deseas enviar tus registros directamente a Datadog. -**Nota**: Al enviar registros en formato JSON a Datadog, hay un conjunto de atributos reservados que tienen un significado específico dentro de Datadog. Consulta la sección de [Atributos Reservados](#attributes-and-tags) para aprender más. +**Nota**: Al enviar registros en formato JSON a Datadog, hay un conjunto de atributos reservados que tienen un significado específico dentro de Datadog. Consulta la [sección de Atributos Reservados](#attributes-and-tags) para aprender más. ## Configuración {#setup} {{< tabs >}} -{{% tab "Host" %}} +{{% tab "Servidor" %}} -1. Instala el [Agente de Datadog][1]. -2. Para habilitar la recolección de registros, cambie `logs_enabled: false` a `logs_enabled: true` en el archivo de configuración principal de su Agente (`datadog.yaml`). Consulte la [documentación de recolección de registros del Agente Host][5] para obtener más información y ejemplos. -3. Una vez habilitado, el Agente de Datadog puede configurarse para [seguir archivos de registro o escuchar registros enviados a través de UDP/TCP][2], [filtrar registros o eliminar datos sensibles][3], y [agregar registros de varias líneas][4]. +1. Instale el [Agente de Datadog][1]. +2. Para habilitar la recolección de registros, cambie `logs_enabled: false` a `logs_enabled: true` en el archivo de configuración principal de su Agente (`datadog.yaml`). Consulte la [documentación de recolección de registros del Agente de servidor][5] para más información y ejemplos. +3. Una vez habilitado, el Agente de Datadog puede configurarse para [realizar el seguimiento de las últimas líneas de los archivos de registro o escuchar los registros enviados por UDP/TCP][2], [filtrar registros o eliminar datos sensibles][3], y [agrupar registros de varias líneas][4]. [1]: https://app.datadoghq.com/account/settings/agent/latest [2]: /es/agent/logs/#custom-log-collection @@ -63,8 +69,8 @@ Consulta la [lista de puntos finales de recopilación de registros de Datadog di {{% tab "Aplicación" %}} -1. Instala el [Agente de Datadog][1]. -2. Para habilitar la recolección de registros, cambie `logs_enabled: false` a `logs_enabled: true` en el archivo de configuración principal de su Agente (`datadog.yaml`). Consulte la [documentación de recolección de registros del Agente Host][2] para obtener más información y ejemplos. +1. Instale el [Agente de Datadog][1]. +2. Para habilitar la recolección de registros, cambie `logs_enabled: false` a `logs_enabled: true` en el archivo de configuración principal de su Agente (`datadog.yaml`). Consulte la [documentación de recolección de registros del Agente de servidor][2] para más información y ejemplos. 3. Siga las instrucciones de instalación de su lenguaje de aplicación para configurar un registrador y comenzar a generar registros: {{< partial name="logs/logs-languages.html" >}} @@ -75,19 +81,19 @@ Consulta la [lista de puntos finales de recopilación de registros de Datadog di {{% tab "Contenedor" %}} -Elija un proveedor de contenedor u orquestador y siga sus instrucciones dedicadas de recolección de registros: +Elija un proveedor de contenedores u orquestador y siga sus instrucciones dedicadas de recolección de registros: {{< partial name="logs/logs-containers.html" >}} **Notas**: -- El Agente de Datadog puede [recolectar registros directamente desde stdout/stderr del contenedor][1] sin usar un controlador de registro. Cuando se habilita la verificación de Docker del Agente, los metadatos del contenedor y del orquestador se agregan automáticamente como etiquetas a sus registros. +- El Agente de Datadog puede [recoger registros directamente desde stdout/stderr del contenedor][1] sin usar un controlador de registros. Cuando se habilita la verificación de Docker del Agente, los metadatos del contenedor y del orquestador se añaden automáticamente como etiquetas a tus registros. -- Es posible recolectar registros de todos sus contenedores o [solo un subconjunto filtrado por imagen de contenedor, etiqueta o nombre][2]. +- Es posible recoger registros de todos tus contenedores o [solo un subconjunto filtrado por imagen de contenedor, etiqueta o nombre][2]. -- La autodetección también se puede utilizar para [configurar la recolección de registros directamente en las etiquetas del contenedor][3]. +- Autodiscovery también se puede usar para [configurar la recopilación de registros directamente en las etiquetas del contenedor][3]. -- En entornos de Kubernetes, también puedes aprovechar [la instalación del daemonset][4]. +- En entornos de Kubernetes, también puedes aprovechar [la instalación de daemonset][4]. [1]: /es/agent/docker/log/ [2]: /es/agent/guide/autodiscovery-management/ @@ -95,7 +101,7 @@ Elija un proveedor de contenedor u orquestador y siga sus instrucciones dedicada [4]: /es/agent/basic_agent_usage/kubernetes/#log-collection-setup {{% /tab %}} -{{% tab "Sin servidor" %}} +{{% tab "Serverless" %}} Utiliza el Datadog Forwarder, una función de AWS Lambda que envía registros desde tu entorno a Datadog. Para habilitar la recolección de registros en tu entorno sin servidor de AWS, consulta la [documentación del Datadog Forwarder][1]. @@ -104,20 +110,20 @@ Utiliza el Datadog Forwarder, una función de AWS Lambda que envía registros de {{% tab "Nube/Integración" %}} -Selecciona tu proveedor de nube a continuación para ver cómo recolectar automáticamente tus registros y enviarlos a Datadog: +Selecciona tu proveedor de Nube a continuación para ver cómo recoger automáticamente tus registros y enviarlos a Datadog: {{< partial name="logs/logs-cloud.html" >}} -Las integraciones de Datadog y la recolección de registros están vinculadas. Puedes usar el archivo de configuración predeterminado de una integración para habilitar [procesadores][1], [análisis][2] y [facetas][3] en Datadog. Para comenzar la recolección de registros con una integración: +Las integraciones de Datadog y la recolección de registros están vinculadas. Puedes usar el archivo de configuración predeterminado de una integración para habilitar [procesadores][1], [parseo][2] y [facetas][3] en Datadog. Para comenzar la recolección de registros con una integración: 1. Selecciona una integración de la [página de Integraciones][6] y sigue las instrucciones de configuración. 2. Sigue las instrucciones de recolección de registros de la integración. Esta sección cubre cómo descomentar la sección de registros en el archivo `conf.yaml` de esa integración y configurarlo para tu entorno. ## Reduce las tarifas de transferencia de datos {#reduce-data-transfer-fees} -Utiliza [Cloud Network Monitoring][7] de Datadog para identificar las aplicaciones de mayor rendimiento de tu organización. Conéctate a Datadog a través de conexiones privadas soportadas y envía datos a través de una red privada para evitar el internet público y reducir tus tarifas de transferencia de datos. Después de cambiar a enlaces privados, utiliza las herramientas de [Cloud Cost Management][8] de Datadog para verificar el impacto y monitorear la reducción en tus costos en la nube. +Utiliza [Cloud Network Monitoring][7] para identificar las aplicaciones de mayor ancho de banda de tu organización. Conéctate a Datadog a través de conexiones privadas admitidas y envía datos a través de una red privada para evitar el internet público y reducir tus tarifas de transferencia de datos. Después de cambiar a enlaces privados, utiliza las herramientas de [Cloud Cost Management][8] de Datadog para verificar el impacto y monitorear la reducción en tus costos en la nube. -Para más información, consulta [Cómo enviar registros a Datadog mientras reduces las tarifas de transferencia de datos][9]. +Para más información, consulte [Cómo enviar registros a Datadog mientras reduce las tarifas de transferencia de datos][9]. [1]: /es/logs/log_configuration/processors [2]: /es/logs/log_configuration/parsing @@ -132,11 +138,11 @@ Para más información, consulta [Cómo enviar registros a Datadog mientras redu {{% /tab %}} -{{% tab "Verificación de Agente" %}} +{{% tab "Verificación del Agente" %}} -Si está desarrollando una integración personalizada de Agente, puede enviar registros programáticamente desde su verificación de Agente utilizando el método `send_log`. Esto permite que su integración personalizada emita registros junto con métricas, eventos y verificaciones de servicio. +Si está desarrollando una integración personalizada del Agente, puede enviar registros programáticamente desde su verificación del Agente utilizando el método `send_log`. Esto permite que su integración personalizada emita registros junto con métricas, eventos y verificaciones de servicio. -Para aprender cómo enviar registros desde su verificación de Agente personalizada, consulte [Colección de Registros de Integración de Agente][15]. +Para aprender cómo enviar registros desde su verificación personalizada del Agente, consulte [Colección de Registros de Integración del Agente][15]. [15]: /es/logs/log_collection/agent_checks/ {{% /tab %}} @@ -144,67 +150,67 @@ Para aprender cómo enviar registros desde su verificación de Agente personaliz ## Opciones de configuración adicionales {#additional-configuration-options} -### Puntos finales de registro {#logging-endpoints} +### Puntos de conexión para registros {#logging-endpoints} -Datadog proporciona puntos finales de registro tanto para conexiones cifradas por SSL como para conexiones no cifradas. Utilice el punto final cifrado cuando sea posible. El Agente de Datadog utiliza el punto final cifrado para enviar registros a Datadog. Más información está disponible en la [documentación de seguridad de Datadog][6]. +Datadog proporciona puntos de conexión de registro tanto para conexiones cifradas por SSL como para conexiones no cifradas. Utilice el punto de conexión cifrado cuando sea posible. El Agente de Datadog utiliza el punto de conexión cifrado para enviar registros a Datadog. Más información está disponible en la [documentación de seguridad de Datadog][6]. -#### Puntos finales soportados {#supported-endpoints} +#### Puntos de conexión soportados {#supported-endpoints} -Utilice el menú desplegable de selector [sitio][13] en el lado derecho de la página para ver los puntos finales soportados por el sitio de Datadog. +Utilice el menú desplegable del selector de [sitio][13] en el lado derecho de la página para ver los puntos de conexión soportados por el sitio de Datadog. -| Sitio | Tipo | Punto final | Puerto | Descripción | +| Sitio | Tipo | Punto de conexión | Puerto | Descripción | |------|-------|----------|------|-------------| -| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=http_endpoint >}} | 443 | Utilizado por el reenvío personalizado para enviar registros en formato JSON o texto plano a través de HTTPS. Consulte la [documentación de la API HTTP de Registros][16]. | -| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=agent_http_endpoint >}} | 443 | Utilizado por el Agente para enviar registros en formato JSON a través de HTTPS. Consulte la [documentación de colección de Registros del Agente Host][17]. | -| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=lambda_http_endpoint >}} | 443 | Utilizado por funciones Lambda para enviar registros en formato crudo, Syslog o JSON a través de HTTPS. | -| {{< region-param key=dd_datacenter >}} | HTTPS | logs.{{< region-param key=browser_sdk_endpoint_domain >}} | 443 | Utilizado por el SDK del navegador para enviar registros en formato JSON a través de HTTPS. | +| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=http_endpoint >}} | 443 | Utilizado por el reenvío personalizado para enviar registros en formato JSON o texto plano a través de HTTPS. Consulte la [documentación de la API HTTP de registros][16]. | +| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=agent_http_endpoint >}} | 443 | Utilizado por el Agente para enviar registros en formato JSON a través de HTTPS. Consulte la [documentación de recopilación de registros del Agente de servidor][17]. | +| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=lambda_http_endpoint >}} | 443 | Utilizado por funciones Lambda para enviar registros en formato sin procesar, Syslog o JSON a través de HTTPS. | +| {{< region-param key=dd_datacenter >}} | HTTPS | registros.{{< region-param key=browser_sdk_endpoint_domain >}} | 443 | Utilizado por el SDK de navegador para enviar registros en formato JSON a través de HTTPS. | ### Reenvío de registros personalizado {#custom-log-forwarding} -Cualquier proceso personalizado o biblioteca de registro capaz de reenviar registros a través de **HTTP** puede ser utilizado junto con Datadog Logs. +Cualquier proceso personalizado o biblioteca de registro capaz de reenviar registros a través de **HTTP** puede ser utilizado junto con los registros de Datadog. -Puedes enviar registros a la plataforma Datadog a través de HTTP. Consulta la [documentación de la API HTTP de Datadog Logs][15] para comenzar. +Puede enviar registros a la plataforma de Datadog a través de HTTP. Consulte la [documentación de la API HTTP de registros de Datadog][15] para comenzar. **Notas**: -* La API HTTPS admite registros de tamaños de hasta 1MB. Sin embargo, para un rendimiento óptimo, se recomienda que un registro individual no sea mayor a 25K bytes. Si utilizas el Agente de Datadog para el registro, está configurado para dividir un registro a 900kB (900000 bytes). +* La API HTTPS admite registros de tamaños de hasta 1 MB. Sin embargo, para un rendimiento óptimo, se recomienda que un registro individual no sea mayor a 25 K bytes. Si utiliza el Datadog Agent para el registro, está configurado para dividir un registro a 900 kB (900000 bytes). * Un evento de registro no debe tener más de 100 etiquetas, y cada etiqueta no debe exceder 256 caracteres para un máximo de 10 millones de etiquetas únicas por día. -* Un evento de registro convertido a formato JSON debe contener menos de 256 atributos. Cada una de las claves de esos atributos debe tener menos de 50 caracteres, anidados en menos de 20 niveles sucesivos, y su respectivo valor debe ser menor a 1024 caracteres si se promueve como un facet. +* Un evento de registro convertido a formato JSON debe contener menos de 256 atributos. Cada una de las claves de esos atributos debe tener menos de 50 caracteres, estar anidada en menos de 20 niveles sucesivos, y su respectivo valor debe ser menor a 1024 caracteres si se promueve como faceta. * Los eventos de registro pueden ser enviados con un [timestamp][14] que esté hasta 18 horas en el pasado.
    -Vista previa disponible: Puedes enviar registros de los últimos 7 días, en lugar del límite actual de 18 horas. Regístrate para la Vista previa. +Vista previa disponible: Puede enviar registros de los últimos 7 días, en lugar del límite actual de 18 horas. Regístrese para la Vista previa.
    Los eventos de registro que no cumplan con estos límites pueden ser transformados o truncados por el sistema o no indexados si están fuera del rango de tiempo proporcionado. Sin embargo, Datadog intenta preservar la mayor cantidad de datos de usuario posible. -Hay una truncación adicional en los campos que se aplica solo a los registros indexados: el valor se trunca a 75 KiB para el campo de mensaje y 25 KiB para los campos no de mensaje. Datadog todavía almacena el texto completo, y sigue siendo visible en las consultas de lista regulares en el Explorador de Registros. Sin embargo, la versión truncada se mostrará al realizar una consulta agrupada, como al agrupar registros por ese campo truncado o realizar operaciones similares que muestren ese campo específico. +Hay un truncamiento adicional en los campos que se aplica solo a los registros indexados: el valor se trunca a 75 KiB para el campo de mensaje y 25 KiB para los campos que no son de mensaje. Datadog aún almacena el texto completo, y permanece visible en las consultas de lista regulares en el Explorador de Registros. Sin embargo, la versión truncada se mostrará al realizar una consulta agrupada, como cuando se agrupan registros por ese campo truncado o al realizar operaciones similares que muestren ese campo específico. {{% collapse-content title="TCP" level="h3" expanded=false %}} {{% logs-tcp-disclaimer %}} -| Sitio | Tipo | Punto final | Puerto | Descripción | +| Sitio | Tipo | Punto de conexión | Puerto | Descripción | |------|-------------|---------------------------------------------------------------------------|--------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| EE. UU. | TCP | `agent-intake.logs.datadoghq.com` | 10514 | Usado por el Agente para enviar registros sin TLS. -| EE. UU. | TCP y TLS | `agent-intake.logs.datadoghq.com` | 10516 | Usado por el Agente para enviar registros con TLS. -| EE. UU. | TCP y TLS | `intake.logs.datadoghq.com` | 443 | Usado por reenvíos personalizados para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | -| EE. UU. | TCP y TLS | `functions-intake.logs.datadoghq.com` | 443 | Usado por funciones de Azure para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. **Nota**: Este punto final puede ser útil con otros proveedores de nube. | -| EE. UU. | TCP y TLS | `lambda-intake.logs.datadoghq.com` | 443 | Usado por funciones de Lambda para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | -| UE | TCP y TLS | `agent-intake.logs.datadoghq.eu` | 443 | Usado por el Agente para enviar registros en formato protobuf a través de una conexión TCP cifrada con SSL. | -| UE | TCP y TLS | `functions-intake.logs.datadoghq.eu` | 443 | Usado por funciones de Azure para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. **Nota**: Este punto final puede ser útil con otros proveedores de nube. | -| UE | TCP y TLS | `lambda-intake.logs.datadoghq.eu` | 443 | Usado por funciones de Lambda para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | +| EE. UU. | TCP | `agent-intake.logs.datadoghq.com` | 10514 | Usado por el Agent para enviar registros sin TLS. +| EE. UU. | TCP y TLS | `agent-intake.logs.datadoghq.com` | 10516 | Usado por el Agent para enviar registros con TLS. +| EE. UU. | TCP y TLS | `intake.logs.datadoghq.com` | 443 | Usado por reenviadores personalizados para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | +| EE. UU. | TCP y TLS | `functions-intake.logs.datadoghq.com` | 443 | Usado por funciones de Azure para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. **Nota**: Este punto de conexión puede ser útil con otros proveedores de nube. | +| EE. UU. | TCP y TLS | `lambda-intake.logs.datadoghq.com` | 443 | Usado por funciones Lambda para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | +| UE | TCP y TLS | `agent-intake.logs.datadoghq.eu` | 443 | Usado por el Agent para enviar registros en formato protobuf a través de una conexión TCP cifrada con SSL. | +| UE | TCP y TLS | `functions-intake.logs.datadoghq.eu` | 443 | Usado por las funciones de Azure para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. **Nota**: Este punto de conexión puede ser útil con otros proveedores de nube. | +| UE | TCP y TLS | `lambda-intake.logs.datadoghq.eu` | 443 | Usado por las funciones de Lambda para enviar registros en formato sin procesar, Syslog o JSON a través de una conexión TCP cifrada con SSL. | {{% /collapse-content %}} ### Atributos y etiquetas {#attributes-and-tags} -Los atributos prescriben [facetas de registros][9], que se utilizan para filtrar y buscar en el Explorador de Registros. Consulte la documentación dedicada de [atributos y alias][10] para obtener una lista de atributos reservados y estándar, y para aprender cómo soportar una convención de nombres con atributos de registros y alias. +Los atributos prescriben [facetas de registros][9], que se utilizan para filtrar y buscar en el Explorador de Registros. Consulte la documentación dedicada de [atributos y alias][10] para obtener una lista de atributos reservados y atributos estándar y para aprender cómo soportar una convención de nombres con atributos de registros y alias. #### Atributos para trazas de pila {#attributes-for-stack-traces} -Al registrar trazas de pila, hay atributos específicos que tienen una visualización de interfaz de usuario dedicada dentro de su aplicación de Datadog, como el nombre del registrador, el hilo actual, el tipo de error y la traza de pila en sí. +Al registrar trazas de pila, hay atributos específicos que tienen una visualización de interfaz de usuario dedicada dentro de su aplicación Datadog, como el nombre del registrador, el hilo actual, el tipo de error y la traza de pila en sí. {{< img src="logs/log_collection/stack_trace.png" style="width:80%;" alt="Atributos para una traza de pila analizada" >}} @@ -218,13 +224,13 @@ Para habilitar estas funcionalidades, utilice los siguientes nombres de atributo | `error.message` | Mensaje de error contenido en la traza de pila | | `error.kind` | El tipo o "clase" de un error (por ejemplo, "Excepción" o "OSError") | -**Nota**: Por defecto, las tuberías de integración intentan reasignar los parámetros de la biblioteca de registro predeterminada a esos atributos específicos y analizar trazas de pila o traceback para extraer automáticamente el `error.message` y `error.kind`. +**Nota**: Por defecto, las Pipelines de integración intentan reasignar los parámetros de la biblioteca de registros predeterminada a esos atributos específicos y analizar trazas de pila o traceback para extraer automáticamente el `error.message` y `error.kind`. -Para más información, consulte la documentación completa de [atributos de código fuente][11]. +Para más información, consulte la documentación completa de [atributos del código fuente][11]. ## Próximos pasos {#next-steps} -Una vez que los registros son recolectados e ingeridos, están disponibles en **Explorador de Registros**. El Explorador de Registros es donde puede buscar, enriquecer y ver alertas sobre sus registros. Consulte la documentación de [Explorador de Registros][12] para comenzar a analizar sus datos de registro, o vea la documentación adicional de gestión de registros a continuación. +Una vez que se recopilan e ingresan los registros, están disponibles en **Explorador de Registros**. El Explorador de Registros es donde puede buscar, enriquecer y ver alertas sobre sus registros. Consulte la documentación del [Explorador de Registros][12] para comenzar a analizar sus datos de registro, o vea la documentación adicional de gestión de registros a continuación. {{< img src="logs/explore.png" alt="Registros que aparecen en el Explorador de Registros" style="width:100%" >}} diff --git a/content/es/logs/log_configuration/parsing.md b/content/es/logs/log_configuration/parsing.md index 39cc5fff4e7..75333fc528b 100644 --- a/content/es/logs/log_configuration/parsing.md +++ b/content/es/logs/log_configuration/parsing.md @@ -13,36 +13,39 @@ aliases: description: Analiza tus registros utilizando el Procesador Grok further_reading: - link: https://learn.datadoghq.com/courses/log-pipelines - tag: Centro de aprendizaje - text: Aprende a construir y modificar tuberías de registros + tag: Centro de Aprendizaje + text: Aprende a construir y modificar canalizaciones de registros - link: /logs/log_configuration/processors tag: Documentación text: Aprende a procesar tus registros - link: https://www.youtube.com/watch?v=AwW70AUmaaQ&list=PLdh-RwQzDsaM9Sq_fi-yXuzhmE7nOlqLE&index=3 tag: Video - text: 'Consejos y trucos de Datadog: Usa el análisis Grok para extraer campos de + text: 'Consejos y Trucos de Datadog: Usa el análisis Grok para extraer campos de los registros' - link: /logs/faq/how-to-investigate-a-log-parsing-issue/ - tag: FAQ + tag: PREGUNTAS FRECUENTES text: ¿Cómo investigar un problema de análisis de registros? - link: /logs/guide/log-parsing-best-practice/ - tag: FAQ + tag: PREGUNTAS FRECUENTES text: Análisis de Registros - Mejores Prácticas - link: /logs/logging_without_limits/ tag: Documentación text: Controla el volumen de registros indexados por Datadog +- link: https://learn.datadoghq.com/courses/debugging-log-pipelines + tag: Centro de Aprendizaje + text: Depuración de Canalizaciones de Registros title: Análisis --- -{{< learning-center-callout header="Prueba el análisis Grok en el Centro de Aprendizaje" btn_title="Enroll Now" btn_url="https://learn.datadoghq.com/courses/log-pipelines">}} - Aprende a construir y modificar tuberías de registros, gestionarlas con el Escáner de Tuberías y estandarizar los nombres de atributos en los registros procesados para mantener la consistencia. +{{< learning-center-callout header="Prueba el análisis Grok en el Centro de Aprendizaje" btn_title="Inscríbete Ahora" btn_url="https://learn.datadoghq.com/courses/log-pipelines">}} + Aprende a construir y modificar canalizaciones de registros, gestionarlas con el Escáner de Canalizaciones y estandarizar los nombres de atributos en los registros procesados para mantener la consistencia. {{< /learning-center-callout >}} ## Resumen {#overview} Datadog analiza automáticamente los registros en formato JSON. Para otros formatos, Datadog te permite enriquecer tus registros con la ayuda del Analizador Grok. -La sintaxis Grok proporciona una forma más fácil de analizar registros que las expresiones regulares puras. El Analizador Grok te permite extraer atributos de mensajes de texto semiestructurados. +La sintaxis Grok proporciona una forma más fácil de analizar registros que las expresiones regulares puras. El Grok Parser te permite extraer atributos de mensajes de texto semiestructurados. -Grok viene con patrones reutilizables para analizar enteros, direcciones IP, nombres de host, etc. Estos valores deben enviarse al analizador grok como cadenas. +Grok viene con patrones reutilizables para analizar enteros, direcciones IP, nombres de host, etc. Estos valores deben enviarse al grok parser como cadenas. Puedes escribir reglas de análisis con la sintaxis `%{MATCHER:EXTRACT:FILTER}`: @@ -52,7 +55,7 @@ Puedes escribir reglas de análisis con la sintaxis `%{MATCHER:EXTRACT:FILTER}`: * **Filter** (opcional): Un post-procesador de la coincidencia para transformarla. -Ejemplo de un registro clásico no estructurado: +Ejemplo de un registro no estructurado clásico: ```text john connected on 11/08/2017 @@ -75,64 +78,75 @@ Después de procesar, se genera el siguiente registro estructurado: **Nota**: -* Si tienes múltiples reglas de análisis en un solo analizador Grok: - * Solo una puede coincidir con cualquier registro dado. El primero que coincida, de arriba hacia abajo, es el que realiza el análisis. +* Si tienes múltiples reglas de análisis en un solo Grok parser: + * Solo una puede coincidir con cualquier registro dado. La primera que coincida, de arriba hacia abajo, es la que realiza el análisis. * Cada regla puede hacer referencia a reglas de análisis definidas por encima de sí misma en la lista. -* Debes tener nombres de regla únicos dentro del mismo analizador Grok. +* Debes tener nombres de regla únicos dentro del mismo Grok parser. * El nombre de la regla debe contener solo: caracteres alfanuméricos, `_`, y `.`. Debe comenzar con un carácter alfanumérico. * Las propiedades con valores nulos o vacíos no se muestran. * Debes definir tu regla de análisis para que coincida con toda la entrada del registro, ya que cada regla se aplica desde el principio hasta el final del registro. -* Ciertos registros pueden producir grandes espacios en blanco. Usa `\n` y `\s+` para tener en cuenta los saltos de línea y los espacios en blanco. +* Ciertos registros pueden producir grandes espacios en blanco. Utiliza `\n` y `\s+` para tener en cuenta los saltos de línea y los espacios en blanco. -### Coincidente y filtro {#matcher-and-filter} +### Coincididor y filtro {#matcher-and-filter} -
    Las características de análisis de Grok disponibles en tiempo de consulta (en el Explorador de Registros) admiten un subconjunto limitado de coincidencias (datos, entero, noEspacio, número y palabra) y filtros (número y entero).

    -El siguiente conjunto completo de coincidencias y filtros es específico para la funcionalidad de tiempo de ingestión Grok Parser.
    +
    Las características de análisis Grok disponibles en tiempo de consulta (en el Explorador de registros) admiten un subconjunto limitado de coincididores (data, entero, notSpace, número y palabra) y filtros (número y entero).

    +El siguiente conjunto completo de coincididores y filtros es específico para tiempo de ingestión funcionalidad del Analizador Grok.
    -Aquí hay una lista de todos los coincidencias y filtros implementados nativamente por Datadog: +Aquí hay una lista de todos los coincididores y filtros implementados nativamente por Datadog: {{< tabs >}} -{{% tab "Coincidentes" %}} +{{% tab "Coincididores" %}} -`date("pattern"[, "timezoneId"[, "localeId"]])` -: Coincide con una fecha con el patrón especificado y analiza para producir una marca de tiempo Unix. [Vea los ejemplos de coincidencia de fecha](#parsing-dates). +**Coincididores de tiempo de consulta y tiempo de ingestión:** -`regex("pattern")` -: Coincide con una expresión regular. [Verifique los ejemplos de coincidencia de regex](#regex). +Los siguientes coincididores están disponibles tanto para el análisis en tiempo de consulta (Explorador de registros) como para el análisis en tiempo de ingestión (Analizador Grok): + +`word` +: Coincide con una _palabra_, que comienza con un límite de palabra; contiene caracteres de a-z, A-Z, 0-9, incluyendo el `_` (carácter de subrayado); y termina con un límite de palabra. Equivalente a `\b\w+\b` en regex. `notSpace` : Coincide con cualquier cadena hasta el siguiente espacio. +`number` +Coincide con un número decimal de punto flotante y lo analiza como un número de doble precisión. + +`integer` +Coincide con un número entero y lo analiza como un número entero. + +`data` +Coincide con cualquier cadena, incluyendo espacios y saltos de línea. Equivalente a `.*` en regex. Utilice cuando ninguno de los patrones anteriores sea apropiado. + +**Coincididores solo para el tiempo de ingestión:** + +Los siguientes coincididores solo están disponibles para el análisis en tiempo de ingestión con el procesador Grok Parser y no pueden ser utilizados en el Explorador de registros: + +`date("pattern"[, "timezoneId"[, "localeId"]])` +Coincide con una fecha con el patrón especificado y la analiza para producir un timestamp Unix. [Vea los ejemplos de Matcher de fecha](#parsing-dates). + +`regex("pattern")` +Coincide con una expresión regular. [Vea los ejemplos de coincididor de regex](#regex). + `boolean("truePattern", "falsePattern")` -: Coincide y analiza un booleano, definiendo opcionalmente los patrones de verdadero y falso (por defecto es `true` y `false`, ignorando mayúsculas y minúsculas). +Coincide y analiza un Booleano, definiendo opcionalmente los patrones de verdadero y falso (por defecto es `true` y `false`, ignorando mayúsculas y minúsculas). `numberStr` -: Coincide con un número de punto flotante decimal y lo analiza como una cadena. - -`number` -: Coincide con un número de punto flotante decimal y lo analiza como un número de doble precisión. +Coincide con un número decimal de punto flotante y lo analiza como una cadena. `numberExtStr` -: Coincide con un número de punto flotante (con soporte para notación científica) y lo analiza como una cadena. +Coincide con un número de punto flotante (con soporte para notación científica) y lo analiza como una cadena. `numberExt` -: Coincide con un número de punto flotante (con soporte para notación científica) y lo analiza como un número de doble precisión. +Coincide con un número de punto flotante (con soporte para notación científica) y lo analiza como un número de doble precisión. `integerStr` : Coincide con un número entero y lo analiza como una cadena. -`integer` -: Coincide con un número entero y lo analiza como un número entero. - `integerExtStr` : Coincide con un número entero (con soporte para notación científica) y lo analiza como una cadena. `integerExt` : Coincide con un número entero (con soporte para notación científica) y lo analiza como un número entero. -`word` -: Coincide con una _palabra_, que comienza con un límite de palabra; contiene caracteres de a-z, A-Z, 0-9, incluyendo el `_` (carácter de subrayado); y termina con un límite de palabra. Equivalente a `\b\w+\b` en regex. - `doubleQuotedString` : Coincide con una cadena entre comillas dobles. @@ -166,20 +180,25 @@ Aquí hay una lista de todos los coincidencias y filtros implementados nativamen `port` : Coincide con un número de puerto. -`data` -: Coincide con cualquier cadena, incluyendo espacios y saltos de línea. Equivalente a `.*` en regex. Utilice cuando ninguno de los patrones anteriores sea apropiado. - {{% /tab %}} {{% tab "Filtros" %}} +**Filtros de tiempo de consulta y de tiempo de ingestión:** + +Los siguientes filtros están disponibles tanto para el análisis de tiempo de consulta (Explorador de Registros) como para el análisis de tiempo de ingestión (Procesador Grok): + `number` : Analiza una coincidencia como un número de doble precisión. `integer` : Analiza una coincidencia como un número entero. +**Filtros solo de tiempo de ingestión:** + +Los siguientes filtros solo están disponibles para el análisis de tiempo de ingestión con el procesador Grok Parser y no se pueden usar en el Explorador de Registros: + `boolean` -: Analiza las cadenas 'true' y 'false' como booleanos ignorando mayúsculas y minúsculas. +: Analiza cadenas 'true' y 'false' como booleanos ignorando mayúsculas y minúsculas. `nullIf("value")` : Devuelve nulo si la coincidencia es igual al valor proporcionado. @@ -188,69 +207,69 @@ Aquí hay una lista de todos los coincidencias y filtros implementados nativamen : Analiza JSON correctamente formateado. `rubyhash` -: Analiza un hash de Ruby correctamente formateado como `{name => "John", "job" => {"company" => "Big Company", "title" => "CTO"}}`. +: Analiza un hash de Ruby correctamente formateado como `{name => "John", "job" => {"company" => "Big Company", "title" => "CTO"}}` `useragent([decodeuricomponent:true/false])` -: Analiza un agente de usuario y devuelve un objeto JSON que contiene el dispositivo, el sistema operativo y el navegador representado por el agente. [Consulta el procesador de Agentes de Usuario][1]. +: Analiza un agente de usuario y devuelve un objeto JSON que contiene el dispositivo, el sistema operativo y el navegador representado por el agente. [Consulta el procesador Agent][1]. `querystring` -: Extrae todos los pares clave-valor en una cadena de consulta de URL coincidente (por ejemplo, `?productId=superproduct&promotionCode=superpromo`). +Extrae todos los pares clave-valor en una cadena de consulta de URL que coincida (por ejemplo, `?productId=superproduct&promotionCode=superpromo`). `decodeuricomponent` -: Decodifica componentes de URI. Por ejemplo, transforma `%2Fservice%2Ftest` en `/service/test`. +Decodifica componentes de URI. Por ejemplo, transforma `%2Fservice%2Ftest` en `/service/test`. `lowercase` -: Devuelve la cadena en minúsculas. +Devuelve la cadena en minúsculas. `uppercase` -: Devuelve la cadena en mayúsculas. +Devuelve la cadena en mayúsculas. `keyvalue([separatorStr[, characterAllowList[, quotingStr[, delimiter]]]])` -: Extrae el patrón de clave-valor y devuelve un objeto JSON. Consulta los [ejemplos de filtro de clave-valor](#key-value-or-logfmt). +Extrae el patrón de clave-valor y devuelve un objeto JSON. Consulta los [ejemplos de filtro de clave-valor](#key-value-or-logfmt). `xml` -: Analiza XML correctamente formateado. Consulta los [ejemplos de filtro XML](#parsing-xml). +Analiza XML correctamente formateado. Consulta los [ejemplos de filtro XML](#parsing-xml). `csv(headers[, separator[, quotingcharacter]])` : Analiza líneas de CSV o TSV correctamente formateadas. Consulta los [ejemplos de filtro CSV](#parsing-csv). `scale(factor)` -: Multiplica el valor numérico esperado por el factor proporcionado. +Multiplica el valor numérico esperado por el factor proporcionado. `array([[openCloseStr, ] separator][, subRuleOrFilter)` -: Analiza una secuencia de cadenas de tokens y la devuelve como un arreglo. Consulta el [ejemplo de lista a arreglo](#list-to-array). +Analiza una secuencia de cadenas de tokens y la devuelve como un arreglo. Consulta el [ejemplo de lista a arreglo](#list-to-array). `url` -: Analiza una URL y devuelve todos los miembros tokenizados (dominio, parámetros de consulta, puerto, etc.) en un objeto JSON. [Más información sobre cómo analizar URLs][2]. +Analiza una URL y devuelve todos los miembros tokenizados (dominio, parámetros de consulta, puerto, etc.) en un objeto JSON. [Más información sobre cómo analizar URLs][2]. -[1]: /es/logs/log_configuration/processors/#user-agent-parser -[2]: /es/logs/log_configuration/processors/#url-parser +[1]: /es/logs/log_configuration/processors/user_agent_parser/ +[2]: /es/logs/log_configuration/processors/url_parser/ {{% /tab %}} {{< /tabs >}} ## Configuraciones avanzadas {#advanced-settings} -Utiliza la sección **Configuraciones Avanzadas** al final de tu procesador Grok para analizar un atributo específico en lugar del atributo `message` predeterminado, o para definir reglas auxiliares que reutilicen patrones comunes en múltiples reglas de análisis. +Utilice la sección **Configuraciones avanzadas** en la parte inferior de su procesador Grok para parsear un atributo específico en lugar del atributo predeterminado `message`, o para definir reglas auxiliares que reutilicen patrones comunes en múltiples reglas de parseo. -### Analizando un atributo de texto específico {#parsing-a-specific-text-attribute} +### Parseando un atributo de texto específico {#parsing-a-specific-text-attribute} -Utiliza el campo **Extraer de** para aplicar tu procesador Grok a un atributo de texto dado en lugar del atributo `message` predeterminado. +Utilice el campo **Extraer de** para aplicar su procesador Grok a un atributo de texto dado en lugar del atributo predeterminado `message`. -Por ejemplo, considera un registro que contiene un atributo `command.line` que debe ser analizado como un par clave-valor. Extrae de `command.line` para analizar su contenido y crear atributos estructurados a partir de los datos del comando. +Por ejemplo, considere un registro que contenga un atributo `command.line` que debe ser parseado como un par clave-valor. Extraiga de `command.line` para parsear su contenido y crear atributos estructurados a partir de los datos del comando. -{{< img src="/logs/processing/parsing/grok_advanced_settings_extract.png" alt="Configuraciones Avanzadas con ejemplo de atributo command.line extraído" style="width:80%;">}} +{{< img src="/logs/processing/parsing/grok_advanced_settings_extract.png" alt="Configuraciones avanzadas con ejemplo de atributo command.line extraído" style="width:80%;">}} ### Usando reglas auxiliares para reutilizar patrones comunes {#using-helper-rules-to-reuse-common-patterns} -Utiliza el campo **Reglas Auxiliares** para definir tokens para tus reglas de análisis. Las reglas auxiliares te permiten reutilizar patrones comunes de Grok en tus reglas de análisis. Esto es útil cuando tienes varias reglas en el mismo analizador Grok que utilizan los mismos tokens. +Utilice el campo **Reglas Auxiliares** para definir tokens para sus reglas de parseo. Las reglas auxiliares le permiten reutilizar patrones comunes de Grok en sus reglas de parseo. Esto es útil cuando tiene varias reglas en el mismo parser Grok que utilizan los mismos tokens. -Ejemplo de un registro clásico no estructurado: +Ejemplo de un registro no estructurado clásico: ```text john id:12345 connected on 11/08/2017 on server XYZ in production ``` -Utiliza la siguiente regla de análisis: +Utilice la siguiente regla de parseo: ```text MyParsingRule %{user} %{connection} %{server} @@ -266,16 +285,16 @@ server on server %{notSpace:server.name} in %{notSpace:server.env} ## Ejemplos {#examples} -Algunos ejemplos que demuestran cómo usar analizadores: +Algunos ejemplos que demuestran cómo usar parseadores: * [Clave-valor o logfmt](#key-value-or-logfmt) -* [Análisis de fechas](#parsing-dates) -* [Patrones alternos](#alternating-pattern) +* [Parseando fechas](#parsing-dates) +* [Patrones alternantes](#alternating-pattern) * [Atributo opcional](#optional-attribute) * [JSON anidado](#nested-json) -* [Expresiones regulares](#regex) +* [Expresión regular](#regex) * [Listas y arreglos](#list-to-array) -* [Formato Glog](#glog-format) +* [ Formato Glog](#glog-format) * [XML](#parsing-xml) * [CSV](#parsing-csv) @@ -284,11 +303,11 @@ Algunos ejemplos que demuestran cómo usar analizadores: Este es el filtro central de clave-valor: `keyvalue([separatorStr[, characterAllowList[, quotingStr[, delimiter]]]])` donde: * `separatorStr`: define el separador entre claves y valores. Por defecto es `=`. -* `characterAllowList`: define caracteres de valor adicionales no escapados además del valor por defecto `\\w.\\-_@`. Se usa solo para valores no entrecomillados (por ejemplo, `key=@valueStr`). +* `characterAllowList`: define caracteres adicionales de valor no escapados además del valor por defecto `\\w.\\-_@`. Se utiliza solo para valores no entrecomillados (por ejemplo, `key=@valueStr`). * `quotingStr`: define comillas, reemplazando la detección de comillas por defecto: `<>`, `""`, `''`. -* `delimiter`: define el separador entre los diferentes pares de clave-valor (por ejemplo, `|` es el delimitador en `key1=value1|key2=value2`). Por defecto, se establece en ` ` (espacio normal), `,` y `;`. +* `delimiter`: define el separador entre los diferentes pares de clave-valor (por ejemplo, `|` es el delimitador en `key1=value1|key2=value2`). Por defecto es ` ` (espacio normal), `,` y `;`. -Utiliza filtros como **keyvalue** para mapear más fácilmente cadenas a atributos para formatos keyvalue o logfmt: +Utiliza filtros como **keyvalue** para mapear más fácilmente cadenas a atributos para formatos de keyvalue o logfmt: **Registro:** @@ -302,8 +321,8 @@ user=john connect_date=11/08/2017 id=123 action=click rule %{data::keyvalue} ``` -No es necesario especificar el nombre de tus parámetros, ya que ya están contenidos en el registro. -Si agregas un atributo **extract** en tu patrón de regla, verás: +No necesitas especificar el nombre de tus parámetros ya que ya están contenidos en el registro. +Si agregas un atributo **extraer** `my_attribute` en tu patrón de regla, verás: ```json { @@ -315,7 +334,7 @@ Si agregas un atributo **extract** en tu patrón de regla, verás: } ``` -Si `=` no es el separador predeterminado entre tus claves y valores, agrega un parámetro en tu regla de análisis con un separador. +Si `=` no es el separador por defecto entre tu clave y valores, agrega un parámetro en tu regla de parseo con un separador. **Registro:** @@ -329,7 +348,7 @@ user: john connect_date: 11/08/2017 id: 123 action: click rule %{data::keyvalue(": ")} ``` -Si los registros contienen caracteres especiales en un valor de atributo, como `/` en una URL, agrégalo a la lista de permitidos en la regla de análisis: +Si los registros contienen caracteres especiales en un valor de atributo, como `/` en una URL por ejemplo, agrégalo a la lista de permitidos en la regla de parseo: **Registro:** @@ -345,10 +364,10 @@ rule %{data::keyvalue("=","/:")} Otros ejemplos: -| **Cadena cruda** | **Regla de análisis** | **Resultado** | +| **Cadena sin procesar** | **Regla de parseo** | **Resultado** | |:-----------------------------|:------------------------------------------------------|:--------------------------------------| -| key=valueStr | `%{data::keyvalue}` | {"key": "valueStr"} | -| key=\ | `%{data::keyvalue}` | {"key": "valueStr"} | +| clave=valueStr | `%{data::keyvalue}` | {"key": "valueStr"} | +| clave=\ | `%{data::keyvalue}` | {"key": "valueStr"} | | "key"="valueStr" | `%{data::keyvalue}` | {"key": "valueStr"} | | key:valueStr | `%{data::keyvalue(":")}` | {"key": "valueStr"} | | key:"/valueStr" | `%{data::keyvalue(":", "/")}` | {"key": "/valueStr"} | @@ -357,8 +376,8 @@ Otros ejemplos: | key1=value1\|key2=value2 | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | | key1="value1"\|key2="value2" | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | -**Ejemplo de cadena de cita múltiple**: Cuando se definen múltiples cadenas de cita, el comportamiento predeterminado se reemplaza con un carácter de cita definido. -La clave-valor siempre coincide con entradas sin ningún carácter de cita, independientemente de lo que se especifique en `quotingStr`. Cuando se utilizan caracteres de cita, se ignora el `characterAllowList` ya que todo lo que está entre los caracteres de cita se extrae. +**Ejemplo de múltiples cadenas de comillas**: Cuando se definen múltiples cadenas de comillas, el comportamiento predeterminado se reemplaza con un carácter de comillas definido. +La clave-valor siempre coincide con entradas sin ningún carácter de comillas, independientemente de lo que se especifique en `quotingStr`. Cuando se utilizan caracteres de comillas, el `characterAllowList` se ignora ya que todo lo que está entre los caracteres de comillas se extrae. **Registro:** @@ -380,15 +399,15 @@ La clave-valor siempre coincide con entradas sin ningún carácter de cita, inde **Nota**: -* Los valores vacíos (`key=`) o `null` valores (`key=null`) no se muestran en el JSON de salida. -* Si defines un filtro de *clavevalor* en un `data` objeto, y este filtro no coincide, entonces se devuelve un JSON vacío `{}` (por ejemplo, entrada: `key:=valueStr`, regla de análisis: `rule_test %{data::keyvalue("=")}`, salida: `{}`). -* Definir `""` como `quotingStr` mantiene la configuración predeterminada para la cita. +* Los valores vacíos (`key=`) o los valores (`null`) no se muestran en el JSON de salida. +* Si defines un filtro de *clave-valor* en un `data` objeto, y este filtro no coincide, entonces se devuelve un JSON vacío `{}` (por ejemplo, entrada: `key:=valueStr`, regla de parseo: `rule_test %{data::keyvalue("=")}`, salida: `{}`). +* Definir `""` como `quotingStr` mantiene la configuración predeterminada para las comillas. -### Analizando fechas {#parsing-dates} +### Parseando fechas {#parsing-dates} El comparador de fechas transforma tu marca de tiempo en el formato EPOCH (unidad de medida **milisegundo**). -| **Cadena cruda** | **Regla de análisis** | **Resultado** | +| **Cadena sin procesar** | **Regla de parseo** | **Resultado** | |:-------------------------------------|:----------------------------------------------------------|:------------------------| | 14:20:15 | `%{date("HH:mm:ss"):date}` | {"date": 51615000} | | 02:20:15 PM | `%{date("hh:mm:ss a"):date}` | {"date": 51615000} | @@ -400,23 +419,23 @@ El comparador de fechas transforma tu marca de tiempo en el formato EPOCH (unida | 2016-11-29T16:21:36.431+00:00 | `%{date("yyyy-MM-dd'T'HH:mm:ss.SSSZZ"):date}` | {"date": 1480436496431} | | 06/Feb/2009:12:14:14.655 | `%{date("dd/MMM/yyyy:HH:mm:ss.SSS"):date}` | {"date": 1233922454655} | | 2007-08-31 19:22:22.427 ADT | `%{date("yyyy-MM-dd HH:mm:ss.SSS z"):date}` | {"date": 1188598942427} | -| Jue 16 Jun 2016 08:29:031 | `%{date("EEE MMM dd HH:mm:ss yyyy","Europe/Paris"):date}` | {"date": 1466058543000} | -| Jue 16 Jun 2016 08:29:031 | `%{date("EEE MMM dd HH:mm:ss yyyy","UTC+5"):date}` | {"date": 1466047743000} | -| Jue 16 Jun 2016 08:29:031 | `%{date("EEE MMM dd HH:mm:ss yyyy","+3"):date}` | {"date": 1466054943000} | +| Jue Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","Europe/Paris"):date}` | {"date": 1466058543000} | +| Jue Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","UTC+5"):date}` | {"date": 1466047743000} | +| Jue Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","+3"):date}` | {"date": 1466054943000} | -1 Utilice el `timezone` parámetro si realiza sus propias localizaciones y sus marcas de tiempo _no_ están en UTC. -El formato soportado para zonas horarias es: +1 Usa el `timezone` parámetro si realizas tus propias localizaciones y tus marcas de tiempo _no_ están en UTC. +El formato soportado para las zonas horarias es: * `GMT`, `UTC`, `UT` o `Z` -* `+hh:mm`, `-hh:mm`, `+hhmm`, `-hhmm`. El rango máximo soportado es de +18:00 a -18:00 inclusive. -* Zonas horarias que comienzan con `UTC+`, `UTC-`, `GMT+`, `GMT-`, `UT+` o `UT-`. El rango máximo soportado es de +18:00 a -18:00 inclusive. -* IDs de zonas horarias extraídos de la base de datos TZ. Para más información, consulte [nombres de la base de datos TZ][2]. +* `+hh:mm`, `-hh:mm`, `+hhmm`, `-hhmm`. El rango máximo soportado es de +18:00 a -18:00, inclusive. +* Zonas horarias que comienzan con `UTC+`, `UTC-`, `GMT+`, `GMT-`, `UT+` o `UT-`. El rango máximo soportado es de +18:00 a -18:00, inclusive. +* Los identificadores de zona horaria se obtienen de la base de datos TZ. Para más información, consulte [nombres de la base de datos TZ][2]. -**Nota**: Analizar una fecha **no** establece su valor como la fecha oficial del registro. Para esto, utilice el [Remapeador de Fecha de Registro][3] en un Procesador posterior. +**Nota**: El parseo de una fecha **no** establece su valor como la fecha oficial del registro. Para esto, use el [Log Date Remapper][3] en un procesador posterior. ### Patrón alternante {#alternating-pattern} -Si tiene registros con dos formatos posibles que difieren en solo un atributo, establezca una única regla utilizando alternante con `(|)`. Esta regla es equivalente a un OR booleano. +Si tiene registros con dos formatos posibles que difieren en solo un atributo, establezca una única regla usando alternante con `(|)`. Esta regla es equivalente a un OR booleano. **Registro**: @@ -471,7 +490,7 @@ john connected on 11/08/2017 MyParsingRule %{word:user.firstname} (%{integer:user.id} )?connected on %{date("MM/dd/yyyy"):connect_date} ``` -**Nota**: Una regla no coincidirá si incluye un espacio después de la primera palabra en la sección opcional. +**Nota**: Una regla no coincidirá si incluyes un espacio después de la primera palabra en la sección opcional. **Resultado**:
    `(%{integer:user.id} )?` @@ -499,7 +518,7 @@ MyParsingRule %{word:user.firstname} (%{integer:user.id} )?connected on %{date(" ### JSON anidado {#nested-json} -Utilice el filtro `json` para analizar un objeto JSON anidado después de un prefijo de texto sin procesar: +Usa el filtro `json` para parsear un objeto JSON anidado después de un prefijo de texto sin procesar: **Registro**: @@ -553,7 +572,7 @@ MyParsingRule %{regex("[a-z]*"):user.firstname}_%{regex("[a-zA-Z0-9]*"):user.id} ### Lista a arreglo {#list-to-array} -Utilice el filtro `array([[openCloseStr, ] separator][, subRuleOrFilter)` para extraer una lista en un arreglo en un solo atributo. El `subRuleOrFilter` es opcional y acepta estos [filtros][4]. +Usa el filtro `array([[openCloseStr, ] separator][, subRuleOrFilter)` para extraer una lista en un arreglo en un solo atributo. El `subRuleOrFilter` es opcional y acepta estos [filtros][4]. **Registro**: @@ -600,15 +619,15 @@ myParsingRule Users %{data:users:array("{}","-", uppercase)} have been added to ### Formato Glog {#glog-format} -Los componentes de Kubernetes a veces registran en el formato `glog`; este ejemplo es del elemento Kube Scheduler en la Biblioteca de Pipeline. +Los componentes de Kubernetes a veces registran información en el formato `glog`; este ejemplo es del elemento Kube Scheduler en la Biblioteca de canalización. -Línea de registro de ejemplo: +Ejemplo de línea de registro: ```text W0424 11:47:41.605188 1 authorization.go:47] Authorization is disabled ``` -Regla de análisis: +Regla de parseo: ```text kube_scheduler %{regex("\\w"):level}%{date("MMdd HH:mm:ss.SSSSSS"):timestamp}\s+%{number:logger.thread_id} %{notSpace:logger.name}:%{number:logger.lineno}\] %{data:msg} @@ -629,9 +648,9 @@ Y JSON extraído: } ``` -### Análisis de XML {#parsing-xml} +###Parseo de XML{#parsing-xml} -El analizador XML transforma mensajes formateados en XML a JSON. +El analizador XML transforma mensajes en formato XML a JSON. **Registro:** @@ -667,23 +686,23 @@ rule %{data::xml} **Notas**: -* Si el XML contiene etiquetas que tienen tanto un atributo como un valor de cadena entre las dos etiquetas, se genera un atributo `value`. Por ejemplo: `Harry Potter` se convierte en `{"title": {"lang": "en", "value": "Harry Potter" } }` +* Si el XML contiene etiquetas que tienen tanto un atributo como un valor de cadena entre las dos etiquetas, se genera un `value` atributo. Por ejemplo: `Harry Potter` se convierte en `{"title": {"lang": "en", "value": "Harry Potter" } }` * Las etiquetas repetidas se convierten automáticamente en arreglos. Por ejemplo: `Harry PotterEveryday Italian` se convierte en `{ "bookstore": { "book": [ "Harry Potter", "Everyday Italian" ] } }` -### Análisis de CSV {#parsing-csv} +###Parseo de CSV{#parsing-csv} -Utiliza el filtro **CSV** para mapear más fácilmente cadenas a atributos cuando están separadas por un carácter dado (`,` por defecto). +Usa el filtro **CSV** para mapear más fácilmente cadenas a atributos cuando están separadas por un carácter dado (`,` por defecto). El filtro CSV se define como `csv(headers[, separator[, quotingcharacter]])` donde: * `headers`: Define los nombres de las claves separados por `,`. Los nombres de las claves deben comenzar con un carácter alfabético y pueden contener cualquier carácter alfanumérico además de `_`. -* `separator`: Define los separadores utilizados para separar los diferentes valores. Solo se acepta un carácter. Predeterminado: `,`. **Nota**: Utilice `tab` para el `separator` para representar el carácter de tabulación para TSVs. -* `quotingcharacter`: Define el carácter de comillas. Solo se acepta un carácter. Predeterminado: `"` +* `separator`: Define los separadores utilizados para separar los diferentes valores. Solo se acepta un carácter. Por defecto: `,`. **Nota**: Usa `tab` para el `separator` para representar el carácter de tabulación para TSVs. +* `quotingcharacter`: Define el carácter de comillas. Solo se acepta un carácter. Por defecto: `"` **Nota**: * Los valores que contienen un carácter separador deben estar entre comillas. -* Los valores entre comillas que contienen un carácter de comillas deben ser escapados con caracteres de comillas. Por ejemplo, `""` dentro de un valor entre comillas representa `"`. +* Los valores entre comillas que contienen un carácter de comillas deben escaparse usando un carácter de comillas. Por ejemplo, `""` dentro de un valor entre comillas representa `"`. * Si el registro no contiene la misma cantidad de valores que la cantidad de claves en el encabezado, el analizador CSV emparejará los primeros. * Los enteros y los dobles se convierten automáticamente si es posible. @@ -715,7 +734,7 @@ myParsingRule %{data:user:csv("first_name,name,st_nb,st_name,city")} Otros ejemplos: -| **Cadena cruda** | **Regla de análisis** | **Resultado** | +| **Cadena sin procesar** | **Regla de parseo** | **Resultado** | |:-----------------------------|:-------------------------------------------------------------------------|:------------------------------------------------| | `John,Doe` | `%{data::csv("firstname,name")}` | {"firstname": "John", "name":"Doe"} | | `"John ""Da Man""",Doe` | `%{data::csv("firstname,name")}` | {"firstname": "John \"Da Man\"", "name":"Doe"} | @@ -724,11 +743,11 @@ Otros ejemplos: | `value1,value2,value3` | `%{data::csv("key1,key2")}` | {"key1": "value1", "key2":"value2"} | | `value1,value2` | `%{data::csv("key1,key2,key3")}` | {"key1": "value1", "key2":"value2"} | | `value1,,value3` | `%{data::csv("key1,key2,key3")}` | {"key1": "value1", "key3":"value3"} | -| Value1    Value2    Value3 (TSV) | `%{data::csv("key1,key2,key3","tab")}` | {"key1": "value1", "key2": "value2", "key3":"value3"} | +| Valor1    Valor2    Valor3 (TSV) | `%{data::csv("key1,key2,key3","tab")}` | {"key1": "value1", "key2": "value2", "key3":"value3"} | ### Utiliza el comparador de datos para descartar texto innecesario {#use-data-matcher-to-discard-unneeded-text} -Si tienes un registro donde después de haber analizado lo necesario y sabes que el texto después de ese punto es seguro para descartar, puedes usar el comparador de datos para hacerlo. Para el siguiente ejemplo de registro, puedes usar el `data` comparador para descartar el `%` al final. +Si tienes un registro en el que, después de parsear lo necesario y sabiendo que el texto posterior es seguro de descartar, puedes usar el comparador de datos para hacerlo. Para el siguiente ejemplo de registro, puedes usar el `data` comparador para descartar el `%` al final. **Registro**: @@ -753,7 +772,7 @@ MyParsingRule Usage\:\s+%{number:usage}%{data:ignore} ### Caracteres de control ASCII {#ascii-control-characters} -Si tus registros contienen caracteres de control ASCII, se serializan al ser ingeridos. Estos pueden ser manejados escapando explícitamente el valor serializado dentro de tu parser grok. +Si tus registros contienen caracteres de control ASCII, se serializan al ser ingeridos. Estos pueden manejarse escapando explícitamente el valor serializado dentro de tu analizador grok. ## Lectura adicional {#further-reading} @@ -761,5 +780,5 @@ Si tus registros contienen caracteres de control ASCII, se serializan al ser ing [1]: https://github.com/google/re2/wiki/Syntax [2]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones -[3]: /es/logs/log_configuration/processors/#log-date-remapper +[3]: /es/logs/log_configuration/processors/log_date_remapper/ [4]: /es/logs/log_configuration/parsing/?tab=filters&tabs=filters#matcher-and-filter \ No newline at end of file diff --git a/content/es/metrics/advanced-filtering.md b/content/es/metrics/advanced-filtering.md index c1b5b51a99c..540f9ff2ff6 100644 --- a/content/es/metrics/advanced-filtering.md +++ b/content/es/metrics/advanced-filtering.md @@ -1,33 +1,35 @@ --- -description: Filtra tus datos para acotar el contexto de las métricas devueltas. +description: Filtra tus datos para reducir el contexto de las métricas devueltas. further_reading: +- link: /getting_started/search/ + tag: Documentación + text: Introducción a la búsqueda en Datadog - link: /metrics/explorer/ tag: Documentación - text: Explorador de métricas + text: Metrics Explorer - link: /metrics/summary/ tag: Documentación - text: Resumen de métricas + text: Metrics Summary - link: /metrics/distributions/ tag: Documentación text: Distribuciones de métricas - link: /logs/explorer/search_syntax/ tag: Documentación - text: Filtro de búsqueda y sintaxis de búsqueda de logs + text: Filtro de consulta de registros y sintaxis de búsqueda - link: /dashboards/functions/exclusion/ tag: Documentación text: Funciones de exclusión title: Filtrado avanzado --- +## Resumen {#overview} -## Información general - -Al utilizar el Explorador de métricas, los monitores o los dashboards para la consulta de métricas puedes filtrar los datos para acotar el contexto de las series temporales devueltas. Cualquier métrica puede filtrarse por etiqueta (tag) utilizando el campo **desde** a la derecha de la métrica. +Al usar el Metrics Explorer, monitors o tableros para consultar datos de métricas, puedes filtrar los datos para reducir el contexto de las series temporales devueltas. Cualquier métrica puede ser filtrada por etiqueta(s) usando el campo **de** a la derecha de la métrica. -También puedes realizar filtrados avanzados con filtros de valores de etiquetas booleanos o comodines. Para realizar consultas fuera de los datos de métricas como logs, trazas (traces), Network Monitoring, Real User Monitoring, Synthetics o Seguridad, consulta la documentación de configuración [Sintaxis para la búsqueda de logs][1]. +También puedes realizar filtrado avanzado con filtros de valores de etiquetas booleanas o Wildcard. Para consultas fuera de los datos de métricas, como registros, trazas, Network Monitoring, RUM, Synthetics o Security, consulta la documentación de [Sintaxis de búsqueda de registros][1] para la configuración. -## Consultas booleanas filtradas +## Consultas filtradas booleanas {#boolean-filtered-queries} -Se admite la siguiente sintaxis para las consultas de métricas con filtrado booleano: +La siguiente sintaxis es compatible para consultas de métricas filtradas booleanas: - `!` - `,` @@ -37,73 +39,74 @@ Se admite la siguiente sintaxis para las consultas de métricas con filtrado boo - `IN`, `in` - `NOT IN`, `not in` -Cuándo incluir o excluir varias etiquetas: -* Para incluirlas, se emplea la lógica `AND` -* Para excluirlas, se emplea la lógica `OR` +Al incluir o excluir múltiples etiquetas: +* Incluir utiliza la lógica `AND` +* Excluir utiliza la lógica `OR` -Para más información sobre etiquetas, consulta la guía [Empezando con el uso de etiquetas][2]. +Para más información sobre etiquetas, consulte la guía [Introducción al uso de etiquetas][2]. -**Nota:** La sintaxis booleana simbólica (`!`, `,`) no puede utilizarse con operadores de sintaxis funcional (`NOT`, `AND`, `OR`, `IN`, `NOT IN`). La siguiente consulta se considerar _inválida_: +**Nota:** La sintaxis booleana simbólica (`!`, `,`) no se puede usar con operadores de sintaxis funcional (`NOT`, `AND`, `OR`, `IN`, `NOT IN`). La siguiente consulta se considera _inválida_: `avg:mymetric{env:prod AND !region:us-east}` -### Ejemplos de consultas con filtrado booleano +### Ejemplos de consultas filtradas booleanas {#boolean-filtered-query-examples} -Para utilizar los siguientes ejemplos, haz clic en el icono de código `` para ver el editor de consultas en la interfaz de usuario y, a continuación, copia y pega el ejemplo de consulta en el editor de consultas. +Para usar los ejemplos a continuación, haga clic en el ícono de código `` para ver el editor de consultas en la interfaz de usuario, y luego copie y pegue el ejemplo de consulta en el editor de consultas. ``` avg:system.cpu.user{env:staging AND (availability-zone:us-east-1a OR availability-zone:us-east-1c)} by {availability-zone} ``` -{{< img src="metrics/advanced-filtering/graph_editor_code_option.mp4" alt="Haz clic en el icono de código para ver la consulta sin procesar" video=true >}} +{{< img src="metrics/advanced-filtering/graph_editor_code_option.mp4" alt="Haga clic en el ícono de código para ver la consulta en bruto" video=true >}} ``` avg:system.cpu.user{env:shop.ist AND availability-zone IN (us-east-1a, us-east-1b, us-east4-b)} by {availability-zone} ``` -{{< img src="metrics/advanced-filtering/boolean_and_in.png" alt="Ejemplo booleano AND IN" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/boolean_and_in.png" alt="Ejemplo booleano Y EN" style="width:100%;" >}} + ``` avg:system.cpu.user{env:prod AND location NOT IN (atlanta,seattle,las-vegas)} ``` -{{< img src="metrics/advanced-filtering/boolean_not_in.png" alt="Ejemplo booleano NOT IN" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/boolean_not_in.png" alt="Ejemplo booleano NO EN" style="width:100%;" >}} -## Consultas filtradas con comodín +## Consultas filtradas con Wildcard {#wildcard-filtered-queries} -Se admite el filtrado con etiquetas de prefijo, sufijo y comodín de subcadena: +Se admiten filtros de etiquetas con Wildcard de prefijo, sufijo y subcadena: - `pod_name: web-*` - `cluster:*-trace` - `node:*-prod-*` -### Ejemplos de consultas filtradas con comodín +### Ejemplos de consultas filtradas con Wildcard {#wildcard-filtered-query-examples} ``` avg:system.disk.in_use{!device:/dev/loop*} by {device} ``` -{{< img src="metrics/advanced-filtering/wildcard_suffix_example.png" alt="Comodín utilizado como sufijo" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/wildcard_suffix_example.png" alt="Wildcard utilizado como sufijo" style="width:100%;" >}} ``` sum:kubernetes.pods.running{service:*-canary} by {service} ``` -{{< img src="metrics/advanced-filtering/wildcard_prefix_example.png" alt="Comodín utilizado como prefijo" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/wildcard_prefix_example.png" alt="Wildcard utilizado como prefijo" style="width:100%;" >}} ``` avg:system.disk.utilized{region:*east*} by {region} ``` -{{< img src="metrics/advanced-filtering/wildcard_infix.png" alt="Comodín utilizado como infix" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/wildcard_infix.png" alt="Wildcard utilizado como infijo" style="width:100%;" >}} -## Funciones de exclusión +## Funciones de exclusión {#exclusion-functions} -Añade una [función de exclusión][3] a tu consulta para: -- Excluye valores N/A. -- Aplica un valor mínimo o máximo a las métricas que lleguen al umbral. -- Excluye los valores que estén por encima o por debajo de los valores del umbral. +Agrega una [función de exclusión][3] a tu consulta para: +- Excluir valores N/A. +- Aplica un valor mínimo o máximo a las métricas que cumplen con el umbral. +- Excluir valores que están por encima o por debajo de los valores umbral. -Las funciones no eliminan puntos de datos de Datadog, pero sí de tus visualizaciones. +Las funciones no eliminan puntos de datos de Datadog, pero sí eliminan puntos de datos de las visualizaciones. -## Para leer más +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/metrics/types.md b/content/es/metrics/types.md index cf79f448eed..2ed7854e194 100644 --- a/content/es/metrics/types.md +++ b/content/es/metrics/types.md @@ -1,7 +1,7 @@ --- algolia: tags: - - Tipos de métricas + - metric types aliases: - /es/developers/metrics/counts/ - /es/developers/metrics/distributions/ @@ -13,175 +13,179 @@ aliases: - /es/developers/metrics/metrics_type/ - /es/developers/metrics/types/ further_reading: -- link: developers/dogstatsd +- link: extend/dogstatsd tag: Documentación - text: Más información sobre DogStatsD -- link: desarrolladores/bibliotecas + text: Aprende más sobre DogStatsD +- link: /metrics/units tag: Documentación - text: API oficial y creada por la comunidad y bibliotecas cliente de DogStatsD -title: Tipos de métricas + text: Unidades de Métricas +- link: extend/libraries + tag: Documentación + text: Bibliotecas de API y clientes de DogStatsD creadas oficialmente y por la comunidad +title: Tipos de Métricas --- +## Resumen {#overview} -## Información general - -Cada métrica enviada a Datadog debe tener un tipo. El tipo de métrica afecta a la forma en que se muestran los valores de la métrica cuando se consulta, así como a las posibilidades asociadas de creación de gráficas dentro de Datadog utilizando [modificadores][1] y [funciones][2] adicionales. El tipo de métrica se muestra en el panel lateral de detalles de la métrica en la [página Resumen de métricas][3]. +Cada métrica enviada a Datadog debe tener un tipo. El tipo de una métrica afecta cómo se muestran los valores de la métrica al consultarlos, así como las posibilidades de graficado asociadas dentro de Datadog utilizando [modificadores][1] y [funciones][2]. El tipo de una métrica se muestra en el panel lateral de detalles para la métrica dada en la [Metrics Summary page][3]. -**Nota**: Al cambiar el tipo de métrica en este panel lateral de detalles se puede cambiar el comportamiento de la métrica en todas las visualizaciones y monitores existentes, lo que puede llevar a que los datos históricos no tengan sentido. +**Nota**: Cambiar el tipo de métrica en este panel lateral de detalles puede cambiar el comportamiento de la métrica en todas las visualizaciones y monitores existentes, lo que potencialmente puede hacer que los datos históricos sean incomprensibles. -Se aceptan los siguientes tipos de envíos de métricas: +Los siguientes tipos de envío de métricas son aceptados: - [COUNT](?tab=count#metric-types) -- [RATE](?tab=rate#metric-types) +- [TASA](?tab=rate#metric-types) - [GAUGE](?tab=gauge#metric-types) - [SET][4] -- [HISTOGRAM](?tab=histogram#metric-types) -- [DISTRIBUTION](?tab=distribution#metric-types) +- [HISTOGRAMA](?tab=histogram#metric-types) +- [DISTRIBUCIÓN](?tab=distribution#metric-types) -Estos diferentes tipos de envíos de métricas se asignan a cuatro tipos de métricas dentro de la aplicación, que se encuentran en la aplicación web Datadog: +Estos diferentes tipos de envío de métricas se asignan a cuatro tipos de métricas en la aplicación que se encuentran dentro de la aplicación web de Datadog: - COUNT - RATE - GAUGE - DISTRIBUTION -**Nota**: Si envías una métrica a Datadog sin un tipo, el tipo de la métrica aparece como `Not Assigned` en Datadog. El tipo de métrica `Not Assigned` no se puede cambiar a otro tipo dentro de la aplicación hasta que se envíe un tipo inicial de métrica. +**Nota**: Si envías una métrica a Datadog sin un tipo, el tipo de métrica aparece como `Not Assigned` dentro de Datadog. El tipo de métrica `Not Assigned` no puede ser cambiado a otro tipo en la aplicación hasta que se envíe un tipo de métrica inicial. -## Envío comparado con tipo dentro de la aplicación +## Envío vs. tipo en la aplicación {#submission-vs-in-app-type} -Las métricas se envían a Datadog de tres formas principales: +Las métricas se envían a Datadog de tres maneras principales: -- [Check del Agent][5] +- [Verificación del agente][5] - [DogStatsD][6] -- [API HTTP Datadog][7] +- [Datadog's HTTP API][7] -La mayoría de los datos que recibe Datadog son enviados por el Agent, ya sea a través de un check del Agent o DogStatsD. Para estos métodos de envío, el tipo de métrica determina cómo se agregan los múltiples valores recopilados en un Agent en [un intervalo de tiempo de descarga][8]. El Agent combina estos valores en un único valor de métrica representativo para ese intervalo. Este valor combinado se almacena con una única marca de tiempo en Datadog. +La mayoría de los datos que recibe Datadog son enviados por el Agente, ya sea a través de una verificación del Agente o DogStatsD. Para estos métodos de envío, el tipo de una métrica determina cómo se agregan múltiples valores recolectados en un Agent en un intervalo de flush. El Agente combina estos valores en un único valor métrico representativo para ese intervalo. Este valor combinado se almacena con una única marca de tiempo en Datadog. -Los datos enviados directamente a la API Datadog no son agregados por Datadog, a excepción de las métricas de distribución. Los valores brutos enviados a Datadog se almacenan tal cual. +Los datos enviados directamente a la API de Datadog no son agregados por Datadog, con la excepción de las métricas de distribución. Los valores crudos enviados a Datadog se almacenan tal como están. -Para saber cómo se asignan los distintos tipos de envíos de métricas a sus correspondientes tipos dentro de la aplicación, consulta la sección [Tipos de envío y tipos dentro de la aplicación de Datadog](#submission-types-and-datadog-in-app-types). +Lee la sección [Tipos de envío y tipos en la aplicación de Datadog](#submission-types-and-datadog-in-app-types) para aprender cómo se mapean los diferentes tipos de envío de métricas a sus tipos correspondientes en la aplicación. -## Tipos de métricas +## Tipos de métricas {#metric-types} -### Definición +### Definición {#definition} {{< tabs >}} {{% tab "COUNT" %}} -El tipo de envío de métricas COUNT representa el número total de ocurrencias de eventos en un intervalo de tiempo. Un COUNT puede utilizarse para realizar un seguimiento del número total de conexiones realizadas a una base de datos o del número total de solicitudes a un endpoint. Este número de eventos puede acumularse o disminuir con el tiempo y no se incrementa monotónicamente. +El tipo de envío de métrica COUNT representa el número total de ocurrencias de eventos en un intervalo de tiempo. Un COUNT puede usarse para rastrear el número total de conexiones realizadas a una base de datos o el número total de solicitudes a un endpoint. Este número de eventos puede acumularse o disminuir con el tiempo; no es monotonamente creciente. **Nota**: Un COUNT es diferente del tipo de métrica RATE, que representa el número de ocurrencias de eventos normalizadas por segundo dado el intervalo de tiempo definido. {{% /tab %}} {{% tab "RATE" %}} -El tipo de envío de métricas RATE representa el número total de ocurrencias de eventos por segundo en un intervalo de tiempo. Un RATE se puede utilizar para realizar un seguimiento de la frecuencia con la que ocurre algo, como la frecuencia de las conexiones realizadas a una base de datos o el flujo de solicitudes realizadas a un endpoint. +El tipo de envío de métrica RATE representa el número total de ocurrencias de eventos por segundo en un intervalo de tiempo. Un RATE puede usarse para rastrear con qué frecuencia está ocurriendo algo, como la frecuencia de conexiones realizadas a una base de datos o el flujo de solicitudes realizadas a un endpoint. -**Nota**: Un RATE es diferente del tipo de envío de métricas COUNT, que representa el número total de ocurrencias de eventos en el intervalo de tiempo dado. +**Nota**: Una RATE es diferente del tipo de envío de métrica COUNT, que representa el número total de ocurrencias de eventos en el intervalo de tiempo dado. {{% /tab %}} {{% tab "GAUGE" %}} -El tipo de envío de métricas GAUGE representa un snapshot de eventos en un intervalo de tiempo. Este valor representativo de snapshot es el último valor enviado al Agent durante un intervalo de tiempo. Un GAUGE se puede utilizar para tomar una medida de algo que informa continuamente, como el espacio disponible en disco o la memoria utilizada. +El tipo de envío de métrica GAUGE representa una instantánea de eventos en un intervalo de tiempo. Este valor de instantánea representativa es el último valor enviado al Agent durante un intervalo de tiempo. Un GAUGE puede usarse para medir algo que reporta continuamente, como el espacio en disco disponible o la memoria utilizada. {{% /tab %}} -{{% tab "HISTOGRAM" %}} +{{% tab "HISTOGRAMA" %}} -El tipo de envío de métricas HISTOGRAM representa la distribución estadística de un conjunto de valores calculados del lado del Agent en un intervalo de tiempo. El tipo de métrica HISTOGRAM es una extensión del tipo de métrica de temporización StatsD. El Agent agrega los valores que se envían en un intervalo de tiempo definido y produce diferentes métricas que representan el conjunto de valores. +El tipo de envío de métrica HISTOGRAMA representa la distribución estadística de un conjunto de valores calculados del lado del Agent en un intervalo de tiempo. El tipo de métrica HISTOGRAMA de Datadog es una extensión del tipo de métrica de tiempo StatsD. El Agent agrega los valores que se envían en un intervalo de tiempo definido y produce diferentes métricas que representan el conjunto de valores. -Si envías valores `X` para una métrica HISTOGRAM `` en un intervalo de tiempo dado, las siguientes métricas son producidas por el Agent por defecto: +Si envías `X` valores para una métrica HISTOGRAMA `` en un intervalo de tiempo dado, las siguientes métricas son producidas por el Agent por defecto: `.avg` -: Representa la media de los valores `X` en un intervalo de tiempo.
    -**Tipo dentro de la aplicación de Datadog**: GAUGE +: Representa el promedio de esos `X` valores en el intervalo de tiempo.
    +**Tipo en la aplicación de Datadog**: GAUGE `.count` -: Representa el número de valores enviados durante el intervalo, `X`. El Agent envía este número como un RATE por lo que mostraría en el valor `X/interval` en la aplicación.
    -**Tipo dentro de la aplicación de Datadog**: RATE +: Representa el número de valores enviados durante el intervalo, `X`. El Agent envía este número como un RATE, por lo que mostraría en la aplicación el valor de `X/interval`.
    +**Tipo en la aplicación de Datadog**: RATE `.median` -: Representa la mediana de los valores `X` en un intervalo de tiempo.
    -**Tipo dentro de la aplicación de Datadog**: GAUGE +: Representa la mediana de esos `X` valores en el intervalo de tiempo.
    +**Tipo en la aplicación de Datadog**: GAUGE `.95percentile` -: Representa el percentil 95 de esos valores `X` en un intervalo de tiempo.
    -**Tipo dentro de la aplicación de Datadog**: GAUGE +: Representa el percentil 95 de esos `X` valores en el intervalo de tiempo.
    +**Tipo en la aplicación de Datadog**: GAUGE `.max` -: Representa el valor máximo de los valores de `X` enviados durante el intervalo de tiempo.
    -**Tipo dentro de la aplicación de Datadog**: GAUGE +: Representa el valor máximo de esos `X` valores enviados durante el intervalo de tiempo.
    +**Tipo en la aplicación de Datadog**: GAUGE -**Nota**: +**Notas**: -- Configura qué agregaciones quieres enviar a Datadog con el parámetro `histogram_aggregates` en tu [archivo de configuración `datadog.yaml`][1]. Por defecto, sólo se envían a Datadog las agregaciones `max`, `median`, `avg` y `count`. También están disponibles las agregaciones `sum` y `min`. -- Configura qué agregación de percentiles quieres enviar a Datadog con el parámetro `histogram_percentiles` en tu [archivo de configuración `datadog.yaml`][2]. Por defecto, sólo se envía el `95percentile` a Datadog. +- Configura qué agregaciones deseas enviar a Datadog con el parámetro `histogram_aggregates` en tu [`datadog.yaml` archivo de configuración][1]. Por defecto, solo se envían a Datadog las agregaciones `max`, `median`, `avg` y `count`. `sum` y `min` también están disponibles. +- Configura qué agregación de percentil deseas enviar a Datadog con el parámetro `histogram_percentiles` en tu [`datadog.yaml` archivo de configuración][2]. Por defecto, solo se envía el `95percentile` a Datadog. [1]: https://github.com/DataDog/datadog-agent/blob/04d8ae9dd4bc6c7a64a8777e8a38127455ae3886/pkg/config/config_template.yaml#L106-L114 [2]: https://github.com/DataDog/datadog-agent/blob/04d8ae9dd4bc6c7a64a8777e8a38127455ae3886/pkg/config/config_template.yaml#L116-L121 {{% /tab %}} -{{% tab "DISTRIBUTION" %}} +{{% tab "DISTRIBUCIÓN" %}} -El tipo de envío de métricas DISTRIBUTION representa la distribución estadística global de un conjunto de valores calculados en toda tu infraestructura distribuida en un intervalo de tiempo. Una DISTRIBUTION puede utilizarse para instrumentar objetos lógicos, como servicios, independientemente de los hosts subyacentes. +El tipo de envío de métrica de DISTRIBUTION representa la distribución estadística global de un conjunto de valores calculados a través de toda su infraestructura distribuida en un intervalo de tiempo. Un DISTRIBUTION puede ser utilizado para instrumentar objetos lógicos, como servicios, independientemente de los hosts subyacentes. -A diferencia del tipo de métrica HISTOGRAM, que agrega en el Agent durante un intervalo de tiempo determinado, una métrica DISTRIBUTION envía todos los datos brutos a Datadog durante un intervalo de tiempo. La agregación se realiza en el servidor. Dado que la estructura de datos subyacente representa datos brutos, no agregados, las distribuciones ofrecen dos características principales: +A diferencia del tipo de métrica HISTOGRAMA, que agrega en el Agent durante un intervalo de tiempo dado, una métrica de DISTRIBUTION envía todos los datos en bruto durante un intervalo de tiempo a Datadog. Las agregaciones ocurren del lado del servidor. Debido a que la estructura de datos subyacente representa datos en bruto, no agregados, las distribuciones proporcionan dos características principales: -- Cálculo de agregaciones de percentiles -- Personalización del etiquetado +- Cálculo de agregaciones percentiles +- Personalización de etiquetado -Si envías valores `X` para una métrica DISTRIBUTION `` en un intervalo de tiempo determinado, las siguientes agregaciones están disponibles para consultas por defecto: +Si envía `X` valores para una métrica de DISTRIBUTION `` en un intervalo de tiempo dado, las siguientes agregaciones están disponibles para consulta por defecto: `avg:` -: Representa la media de los valores `X` en el intervalo de tiempo.
    -**Tipo dentro de la aplicación Datadog**: GAUGE +: Representa el promedio de esos `X` valores en el intervalo de tiempo.
    +**Tipo en la aplicación de Datadog**: GAUGE `count:` -: Representa el número de puntos enviados en el intervalo de tiempo, `X`. A continuación, el Agent lo envía como COUNT.
    -**Tipo dentro de la aplicación Datadog**: COUNT +: Representa el número de puntos enviados en el intervalo de tiempo, `X`. El Agent luego lo envía como un COUNT.
    +**Tipo en la aplicación de Datadog**: COUNT `max:` -: Representa el valor máximo de los valores de `X` enviados en el intervalo de tiempo.
    -**Tipo dentro de la aplicación Datadog**: GAUGE +Representa el valor máximo de esos `X` valores enviados en el intervalo de tiempo.
    +**Tipo de In-App de Datadog**: GAUGE `min:` -: Representa el valor mínimo de los `X` enviados en el intervalo de tiempo.
    -**Tipo dentro de la aplicación Datadog**: GAUGE +Representa el valor mínimo de esos `X` enviados en el intervalo de tiempo.
    +**Tipo de In-App de Datadog**: GAUGE `sum:` -: Representa la suma de todos los valores de `X` enviados en el intervalo de tiempo.
    -**Tipo dentro de la aplicación Datadog**: COUNT +Representa la suma de todos los `X` valores enviados en el intervalo de tiempo.
    +**Tipo de In-App de Datadog**: COUNT + +**Nota**: Mientras que las diferentes agregaciones de los valores de métricas de distribución son representadas como GAUGE o COUNT en la aplicación, la métrica en sí mantiene el tipo `DISTRIBUTION`. {{% /tab %}} {{< /tabs >}} -### Ejemplo +### Ejemplo {#example} {{< tabs >}} {{% tab "COUNT" %}} -Supongamos que estás enviando una métrica COUNT `notifications.sent`, desde un único host que ejecuta el Datadog Agent. Este host emite los siguientes valores en un intervalo de tiempo de descarga: `[1,1,1,2,2,2,3,3]`. +Supongamos que está enviando una métrica de COUNT, `notifications.sent`, desde un único host que ejecuta el Datadog Agent. Este host emite los siguientes valores en un intervalo de flush: `[1,1,1,2,2,2,3,3]`. -El Agent suma todos los valores recibidos en un intervalo de tiempo. A continuación, envía el número total, en este caso `15`, como el valor de métrica COUNT. +El Agente suma todos los valores recibidos en un intervalo de tiempo. Luego, envía el número total, en este caso `15`, como el valor de la métrica COUNT. {{% /tab %}} {{% tab "RATE" %}} -Supongamos que estás enviando una métrica RATE `queue_messages.rate`, desde un único host que ejecuta el Datadog Agent. Este host emite los siguientes valores en un intervalo de tiempo de descarga: `[1,1,1,2,2,2,3,3]`. +Supongamos que está enviando una métrica de RATE, `queue_messages.rate`, desde un único servidor que ejecuta el Datadog Agent. Este servidor emite los siguientes valores en un intervalo de tiempo de flush: `[1,1,1,2,2,2,3,3]`. -El Agent suma todos los valores recibidos en un intervalo de tiempo. A continuación, envía el número total dividido por el número total de segundos de este intervalo de tiempo. En este caso, si el intervalo de descarga es de 10 segundos, el valor enviado sería `1.5` como el valor de métrica RATE. +El Agente suma todos los valores recibidos en un intervalo de tiempo. Luego, envía el número total dividido por el número total de segundos en este intervalo de tiempo. En este caso, si el intervalo de flush es de 10 segundos, el valor enviado sería `1.5` como el valor de la métrica RATE. {{% /tab %}} {{% tab "GAUGE" %}} -Supongamos que estás enviando una métrica GAUGE `temperature`, desde un único host que ejecuta el Datadog Agent. Este host emite los siguientes valores en un intervalo de tiempo de descarga: `[71,71,71,71,71,71,71.5]`. +Supongamos que está enviando una métrica de GAUGE, `temperature`, desde un único servidor que ejecuta el Datadog Agent. Este servidor emite los siguientes valores en un intervalo de tiempo de flush: `[71,71,71,71,71,71,71.5]`. -El Agent envía el último número reportado, en este caso `71.5`, como el valor de métrica GAUGE. +El Agente envía el último número reportado, en este caso `71.5`, como el valor de la métrica GAUGE. {{% /tab %}} {{% tab "HISTOGRAM" %}} -Por ejemplo, supongamos que estás enviando una métrica HISTOGRAM, `request.response_time.histogram`, desde un servidor web que informa de los valores `[1,1,1,2,2,2,3,3]` en un intervalo de tiempo de descarga. Por defecto, el Agent envía las siguientes métricas a Datadog, que representan la distribución estadística de estos valores en este intervalo de tiempo: +Por ejemplo, supongamos que está enviando una métrica de HISTOGRAM, `request.response_time.histogram`, desde un servidor web que reporta los valores `[1,1,1,2,2,2,3,3]` en un intervalo de tiempo de flush de 10 segundos. Por defecto, el Agente envía las siguientes métricas a Datadog, que representan la distribución estadística de estos valores en este intervalo de tiempo: -| Nombre de la métrica | Valor | Tipo dentro de la aplicación Datadog | +| Nombre de la Métrica | Valor | Tipo en la Aplicación de Datadog | | ---------------------------------------------- | ------ | ------------------- | | `request.response_time.histogram.avg` | `1.88` | GAUGE | | `request.response_time.histogram.count` | `0.8` | RATE | @@ -192,9 +196,9 @@ Por ejemplo, supongamos que estás enviando una métrica HISTOGRAM, `request.res {{% /tab %}} {{% tab "DISTRIBUTION" %}} -Supongamos que estás enviando una métrica DISTRIBUTION, `request.response_time.distribution`, desde dos servidores web: `webserver:web_1` y `webserver:web_2`. Supongamos que en un periodo de descarga determinado, `webserver:web_1` informa la métrica con los valores `[1,1,1,2,2,2,3,3]` y que `webserver:web_2` informa la misma métrica con los valores `[1,1,2]`. Durante este intervalo de tiempo, las cinco agregaciones siguientes representan la distribución estadística global de todos los valores recopilados de ambos servidores web: +Supongamos que estás enviando una métrica de DISTRIBUTION, `request.response_time.distribution`, desde dos servidores web: `webserver:web_1` y `webserver:web_2`. Supongamos que en un intervalo de tiempo de flush dado, `webserver:web_1` reporta la métrica con los valores `[1,1,1,2,2,2,3,3]`, y `webserver:web_2` reporta la misma métrica con los valores `[1,1,2]`. Durante este intervalo de tiempo, las siguientes cinco agregaciones representarán la distribución estadística global de todos los valores recolectados de ambos servidores web: -| Nombre de la métrica | Valor | Tipo dentro de la aplicación Datadog | +| Nombre de la Métrica | Valor | Tipo en la Aplicación de Datadog | | ------------------------------------------ | ------ | ------------------- | | `avg:request.response_time.distribution` | `1.73` | GAUGE | | `count:request.response_time.distribution` | `11` | COUNT | @@ -202,97 +206,99 @@ Supongamos que estás enviando una métrica DISTRIBUTION, `request.response_time | `min:request.response_time.distribution` | `1` | GAUGE | | `sum:request.response_time.distribution` | `19` | COUNT | -#### Cálculo de agregaciones de percentiles +#### Cálculo de agregaciones percentiles {#calculation-of-percentile-aggregations} -Al igual que otros tipos de métricas, como GAUGE or HISTOGRAM, el tipo de métrica DISTRIBUTION dispone de las siguientes agregaciones: `count` `min` , `max`, `sum` y `avg`. Las métricas de distribución se etiquetan inicialmente del mismo modo que las demás métricas (con etiquetas (tags) personalizadas definidas en el código). +Al igual que otros tipos de métricas, como GAUGE o HISTOGRAM, el tipo de métrica DISTRIBUTION tiene las siguientes agregaciones disponibles: `count`, `min`, `max`, `sum`, y `avg`. Las métricas de DISTRIBUTION se etiquetan inicialmente de la misma manera que otras métricas (con etiquetas personalizadas establecidas en el código). -Se pueden añadir agregaciones de percentiles adicionales (`p50`, `p75`, `p90`, `p95`, `p99`) a las métricas de distribución. Si se añadieran agregaciones de percentiles a tu métrica de distribución dentro de la aplicación, las siguientes cinco agregaciones adicionales estarían disponibles para consultas: +Se pueden agregar agregaciones percentiles adicionales (`p50`, `p75`, `p90`, `p95`, `p99`) a las métricas de DISTRIBUTION desde el [panel lateral de detalles de la métrica][2]. Si se agregaran agregaciones percentiles a su métrica de DISTRIBUTION en la aplicación, las siguientes cinco agregaciones adicionales están disponibles para consulta: -| Nombre de la métrica | Valor | Tipo dentro de la aplicación Datadog | +| Nombre de la métrica | Valor | Tipo en la aplicación de Datadog | | ---------------------------------------- | ----- | ------------------- | | `p50:request.response_time.distribution` | `2` | GAUGE | | `p75:request.response_time.distribution` | `2` | GAUGE | | `p90:request.response_time.distribution` | `3` | GAUGE | | `p95:request.response_time.distribution` | `3` | GAUGE | -| `p99:request.response_time.distribution` | `3` | gauge | +| `p99:request.response_time.distribution` | `3` | GAUGE | -Es decir, para una métrica de distribución con agregaciones de percentiles añadidos durante un intervalo de tiempo determinado, están disponibles las 10 agregaciones siguientes: `count`, `sum`, `min`, `max`, `avg`, `p50`, `p75`, `p90`, `p95` y `p99`. +Es decir, para una métrica de DISTRIBUTION con agregaciones percentiles añadidas durante un intervalo de tiempo dado, las siguientes 10 agregaciones están disponibles: `count`, `sum`, `min`, `max`, `avg`, `p50`, `p75`, `p90`, `p95`, y `p99`. -#### Personalización del etiquetado +**Nota**: Mientras que las diferentes agregaciones de los valores de la métrica DISTRIBUTION se _representan_ como GAUGE o COUNT en la aplicación, la métrica en sí mantiene el tipo `DISTRIBUTION`. -Esta funcionalidad te permite controlar el etiquetado de métricas donde la granularidad a nivel de host no es necesaria. Consulta más información sobre [Metrics without LimitsTM][1]. +#### Personalización de etiquetas {#customization-of-tagging} -**Nota**: La exclusión de etiquetas con `!` no se admite con esta función. +Esta funcionalidad le permite controlar la etiquetación para métricas donde la granularidad a nivel de servidor no es necesaria. Aprenda más sobre [Metrics without Limits™][1]. +**Nota**: La exclusión de etiquetas no es compatible con la personalización de etiquetas basada en la lista permitida. No se aceptan etiquetas que comiencen con `!`. [1]: /es/metrics/metrics-without-limits/ +[2]: /es/metrics/summary/#metric-details-sidepanel {{% /tab %}} {{< /tabs >}} -### Envío +### Envío {#submission} {{< tabs >}} {{% tab "COUNT" %}} -Envía tu tipo de métrica COUNT de una de las siguientes fuentes: +Envía tus métricas de tipo COUNT desde una de las siguientes fuentes: -| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipo dentro de la aplicación Datadog | +| Fuente de Envío | Método de Envío (python) | Tipo de Envío | Tipo en la Aplicación de Datadog | | ----------------- | ------------------------------------ | --------------- | ------------------- | -| [Check del Agent][1] | `self.count(...)` | COUNT | COUNT | -| [Check del Agent][2] | `self.monotonic_count(...)` | COUNT | COUNT | +| [Verificación de Agente][1] | `self.count(...)` | COUNT | COUNT | +| [Verificación de Agente][2] | `self.monotonic_count(...)` | COUNT | COUNT | | [API][3] | `api.Metric.send(type="count", ...)` | COUNT | COUNT | | [DogStatsD][4] | `dog.count(...)` | COUNT | RATE | | [DogStatsD][4] | `dog.increment(...)` | COUNT | RATE | | [DogStatsD][4] | `dog.decrement(...)` | COUNT | RATE | -**Nota**: Cuando se envía un tipo de métrica COUNT a través de DogStatsD, la métrica aparece como RATE dentro de la aplicación para asegurar una comparación relevante a través de diferentes Agents. Consecuentemente, los recuentos de StatsD pueden aparecer con un valor decimal en Datadog (ya que están normalizados dentro de un intervalo de tiempo para reportar unidades por segundo). +**Nota**: Al enviar un tipo de métrica COUNT a través de DogStatsD, la métrica aparece como RATE en la aplicación para asegurar una comparación relevante entre diferentes Agentes. Consecuentemente, los conteos de StatsD pueden aparecer con un valor decimal dentro de Datadog (ya que están normalizados sobre un intervalo de tiempo para reportar unidades por segundo). [1]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=count#count [2]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic-count -[3]: /es/api/v1/metrics/#submit-metrics +[3]: /es/api/latest/metrics/#submit-metrics [4]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#count {{% /tab %}} {{% tab "RATE" %}} -Envía tu tipo de métrica RATE de una de las siguientes fuentes: +Envía tus métricas de tipo RATE desde una de las siguientes fuentes: -| Fuente de envío | Método de envío (Python) | Tipo de presentación | Tipo dentro de la aplicación Datadog | +| Fuente de Envío | Método de Envío (python) | Tipo de Envío | Tipo en la Aplicación de Datadog | | ----------------- | ----------------------------------- | --------------- | ------------------- | -| [Check del Agent][1] | `self.rate(...)` | RATE | GAUGE | +| [Verificación de Agente][1] | `self.rate(...)` | RATE | GAUGE | | [API][2] | `api.Metric.send(type="rate", ...)` | RATE | RATE | -**Nota**: Al enviar un tipo de métrica RATE a través de DogStatsD, la métrica aparece como GAUGE dentro de la aplicación para garantizar una comparación pertinente entre diferentes Agents. +**Nota**: Para obtener métricas de RATE a través de DogStatsD, envíe ya sea una métrica de [COUNT][16] o [HISTOGRAM][18]. Los valores de las métricas COUNT y los valores de `.count` son deltas normalizados en el tiempo del valor de la métrica durante el período de vaciado de StatsD. [1]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=rate -[2]: /es/api/v1/metrics/#submit-metrics +[2]: /es/api/latest/metrics/#submit-metrics {{% /tab %}} {{% tab "GAUGE" %}} -Envía tu tipo de métrica GAUGE de una de las siguientes fuentes: +Envía tus métricas de tipo GAUGE desde una de las siguientes fuentes: -| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipo dentro de la aplicación Datadog | +| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipo en la aplicación de Datadog | | ----------------- | ------------------------------------ | --------------- | ------------------- | -| [Check del Agent][1] | `self.gauge(...)` | GAUGE | GAUGE | +| [Verificación de agente][1] | `self.gauge(...)` | GAUGE | GAUGE | | [API][2] | `api.Metric.send(type="gauge", ...)` | GAUGE | GAUGE | | [DogStatsD][3] | `dog.gauge(...)` | GAUGE | GAUGE | [1]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=gauge -[2]: /es/api/v1/metrics/#submit-metrics +[2]: /es/api/latest/metrics/#submit-metrics [3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#gauge {{% /tab %}} {{% tab "HISTOGRAM" %}} -Envía tu tipo de métrica HISTOGRAM de una de las siguientes fuentes: +Envía tus métricas de tipo HISTOGRAM desde una de las siguientes fuentes: -| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos dentro de la aplicación Datadog | +| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos en la aplicación de Datadog | | ----------------- | -------------------------- | --------------- | -------------------- | -| [Check del Agent][1] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | +| [Verificación de agente][1] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | | [DogStatsD][2] | `dog.histogram(...)` | HISTOGRAM | GAUGE, RATE | -Enviar una métrica TIMER al Datadog Agent equivale a enviar un tipo de métrica HISTOGRAM en DogStatsD (no confundir con los temporizadores del StatsD estándar). El [`TIMER` de DogStatsD][3] representa sólo datos de duración. Por ejemplo, el tiempo que tarda en ejecutarse una sección de código o el tiempo que tarda en renderizarse completamente una página. +Enviar una métrica de TIMER al Agente de Datadog es equivalente a enviar un tipo de métrica HISTOGRAM dentro de DogStatsD (no debe confundirse con temporizadores en el StatsD estándar). [DogStatsD `TIMER`][3] representa solo datos de duración. Por ejemplo, la cantidad de tiempo que toma ejecutar una sección de código o cuánto tiempo toma renderizar completamente una página. [1]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=histogram @@ -301,39 +307,45 @@ Enviar una métrica TIMER al Datadog Agent equivale a enviar un tipo de métrica {{% /tab %}} {{% tab "DISTRIBUTION" %}} -Envía tu tipo de métrica DISTRIBUTION de una de las siguientes fuentes: +Envía tus métricas de tipo DISTRIBUTION desde la siguiente fuente: -| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos dentro de la aplicación Datadog | +| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos en la aplicación de Datadog | | ----------------- | -------------------------- | --------------- | -------------------- | | [DogStatsD][1] | `dog.distribution(...)` | DISTRIBUTION | GAUGE, COUNT | +| [API][2] | `api_instance.submit_distribution_points(...)` | DISTRIBUCIÓN | GAUGE, COUNT | +**Nota**: Mientras que las diferentes agregaciones de los valores de la métrica de distribución se _representan_ como gauges o counts en la aplicación, la métrica en sí mantiene el tipo `DISTRIBUTION`. [1]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#distribution +[2]: /es/api/latest/metrics/#submit-distribution-points {{% /tab %}} {{< /tabs >}} -## Tipos de envío y tipos dentro de la aplicación Datadog +## Tipos de envío y tipos en la aplicación de Datadog {#submission-types-and-datadog-in-app-types} -A continuación se muestra un resumen de todas las fuentes y los métodos de envío de métricas disponibles. Esta tabla muestra la correspondencia entre el tipo de envío de métrica correspondiente y los tipos dentro de la aplicación: +A continuación se presenta un resumen de todas las fuentes y métodos de envío de métricas disponibles. Esta tabla muestra la correspondencia entre el tipo de envío de métricas correspondiente y los tipos en la aplicación: -| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos dentro de la aplicación Datadog | +| Fuente de envío | Método de envío (Python) | Tipo de envío | Tipos en la aplicación de Datadog | | ----------------- | ------------------------------------ | --------------- | -------------------- | -| [Check del Agent][9] | `self.count(...)` | COUNT | COUNT | -| [Check del Agent][10] | `self.monotonic_count(...)` | COUNT | COUNT | -| [Check del Agent][11] | `self.gauge(...)` | GAUGE | GAUGE | -| [Check del Agent][12] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | -| [Check del Agent][13] | `self.rate(...)` | RATE | GAUGE | -| [API][7] | `api.Metric.send(type="count", ...)` | COUNT | COUNT | +| [Agent check][9] | `self.count(...)` | CONTADOR | CONTADOR | +| [Agent check][10] | `self.monotonic_count(...)` | CONTADOR | CONTADOR | +| [Agent check][11] | `self.gauge(...)` | GAUGE | GAUGE | +| [Agent check][12] | `self.histogram(...)` | HISTOGRAMA | GAUGE, TASA | +| [Agent check][13] | `self.rate(...)` | TASA | GAUGE | +| [API][7] | `api.Metric.send(type="count", ...)` | CONTADOR | CONTADOR | | [API][7] | `api.Metric.send(type="gauge", ...)` | GAUGE | GAUGE | -| [API][7] | `api.Metric.send(type="rate", ...)` | RATE | RATE | +| [API][7] | `api.Metric.send(type="rate", ...)` | TASA | TASA | | [DogStatsD][14] | `dog.gauge(...)` | GAUGE | GAUGE | -| [DogStatsD][15] | `dog.distribution(...)` | DISTRIBUCIÓN | GAUGE, COUNT | -| [DogStatsD][16] | `dog.count(...)` | COUNT | RATE | -| [DogStatsD][16] | `dog.increment(...)` | COUNT | RATE | -| [DogStatsD][16] | `dog.decrement(...)` | COUNT | RATE | -| [DogStatsD][17] | `dog.set(...)` | SET (Conjunto) | GAUGE | -| [DogStatsD][18] | `dog.histogram(...)` | HISTOGRAM | gaugeTARIFA | -## Lectura adicional +| [DogStatsD][15] | `dog.distribution(...)` | DISTRIBUCIÓN | DISTRIBUCIÓN | +| [DogStatsD][16] | `dog.count(...)` | CONTADOR | TASA | +| [DogStatsD][16] | `dog.increment(...)` | CONTADOR | TASA | +| [DogStatsD][16] | `dog.decrement(...)` | CONTADOR | TASA | +| [DogStatsD][17] | `dog.set(...)` | SET | GAUGE | +| [DogStatsD][18] | `dog.histogram(...)` | HISTOGRAMA | GAUGE, TASA | + +**Nota**: Mientras que las diferentes agregaciones de los valores de la métrica de distribución se _representan_ como GAUGE o CONTADOR en la aplicación, la métrica en sí mantiene el tipo `DISTRIBUTION`. Consulte la sección de [Definiciones][19] de esta página para más información. + +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -343,8 +355,8 @@ A continuación se muestra un resumen de todas las fuentes y los métodos de env [4]: https://statsd.readthedocs.io/en/v3.3/types.html#sets [5]: /es/metrics/custom_metrics/agent_metrics_submission/ [6]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ -[7]: /es/api/v1/metrics/#submit-metrics -[8]: /es/developers/dogstatsd/#how-it-works +[7]: /es/api/latest/metrics/#submit-metrics +[8]: /es/extend/dogstatsd/#how-it-works [9]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=count#count [10]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic-count [11]: /es/metrics/custom_metrics/agent_metrics_submission/?tab=gauge @@ -354,4 +366,5 @@ A continuación se muestra un resumen de todas las fuentes y los métodos de env [15]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#distribution [16]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#count [17]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#set -[18]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#histogram \ No newline at end of file +[18]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#histogram +[19]: /es/metrics/types/?tab=distribution#definition \ No newline at end of file diff --git a/content/es/monitors/notify/_index.md b/content/es/monitors/notify/_index.md index 508f40fafd2..d9900f0a0fb 100644 --- a/content/es/monitors/notify/_index.md +++ b/content/es/monitors/notify/_index.md @@ -4,40 +4,47 @@ aliases: - /es/monitors/faq/how-do-i-setup-conditional-contacts-and-messages-in-a-single-monitor - /es/developers/faq/what-do-notifications-do-in-datadog - /es/monitors/notifications/ -description: Enviar notificaciones a tus equipos cuando los monitores activan alertas +description: Envía notificaciones a tus equipos cuando los seguimientos generen alertas. further_reading: - link: /monitors/ tag: Documentación - text: Crear Monitors + text: Crea seguimientos - link: /monitors/manage/ tag: Documentación - text: Gestionar los monitores + text: Administra seguimientos - link: https://learn.datadoghq.com/courses/alert-monitor-notifications - tag: Centro de aprendizaje - text: Realiza un curso para personalizar las notificaciones de monitor de alertas + tag: Centro de Aprendizaje + text: Toma un curso para personalizar las notificaciones de los seguimientos de + alerta - link: https://www.datadoghq.com/blog/monitor-notification-rules/ tag: Blog - text: Dirigir tus alertas de monitor con las reglas de notificación de monitor de - Datadog + text: Dirige tus alertas de seguimiento con las reglas de notificación de seguimientos + de Datadog title: Notificaciones --- +## Resumen {#overview} -## Información general +Las notificaciones son un componente clave de los seguimientos que mantienen a tu equipo informado sobre problemas y apoyan la resolución de problemas. Al [crear tu seguimiento][1], configura tu respuesta a: +- Elabora un mensaje que se pueda accionar. +- Activa un flujo de trabajo o crea un flujo de trabajo a partir de un seguimiento. +- [Crea una incidencia automáticamente][2]. +- Crea un incidente automáticamente. -Las notificaciones son un componente clave de los monitores, que mantienen a tu equipo informado de los problemas y ayudan a solucionarlos. Al [crear tu monitor][1], configura tu respuesta para: -- Crear un mensaje procesable. -- Activa un flujo de trabajo o crea un flujo de trabajo a partir de un monitor. -- [Crear automáticamente un incidente][2]. -- Crear automáticamente un incidente. +## Construyendo títulos y mensajes efectivos {#constructing-effective-titles-and-messages} -## Crear títulos y mensajes eficaces +Este enfoque ayuda a garantizar que los títulos y mensajes de tu seguimiento sean claros, accionables y adaptados a las necesidades de tu audiencia. +- **Títulos únicos**: Agrega un título único a tu seguimiento (esto es obligatorio). Para seguimientos de múltiples alertas, se insertan automáticamente algunas etiquetas que identifican su contexto de activación. Puede usar [variables de etiqueta][3] para mejorar la especificidad. +- **Campo de mensaje**: El campo de mensaje admite el formato estándar de [Markdown][4] y [variables][5]. Utilice [variables condicionales][6] para modular el texto de notificación enviado a diferentes contactos con [@notifications](#notifications). Utilice [variables de plantilla sintéticas][23] para enriquecer el mensaje de alerta con el contexto de fallos sintéticos. -Este enfoque ayuda a garantizar que los títulos y mensajes de monitor sean claros, prácticos y adaptados a las necesidades de tu público. -- **Títulos exclusivos**: Añade un título único a tu monitor (obligatorio). Para los monitores de alertas múltiples, se insertan automáticamente algunas etiquetas (tags) que identifican tu contexto de activación. Puedes utilizar [variables de etiqueta][3] para mejorar la especificidad. -- **Campo de mensaje**: El campo de mensaje admite el [formato Markdown][4] y [variables][5] estándar. Utiliza [variables condicionales][6] para modular el texto de notificación enviado a diferentes contactos con [@notificaciones](#notifications). +
    El soporte para el formato Markdown varía según el método de notificación. Algunos canales solo admiten un subconjunto de la sintaxis de Markdown. +
      +##
    • Notificaciones de Slack: Admiten formato básico (negrita, cursiva, código en línea, enlaces). Los encabezados de Markdown (por ejemplo, #, ) y las tablas no se renderizan; aparecen como texto plano. +
    • Notificaciones por correo electrónico: Admiten formato básico (negrita, cursiva, código en línea, enlaces). Las tablas no se renderizan como tablas de Markdown y aparecen como texto plano en el cuerpo del mensaje. +
    +
    -{{% collapse-content title="Ejemplo de mensaje monitor" level="h4" expanded=false %}} -Un caso de uso frecuente de un mensaje de monitor consiste en incluir una forma de resolver el problema paso a paso, por ejemplo: +{{% collapse-content title="Ejemplo de mensaje de seguimiento" level="h4" expanded=false %}} +Un caso de uso común para el mensaje de seguimiento es incluir una forma paso a paso para resolver el problema, por ejemplo: ```text {{#is_alert}} <-- conditional variable @@ -58,111 +65,113 @@ Steps to free up disk space on {{host.name}}: <-- tag variable {{% /collapse-content %}} -## Destinatarios de notificaciones -Datadog recomienda utilizar [reglas de notificación de monitor][22] para gestionar las notificaciones de monitores. Con las reglas de notificación puedes definir de forma automática qué destinatarios de notificaciones se añaden a un monitor, en función de una serie de condiciones predefinidas. Crea diferentes reglas para dirigir las alertas de monitor en función de las etiquetas de notificación de monitor, para no tener que configurar manualmente los destinatarios ni la lógica de enrutamiento de notificaciones para cada monitor individual. +## Destinatarios de notificaciones {#notification-recipients} +Datadog recomienda usar [reglas de notificación de seguimiento][22] para gestionar las notificaciones del seguimiento. Con las reglas de notificación, puedes automatizar qué destinatarios de notificación se añaden a un seguimiento basado en conjuntos de condiciones predefinidos. Crea diferentes reglas para dirigir las alertas del seguimiento según las etiquetas de la notificación del seguimiento, de modo que no tengas que configurar manualmente los destinatarios ni la lógica de enrutamiento de notificaciones para cada seguimiento individual. -Tanto en las reglas de notificación como en los monitores individuales, puedes utilizar una`@notification` para añadir un miembro del equipo, una integración, un flujo de trabajo o un caso a tu notificación. A medida que escribes, Datadog te recomienda automáticamente las opciones existentes en un menú desplegable. Haz clic en una opción para añadirla a tu notificación. También puedes hacer clic en **@ Add Mention**, **Add Workflow** o **Add Case** (@ Añadir mención, Añadir flujo de trabajo o **Añadir caso). +Tanto en las reglas de notificación como en los seguimientos individuales, puedes usar un `@notification` para añadir a un miembro del equipo, integración, flujo de trabajo o incidencia a tu notificación. A medida que escribes, Datadog recomienda automáticamente opciones existentes en un menú desplegable. Haz clic en una opción para añadirla a tu notificación. Alternativamente, haz clic en **@ Añadir Mención**, **Añadir Flujo de Trabajo**, o **Añadir Caso**. -Una @notificación debe tener un espacio entre ella y el último carácter de la línea: +Una @notificación debe tener un espacio entre ella y el último carácter de línea: -| 🟢 Formato correcto | ❌ Formato incorrecto | +| Formato Correcto | Formato Incorrecto | |------------------|-------------------| | `Disk space is low @ops-team@company.com` | `Disk space is low@ops-team@company.com` | -{{% collapse-content title="Correo electrónico" level="h4" expanded=false %}} -{{% notifications-email %}} +{{% collapse-content title="Integrations" level="h4" expanded=false %}} +{{% notifications-integrations %}} {{% /collapse-content %}} {{% collapse-content title="Teams" level="h4" expanded=false %}} -Si se configura un canal de notificación, puedes dirigir las notificaciones a un equipo específico. Las alertas de monitor dirigidas a @team-handle se redirigen al canal de comunicación seleccionado. Para obtener más información sobre cómo configurar un canal de notificación para tu equipo, consulta la documentación [Teams][7]. +{{% notifications-teams %}} {{% /collapse-content %}} -{{% collapse-content title="Integraciones" level="h4" expanded=false %}} - -{{% notifications-integrations %}} +{{% collapse-content title="Incidencias" level="h4" expanded=false %}} +{{% notifications-cases %}} +{{% /collapse-content %}} +{{% collapse-content title="Correo Electrónico" level="h4" expanded=false %}} +{{% notifications-email %}} {{% /collapse-content %}} -### Edición en bloque de @-handles de monitor -Datadog permite editar los destinatarios de los mensajes de alerta en varios monitores a la vez. Utiliza esta función para añadir, eliminar o sustituir eficazmente `@-handles` en el cuerpo del mensaje del monitor. Los casos de uso incluyen: +###Edición masiva de manejadores de seguimiento @-{#bulk-editing-monitor-handles} +Datadog admite la edición de destinatarios de mensajes de alerta en múltiples seguimientos a la vez. Utiliza esta función para añadir, eliminar o reemplazar eficientemente `@-handles` en el cuerpo del mensaje del seguimiento. Los casos de uso incluyen: -- **Intercambiar un manejador**: Sustituye un identificador por otro en varios monitores. Por ejemplo, cambia `@pagerduty-sre` por `@oncall-sre`. También puedes cambiar un único identificador por varios identificadores, como por ejemplo sustituyendo `@pagerduty-sre` por `@pagerduty-sre` y `@oncall-sre`, para admitir la doble paginación o ampliar la cobertura de las alertas. -- **Añadir un identificador**: Añade un nuevo destinatario sin eliminar los existentes. Por ejemplo, añade `@slack-infra-leads` a todos los monitores seleccionados. -- **Eliminar un identificador**: Elimina un identificador específico de los mensajes de monitor. Por ejemplo, elimina `@webhook-my-legacy-event-intake`. +- **Intercambiar un manejador**: Reemplazar un manejador por otro en múltiples seguimientos. Por ejemplo, cambia `@pagerduty-sre` a `@oncall-sre`. También puedes intercambiar un solo manejador por múltiples manejadores, como reemplazar `@pagerduty-sre` con `@pagerduty-sre` y `@oncall-sre`, para soportar la paginación dual o una cobertura de alertas ampliada. +- **Agregar un manejador**: Agrega un nuevo destinatario sin eliminar los existentes. Por ejemplo, agrega `@slack-infra-leads` a todos los seguimientos seleccionados. +- **Eliminar un manejador**: Elimina un manejador específico de los mensajes del seguimiento. Por ejemplo, elimina `@webhook-my-legacy-event-intake`. -## Flujos de trabajo -Puedes activar una [automatización de flujo de trabajo][8] o crear un nuevo flujo de trabajo a partir de un monitor. +## Flujo de trabajo {#workflows} +Puedes activar una [automatización de flujo de trabajo][8] o crear un nuevo flujo de trabajo desde un seguimiento. -Antes de añadir un flujo de trabajo a un monitor, [añade un activador de monitor al flujo de trabajo][9]. +Antes de agregar un flujo de trabajo a un seguimiento, [agrega un disparador de seguimiento al flujo de trabajo][9]. -Después de añadir el activador de monitor, [añade un flujo de trabajo a tu monitor][10] o crea un nuevo flujo de trabajo. Para crear un nuevo flujo de trabajo a partir de la página de monitores: +Después de agregar el disparador de seguimiento, [agrega un flujo de trabajo existente a tu seguimiento][10] o crea un nuevo flujo de trabajo. Para crear un nuevo flujo de trabajo desde la página de seguimientos: -1. Haz clic en **Add Workflow** (Añadir flujo de trabajo). -1. Haz clic en el icono **+** y selecciona un Blueprint (Proyecto), o selecciona **Start From Scratch** (Empezar desde cero). - {{< img src="/monitors/notifications/create-workflow.png" alt="Haz clic en el botón + para añadir un nuevo flujo de trabajo" style="width:90%;">}} +1. Haz clic en **Agregar flujo de trabajo**. +1. Haz clic en el ícono **+** y selecciona un Plano, o selecciona **Comenzar Desde Cero**. + {{< img src="/monitors/notifications/create-workflow.png" alt="Haz clic en el botón + para agregar un nuevo flujo de trabajo" style="width:90%;">}} -Para obtener más información sobre la creación de un flujo de trabajo, consulta [Crear flujos de trabajo][11]. +Para más información sobre cómo construir un flujo de trabajo, consulta [Construir flujo de trabajo][11]. -## Incidentes -Los incidentes pueden crearse automáticamente a partir de un monitor cuando el monitor pasa a un estado `alert`, `warn` o `no data`. Haz clic en **Add Incident** (Añadir incidente) y selecciona una opción de `@incident (incidente)-`. Los administradores pueden crear opciones de `@incident (incidente)-` en [Configuración de incidentes][12]. +## Incidente {#incidents} +Los incidentes pueden ser creados automáticamente desde un seguimiento cuando el seguimiento cambia a un estado de `alert`, `warn` o `no data`. Haz clic en **Agregar incidente** y selecciona una opción de `@incident-`. Los administradores pueden crear `@incident-` opciones en [Configuraciones de incidentes][12]. -Cuando se crea un incidente a partir de un monitor, los [valores de campo][13] del incidente se rellenan automáticamente en función de las etiquetas de monitor. Por ejemplo, si tu monitor tiene una etiqueta `service:payments`, el campo de servicio del incidente se definirá para "pagos". Para recibir notificaciones de estos incidentes, asegúrate de que las etiquetas de monitor coinciden con tus reglas de notificación de incidentes. **Nota**: Las reglas de notificación de incidentes se configuran por separado de las reglas de notificación de monitor y deben configurarse de forma independiente. Para obtener más información, consulta [Notificación de incidentes][14]. +Cuando se crea un incidente a partir de un seguimiento, los [valores de campo][13] del incidente se completan automáticamente según las etiquetas del seguimiento. Por ejemplo, si su seguimiento tiene una etiqueta `service:payments`, el campo de servicio del incidente se establecerá en "pagos". Para recibir notificaciones sobre estos incidentes, asegúrese de que las etiquetas del monitor se alineen con sus reglas de notificación de incidentes. **Nota**: Las reglas de notificación de incidentes se configuran por separado de las reglas de notificación de monitores y deben establecerse de manera independiente. Para más información, consulte [Notificación de Incidentes][14]. -## Alternar contenido adicional +## Alternar contenido adicional {#toggle-additional-content} -Las notificaciones del monitor incluyen contenidos como la consulta de monitor, las @-mentions utilizadas, las snapshots de métrica (para monitores de métrica) y enlaces a páginas relevantes en Datadog. Tienes la opción de elegir qué contenido deseas incluir o excluir de notificaciones para monitores individuales. +Las notificaciones de monitores incluyen contenido como la consulta del monitor, las menciones @ utilizadas, instantáneas de métricas (para monitores de métricas) y enlaces de regreso a páginas relevantes en Datadog. Tiene la opción de elegir qué contenido le gustaría incluir o excluir de las notificaciones para monitor individuales. -
    Las métricas de distribución con agregadores de percentiles (como `p50`, `p75`, `p95` o `p99`) no generan un gráfico de snapshot en las notificaciones.
    +
    Las métricas de distribución con agregadores de percentiles (como `p50`, `p75`, `p95` o `p99`) no generan un gráfico de instantánea en las notificaciones.
    -{{< img src="monitors/notifications/monitor_notification_presets.png" alt="Establecer una configuración previa de un monitor" style="width:70%;" >}} +{{< img src="monitors/notifications/monitor_notification_presets.png" alt="Establecer un preajuste de monitor" style="width:70%;" >}} Las opciones son: -- **Por defecto**: no se oculta ningún contenido. -- **Ocultar consulta**: elimina la consulta del monitor del mensaje de notificación. -- **Ocultar identificadores**: eliminar las @-mentions que se utilizan en el mensaje de notificación. -- **Ocultar todo**: el mensaje de notificación no incluye consultas, identificadores, snapshots (para monitores de métrica), ni enlaces adicionales en los pies de página. +- **Predeterminado**: No se oculta contenido. +- **Ocultar Consulta**: Eliminar la consulta del monitor del mensaje de notificación. +- **Ocultar Menciones**: Eliminar las menciones @ que se utilizan en el mensaje de notificación. +- **Ocultar Todo**: El mensaje de notificación no incluye consulta, menciones, ninguna instantánea (para monitores de métricas) o enlaces adicionales en los pies de página. -**Nota**: Según la integración, es posible que algunos contenidos no se muestren por defecto. +**Nota**: Dependiendo de la integración, es posible que algún contenido no se muestre de forma predeterminada. -## Renotificación +## Re-notificar {#renotify} -Activa la renotificación (opcional) para recordar a tu equipo que un problema no está resuelto. +Habilitar re-notificación de monitor (opcional) para recordar a su equipo que un problema no está resuelto. - {{< img src="monitors/notifications/renotify_options.png" alt="Activar la renotificación" style="width:90%;" >}} + {{< img src="monitors/notifications/renotify_options.png" alt="Habilitar renotificación" style="width:90%;" >}} -Configura el intervalo de renotificación, los estados del monitor desde los que el monitor vuelve a notificar (dentro de `alert`, `no data` y `warn`) y, opcionalmente, establece un límite al número de mensajes de renovación enviados. +Configura el intervalo de renotificación, los estados del monitor desde los cuales el monitor renotifica (dentro de `alert`, `no data` y `warn`) y opcionalmente establece un límite al número de mensajes de renotificación enviados. -Por ejemplo, configura el monitor para `stop renotifying after 1 occurrence`, para recibir un único mensaje de escalado después de la alerta principal. -**Nota:** Las [variables de atributos y etiquetas][3] en la renotificación se rellenan con los datos disponibles para el monitor durante el periodo de tiempo de la renotificación. +Por ejemplo, configura el monitor a `stop renotifying after 1 occurrence` para recibir un único mensaje de escalación después de la alerta principal. +**Nota:** [Las variables de atributo y etiqueta][3] en la renotificación se completan con los datos disponibles para el monitor durante el período de tiempo de la renotificación. -Si se activa la renotificación, se te da la opción de incluir un mensaje de escalada que se envía si el monitor permanece en uno de los estados elegidos durante el periodo especificado. +Si la renotificación está habilitada, se te da la opción de incluir un mensaje de escalación que se envía si el monitor permanece en uno de los estados elegidos durante el período de tiempo especificado. -El mensaje de escalada puede añadirse de las siguientes maneras: +El mensaje de escalación se puede agregar de las siguientes maneras: -* En el bloque `{{#is_renotify}}` del mensaje original de notificación (recomendado). -* En el campo *Renotification message* (Mensaje de renotificación) de la sección `Configure notifications and automations`. -* Con el atributo `escalation_message` de la API. +* En el `{{#is_renotify}}` bloque en el mensaje de notificación original (recomendado). +* En el campo *Mensaje de renotificación* en la sección `Configure notifications and automations`. +* Con el atributo `escalation_message` en la API. -Si utilizas el bloque `{{#is_renotify}}`, el mensaje original de notificación también se incluye en la nueva notificación, por lo tanto: +Si utilizas el `{{#is_renotify}}` bloque, el mensaje de notificación original también se incluye en la renotificación, así que: -1. Incluye solo detalles adicionales en el bloque `{{#is_renotify}}` y no repitas los detalles del mensaje original. -2. Envía el mensaje de escalada a un subconjunto de grupos. +1. Incluye solo detalles adicionales en el `{{#is_renotify}}` bloque y no repitas los detalles del mensaje original. +2. Envía el mensaje de escalación a un subconjunto de grupos. Aprende a configurar tus monitores para esos casos de uso en la [sección de ejemplos][15]. -## Metadatos +## Metadatos {#metadata} -Añade metadatos (Prioridad, Etiquetas, Equipo Datadog) a tu monitor. monitor. La prioridad de un monitor te permite definir la importancia de tu monitor a través del nivel P (P1 a P5). Las etiquetas de monitores, que son diferentes de las etiquetas de métricas, se utilizan en la interfaz de usuario para agrupar y buscar monitores. Si se configuran políticas de etiquetas, es necesario añadir las etiquetas y los valores de etiqueta necesarios. Para obtener más información, consulta [Políticas de etiquetas][16]. Datadog Teams te permite definir una capa de propiedad para este monitor y ver todos los monitores vinculados a tu equipo. Para obtener más información, consulta [Datadog Teams][17]. +Agrega metadatos (Prioridad, Etiquetas, Equipo de Datadog) a tu monitor. La prioridad del monitor te permite establecer la importancia de tu monitor a través del nivel P (P1 a P5). La etiqueta del monitor--que es diferente de las etiquetas de métrica--se utiliza en la interfaz de usuario para agrupar y buscar monitores. Si se configuran políticas de etiquetas, se deben agregar las etiquetas y los valores de etiqueta requeridos. Para aprender más, consulte [Políticas de Etiquetas][16]. Datadog Teams te permite establecer un nivel de propiedad para este monitor y ver todos los monitores vinculados a tu equipo. Para aprender más, consulta [Datadog Teams][17]. -{{< img src="monitors/notifications/notifications_metadata.png" alt="Ver una configuración de etiqueta de política. En 'Policy tags' (Etiquetas de política) hay tres ejemplos de etiquetas: cost_center, product_id y env, al lado del menú desplegable 'Select value' (Seleccionar valor)." style="width:100%;" >}} +{{< img src="monitors/notifications/notifications_metadata.png" alt="Vista de la configuración de etiquetas de política. Debajo de 'Etiquetas de política' hay tres etiquetas de ejemplo: cost_center, product_id y env, junto a un menú desplegable de 'Seleccionar valor'." style="width:100%;" >}} {{% collapse-content title="Prioridad" level="h4" expanded=false %}} -Añade una prioridad (opcional) asociada a tus monitores. Los valores van de P1 a P5, siendo P1 la prioridad más alta y P5 la más baja. -Para anular la prioridad del monitor en el mensaje de notificación, utiliza `{{override_priority 'Pi'}}` donde `Pi` está entre P1 y P5. +Agrega una prioridad (opcional) asociada con tus monitores. Los valores varían de P1 a P5, siendo P1 la prioridad más alta y P5 la más baja. +Para anular la prioridad del monitor en el mensaje de notificación, usa `{{override_priority 'Pi'}}` where `Pi` está entre P1 y P5. -Por ejemplo, puedes establecer prioridades diferentes para notificaciones `alert` y `warning`: +Por ejemplo, puedes establecer diferentes prioridades para `alert` y `warning` notificaciones: ``` {{#is_alert}} @@ -177,35 +186,35 @@ Por ejemplo, puedes establecer prioridades diferentes para notificaciones `alert {{% /collapse-content %}} -## Agregación +## Agregación {#aggregation} -Si la consulta del monitor está agrupada, puedes eliminar una o más de las dimensiones de la agrupación de notificaciones, o eliminarlas todas y notificar como una Alerta simple. +Si la consulta del monitor está agrupada, puedes eliminar una o más de las dimensiones de la agrupación de notificaciones, o eliminarlas todas y notificar como una alerta simple. -{{< img src="monitors/notifications/notifications_aggregation.png" alt="Vista de configuración agregada establecida en multialerta." style="width:100%;" >}} +{{< img src="monitors/notifications/notifications_aggregation.png" alt="Vista de la configuración de agregación establecida en multi-alerta." style="width:100%;" >}} -Encontrarás más información sobre esta función en [Configurar monitores][18] +Encuentra más información sobre esta función en [Configurar Monitores][18] -## Notificaciones de test +## Notificaciones de prueba {#test-notifications} -Después de definir tu monitor, prueba las notificaciones con el botón **Test Notifications** (Notificaciones de test) situado en la parte inferior derecha de la página del monitor. +Después de definir tu monitor, prueba las notificaciones con el botón **Notificaciones de Prueba** en la parte inferior derecha de la página del monitor. -Se admiten notificaciones de tests para los siguientes [tipos de monitor][19]: hosts, métricas, anomalías, outliers, previsión, logs, rum, apm, integraciones (sólo check), procesos (sólo check), redes (sólo check), checks personalizados, eventos y compuestos. +Las notificaciones de prueba son compatibles con los [tipos de monitores][19]: host, métrica, anomalía, valor anómalo, pronóstico, registros, rum, apm, integración (solo verificación), proceso (solo verificación), red (solo verificación), verificación personalizada, evento y composite. -1. En la ventana emergente de notificaciones de tests, elige la transición de monitor a probar y el grupo (disponible sólo si la consulta tiene [agrupación][20]). Sólo puedes probar estados que estén disponibles en la configuración del monitor para ver los umbrales especificados en las condiciones de alerta. Los [umbrales de recuperación][21] son una excepción, ya que Datadog envía una notificación de recuperación una vez que el monitor deja de estar en alerta o no tiene condiciones de alerta. +1. Desde la ventana emergente de notificaciones de prueba, elige la transición del monitor para probar y el grupo (disponible solo si la consulta tiene [agrupación][20]). Solo puedes probar los estados que están disponibles en la configuración del monitor para los umbrales especificados en las condiciones de alerta. Los [umbrales de recuperación][21] son una excepción, ya que Datadog envía una notificación de recuperación una vez que el monitor ya no está en alerta o no tiene condiciones de advertencia. {{< img src="/monitors/notifications/test_notification_modal.png" alt="Prueba las notificaciones para este monitor" style="width:70%;" >}} -1. Haz clic en **Run Test** (Ejecutar test) para enviar notificaciones a las personas y servicios que figuran en el monitor. +1. Haz clic en **Ejecutar Prueba** para enviar notificaciones a las personas y servicios listados en el monitor. -### Eventos +### Eventos {#events} -Las notificaciones de test producen eventos que se pueden buscar en el Event Explorer. Estas notificaciones indican quién inició el test en el cuerpo del mensaje con `[TEST]` en el título de la notificación. +Las notificaciones de prueba producen eventos que pueden ser buscados dentro del explorador de eventos. Estas notificaciones indican quién inició la prueba en el cuerpo del mensaje con `[TEST]` en el título de la notificación. -Las variables de etiqueta solo se rellenan en el texto de eventos secundarios de Datadog. El evento principal solo muestra un resumen de agregación. +Las variables de etiqueta solo se completan en el texto de los eventos secundarios de Datadog. El evento principal solo muestra un resumen de agregación. ### Variables {#variables-test-notification} -Las variables de mensaje se rellenan automáticamente con un grupo seleccionado aleatoriamente según la definición de contexto de tu monitor, por ejemplo: +Las variables de mensaje se completan automáticamente con un grupo seleccionado aleatoriamente basado en el contexto de la definición de tu monitor, por ejemplo: ```text {{#is_alert}} @@ -213,24 +222,23 @@ Las variables de mensaje se rellenan automáticamente con un grupo seleccionado {{/is_alert}} ``` -## Referencias adicionales +## Lectura Adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} [1]: /es/monitors/configuration -[2]: /es/service_management/case_management/create_case/#automatic-case-creation +[2]: /es/incident_response/case_management/create_case/#automatic-case-creation [3]: /es/monitors/notify/variables/?tabs=is_alert#attribute-and-tag-variables [4]: http://daringfireball.net/projects/markdown/syntax [5]: /es/monitors/notify/variables/ [6]: /es/monitors/notify/variables/#conditional-variables -[7]: /es/account_management/teams/#send-notifications-to-a-specific-communication-channel [8]: /es/service_management/workflows/ [9]: /es/service_management/workflows/trigger/#add-a-monitor-trigger-to-your-workflow [10]: /es/service_management/workflows/trigger/#add-the-workflow-to-your-monitor [11]: /es/service_management/workflows/build/ [12]: https://app.datadoghq.com/incidents/settings?section=global-settings -[13]: /es/service_management/incident_management/incident_settings/property_fields -[14]: /es/service_management/incident_management/notification +[13]: /es/incident_response/incident_management/setup_and_configuration/property_fields +[14]: /es/incident_response/incident_management/notification [15]: /es/monitors/notify/variables/?tab=is_renotify#examples [16]: /es/monitors/settings/#tag-policies [17]: /es/account_management/teams/ @@ -238,4 +246,5 @@ Las variables de mensaje se rellenan automáticamente con un grupo seleccionado [19]: /es/monitors/types [20]: /es/monitors/configuration/ [21]: /es/monitors/guide/recovery-thresholds/ -[22]: /es/monitors/notify/notification_rules \ No newline at end of file +[22]: /es/monitors/notify/notification_rules +[23]: /es/synthetics/notifications/template_variables/ \ No newline at end of file diff --git a/content/es/monitors/notify/variables.md b/content/es/monitors/notify/variables.md index d1d09b2728f..3430b0feee7 100644 --- a/content/es/monitors/notify/variables.md +++ b/content/es/monitors/notify/variables.md @@ -1,5 +1,5 @@ --- -description: Utiliza variables para personalizar tus notificaciones de monitor +description: Utiliza variables para personalizar las notificaciones de tu seguimiento further_reading: - link: /monitors/guide/template-variable-evaluation/ tag: Guía @@ -7,62 +7,61 @@ further_reading: de plantilla - link: /monitors/ tag: Documentación - text: Crear monitores + text: Crea seguimientos - link: /monitors/notify/ tag: Documentación - text: Notificaciones de monitor + text: Notificaciones de seguimientos - link: /monitors/manage/ tag: Documentación - text: Gestionar los monitores + text: Gestiona seguimientos - link: https://learn.datadoghq.com/courses/alert-monitor-notifications - tag: Centro de aprendizaje - text: Realiza un curso para personalizar las notificaciones del monitor de alertas + tag: Centro de Aprendizaje + text: Toma un curso para personalizar las notificaciones de seguimiento de alertas - link: https://www.datadoghq.com/blog/monitor-notification-rules/ tag: Blog - text: Dirige tus alertas de monitor con las reglas de notificación de monitor de - Datadog + text: Dirige tus alertas de seguimiento con las reglas de notificación de seguimientos + de Datadog title: Variables --- +Utiliza variables en los mensajes de notificación para mostrar mensajes condicionales y dirigir la notificación a diferentes equipos utilizando [variables condicionales](#conditional-variables), o para enriquecer su contenido utilizando [variables de atributo y etiqueta](#attribute-and-tag-variables) y [variables de plantilla](#template-variables). -Utiliza variables en los mensajes de notificación para mostrar mensajes condicionales y dirigir la notificación a diferentes equipos utilizando [variables condicionales](#conditional-variables), o para enriquecer tu contenido utilizando [variables de atributo y etiqueta (tag)](#attribute-and-tag-variables) y [variables de plantilla](#template-variables). +## Variables condicionales {#conditional-variables} -## Variables condicionales +Las variables condicionales utilizan `if-else` lógica para mostrar un mensaje distinto según el estado del monitor y los detalles de cómo fue desencadenado. Estas variables pueden ser utilizadas dentro del asunto o cuerpo del mensaje de notificación. -Las variables condicionales utilizan la lógica de `if-else` para mostrar un mensaje diferente dependiendo del estado del monitor y de los detalles de cómo se activó. Estas variables pueden utilizarse dentro del asunto o del cuerpo del mensaje de notificación. +Las siguientes variables condicionales están disponibles: -Están disponibles las siguientes variables condicionales: - -| Variable condicional | El texto se muestra si | +| Variable Condicional | El texto se muestra si | |----------------------------|--------------------------------------------------------------------| -| `{{#is_alert}}` | El monitor alerta | -| `{{^is_alert}}` | El monitor no alerta | -| `{{#is_match}}` | El contexto coincide con la subcadena proporcionada. Si se utiliza un valor numérico, se convierte en una cadena.| -| `{{^is_match}}` | El contexto no coincide con la subcadena proporcionada | -| `{{#is_exact_match}}` | El contexto coincide exactamente con la cadena proporcionada.
    Si se utiliza un número, se considera el valor numérico, independientemente de su tipo. Esto significa que mientras dos números tengan el mismo valor, la función los considerará iguales. | -| `{{^is_exact_match}}` | El contexto no coincide exactamente con la cadena proporcionada | -| `{{#is_no_data}}` | El monitor se activa si faltan datos | -| `{{^is_no_data}}` | El monitor no se activa si faltan datos | -| `{{#is_warning}}` | El monitor advierte | -| `{{^is_warning}}` | El monitor no advierte | -| `{{#is_recovery}}` | El monitor se recupera de `ALERT`, `WARNING`, `UNKNOWN`, o `NO DATA` | -| `{{^is_recovery}}` | El monitor no se recupera de `ALERT`, `WARNING`, `UNKNOWN`, o `NO DATA` | -| `{{#is_warning_recovery}}` | El monitor se recupera de `WARNING` a `OK` | -| `{{^is_warning_recovery}}` | El monitor no se recupera de `WARNING` a `OK` | -| `{{#is_alert_recovery}}` | El monitor se recupera de `ALERT` a `OK` | -| `{{^is_alert_recovery}}` | El monitor no se recupera de ALERT a OK | -| `{{#is_alert_to_warning}}` | El monitor pasa de `ALERT` a `WARNING` | -| `{{^is_alert_to_warning}}` | El monitor no pasa de `ALERT` a `WARNING` | -| `{{#is_no_data_recovery}}` | El monitor se recupera de `NO DATA` | -| `{{^is_no_data_recovery}}` | El monitor no se recupera de `NO DATA` | -| `{{#is_priority 'value'}}` | El monitor tiene prioridad `value`. El valor oscila entre `P1` y `P5` | -| `{{#is_unknown}}` | El monitor está en estado unknown | -| `{{^is_unknown}}` | El monitor no está en estado unknown | -| `{{#is_renotify}}` | El monitor hace renotificación | -| `{{^is_renotify}}` | El monitor no hace renotificación | - -### Ejemplos - -Las variables condicionales deben tener un par de apertura y cierre con el texto y **@-notifications** en medio. Las variables basadas en el estado del monitor (como `is_alert` o `is_warning`) deben tener su propio bloque de mensajes. Dado que un monitor solo puede estar en un estado a la vez, no puedes combinarlos. Sin embargo, puedes anidar condicionales que coincidan en atributos, consulta los ejemplos de `is_renotify`. +| `{{#is_alert}}` | The monitor alerts | +| `{{^is_alert}}` | The monitor does not alert | +| `{{#is_match}}` | The context matches the provided substring. If a numeric value is used, it is converted to a string.| +| `{{^is_match}}` | The context does not match the provided substring | +| `{{#is_exact_match}}` | The context exactly matches the provided string.
    If a number is used, the numeric value is considered, regardless of its type. This means that as long as two numbers have the same value, they are considered equal by the function. | +| `{{^is_exact_match}}` | The context does not exactly match the provided string | +| `{{#is_no_data}}` | The monitor is triggered for missing data | +| `{{^is_no_data}}` | The monitor is not triggered for missing data | +| `{{#is_warning}}` | The monitor warns | +| `{{^is_warning}}` | The monitor does not warn | +| `{{#is_recovery}}` | The monitor recovers from `ALERTA`, `ADVERTENCIA`, `DESCONOCIDO`, or `SIN DATOS` | +| `{{^is_recovery}}` | The monitor does not recover from `ALERTA`, `ADVERTENCIA`, `DESCONOCIDO`, or `SIN DATOS` | +| `{{#is_warning_recovery}}` | The monitor recovers from `ADVERTENCIA` to `OK` | +| `{{^is_warning_recovery}}` | The monitor does not recover from `ADVERTENCIA` to `OK` | +| `{{#is_alert_recovery}}` | The monitor recovers from `ALERTA` to `OK` | +| `{{^is_alert_recovery}}` | The monitor does not recover from an ALERT to OK | +| `{{#is_alert_to_warning}}` | The monitor transitions from `ALERTA` to `ADVERTENCIA` | +| `{{^is_alert_to_warning}}` | The monitor does not transition from `ALERTA` to `ADVERTENCIA` | +| `{{#is_no_data_recovery}}` | The monitor recovers from `SIN DATOS` | +| `{{^is_no_data_recovery}}` | The monitor does not recover from `SIN DATOS` | +| `{{#is_priority 'value'}}` | The monitor has priority `value`. Value ranges from `P1` to `P5` | +| `{{#is_unknown}}` | The monitor is in the unknown state | +| `{{^is_unknown}}` | The monitor is not in the unknown state | +| `{{#is_renotify}}` | The monitor is renotifying | +| `{{^is_renotify}}` | El monitor no está renotificando. | + +### Ejemplos {#examples} + +Las variables condicionales deben tener un par de apertura y cierre con el texto y **@-notificaciones** en medio. Las variables basadas en el estado del monitor (como `is_alert` o `is_warning`), deben tener su propio bloque de mensaje. Debido a que un monitor solo puede estar en un estado a la vez, no puedes combinar estos. Sin embargo, puedes anidar condicionales que coincidan con atributos, consulta los `is_renotify` ejemplos. {{< tabs >}} {{% tab "is_alert" %}} @@ -89,7 +88,7 @@ Para enviar un mensaje de notificación cuando un monitor advierte, utiliza el f {{% /tab %}} {{% tab "is_recovery" %}} -Para enviar un mensaje de notificación cuando se recupere un monitor, utiliza el formato: +Para enviar un mensaje de notificación cuando un monitor se recupera, utiliza el formato: ```text {{#is_recovery}} @@ -108,7 +107,7 @@ Busca una subcadena en una [variable de etiqueta](#attribute-and-tag-variables) {{/is_match}} ``` -Para notificar a tu equipo de base de datos si un host desencadenante tiene la etiqueta `role:db_cassandra` o `role:db_postgres`, utiliza lo siguiente: +Para notificar a tu equipo de base de datos si un servidor desencadenante tiene la etiqueta `role:db_cassandra` o `role:db_postgres`, utiliza lo siguiente: ```text {{#is_match "host.role.name" "db"}} @@ -117,7 +116,7 @@ Para notificar a tu equipo de base de datos si un host desencadenante tiene la e {{/is_match}} ``` -La condición `is_match` también permite unir varias cadenas: +La `is_match` condición también admite la coincidencia de múltiples cadenas: ```text {{#is_match "host.role.name" "db" "database"}} @@ -126,7 +125,7 @@ La condición `is_match` también permite unir varias cadenas: {{/is_match}} ``` -Para enviar una notificación diferente si la etiqueta no contiene `db`, utiliza la negación de la condición como se indica a continuación: +Para enviar una notificación diferente si la etiqueta no contiene `db`, utiliza la negación de la condición de la siguiente manera: ```text {{^is_match "host.role.name" "db"}} @@ -135,7 +134,7 @@ Para enviar una notificación diferente si la etiqueta no contiene `db`, utiliza {{/is_match}} ``` -O utiliza el parámetro `{{else}}` del primer ejemplo: +O utiliza el `{{else}}` parámetro en el primer ejemplo: ```text {{#is_match "host.role.name" "db"}} @@ -146,7 +145,7 @@ O utiliza el parámetro `{{else}}` del primer ejemplo: @slack-example {{/is_match}} ``` -**Nota**: Para comprobar si uns `` no existe o si está vacía, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles. +**Nota**: Para verificar si un `` no existe o si está vacío, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles. {{% /tab %}} {{% tab "is_exact_match" %}} @@ -159,7 +158,7 @@ Busca una cadena exacta en una [variable de etiqueta](#attribute-and-tag-variabl {{/is_exact_match}} ``` -Para notificar a tu equipo de desarrollo si un host desencadenante tiene el nombre `production`, utiliza lo siguiente: +Para notificar a tu equipo de desarrollo si un servidor desencadenante tiene el nombre `production`, utiliza lo siguiente: ```text {{#is_exact_match "host.name" "production"}} @@ -168,7 +167,7 @@ Para notificar a tu equipo de desarrollo si un host desencadenante tiene el nomb {{/is_exact_match}} ``` -La condición `is_exact_match` también permite buscar varias cadenas: +La `is_exact_match` condición también admite la coincidencia de múltiples cadenas: ```text {{#is_exact_match "host.name" "production" "staging"}} @@ -177,7 +176,7 @@ La condición `is_exact_match` también permite buscar varias cadenas: {{/is_exact_match}} ``` -La variable condicional `is_exact_match` también admite [variables de plantilla `{{value}}`](#template-variables): +La `is_exact_match` variable condicional también admite [`{{value}}` variables de plantilla](#template-variables): ```text {{#is_exact_match "value" ""}} @@ -185,7 +184,7 @@ La variable condicional `is_exact_match` también admite [variables de plantilla {{/is_exact_match}} ``` -Para notificar a tu equipo de desarrollo si el valor que ha superado el umbral de tu monitor es 5 (o 5,0), utiliza lo siguiente: +Para notificar a tu equipo de desarrollo si el valor que superó el umbral de tu monitor es 5 (o 5.0), utiliza lo siguiente: ```text {{#is_exact_match "value" "5"}} @@ -193,7 +192,8 @@ Para notificar a tu equipo de desarrollo si el valor que ha superado el umbral d {{/is_exact_match}} ``` -La variable condicional `is_exact_match` también admite una cadena vacía para que `` compruebe si el atributo o etiqueta está vacío o no existe. +La `is_exact_match` variable condicional también admite una cadena vacía para el `` para verificar si el atributo o etiqueta está vacío o no existe. + ```text {{#is_exact_match "host.datacenter" ""}} This displays if the attribute or tag does not exist or if it's empty @@ -204,87 +204,87 @@ La variable condicional `is_exact_match` también admite una cadena vacía para {{% /tab %}} {{% tab "is_renotify" %}} -Para enviar un mensaje de escalada a un destino diferente solo para el entorno `production`: +Para enviar un mensaje de escalación a un destino diferente solo para el entorno `production`: ```text {{#is_renotify}} {{#is_match "env" "production"}} - Este es un mensaje de escalada enviado a @dev-team@company.com + This is an escalation message sent to @dev-team@company.com {{/is_match}} {{/is_renotify}} ``` -Para enviar un mensaje de escalada diferente que no contenga los detalles del mensaje original, utiliza una combinación de bloques `{{^is_renotify}}` y `{{#is_renotify}}`: +Para enviar un mensaje de escalación diferente que no contenga los detalles del mensaje original, utiliza una combinación de `{{^is_renotify}}` and `{{#is_renotify}}` bloques: ```text {{^is_renotify}} -Este monitor alerta y envía un primer mensaje a @dev-team@company.com +This monitor is alerting and sending a first message @dev-team@company.com -Para resolver este monitor sigue los pasos: +To solve this monitor follow the steps: 1. Go there 2. Do this {{/is_renotify}} -Esta parte es genérica y se envía para el primer desencadenante y el mensaje de escalada. +This part is generic and sent both for the first trigger and the escalation message. {{#is_renotify}} - Este es el mensaje de escalada @dev-team@company.com + This is the escalation message @dev-team@company.com {{/is_renotify}} ``` -En la renotificación del monitor, los usuarios recibirán el siguiente mensaje de escalada: +En la renotificación del monitor, los usuarios recibirán el siguiente mensaje de escalación: ``` -Esta parte es genérica y se envía tanto para el primer desencadenante como para el mensaje de escalada. +This part is generic and sent both for the first trigger and the escalation message. -Este es el mensaje de escalada @dev-team@company.com +This is the escalation message @dev-team@company.com ``` {{% /tab %}} {{< /tabs >}} -Si configura un bloque condicional para una transición de estado en condiciones `alert` o `warning` con un identificador **@-notifications**, Datadog recomienda que configures una condición `recovery` correspondiente para enviar una notificación de recuperación al identificador. +Si configuras un bloque condicional para una transición de estado en las condiciones `alert` o `warning` con un manejador de **@-notifications**, Datadog recomienda que configures una condición correspondiente `recovery` para enviar una notificación de recuperación al manejador. -**Nota**: Cualquier texto o identificador de notificación colocado **fuera** de las variables condicionales configuradas se invoca con cada transición de estado del monitor. Cualquier texto o identificador de notificación colocado **dentro** de las variables condicionales configuradas solo se invoca si la transición de estado del monitor coincide con su condición. +**Nota**: Cualquier texto o manejador de notificación colocado **fuera** de las variables condicionales configuradas se invoca con cada transición de estado del monitor. Cualquier texto o manejador de notificación colocado **dentro** de las variables condicionales configuradas solo se invoca si la transición de estado del monitor coincide con su condición. -## Variables de atributos y etiquetas +## Variables de atributo y etiqueta {#attribute-and-tag-variables} -Utiliza variables de atributos y etiquetas para mostrar mensajes de alerta personalizados, informativos y específicos que ayuden a comprender la naturaleza de la alerta. Consulta las siguientes secciones para ver ejemplos y casos de uso: +Utiliza variables de atributo y etiqueta para renderizar mensajes de alerta que sean personalizados, informativos y específicos para ayudar a entender la naturaleza de la alerta. Consulta las siguientes secciones para ejemplos y casos de uso: - [Variables de alerta múltiple](#multi-alert-variables) - [Variables de atributo/etiqueta coincidentes](#matching-attributetag-variables) Etiquetas -: se adjuntan automáticamente (como nombre de host, nombre de contenedor, nombre de archivo de log y nombre de función sin servidor) o se añaden mediante etiquetas personalizadas (como equipo responsable, entorno, aplicación o versión). +: Adjuntas automáticamente (como nombre de servidor, nombre de contenedor, nombre de archivo de registro y nombre de función sin servidor) o añadidas a través de etiquetas personalizadas (como equipo a cargo, entorno, aplicación o versión). Atributos -: basados en el contenido de log y analizados o añadidos mediante búsquedas en tablas de referencia (por ejemplo, geoip). +: Basados en el contenido del registro y ya sea analizados o añadidos mediante búsquedas en tablas de referencia (por ejemplo, geoip). -**Nota**: Si el monitor está configurado para recuperarse en condiciones sin datos (por ejemplo, cuando no hay eventos que coincidan con la consulta), el mensaje de recuperación no contiene datos. Para mantener la información en el mensaje de recuperación, agrupa por etiquetas adicionales, a las que se puede acceder mediante `{{tag.name}}`. +**Nota**: Si el monitor está configurado para recuperarse en condiciones de sin datos (por ejemplo, cuando no hay eventos que coincidan con la consulta), el mensaje de recuperación no contiene ningún dato. Para persistir información en el mensaje de recuperación, agrupa por etiquetas adicionales, que son accesibles mediante `{{tag.name}}`. -### Variables de alerta múltiple +### Variables de alerta múltiple {#multi-alert-variables} -Configura variables de multialertas en [monitores de multialertas][1] en función de la dimensión seleccionada en el cuadro de grupo de multialertas. Enriquece las notificaciones incluyendo dinámicamente en cada alerta el valor asociado a la dimensión agrupada. +Configura las variables de alerta múltiple en [monitores de alerta múltiple][1] según la dimensión seleccionada en el cuadro de grupo de alerta múltiple. Enriquece las notificaciones incluyendo dinámicamente el valor asociado con la dimensión de agrupación en cada alerta. -**Nota**: Cuando se utiliza el campo `group_by` en la agregación, las etiquetas y alertas adicionales del monitor pueden heredarse automáticamente. Esto significa que cualquier alerta o configuración establecida en el endpoint supervisado podría aplicarse a cada grupo resultante de la agregación. +**Nota**: Cuando uses el campo `group_by` en la agregación, se pueden heredar automáticamente etiquetas y alertas adicionales del monitor. Esto significa que cualquier alerta o configuración establecida en el punto de conexión monitoreado podría aplicarse a cada grupo resultante de la agregación. {{< tabs >}} {{% tab "Agrupar por etiqueta" %}} -Si una métrica está etiquetada con cualquier etiqueta en el formato `key:value` y la consulta de monitor está agrupada por esta etiqueta, utiliza la variable: +Si una métrica está etiquetada con cualquier etiqueta en el formato `key:value` y la consulta del monitor está agrupada por esta etiqueta, usa la variable: ``` {{ key.name }} ``` -Esta variable inserta el `value` asociado al `key` en cada notificación de alerta. Por ejemplo, si tu monitor activa una alerta para cada `env`, entonces la variable `{{env.name}}` está disponible en tu mensaje de notificación. +Esta variable inserta el `value` asociado con el `key` en cada notificación de alerta. Por ejemplo, si tu monitor activa una alerta para cada `env`, entonces la variable `{{env.name}}` está disponible en tu mensaje de notificación. -Si un grupo tiene varios `values` asociados a la misma `key`, el mensaje de alerta muestra una cadena separada por comas de todos los valores, en orden lexicográfico. +Si un grupo tiene múltiples `values` asociados con el mismo `key`, el mensaje de alerta muestra una cadena de todos los valores separados por comas, en orden lexicográfico. -#### Clave de etiqueta con punto +#### Clave de etiqueta con punto {#tag-key-with-period} -Si la clave de tu etiqueta contiene un punto, pon entre paréntesis la clave completa cuando utilices una variable de etiqueta. Por ejemplo, si tu etiqueta es `dot.key.test:five` y tu monitor está agrupado por `dot.key.test`, utiliza: +Si la clave de tu etiqueta tiene un punto, incluye corchetes alrededor de la clave completa al usar una variable de etiqueta. Por ejemplo, si tu etiqueta es `dot.key.test:five` y tu monitor está agrupado por `dot.key.test`, usa: ```text {{[dot.key.test].name}} @@ -294,19 +294,19 @@ Si la clave de tu etiqueta contiene un punto, pon entre paréntesis la clave com {{% tab "Agrupar por faceta" %}} -Monitores de logs, monitores de Trace Analytics, monitores RUM y monitores de eventos pueden usar facetas como variables si el monitor está agrupado por facetas. Si un monitor de log está agrupado por `@facet_key`, utiliza la variable: +Los monitores de registro, los monitores de Trace Analytics, los monitores de RUM y los monitores de eventos pueden usar facetas como variables si el monitor está agrupado por faceta. Si un monitor de registro está agrupado por `@facet_key`, usa la variable: ```text {{ @facet_key.name }} ``` -**Ejemplo**: Para incluir información específica de un grupo en un monitor de log de alerta múltiple agrupado por `@machine_id`: +**Ejemplo**: Para incluir información específica del grupo en un monitor de registros de alertas múltiples group by `@machine_id`: ```text -Esta alerta se activó en {{ @machine_id.name }} +This alert was triggered on {{ @machine_id.name }} ``` -Si tu faceta tiene puntos, utiliza corchetes alrededor de la faceta, por ejemplo: +Si su faceta tiene puntos, use corchetes alrededor de la faceta, por ejemplo: ```text {{ [@network.client.ip].name }} @@ -315,24 +315,24 @@ Si tu faceta tiene puntos, utiliza corchetes alrededor de la faceta, por ejemplo {{% /tab %}} {{< /tabs >}} -#### Personalización de las notificaciones en función del grupo +#### Personalice la notificación según el grupo {#customize-the-notification-based-on-the-group} -Cuando tu consulta está agrupada por dimensiones específicas, puedes mejorar las notificaciones con metadatos dinámicos asociados al grupo. Para ver una lista de variables de etiqueta basadas en tu selección de etiquetas, haz clic en **Use message template variables** (Utilizar variables de plantilla de mensaje) en la sección **Configure notifications & automations** (Configurar notificaciones y automatizaciones). Consulta los siguientes ejemplos: +Cuando su consulta está agrupada por dimensiones específicas, puede enriquecer las notificaciones con metadatos dinámicos asociados con el grupo. Para ver una lista de variables de etiqueta según su selección de etiquetas, haga clic en **Usar variables de plantilla de mensaje** en la sección **Configurar notificaciones y automatizaciones**. Vea los siguientes ejemplos: -{{% collapse-content title="Grupo de consulta por host" level="h5" %}} +{{% collapse-content title="Consulta agrupada por servidor" level="h5" %}} -Si tu monitor activa una alerta para cada `host`, entonces las variables de etiqueta `{{host.name}}` y `{{host.ip}}` están disponibles, así como cualquier etiqueta de host que esté disponible en este host. +Si su monitor activa una alerta para cada `host`, entonces las variables de etiqueta `{{host.name}}` and `{{host.ip}}` están disponibles, así como cualquier etiqueta de servidor que esté disponible en este servidor. -Variables de metadatos específicas de host: +Variables de metadatos específicos del servidor: -- Versión del Agent: `{{host.metadata_agent_version}}` +- Versión del agente: `{{host.metadata_agent_version}}` - Máquina: `{{host.metadata_machine}}` - Plataforma: `{{host.metadata_platform}}` - Procesador: `{{host.metadata_processor}}` {{% /collapse-content %}} -{{% collapse-content title="Grupo de consulta por kube_namespace y kube_cluster_name" level="h5" %}} -Si tu monitor activa una alerta para cada `kube_namespace` y `kube_cluster_name`, entonces puedes acceder a cualquier atributo del espacio de nombres. +{{% collapse-content title="Consulta agrupada por kube_namespace y kube_cluster_name" level="h5" %}} +Si su monitor activa una alerta para cada `kube_namespace` y `kube_cluster_name`, entonces puede acceder a cualquier atributo del espacio de nombres. Variables de metadatos del espacio de nombres: @@ -343,13 +343,13 @@ Variables de metadatos del espacio de nombres: La siguiente tabla contiene todos los atributos disponibles: -| Sintaxis de la variable | Atributos de primer nivel | +| Sintaxis de variable | Atributos de primer nivel | |-------------------|------------------------| | `{{kube_namespace.key}}` | `k8s_namespace_key`, `tags`, `annotations`, `cluster_id`, `cluster_name`, `creation_timestamp`, `deletion_timestamp`, `display_name`, `external_id`, `finalizers`, `first_seen_at`, `group_size`, `labels`, `name`, `namespace`, `status`, `uid`| {{% /collapse-content %}} -{{% collapse-content title="Grupo de consulta por pod_name y kube_namespace y kube_cluster_name" level="h5" %}} -Si tu monitor activa una alerta para cada `pod_name` y `kube_namespace` y `kube_cluster_name`, entonces puedes acceder a cualquier atributo del pod. +{{% collapse-content title="Consulta agrupada por pod_name y kube_namespace y kube_cluster_name" level="h5" %}} +Si su monitor activa una alerta para cada `pod_name` y `kube_namespace` y `kube_cluster_name`, entonces puede acceder a cualquier atributo del pod. Variables de metadatos del pod: - Nombre del clúster: `{{pod_name.cluster_name}}` @@ -358,51 +358,51 @@ Variables de metadatos del pod: La siguiente tabla contiene todos los atributos disponibles: -| Sintaxis de la variable | Atributos de primer nivel | +| Sintaxis de variable | Atributos de primer nivel | |-------------------|------------------------| -| `{{pod_name.key}}` | `k8s_pod_key`, `tags`, `annotations`, `cluster_id`, `cluster_name`, `conditions`, `container_statuses`, `creation_timestamp`, `deletion_timestamp`, `display_name`, `external_id`, `finalizers`, `first_seen_at`, `host_id`, `host_key`, `hostname`, `init_container_statuses`, `ip`, `labels`, `name`, `namespace`, `node_name`, `nominated_node_name`, `phase`, `pod_scheduled_timestamp`, `priority_class_name`, `qosclass`, `resource_requirements`, `uid`| +| `{{pod_name.key}}` | `k8s_pod_key`, `etiquetas`, `anotaciones`, `id_del_cluster`, `nombre_del_cluster`, `condiciones`, `estados_de_contenedor`, `marca_de_tiempo_de_creación`, `marca_de_tiempo_de_eliminación`, `nombre_de_visualización`, `id_externo`, `finalizadores`, `primera_vez_visto_en`, `tamaño_del_grupo`, `etiquetas`, `nombre`, `espacio_de_nombres`, `nombre_del_nodo`, `nombre_del_nodo_nominado`, `fase`, `marca_de_tiempo_de_programación_del_pod`, `nombre_de_clase_de_prioridad`, `clase_qos`, `requisitos_de_recursos`, `uid`| {{% /collapse-content %}} -{{% collapse-content title="Grupo de consulta por servicio" level="h5" %}} +{{% collapse-content title="Consulta agrupada por servicio" level="h5" %}} -Si tu monitor activa una alerta para cada `service`, entonces puedes acceder a algún atributo del servicio, tal y como se define en el [Software Catalog][10]. +Si su monitor activa una alerta para cada `service`, entonces puede acceder a algún atributo del servicio, como se define en el [Software Catalog][10]. -Variables de metadatos de servicio: +Variables de metadatos del servicio: - Nombre del servicio: `{{service.name}}` - Nombre del equipo: `{{service.team}}` - Documentos: `{{service.docs}}` - Enlaces: `{{service.links}}` -Para documentos y enlaces también puedes acceder a un elemento específico con la siguiente sintaxis `[]`. Por ejemplo, para los servicios que tienen un esquema de definición como el definido en este [ejemplo][11], puedes acceder al enlace "Runbook" utilizando la siguiente sintaxis +Para Documentos y Enlaces también puede acceder a un elemento específico con la siguiente sintaxis `[]`. Por ejemplo, para servicios que tienen un esquema de definición como el definido en este [ejemplo][11], puede acceder al enlace "Runbook" utilizando la siguiente sintaxis ```text {{service.links[Runbook]}} ``` {{% /collapse-content %}} -### Unión de variables de atributo/etiqueta +### Variables de atributo/etiqueta coincidentes {#matching-attributetag-variables} -Puedes incluir cualquier atributo o etiqueta de un log, tramo de traza, evento RUM, CI pipeline, o evento de CI test que coincida con la consulta de monitor. La siguiente tabla muestra ejemplos de atributos y variables que puedes añadir de diferentes tipos de monitor. +Puede incluir cualquier atributo o etiqueta de un registro, traza, evento RUM, canalización CI o evento de prueba CI que coincida con la consulta del monitor. La siguiente tabla muestra ejemplos de atributos y variables que puede agregar de diferentes tipos de monitores. -
    Para ver la lista completa de variables disponibles para tu monitor, en la parte inferior de la configuración de notificaciones, haz clic en Add Variable (Añadir variable) y selecciona una de las opciones del menú desplegado.
    +
    Para ver la lista completa de variables disponibles para su monitor, en la parte inferior de la configuración de notificación haga clic en {{ Agregue Variable y seleccione de las opciones del menú expandido.
    -| Tipo de monitor | Sintaxis de la variable | +| Tipo de monitor | Sintaxis de variable | |--------------------------|--------------------------------------------------------| -| [Audit Trail][16] | `{{audit.attributes.key}}` o `{{audit.message}}` | +| [Audit Trail][16] | `{{audit.attributes.key}}` or `{{audit.message}}` | | [CI Pipeline][17] | `{{cipipeline.attributes.key}}` | | [CI Test][18] | `{{citest.attributes.key}}` | | [Database Monitoring][19]| `{{databasemonitoring.attributes.key}}` | | [Error Tracking][14] | `{{issue.attributes.key}}` | -| [Log][12] | `{{log.attributes.key}}` o `{{log.tags.key}}` | -| [RUM][15] | `{{rum.attributes.key}}` o `{{rum.tags.key}}` | +| [Log][12] | `{{log.attributes.key}}` or `{{log.tags.key}}` | +| [RUM][15] | `{{rum.attributes.key}}` or `{{rum.tags.key}}` | | [Synthetic Monitoring][20]| `{{synthetics.attributes.key}}` | -| [Trace Analytics][13] | `{{span.attributes.key}}` o `{{span.tags.key}}` | +| [Trace Analytics][13] | `{{span.attributes.key}}` or `{{span.tags.key}}` | {{% collapse-content title="Ejemplo de uso de sintaxis" level="h4" %}} -- Para cualquier par `key:value`, la variable `{{log.tags.key}}` se convierte en `value` en el mensaje de alerta. -- No se incluye el `@` que precede a todos los atributos. Por ejemplo, si un monitor de logs está agrupado por `@http.status_code`, puedes incluir el mensaje de error o las etiquetas de infraestructura en el mensaje de notificación utilizando las variables: +- Para cualquier par `key:value`, la variable `{{log.tags.key}}` renders `valor` en el mensaje de alerta. +- El `@` que precede a todos los atributos no está incluido. Por ejemplo, si un monitor de registros está agrupado por `@http.status_code`, puedes incluir el mensaje de error o las etiquetas de infraestructura en el mensaje de notificación utilizando las variables: ```text {{ log.attributes.[error.message] }} @@ -410,8 +410,8 @@ Puedes incluir cualquier atributo o etiqueta de un log, tramo de traza, evento R ... ``` - {{< img src="monitors/notifications/tag_attribute_variables.png" alt="Unir la sintaxis de variable de atributo" style="width:90%;">}} -- El mensaje muestra el atributo `error.message` de un log elegido que coincide con la consulta, **si el atributo existe**. + {{< img src="monitors/notifications/tag_attribute_variables.png" alt="Sintaxis de variable de atributo coincidente" style="width:90%;">}} +- El mensaje muestra el atributo `error.message` de un registro elegido que coincide con la consulta, **si el atributo existe**. - Si la etiqueta está en un evento, utiliza la siguiente sintaxis: ```text @@ -420,46 +420,46 @@ Puedes incluir cualquier atributo o etiqueta de un log, tramo de traza, evento R {{% /collapse-content %}} -#### Notas importantes +#### Notas importantes {#important-notes} -- Si el evento seleccionado no incluye la clave de atributo o etiqueta, la variable aparece vacía en el mensaje de notificación. Para evitar que se pierdan notificaciones, evita utilizar estas variables para enrutar notificaciones con indicadores `{{#is_match}}`. -- Para los monitores que utilizan fórmulas y funciones en las consultas, los valores se resuelven en función de los eventos extraídos de la primera consulta. +- Si el evento seleccionado no incluye el atributo o la clave de etiqueta, la variable se muestra vacía en el mensaje de notificación. Para evitar notificaciones perdidas, evita usar estas variables para enrutar notificaciones con `{{#is_match}}` manejadores. +- Para monitores que utilizan Fórmulas y Funciones en consultas, los valores se resuelven en función de los eventos extraídos de la primera consulta. -#### Atributos reservados +#### Atributos reservados {#reserved-attributes} -Los eventos de logs, Event Management, tramos, RUM, CI Pipeline y CI Test tienen atributos reservados genéricos, que puedes usar en variables con la siguiente sintaxis: +Los registros, Event Management, spans, RUM, CI Pipeline y eventos de prueba CI tienen atributos reservados genéricos, que puedes usar en variables con la siguiente sintaxis: -| Tipo de monitor | Sintaxis de la variable | Atributos de primer nivel | +| Tipo de monitor | Sintaxis de variable | Atributos de primer nivel | |-----------------|-------------------|------------------------| -| Log | `{{log.key}}` | `message`, `service`, `status`, `source`, `span_id`, `timestamp`, `trace_id`, `link`, `host` | -| Trace Analytics | `{{span.key}}` | `env`, `operation_name`, `resource_name`, `service`, `status`, `span_id`, `timestamp`, `trace_id`, `type`, `link` | -| RUM | `{{rum.key}}` | `service`, `status`, `timestamp`, `link` | -| Evento | `{{event.key}}` | `attributes`, `host.name`, `id`, `link`, `title`, `text`, `tags` | -| CI Pipeline | `{{cipipeline.key}}` | `service`, `env`, `resource_name`, `ci_level`, `trace_id`, `span_id`, `pipeline_fingerprint`, `operation_name`, `ci_partial_array`, `status`, `timestamp`, `link` | -| CI Test | `{{citest.key}}` | `service`, `env`, `resource_name`, `trace_id`, `span_id`, `operation_name`, `status`, `timestamp`, `link` | +| Registro | `{{log.key}}` | `mensaje`, `servicio`, `estado`, `fuente`, `ID de tramo`, `marca de tiempo`, `ID de traza`, `enlace`, `servidor` | +| Trace Analytics | `{{span.key}}` | `entorno`, `nombre de operación`, `nombre de recurso`, `servicio`, `estado`, `ID de tramo`, `marca de tiempo`, `ID de traza`, `tipo`, `enlace` | +| RUM | `{{rum.key}}` | `servicio`, `estado`, `marca de tiempo`, `enlace` | +| Event | `{{event.key}}` | `atributos`, `nombre.del.servidor`, `id`, `enlace`, `título`, `texto`, `etiquetas` | +| CI Pipeline | `{{cipipeline.key}}` | `servicio`, `entorno`, `nombre de recurso`, `nivel_ci`, `ID de traza`, `ID de tramo`, `huella_dactilar_de_canalización`, `nombre de operación`, `arreglo_parcial_ci`, `estado`, `marca de tiempo`, `enlace` | +| CI Test | `{{citest.key}}` | `servicio`, `entorno`, `nombre_de_recurso`, `id_de_traza`, `id_de_tramo`, `nombre_de_operación`, `estado`, `marca_de_tiempo`, `enlace` | -Si el evento coincidente no contiene el atributo en su definición, la variable se muestra vacía. +Si el evento coincidente no contiene el atributo en su definición, la variable se renderiza vacía. -#### Enlace de explorador +#### Enlace del explorador {#explorer-link} -Utiliza `{{log.link}}`, `{{span.link}}`, `{{rum.link}}` y `{{issue.link}}` para fortalecer la notificación con un enlace a Log Explorer, Trace Explorer, RUM Explorer o Error Tracking, en el contexto de eventos que coincida con la consulta. +Usar `{{log.link}}`, `{{span.link}}`, `{{rum.link}}`, and `{{issue.link}}` para enriquecer la notificación con un enlace al Explorador de Registros, Explorador de Trazas, Explorador RUM o Error Tracking, limitado a los eventos que coinciden con la consulta. -### Comprobar variables de monitor +### Verificar variables de monitor {#check-monitor-variables} -Para comprobar las variables de monitor (check personalizado y check de integración), la variable `{{check_message}}` está disponible y muestra el mensaje especificado en el check personalizado o el check de integración. +Para verificar variables de monitor (verificación personalizada y verificación de integración), la variable `{{check_message}}` está disponible y renderiza el mensaje especificado en la verificación personalizada o la verificación de integración. -### Variables compuestas de monitor +### Variables de monitor compuesto {#composite-monitor-variables} -Los monitores compuestos pueden acceder al valor y al estado asociados a los submonitores en el momento en que se activa la alerta. +Los monitores compuestos pueden acceder al valor y estado asociados con los sub-monitores en el momento en que se activa la alerta. -Por ejemplo, si tu monitor compuesto tiene el submonitor `a`, puedes incluir el valor de `a` con: +Por ejemplo, si tu monitor compuesto tiene un sub-monitor `a`, puedes incluir el valor de `a` con: ```text {{ a.value }} ``` -Para recuperar el estado del submonitor `a`, utiliza: +Para recuperar el estado del sub-monitor `a`, use: ```text {{ a.status }} @@ -467,46 +467,66 @@ Para recuperar el estado del submonitor `a`, utiliza: Los valores posibles para el estado son: `OK`, `Alert`, `Warn` y `No Data`. -Los monitores compuestos también admiten variables de etiqueta del mismo modo que sus monitores subyacentes. Siguen el mismo formato que otros monitores, siempre que los monitores subyacentes estén agrupados por la misma etiqueta o faceta. +Los monitores compuestos también admiten variables de etiqueta de la misma manera que sus monitores subyacentes. Siguen el mismo formato que otros monitores, siempre que los monitores subyacentes estén agrupados por la misma etiqueta o faceta. -Por ejemplo, supón que tu monitor compuesto tiene un submonitor `a` , que es un monitor de logs. Puedes incluir el valor de cualquier etiqueta o faceta de `a` con: +Por ejemplo, suponga que su monitor compuesto tiene un sub-monitor `a`, que es un monitor de registros. Puede incluir el valor de cualquier etiqueta o faceta de `a` con: ```text -{{ a.log.message }} o {{ a.log.my_facet }} +{{ a.log.message }} or {{ a.log.my_facet }} ``` -### Fuga de caracteres +### Escape de caracteres {#character-escape} + +El contenido variable está codificado en HTML por defecto. Para mostrar contenido sin codificar, use tres llaves en lugar de dos llaves. + +Por ejemplo, cuando el valor de una variable contiene una URL con parámetros de consulta, el `&` se trata de manera diferente dependiendo de si se utilizan llaves dobles o triples: + +| Sintaxis | Ejemplo de salida | +--------|----------------| +| `{{template_variable}}` (double braces) | `https://status.example.com/check?service=web&region=us-east` | +| `{{{template_variable}}}` (triple braces) | `https://status.example.com/check?service=web®ion=us-east` | + +| Sintaxis | Salida | +|--------|--------| +| `{{variable}}` | HTML-encoded (default) | +| `{{{variable}}}` | Sin codificar | + +Por ejemplo, para mostrar el mensaje de verificación sin codificación HTML: + +```text +{{{check_message}}} +``` -El contenido de las variables se fuga por defecto. Para evitar que se fugue contenido como JSON o código, utiliza llaves triples en lugar de dobles, por ejemplo: `{{{event.text}}}`. +Esto es particularmente relevante cuando `{{check_message}}` contains auto-generated URLs with query parameters (for example, on HTTP Check monitors). The `&` characters in those URLs are HTML-encoded by default, which can break clickable links in notifications. Use `{{{check_message}}}` para preservar las URL tal como están. -## Variables de plantilla +## Variables de plantilla {#template-variables} -Utiliza variables de plantilla para personalizar tus notificaciones de monitor. Las variables incorporadas son: +Utiliza variables de plantilla para personalizar las notificaciones de tu monitor. Las variables integradas son: | Variable | Descripción | |----------------------------------- |-------------------------------------------------------------------------------| -| `{{value}}` | El valor que infringió la alerta para los monitores de consulta basados en métricas. | -| `{{threshold}}` | El valor del umbral de alerta establecido en las condiciones de alerta del monitor. | -| `{{warn_threshold}}` | Valor del umbral de advertencia establecido en las condiciones de alerta del monitor. | -| `{{alert_recovery_threshold}}` | El valor que recuperó el monitor de su estado `ALERT`. | -| `{{warn_recovery_threshold}}` | El valor que recuperó el monitor de su estado `WARN`. | -| `{{ok_threshold}}` | El valor que recuperó el monitor del check de servicio. | -| `{{comparator}}` | El valor relacional establecido en las condiciones de alerta del monitor. | -| `{{first_triggered_at}}`
    *Consulta la sección siguiente* | La fecha y hora UTC en que se activó el monitor por primera vez. | -| `{{first_triggered_at_epoch}}`
    *Consulta la sección siguiente* | La fecha y hora UTC en que el monitor se activó por primera vez en milisegundos epoch. | -| `{{last_triggered_at}}`
    *Consulta la sección siguiente* | La fecha y hora UTC en que se activó el monitor por última vez. | -| `{{last_triggered_at_epoch}}`
    *Consulta la sección siguiente* | La fecha y hora UTC en que el monitor se activó por última vez en milisegundos epoch. | -| `{{triggered_duration_sec}}` | El número de segundos que el monitor ha estado en estado activado. | +| `{{value}}` | The value that breached the alert for metric based query monitors. | +| `{{threshold}}` | The value of the alert threshold set in the monitor's alert conditions. | +| `{{warn_threshold}}` | The value of the warning threshold set in the monitor's alert conditions. | +| `{{alert_recovery_threshold}}` | The value that recovered the monitor from its `ALERTA` state. | +| `{{warn_recovery_threshold}}` | The value that recovered the monitor from its `ADVERTENCIA` state. | +| `{{ok_threshold}}` | The value that recovered the Service Check monitor. | +| `{{comparator}}` | The relational value set in the monitor's alert conditions. | +| `{{first_triggered_at}}`
    *See section below* | The UTC date and time when the monitor first triggered. | +| `{{first_triggered_at_epoch}}`
    *See section below* | The UTC date and time when the monitor first triggered in epoch milliseconds. | +| `{{last_triggered_at}}`
    *See section below* | The UTC date and time when the monitor last triggered. | +| `{{last_triggered_at_epoch}}`
    *See section below* | The UTC date and time when the monitor last triggered in epoch milliseconds. | +| `{{triggered_duration_sec}}` | El número de segundos que el monitor ha estado en un estado activado. | -### Variables activadas +### Variables activadas {#triggered-variables} -Las variables de plantilla de monitor `{{first_triggered_at}}`, `{{first_triggered_at_epoch}}`, `{{last_triggered_at}}` y `{{last_triggered_at_epoch}}` reflejan los valores cuando un monitor cambia de estado, **NO** cuando se produce un nuevo evento de monitor. Los eventos de renotificación muestran la misma variable de plantilla si el estado del monitor no ha cambiado. Utiliza `{{triggered_duration_sec}}` para mostrar la duración en el momento del evento del monitor. + El `{{first_triggered_at}}`, `{{first_triggered_at_epoch}}`, `{{last_triggered_at}}`, and `{{last_triggered_at_epoch}}` monitor template variables reflect the values when a monitor changes state, **NOT** when a new monitor event occurs. Renotification events show the same template variable if the monitor state has not changed. Use `{{triggered_duration_sec}}` para mostrar la duración en el momento del evento del monitor. - `{{first_triggered_at}}` se establece cuando el grupo de monitor pasa de `OK` a un estado distinto de `OK` o cuando aparece un nuevo grupo en un estado distinto de `OK`. `{{last_triggered_at}}` se establece cuando el grupo de monitor pasa a un estado distinto de `OK` independientemente de su estado anterior (incluido `WARN` → `ALERT`, `ALERT` → `WARN`). Además, `{{last_triggered_at}}` se establece cuando un nuevo grupo aparece en un estado distinto a `OK`. La diferencia es que `{{last_triggered_at}}` es independiente de su estado anterior. + `{{first_triggered_at}}` is set when the monitor group goes from `OK` to a non-`OK` state or when a new group appears in a non-`OK` state. `{{last_triggered_at}}` gets set when the monitor group goes to a non-`OK` state independently from its previous state (including `ADVERTENCIA` → `ALERTA`, `ALERTA` → `ADVERTENCIA`). Additionally, `{{last_triggered_at}}` is set when a new group appears in a non-`OK` state. The difference is that `{{last_triggered_at}}` es independiente de su estado anterior. - {{< img src="monitors/notifications/triggered_variables.png" alt="Muestra cuatro transiciones con marcas temporales A: 1419 OK a WARN, B: 1427 WARN a ALERT, C: 1445 ALERT a NO DATA, D: 1449 NO DATA a OK" style="width:90%;">}} + {{< img src="monitors/notifications/triggered_variables.png" alt="Mostrando cuatro transiciones con marcas de tiempo A: 1419 OK a ADVERTENCIA, B: 1427 ADVERTENCIA a ALERTA, C: 1445 ALERTA a SIN DATOS, D: 1449 SIN DATOS a OK" style="width:90%;">}} -**Ejemplo**: Cuando el monitor pasa de `OK` → `WARN`, los valores de `{{first_triggered_at}}` y `{{last_triggered_at}}` tienen ambos la marca temporal A. La tabla siguiente muestra los valores hasta que el monitor se recupere. +**Ejemplo**: Cuando el monitor transita de `OK` → `WARN`, los valores de `{{first_triggered_at}}` and `{{last_triggered_at}}` ambos tienen la marca de tiempo A. La tabla a continuación muestra los valores hasta que el monitor se recupera. | Transición | first_triggered_at | last_triggered_at | triggered_duration_sec | |------------------ |-------------------------------- |-------------------------------- |-------------------------------- | @@ -515,43 +535,43 @@ Las variables de plantilla de monitor `{{first_triggered_at}}`, `{{first_trigger | `ALERT` → `NO DATA`| A | C | C - A | | `NO DATA` → `OK` | A | C | D - A | -### Evaluación +### Evaluación {#evaluation} -Las variables de plantilla que devuelven valores numéricos admiten operaciones y funciones, que permiten realizar operaciones matemáticas o cambios de formato en el valor. Para más detalles, consulta [Evaluación de variables de plantilla][7]. +Las variables de plantilla que devuelven valores numéricos admiten operaciones y funciones, lo que te permite realizar operaciones matemáticas o cambios de formato en el valor. Para más detalles, consulta [Evaluación de Variables de Plantilla][7]. -### Hora local +### Hora local {#local-time} -Utiliza la función `local_time` para añadir otra fecha en tu notificación en la zona horaria de elección. Esta función transforma una fecha en su hora local: `{{local_time 'time_variable' 'timezone'}}`. -Por ejemplo, para añadir la última hora activada del monitor en la zona horaria de Tokio en tu notificación, incluye lo siguiente en el mensaje de notificación: +Utiliza la función `local_time` para agregar otra fecha en tu notificación en la zona horaria de tu elección. Esta función transforma una fecha en su hora local: `{{local_time 'time_variable' 'timezone'}}`. +Por ejemplo, para agregar la última hora activada del monitor en la zona horaria de Tokio en tu notificación, incluye lo siguiente en el mensaje de notificación: ``` {{local_time 'last_triggered_at' 'Asia/Tokyo'}} ``` El resultado se muestra en el formato ISO 8601: `yyyy-MM-dd HH:mm:ss±HH:mm`, por ejemplo `2021-05-31 23:43:27+09:00`. -Consulta la [lista de zonas horarias de la base de datos tz][8], en particular la columna de nombre de la base de datos TZ, para ver la lista de valores de zonas horarias disponibles. +Consulta la [lista de zonas horarias de la base de datos tz][8], particularmente la columna de nombre de la base de datos TZ, para ver la lista de valores de zona horaria disponibles. -## Avanzado +## Avanzado {#advanced} -### Identificadores dinámicos +### Manejadores dinámicos {#dynamic-handles} -Utiliza [variables de etiqueta](#attribute-and-tag-variables) para crear dinámicamente identificadores de notificación y notificaciones de ruta al equipo o servicio correcto basado en el tipo de problema detectado por tu monitor. +Utiliza [variables de etiqueta](#attribute-and-tag-variables) para construir dinámicamente manejadores de notificación y dirigir notificaciones al equipo o servicio correcto según el tipo de problema detectado por tu monitor. -**Ejemplo**: Si tu monitor consulta una métrica y la agrupa por una etiqueta de `service`, puedes hacer que tus notificaciones se enruten a diferentes canales de Slack según el servicio que falle: +**Ejemplo**: Si tu monitor consulta una métrica y la agrupa por una etiqueta `service`, puedes hacer que tus notificaciones se dirijan a diferentes canales de Slack dependiendo del servicio que esté fallando: ```text -@slack-{{service.name}} Hay un problema en curso con {{service.name}}. +@slack-{{service.name}} There is an ongoing issue with {{service.name}}. ``` -Si tu monitor empieza a fallar en el grupo `service:ad-server`, la notificación se envía al canal de Slack `#ad-server` con el siguiente contenido: +Si tu monitor comienza a fallar en el grupo `service:ad-server`, la notificación se envía al canal de Slack `#ad-server` con el siguiente contenido: ```text -@slack-ad-server Hay un problema en curso con ad-server. +@slack-ad-server There is an ongoing issue with ad-server. ``` -Cuando se crean indicadores dinámicos con atributos que pueden no estar siempre presentes, pueden surgir problemas con la entrega de notificaciones. Si falta un atributo, la variable se muestra vacía en el mensaje de notificación, lo que da lugar a un indicador no válido. +Al construir manejadores dinámicos con atributos que pueden no estar siempre presentes, puedes encontrar problemas con la entrega de notificaciones. Si falta un atributo, la variable se renderiza vacía en el mensaje de notificación, lo que resulta en un manejador inválido. -Para evitar notificaciones perdidas al usar identificadores dinámicos con estas variables, asegúrate de agregar un identificador alternativo: +Para evitar notificaciones perdidas al usar manejadores dinámicos con estas variables, asegúrate de agregar un manejador de respaldo: ```text {{#is_exact_match "kube_namespace.owner" ""}} @@ -561,101 +581,101 @@ Para evitar notificaciones perdidas al usar identificadores dinámicos con estas ``` -### Enlaces dinámicos +### Enlaces dinámicos {#dynamic-links} -Utiliza [variables de etiqueta](#attribute-and-tag-variables) para permitir la creación de URL dinámicas que enlacen a tu equipo con un recurso apropiado. Por ejemplo, puedes proporcionar enlaces a páginas dentro de Datadog como dashboards, mapa de host y monitores. +Utiliza [variables de etiqueta](#attribute-and-tag-variables) para habilitar la construcción dinámica de URL que vincule a tu equipo a un recurso apropiado. Por ejemplo, puedes proporcionar enlaces a páginas dentro de Datadog, como dashboards, el mapa de servidores y monitores. {{< tabs >}} {{% tab "Dashboards" %}} -Utiliza la [variable de etiqueta](#attribute-and-tag-variables) `{{host.name}}` para proporcionar un enlace a un dashboard de sistema: +Utiliza el `{{host.name}}` [variable de etiqueta](#attribute-and-tag-variables) para proporcionar un enlace a un dashboard del sistema: ```text https://app.datadoghq.com/dash/integration/system_overview?tpl_var_scope=host:{{host.name}} ``` -Utiliza la [variable de etiqueta](#attribute-and-tag-variables) `{{host.name}}` y `` para proporcionar un enlace a un dashboard de integración: +Utiliza el `{{host.name}}` [tag variable](#attribute-and-tag-variables) and an `` para proporcionar un enlace a un dashboard de integración: ```text https://app.datadoghq.com/dash/integration/?tpl_var_scope=host:{{host.name}} ``` -Utiliza la [variable de plantilla] `{{last_triggered_at_epoch}}` así como `` y ``para vincular a dashboards con rangos temporales relativos desde el momento de la alerta: +Utiliza el `{{last_triggered_at_epoch}}` [template variable](#template-variables) as well as a `` and `` para enlazar a dashboards con rangos de tiempo relativos desde el momento de la alerta: ```text https://app.datadoghq.com/dashboard//?from_ts={{eval "last_triggered_at_epoch-10*60*1000"}}&to_ts={{eval "last_triggered_at_epoch+10*60*1000"}}&live=false ``` {{% /tab %}} -{{% tab "Mapa de host" %}} +{{% tab "Mapa de servidores" %}} -Utiliza una [variable de etiqueta](#attribute-and-tag-variables) como `{{service.name}}` para proporcionar un enlace al mapa de host: +Utiliza una [variable de etiqueta](#attribute-and-tag-variables) como `{{service.name}}` para proporcionar un enlace al mapa de servidores: ```text https://app.datadoghq.com/infrastructure/map?filter=service:{{service.name}} ``` -El enlace del mapa de host se puede personalizar con parámetros adicionales. Los más comunes son: +El enlace del mapa de servidores es personalizable con parámetros adicionales. Los más comunes son: | Parámetro | Definido con | Determina | |-----------|----------------------------|--------------------------------------| -| `fillby` | `fillby=avg:` | El color de relleno de los hexágonos de host. | -| `groupby` | `groupby=` | Los grupos para hexágonos de host. | -| `sizeby` | `sizeby=avg:` | El tamaño de los hexágonos de host. | +| `fillby` | `fillby=avg:` | El color de relleno de los hexágonos de los hosts. | +| `groupby` | `groupby=` | Los grupos para los hexágonos de los hosts. | +| `sizeby` | `sizeby=avg:` | El tamaño de los hexágonos de los hosts. | {{% /tab %}} -{{% tab "Monitores" %}} +{{% tab "Seguimientos" %}} -Utiliza la [variable de etiqueta](#attribute-and-tag-variables) `{{host.name}}` para proporcionar un enlace a todos los monitores relacionados con un host específico: +Utiliza el `{{host.name}}` [variable de etiqueta](#attribute-and-tag-variables) para proporcionar un enlace a todos los seguimientos relacionados con un host específico: ```text https://app.datadoghq.com/monitors/manage?q=scope:host:{{host.name}} ``` -El enlace de monitores se puede personalizar con parámetros adicionales. Los más comunes son: +El enlace de seguimiento es personalizable con parámetros adicionales. Los más comunes son: | Parámetro | Ejemplo | Muestra | |-----------|----------------|---------------------------------------------------------------------------------| -| `status` | `status:Alert` | Monitores en estado de alerta (estados adicionales: `WARN`, `NO DATA` y `OK`) | -| `muted` | `muted: true` | Monitores silenciados (utiliza `false` para monitores no silenciados) | -| `type` | `type:log` | Monitores de logs (consulta otros [tipos de monitores][1]) | +| `status` | `status:Alert` | Seguimientos en estado de alerta (estados adicionales: `WARN`, `NO DATA` y `OK`) | +| `muted` | `muted: true` | Seguimientos silenciados (usa `false` para seguimientos no silenciados) | +| `type` | `type:log` | Monitor de registros (ver otros [tipos de seguimientos][1]) | [1]: /es/monitors/types {{% /tab %}} -{{% tab "Logs" %}} +{{% tab "Registros" %}} -Utiliza la [variable de plantilla] `{{last_triggered_at_epoch}}` (#template-variables) para proporcionar un enlace a todos los logs que estén ocurriendo en el momento de la alerta. +Utiliza el `{{last_triggered_at_epoch}}` [variable de plantilla](#template-variables) para proporcionar un enlace a todos los registros que ocurren en el momento de la alerta. ```text https://app.datadoghq.com/logs?from_ts={{eval "last_triggered_at_epoch-10*60*1000"}}&to_ts={{eval "last_triggered_at_epoch+10*60*1000"}}&live=false ``` -El enlace de logs se puede personalizar con parámetros adicionales. Los más comunes son: +El enlace de registros es personalizable con parámetros adicionales. Los más comunes son: | Parámetro | Definido con | Determina | |-----------|----------------------------|----------------------------------------| -| `service` | `service=` | Filtro en logs de un servicio específico. | -| `host` | `host=` | Filtro en logs de un host específico | -| `status` | `status=` | Estado de logs: Error, Warn, Info, etc. | +| `service` | `service=` | Filtrar registros de un servicio específico. | +| `host` | `host=` | Filtrar registros de un host específico | +| `status` | `status=` | Estado de los registros: Error, Advertencia, Información, etc. | {{% /tab %}} {{< /tabs >}} -### Comentarios +### Comentarios {#comments} -Para incluir un comentario en el mensaje de monitor, utiliza la sintaxis: +Para incluir un comentario en el mensaje de seguimiento, utiliza la sintaxis: ```text {{!-- this is a comment --}} {{!-- this is a comment }} ``` -### Formato sin procesar +### Formato sin procesar {#raw-format} -Si tu mensaje de alerta necesita enviar llaves dobles, como `{{ }}`, utiliza el formato `{{{{raw}}}}`. Por ejemplo, el siguiente: +Si tu mensaje de alerta necesita enviar llaves dobles, como `{{ }}`, use `{{{{raw}}}}` formato. Por ejemplo, lo siguiente: ```text {{{{raw}}}} @@ -669,7 +689,7 @@ Salidas: {{ }} {{ }} ``` -Las ayudas `^|#` utilizadas en las [variables condicionales](#conditional-variables) no pueden utilizarse con el formato `{{{{raw}}}}` y deben eliminarse. Por ejemplo, para mostrar texto sin formato con la variable condicional `{{is_match}}`, utiliza la siguiente plantilla: +Los `^|#` ayudantes utilizados en [variables condicionales](#conditional-variables) no pueden ser utilizados con `{{{{raw}}}}` formatting and must be removed. For instance, to output raw text with the `{{is_match}}` variable condicional utiliza la siguiente plantilla: ```text {{{{is_match "host.name" ""}}}} @@ -677,23 +697,23 @@ Las ayudas `^|#` utilizadas en las [variables condicionales](#conditional-variab {{{{/is_match}}}} ``` -Si `host.name` coincide con ``, la plantilla muestra: +Si `host.name` coincide con ``, la plantilla produce: ```text {{ .matched }} the host name ``` -### Codificación URL +### Codificar URL {#url-encode} -Si tu mensaje de alerta incluye información que debe codificarse en una URL (por ejemplo, para redireccionamientos), utiliza la sintaxis `{{ urlencode ""}}`. +Si tu mensaje de alerta incluye información que necesita ser codificada en una URL (por ejemplo, para redirecciones), use el `{{ urlencode ""}}` sintaxis. -**Ejemplo**: Si tu mensaje de monitor incluye una URL al Software Catalog filtrada a un servicio específico, utiliza la [variable de etiqueta](#attribute-and-tag-variables) `service` y añade la sintaxis `{{ urlencode ""}}` a la URL: +**Ejemplo**: Si tu mensaje de seguimiento incluye una URL al Software Catalog filtrada a un servicio específico, usa la `service` [variable de etiqueta](#attribute-and-tag-variables) y agrega el `{{ urlencode ""}}` sintaxis a la URL: ``` https://app.datadoghq.com/services/{{urlencode "service.name"}} ``` -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/opentelemetry/_index.md b/content/es/opentelemetry/_index.md index 1d7ddc814a9..10b1ab88575 100644 --- a/content/es/opentelemetry/_index.md +++ b/content/es/opentelemetry/_index.md @@ -13,134 +13,134 @@ cascade: further_reading: - link: /opentelemetry/compatibility/ tag: Documentación - text: Compatibilidad de funciones + text: Compatibilidad de características - link: /opentelemetry/instrument/ tag: Documentación - text: Instrumenta tus solicitudes + text: Instrumenta tus aplicaciones - link: /opentelemetry/setup/ tag: Documentación text: Envía datos a Datadog - link: https://www.datadoghq.com/blog/opentelemetry-instrumentation/ tag: Blog - text: Asociación de Datadog con OpenTelemetry + text: La asociación de Datadog con OpenTelemetry - link: https://www.datadoghq.com/blog/monitor-otel-with-w3c-trace-context/ tag: Blog - text: Monitorizar aplicaciones instrumentadas con OpenTelemetry compatibles con - el contexto de rastreo de W3C + text: Monitorea aplicaciones instrumentadas con OpenTelemetry con soporte para W3C + Trace Context - link: https://www.datadoghq.com/blog/ingest-opentelemetry-traces-metrics-with-datadog-exporter/ tag: Blog - text: Enviar métricas y trazas (traces) desde OpenTelemetry Collector a Datadog - a través del Exportador Datadog + text: Envía métricas y trazas desde OpenTelemetry Collector a Datadog a través de + Datadog Exporter - link: https://www.datadoghq.com/blog/opentelemetry-logs-datadog-exporter/ tag: Blog - text: Reenviar logs desde OpenTelemetry Collector con el Exportador Datadog + text: Reenvía registros desde OpenTelemetry Collector con Datadog Exporter - link: https://www.datadoghq.com/about/latest-news/press-releases/datadog-announces-opentelemetry-protocol-support/ tag: Blog - text: Ingestión de OpenTelemetry Protocol en el Agent + text: Ingesta OTLP en el Agente - link: https://www.datadoghq.com/blog/aws-opentelemetry-lambda-layer-datadog/ tag: Blog - text: Más información sobre la capa Lambda gestionada de AWS para OpenTelemetry + text: Aprende más sobre la capa Lambda administrada de AWS para OpenTelemetry - link: https://www.datadoghq.com/blog/correlate-traces-datadog-rum-otel/ tag: Blog - text: Correlacionar eventos de Datadog RUM con trazas de aplicaciones instrumentadas + text: Correlaciona eventos RUM de Datadog con trazas de aplicaciones instrumentadas con OpenTelemetry - link: https://www.datadoghq.com/blog/opentelemetry-runtime-metrics-datadog/ tag: Blog - text: Monitorizar métricas de tiempo de ejecución desde aplicaciones instrumentadas - por OpenTelemetry con Datadog APM + text: Monitorea métricas de tiempo de ejecución de aplicaciones instrumentadas con + OTel con Datadog APM - link: https://www.datadoghq.com/blog/otel-deployments/ tag: Blog - text: Cómo seleccionar el despliegue de OpenTelemetry + text: Cómo seleccionar tu implementación de OpenTelemetry - link: https://learn.datadoghq.com/courses/otel-with-datadog - tag: Centro de aprendizaje + tag: Centro de Aprendizaje text: Introducción a OpenTelemetry con Datadog +- link: https://learn.datadoghq.com/courses/understanding-opentelemetry + tag: Centro de Aprendizaje + text: Entendiendo OpenTelemetry title: OpenTelemetry en Datadog --- - -{{< learning-center-callout hide_image="true" header="Try \"Introduction to OTel with Datadog\" in the Learning Center" btn_title="Enroll Now" btn_url="https://learn.datadoghq.com/courses/otel-with-datadog">}} - Aprende cómo configurar OpenTelemetry para exportar métricas, trace (trazas) y logs a Datadog y explorar los datos recopilados en la plataforma. +{{< learning-center-callout hide_image="true" header="Prueba "Introducción a OTel con Datadog" en el Centro de Aprendizajeer" btn_title="Inscríbete ahora" btn_url="https://learn.datadoghq.com/courses/otel-with-datadog">}} + Aprende a configurar OpenTelemetry para exportar métricas, trazas y registros a Datadog, y explora los datos recopilados en la plataforma. {{< /learning-center-callout >}} -## Información general +## Visión general {#overview} -[OpenTelemetry][1] (OTel) proporciona protocolos estandarizados para recopilar y enrutar datos telemétricos. Datadog admite múltiples formas de recopilar y analizar datos telemétricos de aplicaciones instrumentadas con OpenTelemetry, tanto si utilizas la infraestructura de Datadog como si prefieres una configuración independiente del proveedor. +[OpenTelemetry][1] (OTel) proporciona protocolos estandarizados para recopilar y enrutar datos de telemetría. Datadog admite múltiples formas de recopilar y analizar datos de telemetría de aplicaciones instrumentadas con OpenTelemetry, ya sea que esté utilizando la infraestructura existente de Datadog o prefiera una configuración neutral ante proveedores. -### ¿Por qué OpenTelemetry con Datadog? +### ¿Por qué OpenTelemetry con Datadog? {#why-opentelemetry-with-datadog} -Datadog proporciona observabilidad avanzada para toda la telemetría de tu aplicación, independientemente de su source (fuente). Al ser compatible con OpenTelemetry, Datadog ofrece: +Datadog proporciona observabilidad avanzada para toda tu telemetría de aplicaciones, independientemente de su origen. Al admitir OpenTelemetry, Datadog ofrece: -- **Flexibilidad y capacidad de elección**: Utiliza la instrumentación estandarizada mientras mantienes la libertad de adaptarte a medida que evolucionen tus necesidades tecnológicas. -- **Compatibilidad con todos los lenguajes**: Consistentemente aplicaciones de monitorización en todo tu stack tecnológico. -- **Instrumentación unificada**: Mantén un enfoque único de instrumentación en todos tus sistemas. -- **Potentes análisis**: Combina la estandarización de OpenTelemetry con las sólidas funciones de análisis, visualización y alerta de Datadog. +- **Flexibilidad y elección**: Usa instrumentación estandarizada mientras mantienes la libertad de adaptarte a medida que evolucionan tus necesidades tecnológicas. +- **Soporte integral de lenguajes**: Monitorea de manera consistente las aplicaciones en toda tu pila tecnológica. +- **Instrumentación unificada**: Mantén un enfoque único para la instrumentación en tus sistemas. +- **Análisis poderosos**: Combina la estandarización de OpenTelemetry con las robustas capacidades de análisis, visualización y alertas de Datadog. -Tanto si ya utilizas OpenTelemetry como si estás considerando adoptarlo, Datadog ofrece opciones flexibles para satisfacer tus necesidades. +Ya sea que ya estés utilizando OpenTelemetry o estés considerando su adopción, Datadog proporciona opciones flexibles para satisfacer tus necesidades. -### Decisiones clave +### Decisiones clave {#key-decisions} -Hay dos decisiones clave que tomar cuando se utiliza OpenTelemetry con Datadog: +Hay dos decisiones clave que tomar al usar OpenTelemetry con Datadog: - [Cómo instrumentar tus aplicaciones](#instrument-your-applications) -- [Cómo enviar tus datos a Datadog](#send-opentelemetry-data-to-Datadog) +- [Cómo enviar tus datos a Datadog](#send-opentelemetry-data-to-datadog) -Las funciones disponibles dependen de estas opciones. Por ejemplo, el uso de la API OpenTelemetry con el kit de desarrollo de software (SDK) de Datadog proporciona acceso a más funciones de Datadog que el uso del kit de desarrollo de software (SDK) de OpenTelemetry por sí solo. +Las características disponibles para ti dependen de estas elecciones. Por ejemplo, usar la API de OpenTelemetry con el SDK de Datadog proporciona acceso a más características de Datadog que usar solo el SDK de OpenTelemetry. -Para obtener más información, lee [Compatibilidad de funciones][9]. +Para más información, consulta [Compatibilidad de Características][9]. -## Instrumenta tus aplicaciones +## Instrumenta tus aplicaciones {#instrument-your-applications} -Hay varias maneras de instrumentar tus aplicaciones con OpenTelemetry y Datadog. Cada enfoque ofrece diferentes funciones y niveles de neutralidad del proveedor. +Existen varias formas de instrumentar tus aplicaciones con OpenTelemetry y Datadog. Cada enfoque proporciona diferentes características y niveles de neutralidad del proveedor. -- **OpenTelemetry completo**: Utiliza el kit de desarrollo de software (SDK) y la API de OpenTelemetry para una configuración independiente del proveedor. -- **API de OpenTelemetry**: Utiliza la API de OpenTelemetry con la implementación del kit de desarrollo de software (SDK) de Datadog. -- **Bibliotecas de instrumentación de OpenTelemetry**: Extiende la observabilidad de Datadog a marcos y tecnologías adicionaleslogies. +- **OpenTelemetry Completo**: Usa el SDK y la API de OpenTelemetry para una configuración neutral ante proveedores. +- **API de OpenTelemetry**: Usa la API de OpenTelemetry con la implementación del SDK de Datadog. +- **Bibliotecas de instrumentación de OpenTelemetry**: Extiende la observabilidad de Datadog a marcos y tecnologías adicionales. -Para obtener más información, consulta [Instrumenta tus aplicaciones][8]. +Para más información, consulta [Instrumenta Tus Aplicaciones][8]. -## Envía los datos de OpenTelemetry a Datadog +## Envía datos de OpenTelemetry a Datadog {#send-opentelemetry-data-to-datadog} -Si tus aplicaciones y servicios están instrumentadas con bibliotecas de OpenTelemetry, puedes elegir cómo obtener datos de traces (trazas), métricas y logs en Datadog. +Si tus aplicaciones y servicios están instrumentados con bibliotecas de OpenTelemetry, puedes elegir cómo enviar trazas, métricas y datos de registros a Datadog. -
    ¿No estás seguro de qué configuración te conviene?
    Consulta la tabla de compatibilidad de funciones para saber qué funciones de Datadog son compatibles.
    +
    ¿No estás seguro de qué configuración es la adecuada para ti?
    Consulta la tabla de Compatibilidad de Características para entender qué características de Datadog son compatibles.
    -### Opción 1: Utilizar OpenTelemetry Collector +### Opción 1: Usa el Agente de Datadog con el Colector DDOT (Recomendado) {#option-1-use-the-datadog-agent-with-ddot-collector-recommended} -{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagrama: El kit de desarrollo de software (SDK) de OpenTelemetry en código envía datos a través de OpenTelemetry Protocol al host que ejecuta OpenTelemetry Collector con el exportador de Datadog, que los reenvía a la plataforma de observabilidad de Datadog." style="width:100%;" >}} +{{< img src="/opentelemetry/setup/ddot-collector-2.png" alt="Descripción general de la arquitectura para el Colector DDOT, que está integrado en el Agente de Datadog." style="width:100%;" >}} -**Lo mejor para**: Usuarios nuevos o existentes de OpenTelemetry que deseen una configuración completamente independiente del proveedor. +**Mejor para**: Usuarios que buscan obtener tanto neutralidad del proveedor OTel como innovaciones del ecosistema de Datadog, tales como: -- Neutralidad total del proveedor para el envío de datos de OpenTelemetry a Datadog -- Opciones flexibles de configuración, como el muestreo por colas y las transformaciones de datos. +- Fleet Automation +- Live Container Monitoring +- Explorador de Kubernetes +- Live Processes +- Cloud Network Monitoring +- Universal Service Monitoring +- {{< translate key="integration_count" >}}+ Integraciones de Datadog {{< whatsnext desc=" " >}} - {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}}Más información sobre el uso de OpenTelemetry Collector{{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/ddot_collector/" >}}Aprende más sobre el uso del Agente de Datadog con el Colector DDOT{{< /nextlink >}} {{< /whatsnext >}} -### Opción 2: Utilizar el Datadog Agent con Datadog distribution of OpenTelemetry (DDOT) Collector +### Opción 2: Usa el Colector de OpenTelemetry {#option-2-use-the-opentelemetry-collector} -{{< img src="/opentelemetry/setup/ddot-collector-2.png" alt="Información general de la arquitectura de Datadog distribution of OpenTelemetry (DDOT) Collector, que está integrada en el Datadog Agent." style="width:100%;" >}} +{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagrama: El SDK de OpenTelemetry en el código envía datos a través de OTLP al host que ejecuta el Colector de OpenTelemetry con el Exportador de Datadog, que reenvía a la Plataforma de Observabilidad de Datadog." style="width:100%;" >}} -**Lo mejor para**: Los usuarios existentes Datadog o equipos que requieren funciones basadas en el Agent como por ejemplo: - -- Automatización de flotas -- Container Monitoring en tiempo real -- Explorer de Kubernetes -- Live Processes -- Cloud Network Monitoring -- Universal Service Monitoring -- {{< translate key="integration_count" >}}+ Integraciones de Datadog +**Mejor para**: Nuevos o existentes usuarios de OTel que desean una configuración completamente neutral ante proveedores. -
    Si deseas consultar una lista completa de las funciones basadas en el Agent, consulta OpenTelemetry al Datadog Agent (OpenTelemetry Protocol) en Compatibilidad de funciones.
    +- Completa neutralidad ante proveedores para enviar datos de OpenTelemetry a Datadog +- Opciones de configuración flexibles como muestreo basado en el seguimiento de las últimas líneas y transformaciones de datos {{< whatsnext desc=" " >}} - {{< nextlink href="/opentelemetry/setup/ddot_collector/" >}}Más información sobre el uso del Datadog Agent con Datadog distribution of OpenTelemetry (DDOT) Collector{{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}}Aprende más sobre el uso del Colector de OpenTelemetry{{< /nextlink >}} {{< /whatsnext >}} -### Opciones de configuración adicionales +### Opciones de configuración adicionales {#additional-setup-options} -Para conocer otras opciones de configuración, como el despliegue Agentless, consulta [Enviar datos a Datadog][7]. +Para otras opciones de configuración, incluyendo la ingestión directa de OTLP, consulte [Enviar datos a Datadog][7]. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/real_user_monitoring/_index.md b/content/es/real_user_monitoring/_index.md index 1d2ee667926..92c497357db 100644 --- a/content/es/real_user_monitoring/_index.md +++ b/content/es/real_user_monitoring/_index.md @@ -13,219 +13,247 @@ description: Visualiza, observa y analiza el rendimiento de tus aplicaciones de tal como las ven tus usuarios. disable_sidebar: true further_reading: -- link: https://app.datadoghq.com/release-notes?category=Real%20User%20Monitoring - tag: Notas de la versión - text: Consulta las últimas versiones de Datadog RUM. (Es necesario iniciar sesión - en la aplicación) +- link: /real_user_monitoring/application_monitoring/browser/data_collected/ + tag: Documentación + text: Datos del navegador RUM recopilados - link: https://dtdg.co/fe - tag: Habilitación de los fundamentos - text: Participa en una sesión interactiva para obtener información a través de Real - User Monitoring + tag: Habilitación de la fundación + text: Únete a una sesión interactiva para obtener información a través de RUM - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ tag: Blog - text: Presentamos Datadog Real User Monitoring + text: Presentando RUM de Datadog - link: https://www.datadoghq.com/blog/datadog-mobile-rum/ tag: Blog - text: Mejora la experiencia móvil del usuario con Real User Monitoring móvil de - Datadog + text: Mejora la experiencia del usuario móvil con Datadog Mobile Real User Monitoring - link: https://www.datadoghq.com/blog/mobile-monitoring-best-practices/ tag: Blog - text: Prácticas recomendadas para monitorizar el rendimiento de aplicaciones móviles + text: Mejores prácticas para monitorear el rendimiento de aplicaciones móviles - link: https://www.datadoghq.com/blog/error-tracking/ tag: Blog - text: Entiende los problemas de las aplicaciones con el seguimiento de errores de - Datadog + text: Comprende los problemas de la aplicación con Error Tracking de Datadog - link: https://www.datadoghq.com/blog/unify-apm-rum-datadog/ tag: Blog - text: Unifica los datos de APM y RUM para una visibilidad completa del stack tecnológico + text: Unifica los datos de APM y RUM para lograr una visibilidad completa de toda + la pila. - link: https://www.datadoghq.com/blog/datadog-geomaps/ tag: Blog - text: Utiliza geomapas para ver los datos de tu aplicación por ubicación + text: Utiliza geomapas para visualizar los datos de tu aplicación por ubicación - link: https://www.datadoghq.com/blog/datadog-rum-react-components/#tune-up-your-react-data-collection tag: Blog - text: Obtén datos de RUM mejorados con nuestros componentes de React personalizados + text: Obtén mejores datos de RUM con nuestros componentes personalizados de React - link: https://www.datadoghq.com/blog/hybrid-app-monitoring/ tag: Blog - text: Monitoriza tus aplicaciones móviles híbridas con Datadog + text: Monitorea tus aplicaciones móviles híbridas con Datadog - link: https://www.datadoghq.com/blog/how-datadogs-tech-solutions-team-rum-session-replay/ tag: Blog - text: Cómo el equipo de Soluciones técnicas de Datadog utiliza RUM, Session Replay - y el seguimiento de errores para solucionar los problemas de los clientes + text: Cómo el equipo de Soluciones Técnicas de Datadog utiliza RUM, reproducción + de sesión y Error Tracking para resolver problemas de clientes - link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ tag: Blog - text: Prácticas recomendadas para la monitorización de aplicaciones web estáticas -- link: /real_user_monitoring/application_monitoring/browser/data_collected/ - tag: Documentación - text: Datos del navegador de RUM recopilados + text: Mejores prácticas para monitorear aplicaciones web estáticas - link: https://www.datadoghq.com/blog/progressive-web-application-monitoring/ tag: Blog - text: Prácticas recomendadas para la monitorización de aplicaciones web progresivas -title: RUM y Session Replay + text: Mejores prácticas para monitorear aplicaciones web progresivas +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: Blog + text: Diseña tableros ejecutivos efectivos con Datadog +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: Blog + text: 'Del rendimiento al impacto: Conectando equipos de frontend a través de un + contexto compartido' +- link: https://app.datadoghq.com/release-notes?category=Real%20User%20Monitoring + tag: Notas de la versión + text: ¡Consulta las últimas versiones de Datadog RUM! (Se requiere inicio de sesión + en la aplicación) +- link: https://learn.datadoghq.com/courses/intro-to-rum + tag: Centro de Aprendizaje + text: Introducción a RUM (Real User Monitoring) +title: RUM y reproducción de sesión --- +{{< learning-center-callout header="Únete a una sesión de seminario web de habilitación" hide_image="true" btn_title="Regístrate" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=RUM">}} + Descubre cómo crear acciones de usuario personalizadas adaptadas a necesidades comerciales específicas, lo que permite un seguimiento preciso del comportamiento del usuario. +{{< /learning-center-callout >}} +## ¿Qué es RUM? {#what-is-real-user-monitoring} -{{< learning-center-callout header="Únete a una sesión de capacitación web" hide_image="true" btn_title="Inscríbete" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=RUM">}} - Descubre cómo crear acciones de usuarios personalizadas que se adapten a necesidades empresariales específicas, lo que permite un seguimiento preciso del comportamiento de los usuarios. -{{< /learning-center-callout >}} +{{< img src="real_user_monitoring/performance-summary-browser.png" alt="Tablero de RUM" >}} + +La *RUM (Real User Monitoring)* de Datadog te brinda visibilidad de extremo a extremo sobre la actividad y experiencia en tiempo real de usuarios individuales. RUM resuelve cuatro tipos de casos de uso para la monitorización de aplicaciones web y móviles: + +* **Rendimiento**: Realiza un seguimiento del rendimiento de las páginas web, pantallas de aplicaciones móviles, acciones de usuario, solicitudes de red y tu código frontend. +* **Gestión de Errores**: Monitorea los errores y problemas en curso y haz un seguimiento de ellos a lo largo del tiempo y las versiones. +* **Analítica / Uso**: Comprende quién está utilizando tu aplicación (país, dispositivo, SO), monitorea los recorridos de usuarios individuales y analiza cómo los usuarios interactúan con tu aplicación (página más visitada, clics, interacciones y uso de funciones). +* **Soporte**: Recupera toda la información relacionada con una sesión de usuario para solucionar un problema (duración de la sesión, páginas visitadas, interacciones, recursos cargados y errores). + +### Definición de sesión {#session-definition} -## ¿Qué es Real User Monitoring? +Una sesión de usuario es un recorrido de usuario en tu aplicación web o móvil. Una sesión incluye todos los eventos de navegación relacionados (Vistas RUM), acciones de usuario (Acciones RUM), solicitudes de red (Recursos RUM), fallos y errores (Errores RUM), y otros eventos y señales que producen colectivamente una representación fiel de la experiencia del usuario. -{{< img src="real_user_monitoring/performance-summary-browser.png" alt="Dashboard de RUM" >}} +Una sesión de RUM puede durar hasta 4 horas y expira después de 15 minutos de inactividad. Si el usuario interactúa con la aplicación después de cualquiera de los límites, se inicia automáticamente una nueva sesión. -Con Datadog Real User Monitoring (RUM)*, disfrutarás de una visibilidad de extremo a extremo de la actividad y la experiencia en tiempo real de cada usuario. RUM resuelve cuatro tipos de casos de uso para la monitorización de aplicaciones web y móviles: +### Limitaciones técnicas {#technical-limitations} -* **Rendimiento**: Realiza un seguimiento del rendimiento de páginas web, pantallas de aplicaciones móviles, acciones de los usuarios, solicitudes de red y tu código frontend. -* **Gestión de errores**: Monitoriza los errores y problemas en curso y haz un seguimiento a lo largo del tiempo en las diferentes versiones. -* **Análisis/Uso**: Conoce quién utiliza tu aplicación (país, dispositivo, sistema operativo), controla los recorridos de cada usuario y analiza cómo interactúan los usuarios con tu aplicación (página que más suele visitarse, clics, interacciones y uso de funciones). -* **Asistencia**: Obtén toda la información relacionada con una sesión de usuario para solucionar un problema (duración de la sesión, páginas visitadas, interacciones, recursos cargados y errores). +| Propiedad | Limitación | +| ------------------------------------------ | ------------------------ | +| Duración máxima de una sesión | 4 horas | +| Tiempo de espera de una sesión | 15 minutos de inactividad | +| Número máximo de eventos por sesión | 10 millones | +| Número máximo de atributos por evento | 1,000 | +| Profundidad máxima de atributos por evento | 20 | +| Tamaño máximo de evento | 1 MB | +| Tamaño máximo de carga útil de entrada | 5 MB | +| Tamaño máximo de mapas del código fuente y archivos de mapeo | 500 MB por archivo | +| Tamaño máximo de archivos dSYM | 2 GB por archivo | +| Retraso máximo en la ingestión | 24 horas | -Una sesión de usuario es un recorrido del usuario en tu aplicación web o móvil que dura hasta cuatro horas. Una sesión suele incluir las páginas vistas y la telemetría asociada. Si un usuario no interactúa con una aplicación durante 15 minutos, la sesión se considera terminada. Una nueva sesión comienza cuando el usuario vuelve a interactuar con la aplicación. +Si un evento supera cualquiera de las limitaciones técnicas mencionadas anteriormente, es rechazado por la ingesta de Datadog. -## ¿Qué es Session Replay? +## ¿Qué es la Reproducción de Sesión? {#what-is-session-replay} -*Session Replay* de Datadog te permite detectar y reproducir visualmente la experiencia de navegación web de tus usuarios. +La *Reproducción de sesión* de Datadog te permite capturar y reproducir visualmente la experiencia de navegación web de tus usuarios. -Cuando se utiliza junto con los datos de rendimiento de RUM, Session Replay ayuda a identificar, reproducir y solucionar errores, además de ofrecer información sobre los patrones de uso de tu aplicación web y sus problemas de diseño. +Combinada con los datos de rendimiento de RUM, la Reproducción de sesión es beneficiosa para la identificación, reproducción y resolución de errores, y proporciona información sobre los patrones de uso y las fallas de diseño de tu aplicación web. -## Para empezar +## Comienza {#get-started} -Selecciona un tipo de aplicación para empezar a recopilar datos de RUM: +Selecciona un tipo de aplicación para comenzar a recopilar datos de RUM: {{< partial name="rum/rum-getting-started.html" >}}
    -### Funcionalidades y plataformas compatibles +### Capacidades y soporte de plataforma {#capabilities-and-platform-support} -**Nota**: El SDK de Datadog Flutter no es compatible con MacOS, Windows o Linux. +**Nota**: El SDK de Datadog para Flutter no es compatible con MacOS, Windows o Linux. -La siguiente tabla muestra las funcionalidades de RUM compatibles con cada plataforma: +La siguiente tabla muestra qué capacidades de RUM son compatibles en cada plataforma: -| Función | Navegador | Android | iOS | Flutter | React Native | Roku | KMP | Unidad | Notas | +| Característica | Navegador | Android | iOS | Flutter | React Native | Roku | KMP | Unity | Notas | | ------------------------------------- | --------|---------|---------|---------|--------------|------|-----|-------|--------| -| Enviar logs a Datadog | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | -| Rastreo distribuido de solicitudes de red | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - **Roku** solo puede rastrear algunos tipos de solicitudes HTTP.
    - **Unity** utiliza una envoltura alrededor de `UnityWebRequest` para realizar el seguimiento de las solicitudes. | -| Rastrear vistas y acciones (RUM) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - Todas las acciones seguidas en **Flutter Web** se registran como `custom`.
    - **Roku** y **Unity** solo admiten el seguimiento manual de acciones. | -| Seguimiento de marcadores de funciones y seguimiento de versiones | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | -| Seguimiento de errores y asignación de orígenes | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Solo parcialmente compatible con **React Native**. | +| Envía registros a Datadog | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Trazado distribuido de solicitudes de red | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - **Roku** solo puede rastrear algunos tipos de solicitudes HTTP.
    - **Unity** utiliza un envoltorio alrededor de `UnityWebRequest` para realizar el rastreo de solicitudes. | +| Rastrear Vistas y Acciones (RUM) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - Todas las acciones rastreadas en **Flutter Web** se registran como `custom`.
    - **Roku** y **Unity** solo admiten el rastreo manual de acciones. | +| Seguimiento de Feature Flags y rastreo de lanzamientos | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Seguimiento de errores y mapa del código fuente | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Solo parcialmente compatible con **React Native**. | | Seguimiento de fallos, simbolización y desofuscación | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | -| Detener sesiones (monitorización de quioscos) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | -| Rastrear eventos en vistas web | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | -| Monitorizar indicadores vitales específicos de plataformas | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | -| Seguimiento global de contexto/atributo en logs | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | -| Rastreo del lado del cliente | | {{< X >}} | {{< X >}}| | | | | | | | -| Session Replay | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | Session Replay de **Flutter** está en vista previa. | +| Detener sesiones (Monitoreo de Kioscos) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Rastrear eventos en WebViews | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Monitorear métricas específicas de la plataforma | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Seguimiento global de contexto/atributos en los registros | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Trazado del lado del cliente | | {{< X >}} | {{< X >}}| | | | | | | | +| Reproducción de sesión | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | La reproducción de sesión de **Flutter** está en vista previa. | | Señales de frustración | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | Solo parcialmente compatible con todos los dispositivos **móviles** y **Roku**. | -## Endpoints compatibles para dominios de SDK +## Puntos de conexión compatibles para dominios de SDK {#supported-endpoints-for-sdk-domains} -El tráfico de todos los SDK de Datadog se transmite a través de SSL (443 por defecto) a los siguientes dominios: +Todo el tráfico de los SDK de Datadog se transmite a través de SSL (puerto 443 por defecto) a los siguientes dominios: -| Sitio | URL del sitio | +| Sitio | URL del sitio | |------|-----------------------------------------------| | US1 | `https://browser-intake-datadoghq.com` | | US3 | `https://browser-intake-us3-datadoghq.com` | | US5 | `https://browser-intake-us5-datadoghq.com` | -| UE1 | `https://browser-intake-datadoghq.eu` | +| EU1 | `https://browser-intake-datadoghq.eu` | | US1-FED | `https://browser-intake-ddog-gov.com` | +| US2-FED | `https://browser-intake-us2-ddog-gov.com` | | AP1 | `https://browser-intake-ap1-datadoghq.com` | | AP2 | `https://browser-intake-ap2-datadoghq.com` | -## Explorar RUM de Datadog +## Explorar Datadog RUM {#explore-datadog-rum} -Accede a RUM yendo a [**Digital Experience > Performance Summary** (Experiencia digital > Resumen del rendimiento)][1]. +Acceda a RUM navegando a [**Experiencia Digital > Resumen de Rendimiento**][1]. -Selecciona una aplicación en la barra de navegación superior o sigue las instrucciones de configuración de [navegador][15] o [móvil][16] para añadir tu primera aplicación. +Seleccione una aplicación desde la navegación superior, o siga las instrucciones de configuración para [navegador][15] o [móvil][16] para agregar su primera aplicación. -{{< img src="real_user_monitoring/rum-performance-application-selector.png" alt="Selecciona una aplicación RUM" >}} +{{< img src="real_user_monitoring/rum-performance-application-selector.png" alt="Seleccione una aplicación RUM" >}} -**Consejo**: Para abrir RUM a partir de la búsqueda global de Datadog, pulsa Cmd/Ctrl + K y busca `real user monitoring`. +**Consejo**: Para abrir RUM desde la búsqueda global de Datadog, presione Cmd/Ctrl + K y busque `real user monitoring`. -## Resumen de la monitorización del rendimiento +## Resumen de monitoreo de rendimiento {#performance-monitoring-summary} -| Resumen del rendimiento del navegador | Resumen del rendimiento de los móviles | +| Resumen de Rendimiento del Navegador | Resumen de Rendimiento Móvil | |---------|---------| -| {{< img src="real_user_monitoring/performance-summary-browser.png" alt="Página de resumen de la Monitorización de rendimiento de RUM para una aplicación de navegador" >}} | {{< img src="real_user_monitoring/performance-summary-mobile-2.png" alt="Página de resumen de la Monitorización de rendimiento de RUM para una aplicación móvil" >}} | +| {{< img src="real_user_monitoring/performance-summary-browser.png" alt="Página de resumen de monitoreo de rendimiento RUM para una aplicación de navegador" >}} | {{< img src="real_user_monitoring/performance-summary-mobile-2.png" alt="Página de resumen de monitoreo de rendimiento RUM para una aplicación móvil" >}} | -La página [Resumen de monitorización del rendimiento de RUM][1] proporciona información relevante y procesable para aplicaciones web y móviles. Obtén una experiencia personalizada para cada plataforma que te ayudará a: +La página de [Resumen de Monitoreo de Rendimiento RUM][1] proporciona información relevante y procesable para aplicaciones web y móviles. Tienes una experiencia personalizada para cada plataforma que te ayuda a: -- **Centrarte en datos clave** por plataforma, como la latencia de la interfaz de usuario para fallos web o móviles. -- **Monitorizar el estado de las aplicaciones** a través de KPIs conocidos, como Core Web Vitals para aplicaciones web o la tasa de cuelgues para iOS, para evaluar la fiabilidad de las aplicaciones. -- **Analizar en detalle las investigaciones directamente** desde los widgets interactivos sin salir de la página +- **Enfócate en puntos de datos clave** por plataforma, como la latencia de la interfaz de usuario para web o los fallos móviles +- **Monitorea la salud de la aplicación** a través de KPIs familiares, como los Core Web Vitals para aplicaciones web o la tasa de bloqueos para iOS, para evaluar la confiabilidad de la aplicación. +- **Sumérgete en los análisis directamente** desde widgets interactivos sin salir de la página -Para **aplicaciones web**, utiliza la barra de búsqueda para filtrar los datos, identificar las páginas lentas y seguir la interfaz de usuario hasta la página [RUM Optimization Inspect][17]. +Para **aplicaciones web**, utiliza la barra de búsqueda para filtrar datos, identificar páginas lentas y seguir la interfaz de usuario hasta la página de [Inspección de Optimización de RUM][17]. -Para **aplicaciones móviles**, revisa los fallos recientes en la parte inferior de la página y utiliza el panel lateral [Error Tracking][6] para solucionar problemas. +Para **aplicaciones móviles**, revisa los recientes fallos en la parte inferior de la página y utiliza el panel lateral de [Error Tracking][6] para solucionar problemas. -### Dashboards predefinidos +### Tableros listos para usar {#out-of-the-box-dashboards} -Analiza la información sobre tus sesiones de usuario, rendimiento, aplicaciones móviles, señales de frustración, recursos de red y errores recopilados automáticamente utilizando [dashboards de RUM predefinidos][2]. +Analiza información sobre tus sesiones de usuario, rendimiento, aplicaciones móviles, señales de frustración, recursos de red y errores recopilados automáticamente con [tableros RUM listos para usar][2]. -{{< img src="real_user_monitoring/rum-out-of-the-box-dashboard.png" alt="Dashboard de RUM" >}} +{{< img src="real_user_monitoring/rum-out-of-the-box-dashboard.png" alt="Tablero RUM" >}} -### Explorador de RUM y visualizaciones +### Explorador RUM y visualizaciones {#rum-explorer-and-visualizations} -Consulta sesiones de usuario en segmentos, como por ejemplo para verificar cuándo afecta la latencia a tus clientes prémium, utilizando [visualizaciones][3]. Explora datos, guarda vistas y crea [monitores][4] en tus búsquedas personalizadas. +Visualiza sesiones de usuario en segmentos, como verificar cuándo la latencia impacta a tus clientes premium, con [visualizaciones][3]. Explora datos, guarda vistas y crea [monitores][4] en tus búsquedas personalizadas. -{{< img src="real_user_monitoring/explorer/analytics/rum_analytics.mp4" alt="Análisis de RUM" video=true >}} +{{< img src="real_user_monitoring/explorer/analytics/rum_analytics.mp4" alt="Analítica RUM" video=true >}} -### Integración con logs, APM y generador de perfiles +### Integración con registros, APM y perfilador {#integration-with-logs-apm-and-profiler} -Consulta tus [trazas (traces) de back-end, logs y métricas de infraestructura][5] hasta llegar a la línea de código exacta que afecta al rendimiento de la aplicación, que se corresponde con las experiencias del usuario y los problemas notificados. +Visualiza tus [trazas de backend, registros y métricas de infraestructura][5] hasta la línea exacta de código que impacta el rendimiento de tu aplicación, correspondiente a las experiencias de los usuarios y problemas reportados. {{< img src="real_user_monitoring/connect_rum_and_traces/rum_apm_logs-2.png" alt="RUM y APM" >}} -### Seguimiento de errores e informes de fallos +### Error Tracking e informes de fallos {#error-tracking-and-crash-reporting} -Obtén alertas automatizadas sobre outliers y grupos de errores, tiempos de espera y fallos para reducir significativamente tu MTTR utilizando el [seguimiento de errores][6]. +Recibe alertas automáticas sobre valores anómalos y grupos de errores, tiempos de espera y fallos para reducir significativamente tu MTTR con [Error Tracking][6]. -{{< img src="real_user_monitoring/error_tracking/errors_rum.mp4" alt="Seguimiento de errores de RUM" video=true >}} +{{< img src="real_user_monitoring/error_tracking/errors_rum.mp4" alt="Error Tracking RUM" video=true >}} -### Indicadores fundamentales web y móviles +### Vitals web y móviles {#web-and-mobile-vitals} -Consulta las puntuaciones de rendimiento y la telemetría de [aplicaciones de navegador][7] como Core Web Vitals y Mobile Vitals para [iOS y tvOS][8] o [aplicaciones de Android y Android TV][9]. +Visualiza puntajes de rendimiento y telemetría para [aplicaciones de navegador][7] como Core Web Vitals y Mobile Vitals para [iOS y tvOS][8] o [aplicaciones de Android y Android TV][9]. -### Seguimiento de vistas web +### Web View Tracking {#web-view-tracking} -Recopila información de tus aplicaciones web nativas y explora vistas híbridas haciendo un seguimiento de vistas web para [iOS y tvOS][10] o [Android y Android TV][11]. +Recopila información de tus aplicaciones web nativas y explora vistas híbridas con Web View Tracking para [iOS y tvOS][10] o [Android y Android TV][11]. -{{< img src="real_user_monitoring/webview_tracking/webview_tracking_light.png" alt="Vistas web capturadas en una sesión de usuario en el Explorador de RUM" >}} +{{< img src="real_user_monitoring/webview_tracking/webview_tracking_light.png" alt="Vistas web capturadas en una sesión de usuario en el Explorador RUM" >}} -## Explorar Datadog Session Replay +## Explora la reproducción de sesión de Datadog {#explore-datadog-session-replay} -### Reproducciones de sesiones +### Reproducción de sesión {#session-replays} -Ve [grabaciones de navegador][12] de usuarios reales que interactúan con tu sitio web y define [controles de privacidad][13] para tu organización. +Mira [grabaciones de navegador][12] de usuarios reales interactuando con tu sitio web y establece [controles de privacidad][13] para tu organización. -### Herramientas de desarrollador +### Herramientas para desarrolladores {#developer-tools} -Accede a información sobre logs activados, errores y rendimiento cuando soluciones problemas de aplicaciones con [herramientas de desarrollador de navegador[14]. +Accede a registros activados, errores e información de rendimiento al solucionar problemas de aplicaciones utilizando [Browser Dev Tools][14]. -## Permisos +## Permisos {#permissions} Por defecto, todos los usuarios pueden cambiar la configuración RUM de una aplicación. Utiliza controles de acceso granulares para limitar los [roles][18] que pueden editar la configuración RUM de una aplicación en particular: -1. Mientras visualizas la configuración RUM de una aplicación, haz clic en el botón **Edit application** (Editar aplicación) situado en la parte superior de la pantalla. Aparece un menú desplegable. -1. Selecciona **Manage App Permissions** (Gestionar permisos de aplicaciones). -1. Haz clic en **Restrict Access** (Restringir el acceso). -1. El cuadro de diálogo se actualiza para mostrar que los miembros de tu organización tienen por omisión el permiso de acceso **Viewer** (Visualización). -1. Utiliza el menú desplegable para seleccionar uno o varios roles, equipos o usuarios que pueden modificar el notebook. -1. Haz clic en **Add** (Añadir). -1. El cuadro de diálogo se actualiza para indicar que el rol que has seleccionado tiene el permiso **Editor** (Edición). -1. Haz clic en **Save** (Guardar). +1. Mientras visualizas la configuración RUM de una aplicación, haz clic en el botón **Editar aplicación** en la parte superior de la pantalla. Aparece un menú desplegable. +1. Selecciona **Manage App Permissions**. +1. Haz clic en **Restrict Access**. +1. El cuadro de diálogo se actualiza para mostrar que los miembros de tu organización tienen acceso de **Viewer** por defecto. +1. Utiliza el menú desplegable para seleccionar uno o más roles, equipos o usuarios que puedan editar el notebook. +1. Haz clic en **Add**. +1. El cuadro de diálogo se actualiza para mostrar que el rol que seleccionó tiene el permiso de **Editor**. +1. Haz clic en **Save**. -**Nota:** Para mantener tu acceso de edición a la aplicación, el sistema requiere que incluyas al menos un rol del que seas miembro antes de guardar. +**Nota:** Para mantener tu acceso de edición a la aplicación, el sistema requiere que incluyas al menos un rol del cual seas miembro antes de guardar. -Debes tener acceso de edición para restaurar el acceso general a una aplicación restringida. Realiza los pasos siguientes: -1. Mientras visualizas la configuración RUM de una aplicación, haz clic en el botón **Edit application** (Editar aplicación) situado en la parte superior de la pantalla. Aparece un menú desplegable. -1. Selecciona **Manage App Permissions** (Gestionar permisos de aplicaciones). -1. Haz clic en **Restore Full Access** (Restablecer acceso completo). -1. Haz clic en **Save** (Guardar). +Debes tener acceso de edición para restaurar el acceso general a una aplicación restringida. Completa los siguientes pasos: +1. Mientras visualizas la configuración RUM de una aplicación, haz clic en el botón **Edit application** en la parte superior de la pantalla. Aparece un menú desplegable. +1. Seleccione **Manage App Permissions**. +1. Haga clic en **Restore Full Access**. +1. Haga clic en **Save**. -## Referencias adicionales +## Lectura adicional {#further-reading}. {{< partial name="whats-next/whats-next.html" >}} @@ -236,13 +264,13 @@ Debes tener acceso de edición para restaurar el acceso general a una aplicació [5]: /es/real_user_monitoring/correlate_with_other_telemetry/apm/ [6]: /es/real_user_monitoring/error_tracking/ [7]: /es/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#event-timings-and-core-web-vitals -[8]: /es/real_user_monitoring/ios/mobile_vitals/ -[9]: /es/real_user_monitoring/android/mobile_vitals/ -[10]: /es/real_user_monitoring/ios/web_view_tracking/ -[11]: /es/real_user_monitoring/android/web_view_tracking/ -[12]: /es/real_user_monitoring/session_replay/browser/ -[13]: /es/real_user_monitoring/session_replay/browser/privacy_options/ -[14]: /es/real_user_monitoring/session_replay/browser/developer_tools/ +[8]: /es/real_user_monitoring/application_monitoring/ios/mobile_vitals/ +[9]: /es/real_user_monitoring/application_monitoring/android/mobile_vitals/ +[10]: /es/real_user_monitoring/application_monitoring/ios/web_view_tracking/ +[11]: /es/real_user_monitoring/application_monitoring/android/web_view_tracking/ +[12]: /es/session_replay/browser/ +[13]: /es/session_replay/browser/privacy_options/ +[14]: /es/session_replay/browser/dev_tools/ [15]: /es/real_user_monitoring/application_monitoring/browser/setup/ [16]: /es/real_user_monitoring/application_monitoring/ [17]: https://app.datadoghq.com/rum/optimization/inspect diff --git a/content/es/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md b/content/es/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md new file mode 100644 index 00000000000..5f06668d951 --- /dev/null +++ b/content/es/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md @@ -0,0 +1,1894 @@ +--- +aliases: +- /es/real_user_monitoring/installation/advanced_configuration/ +- /es/real_user_monitoring/browser/modifying_data_and_context/ +- /es/real_user_monitoring/browser/advanced_configuration/ +content_filters: +- option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_advanced_config_options + trait_id: rum_browser_sdk_version +description: Configura el SDK del navegador RUM para modificar la recolección de datos, + sobrescribir nombres de vistas, gestionar sesiones de usuario y controlar el muestreo + según las necesidades de tu aplicación. +further_reading: +- link: /real_user_monitoring/application_monitoring/browser/tracking_user_actions + tag: Documentación + text: Seguimiento de acciones de usuario +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: Blog + text: Real User Monitoring +- link: /real_user_monitoring/application_monitoring/browser/data_collected/ + tag: Documentación + text: Datos del navegador RUM recolectados +- link: /real_user_monitoring/explorer/ + tag: Documentación + text: Explora tus vistas dentro de Datadog +- link: /real_user_monitoring/explorer/visualize/ + tag: Documentación + text: Aplica visualizaciones a tus eventos +- link: /logs/log_configuration/attributes_naming_convention + tag: Documentación + text: Atributos estándar de Datadog +- link: https://learn.datadoghq.com/courses/configure-rum-javascript + tag: Centro de aprendizaje + text: Configura Real User Monitoring (RUM) para aplicaciones web en JavaScript +title: Configuración avanzada +--- +## Resumen {% #overview %} + +Existen varias formas en las que puedes modificar los [datos y contexto recolectados][1] por RUM, para apoyar tus necesidades de: + +- Proteger datos sensibles como información personal identificable. +- Conectar una sesión de usuario con tu identificación interna de ese usuario, para ayudar con el soporte. +- Reducir la cantidad de datos RUM que estás recolectando, a través del muestreo de datos. +- Proporcionando más contexto que el que los atributos estándar ofrecen sobre el origen de los datos. + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} + +## Sobrescribir los nombres de vista RUM predeterminados {% #override-default-rum-view-names %} + +A partir de [versión 2.17.0][3], puedes agregar nombres de vista y asignarlos a un servicio dedicado que es propiedad de un equipo, rastreando eventos de vista manualmente con la opción `trackViewsManually`. + +El SDK del navegador RUM genera automáticamente un [evento de vista][2] para cada nueva página visitada por tus usuarios, o cuando se cambia la URL de la página (para aplicaciones de una sola página). Un nombre de vista se calcula a partir de la URL de la página actual, donde los IDs variables se eliminan automáticamente. Un segmento de ruta que contiene al menos un número se considera un ID variable. Por ejemplo, `/dashboard/1234` y `/dashboard/9a` se convierten en `/dashboard/?`. + +Para sobrescribir los nombres de vista RUM predeterminados: + +1. Establece `trackViewsManually` en verdadero al inicializar el SDK del navegador RUM. + + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }) + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {% /if %} + +2. Debes iniciar vistas para cada nueva página o cambio de ruta (para aplicaciones de una sola página). Los datos RUM se recopilan cuando la vista comienza. +{% /if %} + + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "4.13.0") %} + +### Define el nombre del servicio y la versión {% #define-service-name-and-version %} + +A partir de [versión 4.13.0][16], también puedes definir opcionalmente el nombre del servicio asociado y la versión. + +- **Nombre de Vista**: Por defecto, se establece en la ruta de la URL de la página. +- **Servicio**: Por defecto, se establece en el servicio predeterminado especificado al crear tu aplicación RUM. +- **Versión**: Por defecto, se establece en la versión predeterminada especificada al crear tu aplicación RUM. +{% /if %} + + + + + +{% if includes($rum_browser_sdk_version, ["lt_2_13_0", "gte_2_13_0", "gte_2_17_0"]) %} + +## Realizar el seguimiento manual de las vistas de página {% #manually-track-pageviews %} + +El siguiente ejemplo realiza el seguimiento manual de las vistas de página en la página `checkout` en una aplicación RUM. No se puede especificar ningún servicio o versión. + + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.startView('checkout') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.startView('checkout') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.startView('checkout') +``` +{% /if %} +{% /if %} + + + +{% if includes($rum_browser_sdk_version, ["gte_4_13_0", "gte_4_49_0", "gte_5_22_0"]) %} + +El siguiente ejemplo realiza el seguimiento manual de las vistas de página en la página `checkout` en una aplicación RUM. Utiliza `checkout` para el nombre de la vista y asocia el servicio `purchase` con la versión `1.2.3`. + + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' +}) +``` +{% /if %} +{% /if %} + + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "5.28.0") %} + +- **Contexto**: A partir de [versión 5.28.0][19], puedes agregar contexto a las vistas y los eventos secundarios de las vistas. + +El siguiente ejemplo realiza el seguimiento manual de las vistas de página en la página `checkout` en una aplicación RUM. Usa `checkout` para el nombre de la vista y asocia el servicio `purchase` con la versión `1.2.3`. + + + {% if equals($lib_src, "npm") %} + ```javascript + datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + ``` + {% /if %} + +{% /if %} + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} + +### Instrumentación del enrutador de React {% #react-router-instrumentation %} + +Si estás utilizando React, Angular, Vue o cualquier otro marco de frontend, Datadog recomienda implementar la lógica de `startView` a nivel del enrutador del marco. + +Para anular los nombres de vista RUM predeterminados para que se alineen con cómo los has definido en tu aplicación React, necesitas seguir los pasos a continuación. + +**Nota**: Estas instrucciones son específicas para la biblioteca **React Router v6**. + +1. Establece `trackViewsManually` en `true` al inicializar el SDK del navegador RUM como se describe [arriba](#override-default-rum-view-names). + +2. Inicia vistas para cada cambio de ruta. + + {% if equals($lib_src, "npm") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + import { datadogRum } from "@datadog/browser-rum"; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + datadogRum.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + DD_RUM.onReady(function() { + DD_RUM.startView({name: viewName}); + }); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + window.DD_RUM && + window.DD_RUM.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} +{% /if %} + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} +### Establecer nombre de vista {% #set-view-name %} + +Usa `setViewName(name: string)` para actualizar el nombre de la vista actual. Esto te permite cambiar el nombre de la vista durante la vista sin iniciar una nueva. + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.setViewName(''); + + // Code example + datadogRum.setViewName('Checkout'); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.setViewName(''); + }) + + // Code example + window.DD_RUM.onReady(function() { + window.DD_RUM.setViewName('Checkout'); + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && window.DD_RUM.setViewName(''); + + // Code example + window.DD_RUM && window.DD_RUM.setViewName('Checkout'); + ``` + {% /if %} + +**Nota**: Cambiar el nombre de la vista afecta a la vista y sus eventos secundarios desde el momento en que se llama al método. +{% /if %} + + +Para más información, consulta [Configuración de Monitoreo del Navegador][4]. + + +## Enriquece y controla los datos RUM {% #enrich-and-control-rum-data %} + +El SDK del navegador RUM captura eventos RUM y completa sus atributos principales. La función de callback `beforeSend` te da acceso a cada evento recopilado por el SDK del navegador RUM antes de que se envíe a Datadog. + +Interceptar los eventos RUM te permite: + +- Enriquece tus eventos RUM con atributos de contexto adicionales +- Modifica tus eventos RUM para alterar su contenido o redactar secuencias sensibles (ver [lista de propiedades editables](#modify-the-content-of-a-rum-event)) +- Descarta eventos RUM seleccionados + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.13.0") %} +A partir de [versión 2.13.0][5], `beforeSend` toma dos argumentos: el `event` generado por el SDK del navegador RUM, y el `context` que activó la creación del evento RUM. + +```javascript +function beforeSend(event, context) +``` + +Los valores potenciales `context` son: + +| Tipo de evento RUM | Contexto | +|------------------|---------------------------| +| Vista | [Location][6] | +| Acción | [Evento][7] y pila de manejo | +| Recurso (XHR) | [XMLHttpRequest][8], [PerformanceResourceTiming][9], y pila de manejo | +| Recurso (Fetch) | [Solicitud][10], [Respuesta][11], [PerformanceResourceTiming][9], y pila de manejo | +| Recurso (Otro) | [PerformanceResourceTiming][9] | +| Error | [Error][12] | +| Tarea Larga | [PerformanceLongTaskTiming][13] | + +Para más información, consulta la [guía de enriquecimiento y control de datos RUM][14]. +{% /if %} + + +### Enriquece eventos RUM {% #enrich-rum-events %} + +Junto con los atributos añadidos con el [Global Context API](#global-context) o la [recolección de datos Feature Flag](#enrich-rum-events-with-feature-flags), puedes añadir atributos de contexto adicionales al evento. Por ejemplo, etiqueta tus eventos de recurso RUM con datos extraídos de un objeto de respuesta de fetch: + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }) + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); + ``` + {% /if %} + +Si un usuario pertenece a múltiples equipos, agrega pares clave-valor adicionales en tus llamadas a la Global Context API. + +El SDK del navegador RUM ignora los atributos añadidos fuera de `event.context`. + +### Enriquece los eventos RUM con Feature Flags {% #enrich-rum-events-with-feature-flags %}. + +Puedes [enriquecer los datos de eventos RUM con Feature Flags][14] para obtener contexto adicional y visibilidad en el seguimiento del rendimiento. Esto te permite determinar qué usuarios ven una experiencia de usuario específica y si está afectando negativamente el rendimiento del usuario. + +### Modifica el contenido de un evento RUM {% #modify-the-content-of-a-rum-event %} + +Por ejemplo, para redactar direcciones de correo electrónico de las URL de tu aplicación web: + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }) + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); + ``` + {% /if %} + +Puedes actualizar las siguientes propiedades del evento: + +| Atributo | Tipo | Descripción | +| ------------------------------ | ------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `view.url` | Cadena | La URL de la página web activa. | +| `view.referrer` | Cadena | La URL de la página web anterior desde la cual se siguió un enlace a la página actualmente solicitada. | +| `view.name` | Cadena | El nombre de la vista actual. | +| `view.performance.lcp.resource_url` | Cadena | La URL del recurso para el Largest Contentful Paint. | +| `service` | Cadena | El nombre del servicio para tu aplicación. | +| `version` | Cadena | La versión de la aplicación. Por ejemplo: 1.2.3, 6c44da20, o 2020.02.13. | +| `action.target.name` | Cadena | El elemento con el que el usuario interactuó. Solo para acciones recolectadas automáticamente. | +| `error.message` | Cadena | Un mensaje conciso, legible por humanos, de una línea que explica el error. | +| `error.stack` | Cadena | La traza de pila o información complementaria sobre el error. | +| `error.resource.url` | Cadena | La URL del recurso que provocó el error. | +| `resource.url` | Cadena | La URL del recurso. | +| `long_task.scripts.source_url` | Cadena | La URL del recurso del script | +| `long_task.scripts.invoker` | Cadena | Un nombre significativo que indica cómo se llamó al script | +| `context` | Objeto | Atributos añadidos con la [API de Contexto Global](#global-context), la [API de Contexto de Vista](#view-context), o al generar eventos manualmente (por ejemplo, `addError` y **`addAction`**). | + +El SDK del Navegador RUM ignora las modificaciones realizadas a las propiedades de eventos no listadas anteriormente. Para más información sobre las propiedades de eventos, consulte el [repositorio de GitHub del SDK del Navegador RUM][15]. + +**Nota**: A diferencia de otros eventos, los eventos de visualización se envían múltiples veces a Datadog para reflejar las actualizaciones que ocurren durante su ciclo de vida. Una actualización de un evento de visualización anterior aún puede enviarse mientras una nueva visualización está activa. Datadog recomienda tener en cuenta este comportamiento al modificar el contenido de un evento de visualización. + +```javascript +beforeSend: (event) => { + // discouraged, as the current view name could be applied to both the active view and the previous views + event.view.name = getCurrentViewName() + + // recommended + event.view.name = getViewNameForUrl(event.view.url) +} +``` + +### Descarta un evento RUM {% #discard-a-rum-event %} + +Con la `beforeSend` API, descarta un evento RUM devolviendo `false`: + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + }, + ... + }, + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... + }); +``` +{% /if %} + +**Nota**: Los eventos de visualización no se pueden descartar. + +## Sesión de usuario {% #user-session %} + +Agregar información del usuario a tus sesiones RUM te ayuda a: + +- Seguir el recorrido de un usuario dado +- Saber qué usuarios son los más afectados por errores +- Monitorear el rendimiento de tus usuarios más importantes + +{% img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt=" API de usuario en la interfaz de usuario de RUM" /%} + + +{% if semverIsAtLeast($rum_browser_sdk_version, "6.4.0") %} +En versiones 6.4.0 y superiores, los siguientes atributos están disponibles: + +| Atributo | Tipo | Requerido | Descripción | +|------------|------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Cadena | Sí | Identificador único del usuario. | +| `usr.name` | Cadena | No | Nombre amigable del usuario, mostrado por defecto en la interfaz de usuario de RUM. | +| `usr.email` | Cadena | No | Correo electrónico del usuario, mostrado en la interfaz de usuario de RUM si el nombre del usuario no está presente. También se utiliza para obtener Gravatars. | +{% /if %} + + + +{% if not(semverIsAtLeast($rum_browser_sdk_version, "6.4.0")) %} +Los atributos a continuación son opcionales en versiones anteriores a 6.4.0, pero Datadog recomienda encarecidamente proporcionar al menos uno de ellos. Por ejemplo, debes establecer el ID del usuario en tus sesiones para ver datos relevantes en algunos paneles de RUM predeterminados, que dependen de `usr.id` como parte de la consulta. + +| Atributo | Tipo | Descripción | +|------------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Cadena | Identificador único del usuario. | +| `usr.name` | Cadena | Nombre amigable del usuario, mostrado por defecto en la interfaz de usuario de RUM. | +| `usr.email` | Cadena | Correo electrónico del usuario, mostrado en la interfaz de usuario de RUM si el nombre del usuario no está presente. También se utiliza para obtener Gravatars. | + +**Nota**: 'Usuario Público' se muestra en la interfaz de usuario de RUM cuando `usr.name` no está configurado, incluso si `usr.email` y `usr.id` están definidos. + +Aumenta tus capacidades de filtrado añadiendo atributos adicionales además de los recomendados. Por ejemplo, añade información sobre el plan del usuario, o a qué grupo de usuarios pertenece. + +Al realizar cambios en el objeto de sesión del usuario, todos los eventos de RUM recopilados después del cambio contienen la información actualizada. + +**Nota**: Eliminar la información de la sesión del usuario, como en un cierre de sesión, retiene la información del usuario en la última vista antes del cierre de sesión, pero no en vistas posteriores o a nivel de sesión, ya que los datos de la sesión utilizan los valores de la última vista. +{% /if %} + + +### Identificar sesión de usuario {% #identify-user-session %} + +`datadogRum.setUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{% /if %} + +### Acceder a la sesión de usuario {% #access-user-session %} + +`datadogRum.getUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.getUser() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getUser() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getUser() +``` +{% /if %} + +### Añadir/Sobrescribir propiedad de sesión de usuario {% #addoverride-user-session-property %} + +`datadogRum.setUserProperty('', )` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setUserProperty('name', 'John Doe') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUserProperty('name', 'John Doe') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') +``` +{% /if %} + +### Eliminar propiedad de sesión de usuario {% #remove-user-session-property %} + +`datadogRum.removeUserProperty('')` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.removeUserProperty('name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeUserProperty('name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.removeUserProperty('name') +``` +{% /if %} + +### Limpiar propiedad de sesión de usuario {% #clear-user-session-property %} + +`datadogRum.clearUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.clearUser() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearUser() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearUser() +``` +{% /if %} + +## Cuenta {% #account %} + +Para agrupar usuarios en diferentes conjuntos, utiliza el concepto de cuenta. + +Los siguientes atributos están disponibles: + +| Atributo | Tipo | Requerido | Descripción | +|----------------|--------|----------|------------------------------------------------------------| +| `account.id` | Cadena | Sí | Identificador único de cuenta. | +| `account.name` | Cadena | No Nombre amigable de la cuenta, mostrado por defecto en la interfaz de usuario de RUM. | + +### Identificar cuenta {% #identify-account %} + +`datadogRum.setAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setAccount({ + id: '1234', + name: 'My Company Name', + ... +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccount({ + id: '1234', + name: 'My Company Name', + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setAccount({ + id: '1234', + name: 'My Company Name', + ... +}) +``` +{% /if %} + +### Acceder a la cuenta {% #access-account %} + +`datadogRum.getAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.getAccount() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getAccount() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getAccount() +``` +{% /if %} + +### Añadir/Sobrescribir propiedad de la cuenta {% #addoverride-account-property %} + +`datadogRum.setAccountProperty('', )` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setAccountProperty('name', 'My Company Name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccountProperty('name', 'My Company Name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setAccountProperty('name', 'My Company Name') +``` +{% /if %} + +### Eliminar propiedad de la cuenta {% #remove-account-property %} + +`datadogRum.removeAccountProperty('')` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.removeAccountProperty('name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeAccountProperty('name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.removeAccountProperty('name') +``` +{% /if %} + +### Limpiar propiedades de la cuenta {% #clear-account-properties %} + +`datadogRum.clearAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.clearAccount() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearAccount() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearAccount() +``` +{% /if %} + +## Muestreo {% #sampling %} + +Por defecto, no se aplica muestreo en el número de sesiones recolectadas. Para aplicar un muestreo relativo (en porcentaje) al número de sesiones recolectadas, utiliza el parámetro `sessionSampleRate` al inicializar RUM. + +El siguiente ejemplo recolecta solo el 90% de todas las sesiones en una aplicación RUM dada: + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '', + sessionSampleRate: 90, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + site: '', + sessionSampleRate: 90, + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + site: '', + sessionSampleRate: 90, + }); +``` +{% /if %} + +Para una sesión excluida por muestreo, no se recolectan las vistas de página ni la telemetría asociada a esa sesión. + +## Consentimiento de seguimiento del usuario {% #user-tracking-consent %} + +Para cumplir con el GDPR, CCPA y regulaciones similares, el SDK del navegador RUM te permite proporcionar el valor de consentimiento de seguimiento en la inicialización. Para más información sobre el consentimiento de seguimiento, consulta [Seguridad de Datos][17]. + +El parámetro de inicialización `trackingConsent` puede ser uno de los siguientes valores: + +1. `"granted"` (por defecto): El SDK del navegador RUM comienza a recopilar datos y los envía a Datadog. +2. `"not-granted"`: El SDK del navegador RUM no recopila ningún dato. + +Para cambiar el valor de consentimiento de seguimiento después de que el SDK del navegador RUM esté inicializado, utiliza la llamada a la API `setTrackingConsent()`. El SDK del navegador RUM cambia su comportamiento de acuerdo con el nuevo valor: + +- cuando se cambia de `"granted"` a `"not-granted"`, la sesión RUM se detiene, y los datos ya no se envían a Datadog. +- cuando se cambia de `"not-granted"` a `"granted"`, se crea una nueva sesión RUM si no hay una sesión anterior activa, y la recopilación de datos se reanuda. + +Este estado no se sincroniza entre pestañas ni se persiste entre navegaciones. Es tu responsabilidad proporcionar la decisión del usuario durante la inicialización del SDK del navegador RUM o utilizando `setTrackingConsent()`. + +Cuando se utiliza `setTrackingConsent()` antes de `init()`, el valor proporcionado tiene prioridad sobre el parámetro de inicialización. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', function() { + datadogRum.setTrackingConsent('granted'); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' + }); +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM.onReady(function() { + window.DD_RUM.setTrackingConsent('granted'); + }); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); +}); +``` +{% /if %} + +## Contexto de visualización {% #view-context %} + + +A partir de [versión 5.28.0][20], el contexto de los eventos de visualización es modificable. El contexto solo se puede agregar a la visualización actual y se aplica a sus eventos secundarios (como `action`, `error` y `timing`) mediante las funciones `startView`, `setViewContext` y `setViewContextProperty`. + +### Iniciar visualización con contexto {% #start-view-with-context %} + +Opcionalmente, define el contexto al iniciar una visualización con las opciones [`startView`](#override-default-rum-view-names). + +### Agregar contexto de visualización {% #add-view-context %} + +Enriquecer o modificar el contexto de los eventos de visualización RUM y los eventos secundarios correspondientes con la API `setViewContextProperty(key: string, value: any)`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setViewContextProperty('', ''); + +// Code example +datadogRum.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContextProperty('', ''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setViewContextProperty('', ''); + +// Code example +window.DD_RUM && window.DD_RUM.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + +### Reemplazar contexto de visualización {% #replace-view-context %} + +Reemplazar el contexto de tus eventos de visualización RUM y los eventos secundarios correspondientes con la API `setViewContext(context: Context)`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setViewContext({ '': '' }); + +// Code example +datadogRum.setViewContext({ + originalUrl: 'shopist.io/department/chairs', +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContext({ '': '' }); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContext({ + originalUrl: 'shopist.io/department/chairs', + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.setViewContext({ '': '' }); + +// Code example +window.DD_RUM && + window.DD_RUM.setViewContext({ + originalUrl: 'shopist.io/department/chairs', + }); +``` +{% /if %} + +## Contexto de error {% #error-context %} + +### Adjuntando contexto de error local con dd_context {% #attaching-local-error-context-with-dd-context %} + +Al capturar errores, se puede proporcionar contexto adicional en el momento en que se genera un error. En lugar de pasar información adicional a través de la `addError()` API, puede adjuntar una propiedad `dd_context` directamente a la instancia de error. El SDK de RUM para navegadores detecta automáticamente esta propiedad y la integra en el contexto final del evento de error. + +```javascript +const error = new Error('Something went wrong') +error.dd_context = { component: 'Menu', param: 123, } +throw error +``` + +## Contexto global {% #global-context %} + +### Agregar propiedad de contexto global {% #add-global-context-property %} + +Después de que RUM esté inicializado, agregue contexto adicional a todos los eventos de RUM recopilados de su aplicación con la `setGlobalContextProperty(key: string, value: any)` API: + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setGlobalContextProperty('', ); + +// Code example +datadogRum.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` + +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('', ''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('', ''); + +// Code example +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + +### Eliminar propiedad de contexto global {% #remove-global-context-property %} + +Puede eliminar una propiedad de contexto global definida previamente. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.removeGlobalContextProperty(''); + +// Code example +datadogRum.removeGlobalContextProperty('codeVersion'); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty(''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty(''); + +// Code example +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +``` +{% /if %} + +### Reemplazar contexto global {% #replace-global-context %} + +Reemplace el contexto predeterminado para todos sus eventos de RUM con la `setGlobalContext(context: Context)` API. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setGlobalContext({ '': '' }); + +// Code example +datadogRum.setGlobalContext({ + codeVersion: 34, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ '': '' }); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.setGlobalContext({ '': '' }); + +// Code example +window.DD_RUM && + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }); +``` +{% /if %} + +### Limpiar contexto global {% #clear-global-context %} + +Puede limpiar el contexto global utilizando `clearGlobalContext`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.clearGlobalContext(); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearGlobalContext(); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearGlobalContext(); +``` +{% /if %} + +### Leer contexto global {% #read-global-context %} + +Una vez que RUM esté inicializado, lea el contexto global con la `getGlobalContext()` API. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const context = datadogRum.getGlobalContext(); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + const context = window.DD_RUM.getGlobalContext(); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); +``` +{% /if %} + +## Ciclo de vida de los contextos {% #contexts-life-cycle %} + +Por defecto, el contexto global y el contexto del usuario se almacenan en la memoria de la página actual, lo que significa que no están: + +- guardados después de una recarga completa de la página +- compartidos entre diferentes pestañas o ventanas de la misma sesión + +Para agregarlos a todos los eventos de la sesión, deben ser adjuntados a cada página. + + +{% if semverIsAtLeast($rum_browser_sdk_version, "4.49.0") %} +Con la introducción de la opción de configuración `storeContextsAcrossPages` en la versión 4.49.0, esos contextos pueden ser almacenados en [`localStorage`][18], permitiendo los siguientes comportamientos: + +- Los contextos se preservan después de una recarga completa +- Los contextos están sincronizados entre las pestañas abiertas en el mismo origen + +Sin embargo, esta función tiene algunas **limitaciones**: + +- No se recomienda establecer Información Personal Identificable (PII) en esos contextos, ya que los datos almacenados en `localStorage` sobreviven a la sesión del usuario +- La función es incompatible con las `trackSessionAcrossSubdomains` opciones porque `localStorage` los datos solo se comparten entre el mismo origen (login.site.com ≠ app.site.com) +- `localStorage` está limitado a 5 MiB por origen, por lo que los datos específicos de la aplicación, los contextos de Datadog y otros datos de terceros almacenados en el almacenamiento local deben estar dentro de este límite para evitar problemas + +{% /if %} + + +## Contexto interno {% #internal-context %} + +Después de que se inicializa el SDK de RUM para navegadores de Datadog, puede acceder al contexto interno del SDK. Esto proporciona identificadores y metadatos centrales que el SDK utiliza internamente, como IDs de sesión y detalles de la aplicación. + +Puedes explorar los siguientes atributos: + +| Atributo | Descripción | +| -------------- | ----------------------------------------------------------------- | +| application_id | ID de la aplicación. | +| session_id | ID de la sesión. | +| user_action | Objeto que contiene el ID de acción (o indefinido si no se encuentra ninguna acción). | +| view | Objeto que contiene detalles sobre el evento de visualización actual. | + +Para más información, consulta [Datos recopilados por RUM Browser][2]. + +### Ejemplo {% #example %} + +```json +{ + application_id : "xxx", + session_id : "xxx", + user_action: { id: "xxx" }, + view : { + id : "xxx", + referrer : "", + url: "http://localhost:8080/", + name: "homepage" + } +} +``` + +Opcionalmente, puedes usar el parámetro `startTime` para obtener el contexto de un momento específico. Si se omite el parámetro, se devuelve el contexto actual. + +```typescript +getInternalContext (startTime?: 'number' | undefined) +``` + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum' + +datadogRum.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function () { + window.DD_RUM.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +``` +{% /if %} + + +## Micro frontend {% #micro-frontend %} + +El SDK de RUM Browser admite arquitecturas de micro frontends al atribuir eventos a micro frontends específicos utilizando los atributos `service` y `version`. Una única instancia del SDK de RUM se ejecuta a nivel de shell. Los eventos se segmentan por `service` y `version` para que los equipos puedan filtrar tableros, establecer alertas y rastrear el rendimiento por micro frontend. + +Datadog proporciona dos enfoques para atribuir eventos de RUM a micro frontends: + +1. **Atribución automática**: Utiliza un complemento de construcción que inyecta contexto de código fuente, eliminando el análisis manual de trazas de pila. +2. **Atribución manual**: Utiliza el callback `beforeSend` para analizar trazas de pila y extraer información del servicio. + + +### Atribución automática de servicio y versión {% #automatic-service-and-version-attribution %} + +Este enfoque utiliza un complemento de construcción para inyectar contexto de código fuente en sus paquetes, que el SDK de RUM lee automáticamente para enriquecer eventos con los `service` y `version` correctos. + +#### Requisitos previos y configuraciones soportadas {% #prerequisites-and-supported-setups %} + +- **Paquetes separados**: Cada micro frontend tiene su propio paquete con rutas de archivo distintas, por ejemplo, utilizando [federación de módulos][21]. +- **Agrupador soportado**: Utilice un agrupador [soportado por los complementos de construcción de Datadog][22]. +- **SDK de navegador**: Versión del SDK de navegador v6.30.1 o superior. + +#### Guía de configuración {% #setup-guide %} + +**Paso 1 - Configura el [plugin de construcción][23] para cada micro frontend** + +En la configuración de construcción de cada micro frontend, habilita la inyección de contexto del código fuente: + +{% tabs %} +{% tab label="Webpack" %} + +```javascript +const { datadogWebpackPlugin } = require('@datadog/webpack-plugin'); + +module.exports = { + plugins: [ + new datadogWebpackPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="Vite" %} + +```javascript +import { datadogVitePlugin } from '@datadog/vite-plugin'; + +export default { + plugins: [ + datadogVitePlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="esbuild" %} + +```javascript +const { datadogEsbuildPlugin } = require('@datadog/esbuild-plugin'); + +require('esbuild').build({ + plugins: [ + datadogEsbuildPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}); +``` +{% /tab %} + +{% tab label="Rollup" %} + +```javascript +import { datadogRollupPlugin } from '@datadog/rollup-plugin'; + +export default { + plugins: [ + datadogRollupPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="Rspack" %} + +```javascript +const { datadogRspackPlugin } = require('@datadog/rspack-plugin'); + +module.exports = { + plugins: [ + new datadogRspackPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} +{% /tabs %} + +**Paso 2 - Configura el SDK del navegador a nivel de shell** + +[Configura Browser Monitoring][4] en tu aplicación shell (punto de entrada principal). El SDK del navegador enriquece automáticamente los eventos RUM (errores, acciones personalizadas, recursos XHR/Fetch, tareas largas, vitales) con `service` y `version` del mapa de contexto. + +{% alert level="warning" %} +Los eventos que no coinciden con ningún micro frontend se asignan por defecto al servicio y a la versión a nivel de shell. +{% /alert %} + +**Paso 3 - [Explora los datos del micro frontend en Datadog](#explore-micro-frontend-data-in-datadog)** + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "5.22") %} + +### Atribución manual de servicio y versión {% #manual-service-and-version-attribution %} + +En la propiedad `beforeSend`, puedes sobrescribir las propiedades de servicio y versión. Para ayudarte a identificar de dónde se originó el evento, utiliza la propiedad `context.handlingStack`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +datadogRum.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, + }); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +window.DD_RUM && window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, +}); +``` +{% /if %} + +La expresión regular debe coincidir con la estructura de la ruta de archivo de tu aplicación. Ajusta el patrón para extraer el servicio y la versión de tus URL de paquete. Cualquier consulta en el Explorador RUM puede usar el atributo de servicio para filtrar eventos. + + +{% /if %} + +### Limitaciones {% #limitations %} + +#### Eventos sin un origen atribuido {% #events-without-an-attributed-origin %} + +Algunos eventos no pueden ser atribuidos a un origen porque no tienen una pila de manejo asociada: + +- Eventos de acción recolectados automáticamente +- Eventos de recursos distintos a XHR y Fetch +- Eventos de visualización recolectados automáticamente +- Violaciones de CORS y CSP + +#### Resolución de mapas del código fuente a través de micro frontends {% #source-map-resolution-across-micro-frontends %} + +Cuando una traza de pila contiene marcos de múltiples micro frontends, el evento recibe un solo `service` y `version` del marco más alto (donde se lanzó el error). Los mapas del código fuente se resuelven para el evento bajo ese único servicio, por lo que los marcos de otros micro frontends permanecen minificados, incluso cuando sus mapas del código fuente fueron correctamente subidos bajo su propio `service`. + +Para controlar qué mapas del código fuente de micro frontend se utilizan, utiliza el enfoque de [atribución manual](#manual-service-and-version-attribution) con `beforeSend` para establecer `event.service` y `event.version`. Solo los marcos que pertenecen al micro frontend elegido son desminificados. + +### Explora los datos de micro frontend en Datadog {% #explore-micro-frontend-data-in-datadog %} + +Después de la configuración, el `service` y `version` en los eventos RUM identifican qué micro frontend generó cada evento. Utiliza estos atributos en varios lugares en Datadog: + +- **Paneles laterales**: Los atributos `service` y `version` aparecen en la sesión, visualización, error, recurso, acción y paneles de tareas largas en el Explorador RUM. +- **Tablero de resumen de RUM**: Utiliza el `service` y el `version` para filtrar en el tablero de resumen de RUM y contextualizar las métricas de rendimiento en un micro frontend específico. +- **Tableros personalizados**: Crea tableros utilizando el `service` y el `version` para hacer seguimiento de cada micro frontend de manera independiente. + +[1]: /es/real_user_monitoring/application_monitoring/browser/data_collected/ +[2]: /es/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 +[4]: /es/real_user_monitoring/application_monitoring/browser/setup/ +[5]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2130 +[6]: https://developer.mozilla.org/en-US/docs/Web/API/Location +[7]: https://developer.mozilla.org/en-US/docs/Web/API/Event +[8]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest +[9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming +[10]: https://developer.mozilla.org/en-US/docs/Web/API/Request +[11]: https://developer.mozilla.org/en-US/docs/Web/API/Response +[12]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Error +[13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming +[14]: /es/real_user_monitoring/guide/enrich-and-control-rum-data +[15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts +[16]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v4130 +[17]: /es/data_security/real_user_monitoring/#browser-rum-use-of-cookies +[18]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage +[19]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v5280 +[20]: /es/real_user_monitoring/application_monitoring/browser/advanced_configuration#override-default-rum-view-names +[21]: https://module-federation.io/ +[22]: https://github.com/DataDog/build-plugins?tab=readme-ov-file#usage +[23]: https://github.com/DataDog/build-plugins \ No newline at end of file diff --git a/content/es/real_user_monitoring/guide/proxy-rum-data.mdoc.md b/content/es/real_user_monitoring/guide/proxy-rum-data.mdoc.md new file mode 100644 index 00000000000..27615bedecd --- /dev/null +++ b/content/es/real_user_monitoring/guide/proxy-rum-data.mdoc.md @@ -0,0 +1,234 @@ +--- +aliases: +- /es/real_user_monitoring/faq/proxy_rum_data/ +content_filters: +- label: SDK source + option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_proxying_options + trait_id: rum_browser_sdk_version +description: Configura el proxy de datos RUM del navegador con opciones de origen + del SDK y configuraciones específicas de versión para el enrutamiento de red personalizado. +further_reading: +- link: /real_user_monitoring/ + tag: Documentación + text: Aprende sobre RUM +title: Redirige tus datos RUM del navegador a través de un proxy +--- +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +{% alert level="danger" %} +Actualiza al SDK del navegador `4.34.0` o posterior para evitar vulnerabilidades de seguridad en la configuración de tu proxy. +{% /alert %} +{% /if %} + +## Resumen {% #overview %} + +El SDK del navegador RUM se puede configurar para enviar solicitudes a través de un proxy. Cuando configuras el `proxy` [parámetro de inicialización][1] del SDK a una URL como `https://www.example-proxy.com/any-endpoint`, todos los datos RUM se envían a esa URL utilizando el método POST. Los datos RUM aún necesitan ser reenviados a Datadog desde el proxy. + +## Configuración previa del proxy {% #prerequisite-proxy-setup %} + +Para reenviar una solicitud a Datadog con éxito, tu proxy debe + +1. [Construir la URL de recepción de Datadog](#build-the-datadog-intake-url). +2. Agrega un `X-Forwarded-For` encabezado que contenga la dirección IP del cliente de la solicitud para una geoIP precisa. +3. Reenvía la solicitud a la URL de ingesta de Datadog utilizando el método POST. +4. Deja el cuerpo de la solicitud sin cambios. + +{% alert level="warning" %} +- Por razones de seguridad, elimina cualquier encabezado HTTP que potencialmente contenga información sensible, como el encabezado `cookie`. +- El cuerpo de la solicitud puede contener datos binarios y no debe ser convertido a una cadena. Asegúrate de que tu implementación de proxy reenvíe el cuerpo sin conversión. +- Asegúrate de que tu implementación de proxy no permita que un actor malicioso envíe solicitudes a un servidor diferente. Por ejemplo: `https://browser-intake-datadoghq.com.malicious.com`. +{% /alert %} + +### Construye la URL de ingesta de Datadog {% #build-the-datadog-intake-url %} + +Tu URL de ingesta de Datadog debe tener el formato `/` (por ejemplo, `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser&...`). + +{% table %} +--- +* origen de ingesta +* + El origen de ingesta de Datadog corresponde a su `site` [parámetro de inicialización][1]. El origen de ingesta de Datadog correspondiente a su parámetro de sitio debe definirse en la implementación de su proxy. + + {% site-region region="us" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-datadoghq.com`. + {% /site-region %} + + {% site-region region="us3" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-us3-datadoghq.com`. + {% /site-region %} + + {% site-region region="us5" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-us5-datadoghq.com`. + {% /site-region %} + + {% site-region region="eu" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-datadoghq.eu`. + {% /site-region %} + + {% site-region region="ap1" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-ap1-datadoghq.com`. + {% /site-region %} + + {% site-region region="ap2" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-ap2-datadoghq.com`. + {% /site-region %} + + {% site-region region="gov" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-ddog-gov.com`. + {% /site-region %} + + {% site-region region="gov2" %} + El origen de ingesta para su sitio de Datadog es `https://browser-intake-us2-ddog-gov.com`. + {% /site-region %} +--- +* ruta +* + La ruta contiene la versión de la API y el producto (por ejemplo, `/api/v2/rum` para datos de RUM o `/api/v2/replay` para datos de reproducción de sesión). + + La ruta para cada solicitud se puede acceder en el parámetro `ddforward` de la solicitud (por ejemplo, `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). +--- +* parámetros +* + Los parámetros de la solicitud (por ejemplo, `ddsource=browser&...`) se pueden acceder en el parámetro `ddforward` de la solicitud (por ejemplo, `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). + +{% /table %} + +## Configuración del SDK {% #sdk-setup %} + + +{% if includes($rum_browser_sdk_version, ["gte_5_4_0", "gte_4_34_0"]) %} + +Configura la URL del proxy en el parámetro de inicialización `proxy`: + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: '', +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '', + }); +}); +``` + +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '' + }); +``` +{% /if %} + + +El SDK del navegador RUM agrega un parámetro de consulta `ddforward` a todas las solicitudes a tu proxy. Este parámetro de consulta contiene la ruta de la URL y los parámetros a los que se debe reenviar todos los datos. + +Por ejemplo, con un `site` configurado en `datadoghq.eu` y un `proxy` configurado en `https://example.org/datadog-intake-proxy`, el SDK del navegador RUM envía solicitudes a una URL como esta: `https://example.org/datadog-intake-proxy?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`. El proxy reenvía la solicitud a `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser`. + + +{% if equals($rum_browser_sdk_version, "gte_5_4_0") %} +### Pasando una función al parámetro de inicialización `proxy` {% #passing-a-function-to-the-proxy-initialization-parameter %} + +El parámetro de inicialización `proxy` también admite una entrada de función. Esta función te permite tener más control sobre cómo se agregan la ruta y los parámetros a la URL del proxy. + +Esta función recibe un objeto con las siguientes propiedades: + +- `path`: la ruta para las solicitudes de Datadog (ejemplo: `/api/v2/rum`) +- `parameters`: los parámetros de las solicitudes de Datadog (ejemplo: `ddsource=browser&...`) + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, + }) +}) +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}` + }); +``` +{% /if %} + + +**Nota:** +- Algunos bloqueadores de privacidad ya apuntan a los patrones de URL de entrada [URL patterns][2], así que puede que desees tener eso en cuenta al construir tu URL de proxy. +- La función `proxy` se llama para cada solicitud, por lo que debe evitar cualquier cálculo pesado. +- **Las aplicaciones web JSP** necesitan usar el carácter de escape `\` para propagar correctamente estos parámetros al navegador. Por ejemplo: + ```javascript + proxy: (options) => 'http://proxyURL:proxyPort\${options.path}?\${options.parameters}', + ``` +{% /if %} + + +{% /if %} + + + +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +Antes de la versión 4.34.0 del SDK del navegador, se utilizaba el parámetro de inicialización `proxyUrl`, y el origen de ingesta de Datadog se incluía en el atributo `ddforward`. La implementación del proxy se encargaba de validar este servidor, y no hacerlo resultaba en diversas vulnerabilidades. + +El origen de ingesta de Datadog debe definirse en su implementación de proxy para garantizar la seguridad. + +**Para evitar vulnerabilidades de seguridad, debe actualizar a Browser SDK `4.34.0` o posterior.** +{% /if %} + + +[1]: /es/real_user_monitoring/application_monitoring/browser/setup/client/?tab=rum#initialization-parameters +[2]: https://github.com/easylist/easylist/blob/997fb6533c719a015c21723b34e0cedefcc0d83d/easyprivacy/easyprivacy_general.txt#L3840 \ No newline at end of file diff --git a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md index a2fb222db89..c2489212a5e 100644 --- a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md +++ b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md @@ -1,232 +1,381 @@ --- -title: Reglas de SAST -description: Consulta las reglas de Static Code Analysis para múltiples lenguajes. aliases: -- /continuous_integration/static_analysis/rules -- /static_analysis/rules -- /code_analysis/static_analysis_rules -- /security/code_security/static_analysis_rules +- /es/continuous_integration/static_analysis/rules +- /es/static_analysis/rules +- /es/code_analysis/static_analysis_rules +- /es/security/code_security/static_analysis_rules +cascade: + banner: + link: + name: Seguridad de Código de Datadog + url: https://www.datadoghq.com/product/code-security/ + title: Integraciones fluidas. Prueba la Seguridad de Código de Datadog + modal: + bottom_boxes: + - cta_title: Descargar Extensión + cta_url: https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode + icon: vscode + subtitle: Identifica vulnerabilidades de código directamente en tu
    editor + de VS Code + title: Extensión de VS Code + - cta_title: Descargar Plugin + cta_url: https://plugins.jetbrains.com/plugin/19495-datadog + icon: jetbrains + subtitle: Identifica vulnerabilidades de código directamente en
    productos + de JetBrains + title: Plugin de JetBrains + footer: + link: + name: Seguridad de Código de Datadog + url: https://www.datadoghq.com/product/code-security/ + text: Utiliza la Seguridad de Código de Datadog para detectar problemas de código + en cada etapa de tu proceso de desarrollo + title: Prueba esta regla y analiza tu código con la Seguridad de Código de Datadog + top_box: + footer: Para más información, por favor lee la documentación + de Seguridad de Código + steps: + - Crea un archivo static-analysis.datadog.yml con el contenido anterior en la + raíz de tu repositorio + - Utiliza nuestros IDE Plugins gratuitos o añade escaneos de Seguridad de Código + a tus canalizaciones de CI + - Obtén retroalimentación sobre tu código + title: Cómo utilizar esta regla +description: Consulta reglas para múltiples lenguajes para Análisis Estático de Código. +further_reading: +- link: /security/code_security/ + tag: Documentación + text: Conoce sobre la Seguridad de Código de Datadog is_beta: false -type: static-analysis rulesets: apex-code-style: + description: 'Reglas de Seguridad de Código para escribir reglas Apex que sigan + estándares de codificación establecidos. + + ' title: Reglas para hacer cumplir el estilo de código Apex y las mejores prácticas. - description: Code Security para escribir reglas Apex que sigan los estándares de codificación establecidos. apex-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + Apex. + + ' title: Reglas de seguridad para Apex - description: Reglas enfocadas a encontrar problemas de seguridad en tu código Apex. + bash-code-quality: + description: 'Reglas para hacer cumplir la calidad del código en scripts de Bash. + + ' + title: Reglas de calidad del código para scripts de Bash. + bash-security: + description: 'Reglas para hacer cumplir las mejores prácticas de seguridad en + scripts de Bash. + + ' + title: Reglas de seguridad para scripts de Bash csharp-best-practices: - title: "Prácticas recomendadas para C#" - description: Reglas para aplicar las prácticas recomendadas de C#. + description: 'Reglas para hacer cumplir las mejores prácticas de C#. + + ' + title: Mejores prácticas para C# csharp-code-style: - title: "Seguir los patrones del estilo de código de C#" - description: Reglas para aplicar el código de estilo de C#. + description: 'Reglas para hacer cumplir el estilo de código de C#. + + ' + title: Sigue los patrones de estilo de código de C# csharp-inclusive: - title: "Usar lenguaje inclusivo en C#" - description: Reglas para que tu código de C# sea más inclusivo. + description: 'Reglas para hacer tu código C# más inclusivo. + + ' + title: Utiliza un lenguaje inclusivo en C# csharp-security: - title: "Escribir código de C# seguro y protegido" - description: Reglas centradas en encontrar problemas de seguridad en tu código de C#. + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + C#. + + ' + title: Escribe código C# seguro y protegido docker-best-practices: - title: Seguir las prácticas recomendadas con el uso de Docker - description: Prácticas recomendadas para el uso de Docker. + description: 'Mejores prácticas para usar Docker. + + ' + title: Sigue las mejores prácticas al usar Docker github-actions: - title: Proteger las GitHub Actions - description: Reglas para verificar tus GitHub Actions y detectar patrones inseguros, como permisos o fijación de versiones. + description: 'Reglas para revisar tus GitHub Actions y detectar patrones inseguros, + como permisos o fijación de versiones. + + ' + title: Asegura tus GitHub Actions go-best-practices: - title: Prácticas recomendadas para Go - description: Reglas para que sea más rápido y sencillo escribir código de Go. Desde el estilo de código hasta la prevención de errores, este conjunto de reglas ayuda a los desarrolladores a escribir código de Go eficiente, fácil de mantener y de alto rendimiento. + description: 'Reglas para hacer que escribir código Go sea más rápido y fácil. + Desde el estilo de código hasta la prevención de errores, este conjunto de reglas + ayuda a los desarrolladores a escribir código Go eficiente, mantenible y de + alto rendimiento. + + ' + title: Mejores prácticas para Go go-inclusive: - title: Usar lenguaje inclusivo en Go - description: Verifica el código de Go para detectar problemas de redacción. + description: 'Revisa el código de Go en busca de problemas de redacción. + + ' + title: Utiliza un lenguaje inclusivo en Go go-security: - title: Garantizar que el código de Go esté protegido y seguro - description: Detecta problemas de seguridad comunes (como la inyección de SQL, XSS o inyección de shell) en tu base de código de Go. + description: 'Detecta problemas de seguridad comunes (como inyección SQL, XSS + o inyección de shell) en tu base de código de Go. + + ' + title: Asegúrate de que tu código de Go sea seguro java-best-practices: - title: Seguir las prácticas recomendadas en Java - description: Reglas para aplicar las prácticas recomendadas de Java. + description: 'Reglas para hacer cumplir las mejores prácticas de Java. + + ' + title: Sigue las mejores prácticas en Java java-code-style: - title: Seguir los patrones del estilo de código de Java - description: Reglas para aplicar el código de estilo de Java. + description: 'Reglas para hacer cumplir el estilo de código de Java. + + ' + title: Sigue los patrones de estilo de código de Java java-inclusive: - title: Usar lenguaje inclusivo en Java - description: Reglas de Java para evitar redactar textos inadecuados en el código y los comentarios. + description: 'Reglas para Java para evitar redacciones inapropiadas en el código + y los comentarios. + + ' + title: Utiliza un lenguaje inclusivo en Java java-security: - title: Garantizar que el código de Java sea seguro - description: Reglas centradas en encontrar problemas de seguridad en código de Java. + description: 'Reglas enfocadas en encontrar problemas de seguridad en el código + de Java. + + ' + title: Asegúrate de que tu código de Java sea seguro javascript-best-practices: - title: Seguir las mejores prácticas para escribir código de JavaScript - description: Reglas para aplicar las prácticas recomendadas de JavaScript. + description: 'Reglas para hacer cumplir las mejores prácticas de JavaScript. + + ' + title: Sigue las mejores prácticas para escribir código JavaScript javascript-browser-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tus aplicaciones + web de JavaScript. + + ' title: Reglas de seguridad para aplicaciones web de JavaScript - description: Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de JavaScript. javascript-code-style: - title: Aplicar el estilo de código de JavaScript - description: Reglas para aplicar el código de estilo de JavaScript. + description: 'Reglas para hacer cumplir el estilo de código de JavaScript. + + ' + title: Haz cumplir el estilo de código de JavaScript javascript-common-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + de JavaScript. + + ' title: Reglas de seguridad comunes para JavaScript - description: Reglas centradas en encontrar problemas de seguridad en tu código de JavaScript. javascript-express: - title: Consultar las prácticas recomendadas y seguridad de Express.js - description: Reglas específicas para las prácticas recomendadas y seguridad de Express.js. + description: 'Reglas específicamente para las mejores prácticas y seguridad de + Express.js. + + ' + title: Verifica las mejores prácticas y la seguridad de Express.js javascript-inclusive: - title: Verifica el código de JavaScript para detectar problemas de redacción. - description: Reglas de JavaScript para evitar redactar textos inadecuados en el código y los comentarios. + description: 'Reglas para JavaScript para evitar un lenguaje inapropiado en el + código y los comentarios. + + ' + title: Verifica el código de JavaScript en busca de problemas de redacción javascript-node-security: + description: 'Reglas para identificar posibles puntos críticos de seguridad en + Node. Esto puede incluir falsos positivos que requieren una mayor evaluación. + + ' title: Identificar posibles puntos críticos de seguridad en Node - description: Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. jsx-react: - title: Reglas de linting específicas de React - description: Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. + description: 'Este complemento exporta una configuración `recomendada` que hace + cumplir las buenas prácticas de React. + + ' + title: Reglas de linting específicas para React kotlin-best-practices: - title: Seguir las mejores prácticas para escribir código de Kotlin - description: Reglas para aplicar las prácticas recomendadas de Kotlin. + description: 'Reglas para hacer cumplir las mejores prácticas de Kotlin. + + ' + title: Sigue las mejores prácticas para escribir código en Kotlin kotlin-code-style: - title: Aplicar el estilo de código de Kotlin - description: Reglas para aplicar el código de estilo de Kotlin. + description: 'Reglas para hacer cumplir el estilo de código de Kotlin. + + ' + title: Haz cumplir el estilo de código de Kotlin kotlin-security: - title: Aplicar la codificación segura de Kotlin - description: Reglas enfocadas a encontrar problemas de seguridad en tu código Kotlin. + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + de Kotlin. + + ' + title: Haz cumplir la codificación segura en Kotlin php-best-practices: - title: Seguir las mejores prácticas para escribir código de PHP - description: Reglas para aplicar las prácticas recomendadas de PHP, mejorar el estilo de código, prevenir errores, y promover un código de PHP de alto rendimiento, fácil de mantener y eficiente. + description: 'Reglas para hacer cumplir las mejores prácticas de PHP, mejorando + el estilo de código, previniendo errores y promoviendo un código PHP eficiente, + mantenible y de alto rendimiento. + + ' + title: Sigue las mejores prácticas para escribir código en PHP php-code-style: - title: Aplicar el estilo de código de PHP - description: Reglas para aplicar el código de estilo de PHP. + description: 'Reglas para hacer cumplir el estilo de código de PHP. + + ' + title: Haz cumplir el estilo de código de PHP php-security: - title: Reglas de seguridad para PHP - description: Reglas centradas en encontrar problemas de seguridad en tu código de PHP. + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + PHP. + + ' + title: Reglas de seguridad para PHP. python-best-practices: - title: Seguir las mejores prácticas para escribir código de Python - description: Prácticas recomendadas de Python para escribir código eficiente y sin errores. + description: 'Mejores prácticas para Python para escribir código eficiente y libre + de errores. + + ' + title: Sigue las mejores prácticas para escribir código en Python. python-code-style: - title: Aplicar el estilo de código de Python - description: Reglas para aplicar el código de estilo de Python. + description: 'Reglas para hacer cumplir el estilo de código en Python. + + ' + title: Haz cumplir el estilo de código en Python python-design: - title: Verificar la estructura de programa de Python - description: Reglas para verificar la estructura de programa de Python, incluido cosas como bucles anidados. + description: 'Reglas para verificar la estructura de tu programa en Python, incluyendo + aspectos como bucles anidados. + + ' + title: Verifica la estructura del programa en Python. python-django: - title: Consultar las prácticas recomendadas y seguridad de Django - description: Reglas específicas para las prácticas recomendadas y seguridad de Django. + description: 'Reglas específicamente para las mejores prácticas y seguridad en + Django. + + ' + title: Verifica las mejores prácticas y la seguridad en Django. python-flask: - title: Consultar las prácticas recomendadas y seguridad de Flask - description: Reglas específicas para las prácticas recomendadas y seguridad de Flask. + description: 'Reglas específicamente para las mejores prácticas y seguridad en + Flask. + + ' + title: Verifica las mejores prácticas y la seguridad en Flask. python-inclusive: - title: Verifica el código de Python para detectar problemas de redacción. - description: Reglas de Python para evitar redactar textos inadecuados en el código y los comentarios. - python-pandas: - title: Prácticas recomendadas para la ciencia de datos con pandas - description: Un conjunto de reglas para verificar que el código de pandas se use de forma adecuada. + description: 'Reglas para Python para evitar un lenguaje inapropiado en el código + y los comentarios. - - Garantiza que las declaraciones `import` sigan las pautas de codificación. - - Evita códigos y métodos obsoletos. - - Evita el código ineficiente siempre que sea posible. + ' + title: Verifica el código de Python en busca de problemas de redacción. + python-pandas: + description: "Un conjunto de reglas para verificar que el código de pandas se\ + \ utilice adecuadamente.\n\n - Asegura que las declaraciones de `import` sigan\ + \ las pautas de codificación.\n - Evita código y métodos obsoletos.\n - Evita\ + \ código ineficiente siempre que sea posible.\n" + title: Buenas prácticas para la ciencia de datos con pandas. python-security: - title: Garantizar que el código de Python esté protegido y seguro - description: Reglas centradas en encontrar problemas de seguridad y vulnerabilidad en tu código de Python, incluidos aquellos que se encuentran en OWASP10 y SANS25. - - - Uso de protocolos de cifrado y hash incorrectos - - Falta de control de acceso - - Configuración errónea de seguridad - - Inyecciones de SQL - - Credenciales codificadas - - Inyección de shell - - Deserialización insegura + description: "Reglas enfocadas en encontrar problemas de seguridad y vulnerabilidad\ + \ en tu código Python, incluyendo aquellos encontrados en OWASP10 y SANS25.\n\ + \n - Uso de protocolos de cifrado y hash deficientes\n - Falta de control de\ + \ acceso\n - Configuración de seguridad incorrecta\n - Inyecciones SQL\n - Credenciales\ + \ codificadas de forma rígida\n - Inyección de shell\n - Deserialización insegura\n" + title: Asegúrate de que tu código en Python sea seguro y protegido rails-best-practices: + description: 'Mejores prácticas para escribir código en Ruby on Rails. + + ' title: Patrones ampliamente adoptados por la comunidad de Ruby on Rails - description: Prácticas recomendadas para escribir código de Ruby on Rails. ruby-best-practices: - title: Seguir las prácticas recomendadas en Ruby - description: Reglas para aplicar las prácticas recomendadas de Ruby. + description: 'Reglas para hacer cumplir las mejores prácticas de Ruby. + + ' + title: Sigue las mejores prácticas en Ruby ruby-code-style: - title: Reglas para aplicar el código de estilo de Ruby. - description: Codifica las reglas de seguridad para escribir reglas de Ruby que sigan las normas de codificación establecidas. + description: 'Reglas de seguridad del código para escribir reglas en Ruby que + sigan los estándares de codificación establecidos. + + ' + title: Reglas para hacer cumplir el estilo de Ruby. ruby-inclusive: - title: Reglas para código de Ruby inclusivo - description: Escribir código de Ruby inclusivo + description: 'Escribe código Ruby inclusivo + + ' + title: Reglas para código Ruby inclusivo ruby-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + Ruby. + + ' title: Reglas de seguridad para Ruby - description: Reglas centradas en encontrar problemas de seguridad en tu código de Ruby. swift-code-style: - title: Reglas para imponer el estilo y las buenas prácticas del código Swift. - description: Code Security para escribir reglas Swift que sigan los estándares de codificación establecidos. + description: 'Reglas de seguridad del código para escribir reglas en Swift que + sigan los estándares de codificación establecidos. + + ' + title: Reglas para hacer cumplir el estilo de código en Swift y mejores prácticas. swift-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + Swift. + + ' title: Reglas de seguridad para Swift - description: Reglas centradas en encontrar problemas de seguridad en tu código Swift. terraform-aws: + description: 'Reglas para hacer cumplir las mejores prácticas de Terraform para + AWS. + + ' title: Terraform AWS - description: Reglas a fin de aplicar las prácticas recomendadas de Terraform para AWS. tsx-react: - title: Calidad del código de TypeScript con React - description: Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. + description: 'Este complemento exporta una configuración `recomendada` que hace + cumplir las buenas prácticas de React. + + ' + title: Calidad del código TypeScript React typescript-best-practices: - title: Seguir las mejores prácticas para escribir código de TypeScript - description: Reglas para aplicar las prácticas recomendadas de TypeScript. + description: 'Reglas para hacer cumplir las mejores prácticas de TypeScript. + + ' + title: Sigue las mejores prácticas para escribir código TypeScript typescript-browser-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tus aplicaciones + web de TypeScript. + + ' title: Reglas de seguridad para aplicaciones web de TypeScript - description: Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de TypeScript. typescript-code-style: - title: Patrones de código con opiniones de TypeScript - description: Reglas que se consideran las prácticas recomendadas para las bases de código de TypeScript modernas, pero que no afectan la lógica del programa. Por lo general, estas reglas tienen como objetivo aplicar patrones de código más simples. + description: 'Reglas consideradas como mejores prácticas para bases de código + modernas de TypeScript, pero que no impactan la lógica del programa. Estas reglas + generalmente promueven la aplicación de patrones de código más simples. + + ' + title: Patrones de código en TypeScript con un enfoque definido. typescript-common-security: + description: 'Reglas enfocadas en encontrar problemas de seguridad en tu código + TypeScript. + + ' title: Reglas de seguridad comunes para TypeScript - description: Reglas centradas en encontrar problemas de seguridad en tu código de TypeScript. typescript-express: - title: Consultar las prácticas recomendadas y seguridad de Express.js con TypeScript - description: Reglas específicas para las prácticas recomendadas y seguridad de Express.js con TypeScript. + description: 'Reglas específicamente para las mejores prácticas y seguridad de + TypeScript en Express.js. + + ' + title: Verifica las mejores prácticas y seguridad de TypeScript en Express.js typescript-inclusive: - title: Verifica el código de TypeScript para detectar problemas de redacción. - description: Reglas de TypeScript para evitar redactar textos inadecuados en el código y los comentarios. - typescript-node-security: - title: Identificar posibles puntos críticos de seguridad en Node - description: Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. -cascade: - modal: - title: Prueba esta regla y analiza tu código con Datadog Code Security - top_box: - title: Cómo usar esta regla - steps: - - Crea un static-analysis.datadog.yml con el contenido anterior en la raíz de tu repositorio - - Utiliza nuestros complementos del IDE gratuitos o añade análisis de Code Security a tus pipelines de CI. - - Recibe comentarios sobre tu código - footer: Para más información, lee la documentación sobre Code Security - bottom_boxes: - - title: Extensión de VS Code - icon: vscode - subtitle: Identifica vulnerabilidades del código directamente en tu editor de
    VS Code - cta_title: Descargar extensión - cta_url: "https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode" - - title: Complemento de JetBrains - icon: jetbrains - subtitle: Identifica vulnerabilidades del código directamente en los productos de
    JetBrains - cta_title: Descargar complemento - cta_url: "https://plugins.jetbrains.com/plugin/19495-datadog" - footer: - text: Utiliza Datadog Code Security para detectar problemas de código en cada paso del proceso de desarrollo - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + description: 'Reglas para TypeScript para evitar un lenguaje inapropiado en el + código y los comentarios. - banner: - title: Integraciones sin problemas. Prueba Datadog Code Security - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + ' + title: Verifica el código TypeScript en busca de problemas de redacción + typescript-node-security: + description: 'Reglas para identificar posibles puntos críticos de seguridad en + Node. Esto puede incluir falsos positivos que requieren una mayor evaluación. -further_reading: - - link: /security/code_security/ - tag: Documentación - text: Más información sobre Datadog Code Security + ' + title: Identificar posibles puntos críticos de seguridad en Node +title: Reglas SAST +type: static-analysis --- - -{{% site-region region="gov" %}} +{{% site-region region="gov,gov2" %}}
    - Code Security no está disponible para el sitio {{< region-param key="dd_site_name" >}}. + La seguridad del código no está disponible para el {{< region-param key="dd_site_name" >}} sitio.
    {{% /site-region %}} -## Información general +## Resumen {#overview} -Datadog Static Code Analysis proporciona reglas predefinidas para ayudar a detectar vulnerabilidades de seguridad, errores y problemas de mantenimiento en tu código base. Para obtener más información, consulta la [Documentación de instalación][1]. +El análisis estático de código de Datadog proporciona reglas listas para usar que ayudan a detectar vulnerabilidades de seguridad, errores y problemas de mantenibilidad en tu base de código. Para más información, consulta la [documentación de configuración][1]. -[1]: /security/code_security/static_analysis/setup/ +[1]: /es/security/code_security/static_analysis/setup/ \ No newline at end of file diff --git a/content/es/standard-attributes/_index.md b/content/es/standard-attributes/_index.md index da85fad1063..ba8c90db4c3 100644 --- a/content/es/standard-attributes/_index.md +++ b/content/es/standard-attributes/_index.md @@ -1,17 +1,16 @@ --- attributes: -- description: El nombre del host de origen tal y como se define en las métricas. - Datadog recupera automáticamente las etiquetas de host correspondientes del host - coincidente en Datadog y las aplica a tu telemetría. El Agent configura este valor - automáticamente. - domain: Reservado +- description: El nombre del host de origen según se define en las métricas. Datadog + recupera automáticamente las etiquetas de host correspondientes del host coincidente + en Datadog y las aplica a su telemetría. El Agente establece este valor automáticamente. + domain: Reserved name: host product_source: - icon-log - icon-apm - type: cadena + type: string - description: El tipo de dispositivo de origen. - domain: Reservado + domain: Reserved name: device product_source: - icon-rum @@ -19,34 +18,34 @@ attributes: - ios - browser - roku - type: cadena -- description: Corresponde al nombre de la integración, la tecnología de la que proceden - los datos. Cuando coincide con un nombre de integración, Datadog instala automáticamente - los analizadores y las facetas correspondientes. Por ejemplo, `nginx`, `postgresql`, - etc. - domain: Reservado + type: string +- description: Esto corresponde al nombre de la integración, la tecnología de la cual + se originaron los datos. Cuando coincide con un nombre de integración, Datadog + instala automáticamente los analizadores y facetas correspondientes. Por ejemplo, + `nginx`, `postgresql`, y así sucesivamente. + domain: Reserved name: source product_source: - icon-log - type: cadena -- description: Esto corresponde al nivel o la severidad de los datos. En el caso de - los logs, se utilizan para definir [patrones de logs](/logs/explorer/patterns/) - y tiene un diseño dedicado en la interfaz de usuario de gestión de logs. - domain: Reservado + type: string +- description: Esto corresponde al nivel o severidad de los datos. Para los registros, + se utiliza para definir [patrones de registro](/logs/explorer/patterns/) y tiene + un diseño dedicado en la interfaz de usuario de Log Management. + domain: Reserved name: status product_source: - icon-log - icon-apm - type: cadena + type: string - description: El [nombre de servicio unificado](/getting_started/tagging/unified_service_tagging/) - para la aplicación o el servicio que genera los datos, que se utiliza para correlacionar - las sesiones de usuario. Se utiliza para cambiar de APM a otros productos, por - lo que debes asegurarte de definir el mismo valor cuando utilices ambos productos. - En el SDK del navegador RUM, un servicio denota un conjunto de páginas creadas - por un equipo que ofrece una funcionalidad específica en tu aplicación de navegador. - Puedes asignar páginas web a un servicio con [rastreo de vista manual](/real_user_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names). - domain: Reservado - name: Servicio + para la aplicación o servicio que está generando los datos, utilizado para correlacionar + sesiones de usuario. Se utiliza para cambiar de APM a otros productos, así que + asegúrese de definir el mismo valor cuando use ambos productos. En el SDK del + Navegador RUM, un servicio denota un conjunto de páginas construidas por un equipo + que ofrece una funcionalidad específica en su aplicación de navegador. Puedes + asignar páginas web a un servicio con [seguimiento manual de visualizaciones](/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names). + domain: Reserved + name: service product_source: - icon-log - icon-rum @@ -55,216 +54,215 @@ attributes: - ios - browser - roku - type: cadena -- description: El ID de traza (trace) que se utiliza para las trazas. Se utiliza para - correlacionar las trazas con otros datos, incluidos los logs. - domain: Reservado + type: string +- description: El ID de traza utilizado para las trazas. Se utiliza para correlacionar + sus trazas con otros datos, incluidos los registros. + domain: Reserved name: trace_id product_source: - icon-log - icon-apm - type: número -- description: El cuerpo de una entrada de log, resaltado y mostrado en Logs Live - Tail, donde está indexado para la búsqueda de texto completo. - domain: Reservado + type: number +- description: El cuerpo de una entrada de registro, resaltado y mostrado en Logs + Live Tail, donde se indexa para búsqueda de texto completo. + domain: Reserved name: message product_source: - icon-log - type: cadena -- description: Número total de bytes transmitidos del cliente al servidor cuando se - emite el log. - domain: Comunicaciones de red + type: string +- description: Número total de bytes transmitidos desde el cliente al servidor cuando + se emite el registro. + domain: Network communications name: network.bytes_read product_source: - icon-log - type: número -- description: Número total de bytes transmitidos del servidor al cliente cuando se - emite el log. - domain: Comunicaciones de red + type: number +- description: Número total de bytes transmitidos desde el servidor al cliente cuando + se emite el registro. + domain: Network communications name: network.bytes_written product_source: - icon-log - type: número + type: number - description: Nombre del país. - domain: Geolocalización + domain: Geolocation name: network.client.geoip.country.name product_source: - icon-log - type: cadena + type: string - description: '[Código ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) del país (por ejemplo, `US` para Estados Unidos, `FR` para Francia).' - domain: Geolocalización + domain: Geolocation name: network.client.geoip.country.iso_code product_source: - icon-log - type: cadena + type: string - description: Código ISO del continente (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). - domain: Geolocalización + domain: Geolocation name: network.client.geoip.continent.code product_source: - icon-log - type: cadena -- description: Nombre del continente (`Europe`, `Australia`, `North America`, `Africa`, - `Antartica`, `South America`, `Oceania`). - domain: Geolocalización + type: string +- description: Nombre del continente (`Europa`, `Australia`, `América del Norte`, + `África`, `Antártida`, `América del Sur`, `Oceanía`). + domain: Geolocation name: network.client.geoip.continent.name product_source: - icon-log - type: cadena + type: string - description: Nombre del primer nivel de subdivisión del país (por ejemplo, `California` - en Estados Unidos o el departamento `Sarthe` en Francia). - domain: Geolocalización + en los Estados Unidos o el departamento de `Sarthe` en Francia). + domain: Geolocation name: network.client.geoip.subdivision.name product_source: - icon-log - type: cadena -- description: '[Código ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) - del primer nivel de subdivisión del país (por ejemplo, `CA` en Estados Unidos - o el departamento `SA` en Francia).' - domain: Geolocalización + type: string +- description: Código ISO del primer nivel de subdivisión del país (por ejemplo, `CA` + en los Estados Unidos o el departamento de `SA` en Francia). + domain: Geolocation name: network.client.geoip.subdivision.iso_code product_source: - icon-log - type: cadena -- description: El nombre de la ciudad (por ejemplo, `Paris`, `New York`). - domain: Geolocalización + type: string +- description: El nombre de la ciudad (por ejemplo, `París`, `Nueva York`). + domain: Geolocation name: network.client.geoip.city.name product_source: - icon-log - type: cadena + type: string - description: Campo de encabezado HTTP que identifica la dirección de la página web - vinculada al recurso solicitado. + que enlazó al recurso que se está solicitando. domain: HTTP name: http.referer product_source: - icon-log - type: cadena + type: string - description: El ID de la solicitud HTTP. domain: HTTP name: http.request_id product_source: - icon-log - type: cadena + type: string - description: La parte del host HTTP de la URL. - domain: HTTP, detalles de la URL + domain: HTTP, URL Details name: http.url_details.host product_source: - icon-log - icon-apm - type: cadena + type: string - description: La parte del puerto HTTP de la URL. - domain: HTTP, detalles de la URL + domain: HTTP, URL Details name: http.url_details.port product_source: - icon-log - icon-apm - type: número + type: number - description: La parte de la ruta HTTP de la URL. - domain: HTTP, detalles de la URL + domain: HTTP, URL Details name: http.url_details.path product_source: - icon-log - icon-apm - type: cadena -- description: Las partes de la cadena de la consulta HTTP de la URL desglosadas como - atributos de clave/valor de parámetros de consulta. - domain: HTTP, detalles de la URL + type: string +- description: Las partes de la cadena de consulta HTTP de la URL descompuestas como + atributos clave/valor de parámetros de consulta. + domain: HTTP, URL Details name: http.url_details.queryString product_source: - icon-log - icon-apm - type: objecto -- description: El nombre de protocolo de la URL (HTTP o HTTPS). - domain: HTTP, detalles de la URL + type: object +- description: El nombre del protocolo de la URL (HTTP o HTTPS). + domain: HTTP, URL Details name: http.url_details.scheme product_source: - icon-log - icon-apm - type: cadena -- description: La familia del SO informada por el User-Agent. + type: string +- description: La familia de sistemas operativos reportada por el User-Agent. domain: User-Agent name: http.useragent_details.os.family product_source: - icon-log - type: cadena -- description: La familia de navegadores informada por el User-Agent. + type: string +- description: La familia de navegadores reportada por el User-Agent. domain: User-Agent name: http.useragent_details.browser.family product_source: - icon-log - type: cadena -- description: La familia de dispositivos informada por el User-Agent. + type: string +- description: La familia de dispositivos reportada por el User-Agent. domain: User-Agent name: http.useragent_details.device.family product_source: - icon-log - type: cadena -- description: El nombre del registrador. - domain: Código de origen + type: string +- description: El nombre del logger. + domain: Source code name: logger.name product_source: - icon-log - type: cadena -- description: El nombre del subproceso actual cuando se activa el log. - domain: Código de origen + type: string +- description: El nombre del hilo actual cuando se genera el registro. + domain: Source code name: logger.thread_name product_source: - icon-log - type: cadena -- description: El nombre del método de clase. - domain: Código de origen + type: string +- description: El nombre del método de la clase. + domain: Source code name: logger.method_name product_source: - icon-log - type: cadena -- description: La versión del registrador. - domain: Código de origen + type: string +- description: La versión del logger. + domain: Source code name: logger.version product_source: - icon-log - type: cadena -- description: El tipo o la clase de error (o código en algunos casos). - domain: Código de origen + type: string +- description: El tipo o clase de error (o código en algunos casos). + domain: Source code name: error.kind product_source: - icon-log - type: cadena -- description: El nombre de la base de datos a la que te estás conectando. Por ejemplo, - en Java, si `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"`, el nombre de instancia - es `customers`. - domain: Base de datos + type: string +- description: El nombre de la base de datos a la que se está conectando. Por ejemplo, + en Java, si `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"`, el nombre de la + instancia es `customers`. + domain: Database name: db.instance product_source: - icon-apm - icon-log - type: cadena -- description: 'Una declaración de base de datos para el tipo de base de datos indicado. - Por ejemplo, para MySQL: `''SELECT * FROM wuser_table'';`, y para Redis: `''SET + type: string +- description: 'Una declaración de base de datos para el tipo de base de datos dado. + Por ejemplo, para mySQL: `''SELECT * FROM wuser_table'';` y para Redis: `''SET mykey ''WuValue''''`.' - domain: Base de datos + domain: Database name: db.statement product_source: - icon-apm - icon-log - type: cadena -- description: El usuario que realiza la operación. - domain: Base de datos + type: string +- description: Usuario que realiza la operación. + domain: Database name: db.user product_source: - icon-apm - icon-log - type: cadena + type: string - description: 'Una duración de cualquier tipo en **nanosegundos**: tiempo de respuesta - HTTP, tiempo de consulta de base de datos, latencia, etc. [Reasigna](/logs/log_configuration/processors/#remapper) - cualquier duración dentro de los logs a este atributo porque Datadog lo muestra - y lo usa como una medida predeterminada para la búsqueda de trazas.' - domain: Rendimiento + HTTP, tiempo de consulta de base de datos, latencia, etc. [Remapear](/logs/log_configuration/processors/remapper/) + cualquier duración dentro de los registros a este atributo porque Datadog lo muestra + y lo utiliza como medida predeterminada para la búsqueda de trazas.' + domain: Performance name: duration product_source: - icon-log - type: número + type: number - description: El identificador del usuario. - domain: Usuario + domain: User name: usr.id product_source: - icon-log @@ -273,9 +271,9 @@ attributes: - ios - browser - roku - type: cadena -- description: El nombre descriptivo. - domain: Usuario + type: string +- description: El nombre amigable del usuario. + domain: User name: usr.name product_source: - icon-log @@ -284,9 +282,9 @@ attributes: - ios - browser - roku - type: cadena + type: string - description: El correo electrónico del usuario. - domain: Usuario + domain: User name: usr.email product_source: - icon-log @@ -295,138 +293,136 @@ attributes: - ios - browser - roku - type: cadena -- description: El nombre de host. - domain: Syslog y trasvasadores de logs + type: string +- description: El nombre del host. + domain: Syslog and log shippers name: syslog.hostname product_source: - icon-log - type: cadena -- description: El nombre de la aplicación. Generalmente reasignado al atributo reservado + type: string +- description: El nombre de la aplicación. Generalmente remapeado al atributo reservado `service`. - domain: Syslog y trasvasadores de logs + domain: Syslog and log shippers name: syslog.appname product_source: - icon-log - type: cadena -- description: La severidad del log. Generalmente reasignado al atributo reservado + type: string +- description: La severidad del registro. Generalmente remapeado al atributo reservado `status`. - domain: Syslog y trasvasadores de logs + domain: Syslog and log shippers name: syslog.severity product_source: - icon-log - type: número -- description: La marca de tiempo del log. Generalmente reasignado al atributo reservado - `date`. - domain: Syslog y trasvasadores de logs + type: number +- description: La marca de tiempo del registro. Generalmente remapeado al atributo + reservado `date`. + domain: Syslog and log shippers name: syslog.timestamp product_source: - icon-log - type: cadena -- description: El nombre del entorno de donde procede la fuente de los logs. - domain: Syslog y trasvasadores de logs + type: string +- description: El nombre del entorno de donde provienen los registros. + domain: Syslog and log shippers name: syslog.env product_source: - icon-log - type: cadena + type: string - description: El identificador de la consulta DNS. domain: DNS name: dns.id product_source: - icon-log - type: cadena + type: string - description: El nombre de dominio consultado. domain: DNS name: dns.question.name product_source: - icon-log - type: cadena -- description: Un [código de dos octetos](https://en.wikipedia.org/wiki/List_of_DNS_record_types) + type: string +- description: Un [código de dos octetos](https://es.wikipedia.org/wiki/Lista_de_tipos_de_registros_DNS) que especifica el tipo de pregunta DNS. domain: DNS name: dns.question.type product_source: - icon-log - type: cadena -- description: La clase buscada por la pregunta DNS (como el IP cuando se utiliza - Internet). + type: string +- description: La clase buscada por la pregunta DNS (como IP al usar internet). domain: DNS name: dns.question.class product_source: - icon-log - type: cadena + type: string - description: El tamaño de la pregunta DNS en bytes. domain: DNS name: dns.question.size product_source: - icon-log - type: número + type: number - description: La dirección IP con la que responde el DNS. domain: DNS name: dns.answer.name product_source: - icon-log - type: cadena -- description: Un [código de dos octetos](https://en.wikipedia.org/wiki/List_of_DNS_record_types) + type: string +- description: Un [código de dos octetos](https://es.wikipedia.org/wiki/Lista_de_tipos_de_registros_DNS) que especifica el tipo de respuesta DNS. domain: DNS name: dns.answer.type product_source: - icon-log - type: cadena -- description: La clase contestada por el DNS. + type: string +- description: La clase respondida por el DNS. domain: DNS name: dns.answer.class product_source: - icon-log - type: cadena + type: string - description: El tamaño de la respuesta DNS en bytes. domain: DNS name: dns.answer.size product_source: - icon-log - type: número -- description: El código de respuesta DNS. + type: number +- description: El código de respuesta del DNS. domain: DNS name: dns.flags.rcode product_source: - icon-log - type: cadena -- description: El nombre compartido a través de eventos generado por la misma actividad + type: string +- description: El nombre compartido entre eventos generados por la misma actividad (por ejemplo, autenticación). - domain: Eventos + domain: Events name: evt.name product_source: - icon-log - type: cadena -- description: El resultado del evento (por ejemplo, `success`, `failure`). - domain: Eventos + type: string +- description: El resultado del evento (por ejemplo, `éxito`, `fallo`). + domain: Events name: evt.outcome product_source: - icon-log - type: cadena + type: string - description: Inicio del evento en milisegundos desde la época. - domain: Atributos básicos del RUM + domain: RUM core attributes name: date product_source: - icon-rum - android - ios - roku - type: entero -- description: El tipo de evento (por ejemplo, `view` o `resource`). - domain: Atributos básicos del RUM - name: tipo + type: integer +- description: El tipo de evento (por ejemplo, `visualización` o `recurso`). + domain: RUM core attributes + name: type product_source: - icon-rum - android - browser - ios - roku - type: cadena -- description: El ID de aplicación de Datadog generado al crear una aplicación de - RUM. - domain: Atributos básicos del RUM + type: string +- description: El ID de la aplicación Datadog generado al crear una aplicación RUM. + domain: RUM core attributes name: application.id product_source: - icon-rum @@ -434,118 +430,119 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: El nombre de la aplicación Datadog. - domain: Atributos básicos del RUM + domain: RUM core attributes name: application.name product_source: - icon-rum - android - browser - ios - type: cadena -- description: El tipo de dispositivo notificado por el dispositivo (System User-Agent). - domain: Dispositivo (Android, iOS, Roku) + type: string +- description: El tipo de dispositivo reportado por el dispositivo (User-Agent del + sistema). + domain: Device (Android, iOS, Roku) name: device.type product_source: - icon-rum - android - ios - roku - type: cadena -- description: La marca del dispositivo notificada por el dispositivo (System User-Agent). - domain: Dispositivo (Android, iOS, Roku) + type: string +- description: La marca del dispositivo reportada por el dispositivo (System User-Agent). + domain: Device (Android, iOS, Roku) name: device.brand product_source: - icon-rum - android - ios - roku - type: cadena -- description: El modelo del dispositivo notificado por el dispositivo (System User-Agent). - domain: Dispositivo (Android, iOS, Roku) + type: string +- description: El modelo del dispositivo reportado por el dispositivo (System User-Agent). + domain: Device (Android, iOS, Roku) name: device.model product_source: - icon-rum - android - ios - roku - type: cadena -- description: El nombre del dispositivo notificado por el dispositivo (System User-Agent). - domain: Dispositivo (Android, iOS, Roku) + type: string +- description: El nombre del dispositivo reportado por el dispositivo (System User-Agent). + domain: Device (Android, iOS, Roku) name: device.name product_source: - icon-rum - android - ios - roku - type: cadena -- description: Estado de la accesibilidad a la red del dispositivo (`connected`, `not - connected` o `maybe`). - domain: Conectividad (Android, iOS) + type: string +- description: Estado de la conexión de red del dispositivo (`connected`, `not connected` + o `maybe`). + domain: Connectivity (Android, iOS) name: connectivity.status product_source: - icon-rum - android - ios - type: cadena + type: string - description: La lista de interfaces de red disponibles (por ejemplo, `bluetooth`, - `cellular`, `ethernet` o `wifi`). - domain: Conectividad (Android, iOS) + `celular`, `ethernet` o `wifi`). + domain: Connectivity (Android, iOS) name: connectivity.interfaces product_source: - icon-rum - android - ios - type: cadena + type: string - description: El tipo de tecnología de radio utilizada para la conexión celular. - domain: Conectividad (Android, iOS) + domain: Connectivity (Android, iOS) name: connectivity.cellular.technology product_source: - icon-rum - android - ios - type: cadena + type: string - description: El nombre del operador de la SIM. - domain: Conectividad (Android, iOS) + domain: Connectivity (Android, iOS) name: connectivity.cellular.carrier_name product_source: - icon-rum - android - ios - type: cadena -- description: El nombre del sistema operativo notificado por el dispositivo (System - User-Agent). - domain: Sistema operativo (Android, iOS, Roku) + type: string +- description: El nombre del sistema operativo según lo reportado por el dispositivo + (System User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.name product_source: - icon-rum - android - ios - roku - type: cadena -- description: La versión del sistema operativo notificada por el dispositivo (System - User-Agent). - domain: Sistema operativo (Android, iOS, Roku) + type: string +- description: La versión del sistema operativo según lo reportado por el dispositivo + (System User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.version product_source: - icon-rum - android - ios - roku - type: cadena -- description: La versión principal del sistema operativo notificada por el dispositivo - (System User-Agent). - domain: Sistema operativo (Android, iOS, Roku) + type: string +- description: La versión principal del sistema operativo según lo reportado por el + dispositivo (System User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.version_major product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: Nombre del país. - domain: Geolocalización + domain: Geolocation name: geo.country product_source: - icon-rum @@ -553,10 +550,10 @@ attributes: - browser - ios - roku - type: cadena -- description: El [Código ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + type: string +- description: El [código ISO](https://es.wikipedia.org/wiki/Anexo:C%C3%B3digos_ISO_3166-1) del país (por ejemplo, `US` para Estados Unidos o `FR` para Francia). - domain: Geolocalización + domain: Geolocation name: geo.country_iso_code product_source: - icon-rum @@ -564,10 +561,10 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: Nombre del primer nivel de subdivisión del país (por ejemplo, `California` - en Estados Unidos o el departamento `Sarthe` en Francia). - domain: Geolocalización + en los Estados Unidos o el departamento de `Sarthe` en Francia). + domain: Geolocation name: geo.country_subdivision product_source: - icon-rum @@ -575,9 +572,9 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: Código ISO del continente (`EU`, `AS`, `NA`, `AF`, `AN`, `SA` o `OC`). - domain: Geolocalización + domain: Geolocation name: geo.continent_code product_source: - icon-rum @@ -585,10 +582,10 @@ attributes: - browser - ios - roku - type: cadena -- description: Nombre del continente (`Europe`, `Australia`, `North America`, `Africa`, - `Antarctica`, `South America` o `Oceania`). - domain: Geolocalización + type: string +- description: Nombre del continente (`Europa`, `Australia`, `América del Norte`, + `África`, `Antártida`, `América del Sur` o `Oceanía`). + domain: Geolocation name: geo.continent product_source: - icon-rum @@ -596,10 +593,10 @@ attributes: - browser - ios - roku - type: cadena -- description: El nombre de la ciudad (por ejemplo, `San Francisco`, `Paris` o `New + type: string +- description: El nombre de la ciudad (por ejemplo, `San Francisco`, `París` o `Nueva York`). - domain: Geolocalización + domain: Geolocation name: geo.city product_source: - icon-rum @@ -607,230 +604,233 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: Identificador del usuario. - domain: Atributos de usuario de RUM (Android, Roku) + domain: RUM user attributes (Android, Roku) name: user.id product_source: - icon-rum - android - roku - type: cadena + type: string - description: Identificador del usuario. - domain: Atributos de usuario de RUM (iOS) + domain: RUM user attributes (iOS, Browser) name: usr.id product_source: - icon-rum - ios - type: cadena + - browser + type: string - description: Nombre del usuario. - domain: Atributos de usuario globales (Android, iOS, Roku) + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.name product_source: - icon-rum - android - ios + - browser - roku - type: cadena + type: string - description: Correo electrónico del usuario. - domain: Atributos de usuario globales (Android, iOS, Roku) + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.email product_source: - icon-rum - android - ios + - browser - roku - type: cadena + type: string - description: ID único de la sesión. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + domain: Session (Android events, iOS events, Roku events) name: session.id product_source: - icon-rum - android - ios - roku - type: cadena -- description: Tipo de sesión (`user`). - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: string +- description: Tipo de la sesión (`user`). + domain: Session (Android events, iOS events, Roku events) name: session.type product_source: - icon-rum - android - ios - roku - type: cadena -- description: Indica si la sesión está actualmente activa. La sesión finaliza si - un usuario sale de la aplicación o cierra la ventana del navegador y expira tras - 4 horas de actividad o 15 minutos de inactividad. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: string +- description: Indica si la sesión está actualmente activa. La sesión termina si un + usuario navega fuera de la aplicación o cierra la ventana del navegador, y expira + después de 4 horas de actividad o 15 minutos de inactividad. + domain: Session (Android events, iOS events, Roku events) name: session.is_active product_source: - icon-rum - android - ios - roku - type: booleano -- description: URL de la vista inicial de la sesión. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: boolean +- description: URL de la visualización inicial de la sesión. + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.url product_source: - icon-rum - android - ios - roku - type: cadena -- description: Nombre de la vista inicial de la sesión. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: string +- description: Nombre de la visualización inicial de la sesión. + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.name product_source: - icon-rum - android - ios - roku - type: cadena -- description: URL de la última vista de la sesión. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: string +- description: URL de la última visualización de la sesión. + domain: Session (Android events, iOS events, Roku events) name: session.last_view.url product_source: - icon-rum - android - ios - roku - type: cadena -- description: Nombre de la última vista de la sesión. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + type: string +- description: Nombre de la última visualización de la sesión. + domain: Session (Android events, iOS events, Roku events) name: session.last_view.name product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: Dirección IP de la sesión extraída de la conexión TCP de la entrada. - Si deseas dejar de recopilar este atributo, cambia la configuración en tus [detalles + Si desea dejar de recopilar este atributo, cambie la configuración en los [detalles de la aplicación](/data_security/real_user_monitoring/#ip-address). - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + domain: Session (Android events, iOS events, Roku events) name: session.ip product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: Información del `User-Agent` del sistema para interpretar la información del dispositivo. - domain: Sesión (eventos Android, eventos iOS, eventos Roku) + domain: Session (Android events, iOS events, Roku events) name: session.useragent product_source: - icon-rum - android - ios - roku - type: cadena -- description: ID único de la vista inicial correspondiente al evento. - domain: Vista (eventos Android, eventos iOS, eventos Roku) + type: string +- description: ID único de la visualización inicial correspondiente al evento. + domain: View (Android events, iOS events, Roku events) name: view.id product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: Nombre canónico de la clase correspondiente al evento. Para iOS, la URL de la clase `UIViewController` correspondiente al evento. - domain: Vista (eventos Android, eventos iOS, eventos Roku) + domain: View (Android events, iOS events, Roku events) name: view.url product_source: - icon-rum - android - ios - roku - type: cadena -- description: Nombre personalizable de la vista correspondiente al evento. - domain: Vista (eventos Android, eventos iOS, eventos Roku) + type: string +- description: Nombre personalizable de la visualización correspondiente al evento. + domain: View (Android events, iOS events, Roku events) name: view.name product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: Identificador único del recurso. - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.id product_source: - icon-rum - android - ios - roku - type: cadena -- description: El tipo de recurso que se recopila (por ejemplo, `xhr`, `image`, `font`, - `css` o `js`). - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + type: string +- description: El tipo de recurso que se está recopilando (por ejemplo, `xhr`, `imagen`, + `fuente`, `css` o `js`). + domain: Resource (Android events, iOS events, Roku events) name: resource.type product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El método HTTP (por ejemplo, `POST`, `GET`, `PATCH` o `DELETE`). - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.method product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El código de estado de la respuesta. - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.status_code product_source: - icon-rum - android - ios - roku - type: número + type: number - description: La URL del recurso. - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.url product_source: - icon-rum - android - ios - roku - type: cadena -- description: El nombre del proveedor de recursos. De forma predeterminada es `unknown`. - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + type: string +- description: El nombre del proveedor del recurso. Por defecto es `unknown`. + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.name product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El dominio del proveedor del recurso. - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.domain product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El tipo de proveedor del recurso (por ejemplo, `first-party`, `cdn`, `ad` o `analytics`). - domain: Recurso (eventos Android, eventos iOS, eventos Roku) + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.type product_source: - icon-rum - android - ios - roku - type: cadena -- description: Procedencia del error (por ejemplo, `webview`, `logger` o `network`). - domain: Error (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + type: string +- description: De dónde proviene el error (por ejemplo, `webview`, `logger` o `red`). + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.source product_source: - icon-rum @@ -838,9 +838,9 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: El tipo de error (o código de error en algunos casos). - domain: Error (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.type product_source: - icon-apm @@ -849,9 +849,10 @@ attributes: - browser - ios - roku - type: cadena -- description: Un mensaje conciso, legible, de una línea, que explique el evento. - domain: Error (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + type: string +- description: Un mensaje conciso, legible por humanos, de una línea que explica el + evento. + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.message product_source: - icon-apm @@ -861,9 +862,9 @@ attributes: - browser - ios - roku - type: cadena -- description: La stack trace o información complementaria sobre el error. - domain: Error (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + type: string +- description: La traza de pila o información complementaria sobre el error. + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.stack product_source: - icon-apm @@ -873,73 +874,73 @@ attributes: - browser - ios - roku - type: cadena -- description: La stack trace o información complementaria sobre el error. - domain: Error (eventos Android, eventos iOS, eventos Roku) + type: string +- description: La traza de pila o información complementaria sobre el error. + domain: Error (Android events, iOS events, Roku events) name: error.issue_id product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El código de estado de la respuesta. - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.status_code product_source: - icon-rum - android - ios - roku - type: número + type: number - description: El método HTTP (por ejemplo, `POST` o `GET`). - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.method product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: La URL del recurso. - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.url product_source: - icon-rum - android - ios - roku - type: cadena -- description: El nombre del proveedor de recursos. De forma predeterminada es `unknown`. - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + type: string +- description: El nombre del proveedor del recurso. Por defecto es `desconocido`. + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.name product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El dominio del proveedor del recurso. - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.domain product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: El tipo de proveedor del recurso (por ejemplo, `first-party`, `cdn`, `ad` o `analytics`). - domain: Error de red (eventos Android, eventos iOS, eventos Roku) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.type product_source: - icon-rum - android - ios - roku - type: cadena + type: string - description: UUID de la acción del usuario. - domain: Acción (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.id product_source: - icon-rum @@ -947,11 +948,11 @@ attributes: - browser - ios - roku - type: cadena -- description: Tipo de la acción de usuario (por ejemplo, `tap` o `application_start`). - Para [Acciones de usuario del navegador personalizadas](/real_user_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), + type: string +- description: Tipo de la acción del usuario (por ejemplo, `tap` o `application_start`). + Para [Acciones de Usuario en Navegador Personalizadas](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), se establece en `custom`. - domain: Acción (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.type product_source: - icon-rum @@ -959,11 +960,11 @@ attributes: - browser - ios - roku - type: cadena -- description: Un nombre descriptivo (por ejemplo, `Click on checkout`). Para [Acciones - de usuario del navegador personalizadas](/real_user_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), - el nombre de acción dado en la llamada a la API. - domain: Acción (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + type: string +- description: Un nombre amigable para el usuario (por ejemplo, `Clic en finalizar + compra`). Para [Acciones de Usuario en Navegador Personalizadas](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), + el nombre de la acción dado en la llamada a la API. + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.name product_source: - icon-rum @@ -971,10 +972,10 @@ attributes: - browser - ios - roku - type: cadena -- description: Elemento con el que ha interactuado el usuario. Solo para acciones - recopiladas automáticamente. - domain: Acción (eventos de navegador, eventos Android, eventos iOS, eventos Roku) + type: string +- description: Elemento con el que el usuario interactuó. Solo para acciones recolectadas + automáticamente. + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.target.name product_source: - icon-rum @@ -982,729 +983,869 @@ attributes: - browser - ios - roku - type: cadena + type: string - description: ID generado aleatoriamente para cada vista de página. - domain: Vista (navegador) + domain: View (Browser) name: view.id product_source: - icon-rum - browser - type: cadena -- description: El tipo de carga de la página, `initial_load` o `route_change`. Para - obtener más información, consulta los [documentos de soporte de aplicaciones de - una sola página](/real_user_monitoring/browser/monitoring_page_performance/#monitoring-single-page-applications-spa). - domain: Vista (navegador) + type: string +- description: El tipo de carga de página, `initial_load` o `route_change`. Para más + información, consulte la [documentación de soporte para aplicaciones de una sola + página](/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#monitoring-single-page-applications-spa). + domain: View (Browser) name: view.loading_type product_source: - icon-rum - browser - type: cadena -- description: La URL de la página web anterior desde la que se siguió un enlace a - la página solicitada actualmente. - domain: Vista (navegador) + type: string +- description: La URL de la página web anterior desde la cual se siguió un enlace + a la página actualmente solicitada. + domain: View (Browser) name: view.referrer product_source: - icon-rum - browser - type: cadena -- description: La URL de la vista. - domain: Vista (navegador) + type: string +- description: La URL de la visualización. + domain: View (Browser) name: view.url product_source: - icon-rum - browser - type: cadena -- description: La parte de hash de la URL. - domain: Vista (navegador) + type: string +- description: La parte hash de la URL. + domain: View (Browser) name: view.url_hash product_source: - icon-rum - browser - type: cadena -- description: La parte de host de la URL. - domain: Vista (navegador) + type: string +- description: La parte host de la URL. + domain: View (Browser) name: view.url_host product_source: - icon-rum - browser - type: cadena + type: string - description: La parte de ruta de la URL. - domain: Vista (navegador) + domain: View (Browser) name: view.url_path product_source: - icon-rum - browser - type: cadena + type: string - description: El grupo de URL automático generado para URLs similares (por ejemplo, `/dashboard/?` para `/dashboard/123` y `/dashboard/456`). - domain: Vista (navegador) + domain: View (Browser) name: view.url_path_group product_source: - icon-rum - browser - type: cadena -- description: Las partes de la cadena de consulta de la URL desglosadas como atributos + type: string +- description: Las partes de la cadena de consulta de la URL descompuestas como atributos clave/valor de parámetros de consulta. - domain: Vista (navegador) + domain: View (Browser) name: view.url_query product_source: - icon-rum - browser - type: objecto -- description: La parte de esquema de la URL. - domain: Vista (navegador) + type: object +- description: La parte del esquema de la URL. + domain: View (Browser) name: view.url_scheme product_source: - icon-rum - browser - type: objecto -- description: El tipo de dispositivo según lo que indica el dispositivo (cabecera - HTTP User-Agent). - domain: Dispositivo (navegador) + type: object +- description: El tipo de dispositivo reportado por el dispositivo (encabezado HTTP + User-Agent). + domain: Device (Browser) name: device.type product_source: - icon-rum - browser - type: cadena -- description: La marca del dispositivo según lo que indica el dispositivo (cabecera + type: string +- description: La marca del dispositivo según lo informado por el dispositivo (encabezado HTTP User-Agent). - domain: Dispositivo (navegador) + domain: Device (Browser) name: device.brand product_source: - icon-rum - browser - type: cadena -- description: El modelo del dispositivo según lo que indica el dispositivo (cabecera + type: string +- description: El modelo del dispositivo según lo informado por el dispositivo (encabezado HTTP User-Agent). - domain: Dispositivo (navegador) + domain: Device (Browser) name: device.model product_source: - icon-rum - browser - type: cadena -- description: El nombre del dispositivo según lo que indica el dispositivo (cabecera + type: string +- description: El nombre del dispositivo según lo informado por el dispositivo (encabezado HTTP User-Agent). - domain: Dispositivo (navegador) + domain: Device (Browser) name: device.name product_source: - icon-rum - browser - type: cadena -- description: El nombre del SO según lo que indica el dispositivo (cabecera HTTP - User-Agent). - domain: Sistema operativo (navegador) + type: string +- description: El nombre del sistema operativo según lo informado por el dispositivo + (encabezado HTTP User-Agent). + domain: Operating system (Browser) name: os.name product_source: - icon-rum - browser - type: cadena -- description: La versión del SO según lo que indica el dispositivo (cabecera HTTP - User-Agent). - domain: Sistema operativo (navegador) + type: string +- description: La versión del sistema operativo según lo informado por el dispositivo + (encabezado HTTP User-Agent). + domain: Operating system (Browser) name: os.version product_source: - icon-rum - browser - type: cadena -- description: La versión principal del SO según lo que indica el dispositivo (cabecera - HTTP User-Agent). - domain: Sistema operativo (navegador) + type: string +- description: La versión principal del sistema operativo según lo informado por el + dispositivo (encabezado HTTP User-Agent). + domain: Operating system (Browser) name: os.version_major product_source: - icon-rum - browser - type: cadena + type: string - description: ID generado aleatoriamente para cada sesión. - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.id product_source: - icon-rum - browser - type: cadena -- description: Dirección IP del cliente. Si deseas dejar de recopilar este atributo, - cambia la configuración en tus [detalles de la aplicación](/data_security/real_user_monitoring/#ip-address). - domain: Sesión (eventos del navegador) + type: string +- description: Dirección IP del cliente. Si desea dejar de recopilar este atributo, + cambie la configuración en los [detalles de la aplicación](/data_security/real_user_monitoring/#ip-address). + domain: Session (Browser events) name: session.ip product_source: - icon-rum - browser - type: cadena -- description: Indica si la sesión se encuentra activa en estos momentos. La sesión - termina después de 4 horas de actividad o 15 minutos de inactividad. - domain: Sesión (eventos del navegador) + type: string +- description: Indica si la sesión está actualmente activa. La sesión termina después + de 4 horas de actividad o 15 minutos de inactividad. + domain: Session (Browser events) name: session.is_active product_source: - icon-rum - browser - type: booleano -- description: El tipo de sesión, `user` o `synthetics`. Las sesiones de [Synthetic - Browser Tests](/synthetics/browser_tests/) se excluyen de la facturación. - domain: Sesión (eventos del navegador) + type: boolean +- description: El tipo de sesión, `usuario` o `sintéticos`. Las sesiones de [Pruebas + de Navegador Sintéticas](/synthetics/browser_tests/) están excluidas de la facturación. + domain: Session (Browser events) name: session.type product_source: - icon-rum - browser - type: cadena -- description: La URL de la página web anterior desde la que se siguió un enlace a - la página solicitada actualmente. - domain: Sesión (eventos del navegador) + type: string +- description: La URL de la página web anterior desde la cual se siguió un enlace + a la página actualmente solicitada. + domain: Session (Browser events) name: session.referrer product_source: - icon-rum - browser - type: cadena -- description: El ID de la primera vista de RUM generada por el usuario. - domain: Sesión (eventos del navegador) + type: string +- description: El ID de la primera visualización RUM generada por el usuario. + domain: Session (Browser events) name: session.initial_view.id product_source: - icon-rum - browser - type: cadena -- description: La parte de host de la URL. - domain: Sesión (eventos del navegador) + type: string +- description: La parte host de la URL. + domain: Session (Browser events) name: session.initial_view.url_host product_source: - icon-rum - browser - type: cadena + type: string - description: La parte de ruta de la URL. - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.initial_view.url_path product_source: - icon-rum - browser - type: cadena + type: string - description: El grupo de URL automático generado para URLs similares (por ejemplo, `/dashboard/?` para `/dashboard/123` y `/dashboard/456`). - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.initial_view.url_path_group product_source: - icon-rum - browser - type: cadena -- description: Las partes de la cadena de consulta de la URL desglosadas como atributos + type: string +- description: Las partes de la cadena de consulta de la URL descompuestas como atributos clave/valor de parámetros de consulta. - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.initial_view.url_query product_source: - icon-rum - browser - type: objecto -- description: La parte de esquema de la URL. - domain: Sesión (eventos del navegador) + type: object +- description: La parte del esquema de la URL. + domain: Session (Browser events) name: session.initial_view.url_scheme product_source: - icon-rum - browser - type: objecto -- description: El ID de la última vista de RUM generada por el usuario. - domain: Sesión (eventos del navegador) + type: object +- description: El ID de la última visualización RUM generada por el usuario. + domain: Session (Browser events) name: session.last_view.id product_source: - icon-rum - browser - type: cadena -- description: La parte de host de la URL. - domain: Sesión (eventos del navegador) + type: string +- description: La parte host de la URL. + domain: Session (Browser events) name: session.last_view.url_host product_source: - icon-rum - browser - type: cadena + type: string - description: La parte de ruta de la URL. - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.last_view.url_path product_source: - icon-rum - browser - type: cadena + type: string - description: El grupo de URL automático generado para URLs similares (por ejemplo, `/dashboard/?` para `/dashboard/123` y `/dashboard/456`). - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.last_view.url_path_group product_source: - icon-rum - browser - type: cadena -- description: Las partes de la cadena de consulta de la URL desglosadas como atributos + type: string +- description: Las partes de la cadena de consulta de la URL descompuestas como atributos clave/valor de parámetros de consulta. - domain: Sesión (eventos del navegador) + domain: Session (Browser events) name: session.last_view.url_query product_source: - icon-rum - browser - type: objecto -- description: La parte de esquema de la URL. - domain: Sesión (eventos del navegador) + type: object +- description: La parte del esquema de la URL. + domain: Session (Browser events) name: session.last_view.url_scheme product_source: - icon-rum - browser - type: objecto -- description: El tipo de recurso que se recopila (por ejemplo, `css`, `javascript`, - `media`, `XHR` o `image`). - domain: Recurso (eventos del navegador) + type: object +- description: El tipo de recurso que se está recolectando (por ejemplo, `css`, `javascript`, + `media`, `XHR` o `imagen`). + domain: Resource (Browser events) name: resource.type product_source: - icon-rum - browser - type: cadena + type: string - description: El método HTTP (por ejemplo, `POST` o `GET`). - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.method product_source: - icon-rum - browser - type: cadena + type: string - description: El código de estado de la respuesta. - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.status_code product_source: - icon-rum - browser - type: número + type: number - description: La URL del recurso. - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.url product_source: - icon-rum - browser - type: cadena -- description: La parte de host de la URL. - domain: Recurso (eventos del navegador) + type: string +- description: La parte host de la URL. + domain: Resource (Browser events) name: resource.url_host product_source: - icon-rum - browser - type: cadena + type: string - description: La parte de ruta de la URL. - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.url_path product_source: - icon-rum - browser - type: cadena -- description: Las partes de la cadena de consulta de la URL desglosadas como atributos + type: string +- description: Las partes de la cadena de consulta de la URL descompuestas como atributos clave/valor de parámetros de consulta. - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.url_query product_source: - icon-rum - browser - type: objecto -- description: El nombre de protocolo de la URL (HTTP o HTTPS). - domain: Recurso (eventos del navegador) + type: object +- description: El nombre del protocolo de la URL (HTTP o HTTPS). + domain: Resource (Browser events) name: resource.url_scheme product_source: - icon-rum - browser - type: cadena -- description: El nombre del proveedor de recursos. De forma predeterminada es `unknown`. - domain: Recurso (eventos del navegador) + type: string +- description: El nombre del proveedor del recurso. Por defecto es `desconocido`. + domain: Resource (Browser events) name: resource.provider.name product_source: - icon-rum - browser - type: cadena + type: string - description: El dominio del proveedor del recurso. - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.provider.domain product_source: - icon-rum - browser - type: cadena + type: string - description: El tipo de proveedor del recurso (por ejemplo, `first-party`, `cdn`, `ad` o `analytics`). - domain: Recurso (eventos del navegador) + domain: Resource (Browser events) name: resource.provider.type product_source: - icon-rum - browser - type: cadena -- description: Los clics sin efecto detectados por el SDK de RUM Browser. - domain: Señales de frustración (eventos del navegador) + type: string +- description: Los clics muertos detectados por el SDK del Navegador RUM. + domain: Frustration signals (Browser events) name: action.frustration.type:dead_click product_source: - icon-rum - browser - type: cadena -- description: Los clics de frustración detectados por el SDK de RUM Browser. - domain: Señales de frustración (eventos del navegador) + type: string +- description: Los clics de ira detectados por el SDK del Navegador RUM. + domain: Frustration signals (Browser events) name: action.frustration.type:rage_click product_source: - icon-rum - browser - type: cadena -- description: Los clics de error detectados por el SDK RUM Browser. - domain: Señales de frustración (eventos del navegador) + type: string +- description: Los clics de error detectados por el SDK del Navegador RUM. + domain: Frustration signals (Browser events) name: action.frustration.type:error_click product_source: - icon-rum - browser - type: cadena -- description: El parámetro de la URL que rastrea la fuente de tráfico. - domain: UTM (eventos del navegador) + type: string +- description: El parámetro en la URL que rastrea la fuente del tráfico. + domain: UTM (Browser events) name: view.url_query.utm_source product_source: - icon-rum - browser - type: cadena -- description: El parámetro de la URL que rastrea el canal del que procede el tráfico. - domain: UTM (eventos del navegador) + type: string +- description: El parámetro en la URL que rastrea el canal de donde proviene el tráfico. + domain: UTM (Browser events) name: view.url_query.utm_medium product_source: - icon-rum - browser - type: cadena -- description: El parámetro de la URL que identifica la campaña de marketing específica - vinculada a esa vista. - domain: UTM (eventos del navegador) + type: string +- description: El parámetro en la URL que identifica la campaña de marketing específica + asociada a esa visualización. + domain: UTM (Browser events) name: view.url_query.utm_campaign product_source: - icon-rum - browser - type: cadena -- description: El parámetro de la URL que identifica el elemento específico en el - que un usuario ha hecho clic en una campaña de marketing. - domain: UTM (eventos del navegador) + type: string +- description: El parámetro en la URL que identifica el elemento específico en el + que un usuario hizo clic dentro de una campaña de marketing. + domain: UTM (Browser events) name: view.url_query.utm_content product_source: - icon-rum - browser - type: cadena -- description: El parámetro de la URL que rastrea la palabra clave que un usuario + type: string +- description: El parámetro en la URL que rastrea la palabra clave que un usuario buscó para activar una campaña determinada. - domain: UTM (eventos del navegador) + domain: UTM (Browser events) name: view.url_query.utm_term product_source: - icon-rum - browser - type: cadena -- description: 'El idioma del SDK cliente utilizado para generar el tramo (span). - Puede ser uno de los siguientes: `cpp`, `dotnet`, `go`, `jvm`, `javascript`, `php`, - `python`, `ruby`.' - domain: APM básico + type: string +- description: El lenguaje del SDK del cliente utilizado para generar el tramo. Puede + ser uno de `cpp`, `dotnet`, `go`, `jvm`, `javascript`, `php`, `python`, `ruby`. + domain: APM core name: language product_source: - icon-apm - type: cadena + type: string - description: El valor de la variable de entorno `DD_ENV` o `env` definido por el usuario para el proceso en ejecución. - domain: APM básico (Reservado) + domain: APM core (Reserved) name: env product_source: - icon-apm - type: cadena + type: string - description: El valor de la variable de entorno `DD_VERSION` o `version` definido por el usuario para el proceso en ejecución. - domain: APM básico (Reservado) + domain: APM core (Reserved) name: version product_source: - icon-apm - type: cadena + type: string - description: La cadena que representa el tipo de unidad de trabajo manejada por - el tramo. Puede ser servidor, cliente, productor, consumidor o interno. Para obtener - más información, consulta la [documentación de OpenTelemetry SpanKind](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind). - domain: APM básico + el tramo. Puede ser uno de servidor, cliente, productor, consumidor o interno. + Para más información, consulte la [documentación de OpenTelemetry SpanKind](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind). + domain: APM core name: span.kind product_source: - icon-apm - type: cadena -- description: El nombre de la librería o la integración que creó el tramo. - domain: APM básico + type: string +- description: El nombre de la biblioteca o integración que creó el tramo. + domain: APM core name: component product_source: - icon-apm - type: cadena + type: string - description: La dirección IP del cliente que inició la conexión entrante. - domain: Comunicaciones de red + domain: Network communications name: network.client.ip product_source: - icon-apm - icon-log - type: cadena -- description: La dirección IP donde se realiza la conexión saliente. - domain: Comunicaciones de red + type: string +- description: La dirección IP a la que se está realizando la conexión saliente. + domain: Network communications name: network.destination.ip product_source: - icon-apm - icon-log - type: cadena + type: string - description: La dirección IP del host local. - domain: Comunicaciones de red - name: red.host.ip + domain: Network communications + name: network.host.ip product_source: - icon-apm - type: cadena + type: string - description: El puerto del cliente que inició la conexión. - domain: Comunicaciones de red + domain: Network communications name: network.client.port product_source: - icon-apm - icon-log - type: número + type: number - description: El número de puerto remoto de la conexión saliente. - domain: Comunicaciones de red + domain: Network communications name: network.destination.port product_source: - icon-apm - icon-log - type: número -- description: El nombre de host del cliente que inició la conexión entrante. - domain: Comunicaciones de red + type: number +- description: El nombre del host del cliente que inició la conexión entrante. + domain: Network communications name: network.client.name product_source: - icon-apm - type: cadena -- description: El nombre de host local. - domain: Comunicaciones de red + type: string +- description: El nombre del host local. + domain: Network communications name: network.host.name product_source: - icon-apm - type: cadena + type: string - description: El protocolo de transporte utilizado para realizar la conexión entrante. - domain: Comunicaciones de red + domain: Network communications name: network.client.transport product_source: - icon-apm - type: cadena + type: string - description: El protocolo de transporte utilizado para realizar la conexión saliente. - domain: Comunicaciones de red + domain: Network communications name: network.destination.transport product_source: - icon-apm - type: cadena -- description: El código de estado de la respuesta HTTP. - domain: Solicitudes HTTP + type: string +- description: El código de estado de respuesta HTTP. + domain: HTTP requests name: http.status_code product_source: - icon-apm - icon-log - type: cadena -- description: La URL de la solicitud HTTP, incluida la cadena de consulta enmascarada. - Para obtener más información sobre el enmascaramiento, consulta [Configurar la - seguridad de datos](https://docs.datadoghq.com/tracing/configure_data_security/). - domain: Solicitudes HTTP + type: string +- description: La URL de la solicitud HTTP, incluyendo la cadena de consulta ofuscada. + Para más información sobre ofuscación, consulte [Configurar la Seguridad de Datos](https://docs.datadoghq.com/tracing/configure_data_security/). + domain: HTTP requests name: http.url product_source: - icon-apm - icon-log - type: cadena + type: string - description: La versión de HTTP utilizada para la solicitud. - domain: Solicitudes HTTP + domain: HTTP requests name: http.version product_source: - icon-apm - icon-log - type: cadena + type: string - description: El puerto del cliente que inició la conexión. - domain: Solicitudes HTTP + domain: HTTP requests name: http.method product_source: - icon-apm - icon-log - type: cadena + type: string - description: La ruta coincidente (plantilla de ruta). Por ejemplo, `/users/:userID`. - domain: Solicitudes HTTP + domain: HTTP requests name: http.route product_source: - icon-apm - type: cadena -- description: La dirección IP del cliente original detrás de todos los servidores - proxy, si se conoce. Se detecta a partir de encabezados como `X-Forwarded-For`. - domain: Solicitudes HTTP + type: string +- description: La dirección IP del cliente original detrás de todos los proxies, si + se conoce. Descubierto a partir de encabezados como `X-Forwarded-For`. + domain: HTTP requests name: http.client_ip product_source: - icon-apm - type: cadena + type: string +- description: El tipo de dirección IP, como `pública`, `privada` o `reservada`. + domain: HTTP client IP details + name: http.client_ip_details.type + product_source: + - icon-apm + type: string +- description: El nombre del país al que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.country.name + product_source: + - icon-apm + type: string +- description: Código [ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + del país (por ejemplo, `US` para Estados Unidos, `FR` para Francia). + domain: HTTP client IP details + name: http.client_ip_details.country.iso_code + product_source: + - icon-apm + type: string +- description: El código ISO del continente (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). + domain: HTTP client IP details + name: http.client_ip_details.continent.code + product_source: + - icon-apm + type: string +- description: El nombre del continente al que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.continent.name + product_source: + - icon-apm + type: string +- description: El nombre de la subdivisión de primer nivel (como un estado o región) + a la que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.subdivision.name + product_source: + - icon-apm + type: string +- description: El código [ISO](https://en.wikipedia.org/wiki/ISO_3166-2) de la subdivisión + de primer nivel (por ejemplo, `CA-ON` para Ontario, Canadá). + domain: HTTP client IP details + name: http.client_ip_details.subdivision.iso_code + product_source: + - icon-apm + type: string +- description: Nombre de la ciudad a la que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.city.name + product_source: + - icon-apm + type: string +- description: La latitud de la ubicación a la que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.location.latitude + product_source: + - icon-apm + type: number +- description: La longitud de la ubicación a la que se resuelve la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.location.longitude + product_source: + - icon-apm + type: number +- description: El identificador de zona horaria de IANA (por ejemplo, `America/Toronto`) + asociado con la IP del cliente. + domain: HTTP client IP details + name: http.client_ip_details.timezone + product_source: + - icon-apm + type: string +- description: El número de sistema autónomo (ASN) al que pertenece la IP del cliente + (por ejemplo, `AS577`). + domain: HTTP client IP details + name: http.client_ip_details.as.number + product_source: + - icon-apm + type: string +- description: El nombre de la organización que opera el sistema autónomo (por ejemplo, + `Bell Canada`). + domain: HTTP client IP details + name: http.client_ip_details.as.name + product_source: + - icon-apm + type: string +- description: El dominio principal asociado con el sistema autónomo (por ejemplo, + `bell.ca`). + domain: HTTP client IP details + name: http.client_ip_details.as.domain + product_source: + - icon-apm + type: string +- description: El prefijo IP anunciado por el sistema autónomo (por ejemplo, `65.95.0.0/16`). + domain: HTTP client IP details + name: http.client_ip_details.as.route + product_source: + - icon-apm + type: string +- description: La clasificación del sistema autónomo (por ejemplo, `isp`, `hosting`, + `business`, `education`). + domain: HTTP client IP details + name: http.client_ip_details.as.type + product_source: + - icon-apm + type: string - description: El encabezado `User-Agent` recibido con la solicitud. - domain: Solicitudes HTTP + domain: HTTP requests name: http.useragent product_source: - icon-apm - icon-log - type: cadena + type: string - description: El tamaño del cuerpo de la carga útil de la solicitud en bytes. - domain: Solicitudes HTTP + domain: HTTP requests name: http.request.content_length product_source: - icon-apm - type: número + type: number - description: El tamaño del cuerpo de la carga útil de la respuesta en bytes. - domain: Solicitudes HTTP + domain: HTTP requests name: http.response.content_length product_source: - icon-apm - type: número -- description: El tamaño del cuerpo de la carga útil de la solicitud sin comprimir - tras la descodificación de transporte. - domain: Solicitudes HTTP + type: number +- description: El tamaño del cuerpo de la carga útil de la solicitud descomprimido + después de la decodificación del transporte. + domain: HTTP requests name: http.request.content_length_uncompressed product_source: - icon-apm - type: número -- description: El tamaño del cuerpo de la carga útil de la respuesta sin comprimir - tras la descodificación de transporte. - domain: Solicitudes HTTP + type: number +- description: El tamaño del cuerpo de la carga útil de la respuesta descomprimido + después de la decodificación del transporte. + domain: HTTP requests name: http.response.content_length_uncompressed product_source: - icon-apm - type: número -- description: Los encabezados HTTP de la solicitud. No se recopila ninguno de forma - predeterminada, pero se puede configurar opcionalmente con `DD_TRACE_HEADER_TAGS`. - domain: Solicitudes HTTP + type: number +- description: Los encabezados HTTP de la solicitud. Ninguno se recopila por defecto, + pero se puede configurar opcionalmente con `DD_TRACE_HEADER_TAGS`. + domain: HTTP requests name: http.request.headers.* product_source: - icon-apm - type: cadena -- description: Identificador del producto de sistema de gestión de bases de datos - (SGBD) utilizado. - domain: Tramos de bases de datos + type: string +- description: Identificador del producto del sistema de gestión de bases de datos + (DBMS) que se está utilizando. + domain: Database spans name: db.system product_source: - icon-apm - type: cadena -- description: Los encabezados HTTP de la respuesta. No se recopila ninguno de forma - predeterminada, pero se puede configurar opcionalmente con `DD_TRACE_HEADER_TAGS`. - domain: Peticiones de HTTP + type: string +- description: Los encabezados HTTP de la respuesta. Ninguno se recopila por defecto, + pero se puede configurar opcionalmente con `DD_TRACE_HEADER_TAGS`. + domain: HTTP requests name: http.response.headers.* product_source: - icon-apm - type: cadena + type: string - description: La cadena de conexión utilizada para conectarse a la base de datos. - domain: Tramos de bases de datos + domain: Database spans name: db.connection_string product_source: - icon-apm - type: cadena + type: string - description: El nombre de la operación que se está ejecutando. Por ejemplo, `SELECT`, `findAndModify`, `HMSET`. - domain: Tramos de bases de datos + domain: Database spans name: db.operation product_source: - icon-apm - icon-log - type: cadena -- description: El nombre de la tabla primaria sobre la que actúa la operación, incluido - el nombre de la base de datos (si procede). - domain: Tramos de bases de datos + type: string +- description: El nombre de la tabla principal sobre la que actúa la operación, incluyendo + el nombre de la base de datos (si aplica). + domain: Database spans name: db.sql.table product_source: - icon-apm - type: cadena -- description: El número de filas/resultados de la consulta u operación. - domain: Tramos de bases de datos + type: string +- description: El número de filas/resultados de la consulta o operación. + domain: Database spans name: db.row_count product_source: - icon-apm - type: número + type: number - description: El identificador del sistema de mensajería. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.system product_source: - icon-apm - type: cadena + type: string - description: El nombre del destino del mensaje. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.destination product_source: - icon-apm - type: cadena + type: string - description: El tipo de destino del mensaje. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.destination_kind product_source: - icon-apm - type: cadena + type: string - description: El nombre del protocolo de transporte. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.protocol product_source: - icon-apm - type: cadena + type: string - description: La versión del protocolo de transporte. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.protocol_version product_source: - icon-apm - type: cadena + type: string - description: La cadena de conexión al sistema de mensajería. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.url product_source: - icon-apm - type: cadena -- description: Valor utilizado por el sistema de mensajería como identificador del - mensaje, representado como una cadena. - domain: Tramos de colas de mensajes + type: string +- description: Un valor utilizado por el sistema de mensajería como identificador + del mensaje, representado como una cadena. + domain: Message queue spans name: messaging.message_id product_source: - icon-apm - type: cadena -- description: El ID de la conversación que identifica la conversación a la que pertenece - el mensaje, representado como una cadena. - domain: Tramos de colas de mensajes + type: string +- description: El identificador de la conversación al que pertenece el mensaje, representado + como una cadena. + domain: Message queue spans name: messaging.conversation_id product_source: - icon-apm - type: cadena + type: string - description: El tamaño de la carga útil del mensaje sin comprimir en bytes. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.message_payload_size product_source: - icon-apm - type: número -- description: 'Cadena que identifica el tipo de consumo del mensaje. Por ejemplo: + type: number +- description: Una cadena que identifica el tipo de consumo del mensaje. Por ejemplo, `send` (un mensaje enviado a un productor), `receive` (un mensaje recibido por - un consumidor), o `process` (un mensaje previamente recibido procesado por un - consumidor).' - domain: Tramos de colas de mensajes + un consumidor) o `process` (un mensaje previamente recibido que es procesado por + un consumidor). + domain: Message queue spans name: messaging.operation product_source: - icon-apm - type: cadena + type: string - description: El identificador del consumidor que recibe un mensaje. - domain: Tramos de colas de mensajes + domain: Message queue spans name: messaging.consumer_id product_source: - icon-apm - type: cadena + type: string - description: El identificador del sistema remoto. - domain: Llamadas a procedimientos remotos + domain: Remote procedure calls name: rpc.system product_source: - icon-apm - type: cadena -- description: El nombre del servicio al que se llama. - domain: Llamadas a procedimientos remotos + type: string +- description: El nombre del servicio que se está llamando. + domain: Remote procedure calls name: rpc.service product_source: - icon-apm - type: cadena -- description: El nombre del método al que se llama. - domain: Llamadas a procedimientos remotos + type: string +- description: El nombre del método que se está llamando. + domain: Remote procedure calls name: rpc.method product_source: - icon-apm - type: cadena -content: En la siguiente tabla se enumeran los atributos que el Agent aplica automáticamente - a los datos que envía a Datadog cada uno de los productos RUM, Logs y APM, según - corresponda al dominio de datos. Opcionalmente, filtra la lista por producto o busca - por palabra clave o texto de descripción para encontrar los atributos que te interesan. + type: string +- description: El tipo de actividad de seguridad detectada en la solicitud, expresada + como `.` (por ejemplo, `attack_attempt.sql_injection`, `business_logic.users.login.failure`). + Un tramo puede tener más de un valor cuando múltiples reglas coinciden. + domain: Application & API Protection (AAP) + name: appsec.security_activity + product_source: + - icon-apm + type: string +- description: La clasificación de nivel superior de la actividad de seguridad detectada + (por ejemplo, `attack_attempt`, `business_logic`). + domain: Application & API Protection (AAP) + name: appsec.category + product_source: + - icon-apm + type: string +- description: El tipo de amenaza o evento específico dentro de la categoría (por + ejemplo, `sql_injection`, `xss`, `users.login.failure`). + domain: Application & API Protection (AAP) + name: appsec.type + product_source: + - icon-apm + type: string +- description: El identificador de la regla AAP que coincidió con la solicitud (por + ejemplo, `crs-942-100`). Un tramo puede tener múltiples valores cuando más de + una regla se activa. + domain: Application & API Protection (AAP) + name: appsec.rule_id + product_source: + - icon-apm + type: string +- description: Si la solicitud fue bloqueada por AAP. `true` si la solicitud fue bloqueada, + `false` de lo contrario. + domain: Application & API Protection (AAP) + name: appsec.blocked + product_source: + - icon-apm + type: string +content: La siguiente tabla enumera los atributos aplicados automáticamente a los + datos enviados a Datadog por el Agente de cada uno de los productos RUM, Logs y + APM, según corresponda al dominio de datos. Opcionalmente, filtre la lista por producto + o busque por palabra clave o texto de descripción para encontrar los atributos que + le interesan. +description: Una tabla de los atributos aplicados automáticamente a los datos enviados + a Datadog por el Agente de cada uno de los productos RUM, Logs y APM, según corresponda + al dominio de datos. disable_sidebar: true -filter_all: Todas +filter_all: All further_reading: - link: /data_security/ tag: Documentación - text: Garantizar la seguridad de los datos enviados a Datadog + text: Asegurando la seguridad de los datos enviados a Datadog - link: /tracing/trace_collection/tracing_naming_convention/ tag: Documentación - text: Semántica de span tags -title: Atributos estándar por defecto + text: Semántica de la etiqueta de tramo +title: Atributos estándar predeterminados --- +## Lectura adicional {#further-reading} - - -## Referencias adicionales - -{{< partial name="whats-next/whats-next.html" >}} +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/synthetics/_index.md b/content/es/synthetics/_index.md index e753e3c0c1f..0d6f6d54a90 100644 --- a/content/es/synthetics/_index.md +++ b/content/es/synthetics/_index.md @@ -7,146 +7,154 @@ aliases: cascade: algolia: rank: 70 -description: Utiliza tests automatizados para asegurarte de que las zonas más críticas - de tus sistemas y aplicaciones funcionan en distintos lugares del mundo. +description: Utilice pruebas automatizadas para garantizar que las partes más críticas + de sus sistemas y aplicaciones estén funcionando desde diversas ubicaciones alrededor + del mundo. further_reading: -- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring - tag: Notas de la versión - text: Echa un vistazo a las últimas versiones de la monitorización Synthetic en - Datadog. (Es necesario iniciar sesión en la aplicación) -- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing - tag: Centro de aprendizaje - text: 'Centro de aprendizaje de Datadog: Empezando con los tests de navegador Synthetic' - link: /synthetics/guide/ tag: Documentación - text: Guías para la monitorización Synthetic + text: Guías de Monitoreo Sintético +- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing + tag: Centro de Aprendizaje + text: 'Centro de Aprendizaje de Datadog: Comenzando con Pruebas de Navegador Sintético' - link: https://dtdg.co/fe - tag: Habilitación de los fundamentos - text: Participa en una sesión interactiva para mejorar tus capacidades de ejecutar - tests synthetic + tag: Habilitación de Fundación + text: Únase a una sesión interactiva para mejorar sus capacidades de pruebas sintéticas - link: https://www.datadoghq.com/blog/http-security-headers-synthetic-tests/ tag: Blog - text: Proteger las cabeceras HTTP con tests Synthetic + text: Cómo asegurar los encabezados HTTP con pruebas sintéticas - link: https://www.datadoghq.com/blog/synthetic-monitoring-updates/ tag: Blog - text: Obtener información clave sobre las experiencias de los usuarios más rápidamente - con la monitorización Synthetic en Datadog + text: Obtenga información clave sobre las experiencias de los usuarios más rápido + con el Monitoreo Sintético de Datadog - link: https://www.datadoghq.com/blog/smoke-testing-synthetic-monitoring/ tag: Blog - text: Crear tests de humo UX eficaces con la monitorización Synthetic + text: Cómo crear pruebas de humo de UX eficientes con Monitoreo Sintético - link: https://www.datadoghq.com/blog/slo-synthetic-monitoring/ tag: Blog - text: Mejorar la precisión y el rendimiento de los SLOs con la monitorización Synthetic - en Datadog + text: Mejore la precisión y el rendimiento de SLO con el Monitoreo Sintético de + Datadog - link: https://www.datadoghq.com/blog/mobile-apps-synthetic-tests/ tag: Blog - text: Creación de tests Synthetic fiables y precisos para tus aplicaciones móviles + text: Cómo construir pruebas sintéticas confiables y precisas para sus aplicaciones + móviles - link: https://www.datadoghq.com/blog/ambassador-browser-tests/ tag: Blog - text: Cómo ayudé a mi cliente a ampliar sus tests de navegador con Datadog + text: Cómo ayudé a mi cliente a escalar sus pruebas de navegador con Datadog - link: https://www.datadoghq.com/blog/datadog-terraform-synthetic-testing/ tag: Blog - text: Automatización de tu infraestructura de synthetic tests con Datadog Synthetic - Monitoring y Terraform -title: Tests y monitorización Synthetic + text: Automatizando su infraestructura de pruebas sintéticas con el Monitoreo Sintético + de Datadog y Terraform +- link: https://www.datadoghq.com/blog/simplifying-troubleshooting-with-synthetic-monitoring + tag: Blog + text: Simplificando la solución de problemas a lo largo del viaje del usuario con + el Monitoreo Sintético de Datadog +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: Blog + text: 'De rendimiento a impacto: Conectando equipos de frontend a través de un contexto + compartido' +- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring + tag: Notas de la versión + text: ¡Consulte los últimos lanzamientos del Monitoreo Sintético de Datadog! (Se + requiere inicio de sesión en la aplicación) +title: Pruebas y Monitoreo Sintético --- - -{{< learning-center-callout header="Unirse a una sesión de un seminario web de habilitación" hide_image="true" btn_title="Sign Up" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} -Explora e inscríbete en las sesiones de habilitación de los fundamentos. Aprende cómo la Monitorización Synthetic en Datadog es una solución de monitorización proactiva que te permite crear una API sin código, un navegador y tests móviles para simular automáticamente flujos y solicitudes de usuarios en tu aplicación, endpoints clave y capas de red. +{{< learning-center-callout header="Únase a una sesión de seminario web de habilitación" hide_image="true" btn_title="Regístrese" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} + Explore y regístrese para las sesiones de Habilitación de Fundación. Aprenda cómo el Monitoreo Sintético de Datadog es una solución de monitoreo proactiva que le permite crear pruebas de API, navegador y móvil sin código para simular automáticamente flujos de usuarios y solicitudes a sus aplicaciones, puntos de conexión clave y capas de red. {{< /learning-center-callout >}} -Los tests Synthetic te permiten observar el rendimiento de tus sistemas y aplicaciones utilizando **simulaciones de peticiones y acciones procedentes de todo el mundo**. Datadog rastrea el rendimiento de tus páginas web y APIs desde el backend hasta el frontend, y en varios niveles de red (`HTTP`,`SSL`,`DNS`,`WebSocket`,`TCP`,`UDP`,`ICMP` y `gRPC`) de forma controlada y estable, alertándote sobre comportamientos defectuosos tales como regresiones, funciones rotas, tiempos de respuesta elevados y códigos de estado inesperados. +Las pruebas sintéticas le permiten observar cómo están funcionando sus sistemas y aplicaciones utilizando **solicitudes y acciones simuladas de todo el mundo**. Datadog rastrea el rendimiento de sus páginas web y APIs desde el backend hasta el frontend y en varios niveles de red (`HTTP`, `SSL`, `DNS`, `WebSocket`, `TCP`, `UDP`, `ICMP` y `gRPC`) de manera controlada y estable, alertándole sobre comportamientos defectuosos como regresiones, funcionalidades rotas, tiempos de respuesta elevados y códigos de estado inesperados. -**Computar los SLO** en tus endpoints y recorridos de usuario más importantes facilita el cumplimiento de los objetivos de rendimiento de tu aplicación y, en última instancia, proporciona una experiencia de cliente coherente. +**Calcular SLOs** en sus puntos de conexión clave y flujos de usuario facilita cumplir con sus objetivos de rendimiento de la aplicación y, en última instancia, proporcionar una experiencia coherente al cliente. -Puedes crear tests Synthetic en la [aplicación Datadog][1], con la [API][2], o con [Terraform][3]. +Puede crear pruebas sintéticas en la [aplicación de Datadog][1], con la [API][2] o con [Terraform][3]. -## Configurar tests de API y tests de API multupaso +## Configure pruebas de API y pruebas de API en varios pasos {#set-up-api-tests-and-multistep-api-tests} -Los tests de la API te permiten lanzar solicitudes [únicas][4] o [encadenadas][5] para realizar verificaciones en tus sistemas principales en varios niveles de red: [test HTTP][6], [test SSL][7], [test DNS][8], [test WebSocket][9], [test TCP][10], [test UDP][11], [test ICMP][12] y [test gRPC][13]. +Las pruebas de API le permiten lanzar [solicitudes individuales][4] o [encadenadas][5] para realizar verificaciones en sus sistemas clave en varios niveles de red: [prueba HTTP][6], [prueba SSL][7], [prueba DNS][8], [prueba WebSocket][9], [prueba TCP][10], [prueba UDP][11], [prueba ICMP][12] y [prueba gRPC][13]. -{{< img src="synthetics/api_test.png" alt="API tests" style="width:100%;">}} +{{< img src="synthetics/api_test.png" alt="Pruebas de API" style="width:100%;">}} -## Grabar tests de navegación +## Grabe pruebas de navegador {#record-browser-tests} -Utiliza [tests de navegador Synthetic][14] para monitorizar las experiencias de tus clientes con tus páginas web de extremo a extremo desde cualquier lugar del mundo. +Utilice [pruebas de navegador sintéticas][14] para monitorear cómo sus clientes experimentan sus páginas web de principio a fin desde todo el mundo. -{{< img src="synthetics/browser_test.mp4" alt="Browser tests" video=true style="width:100%;">}} +{{< img src="synthetics/browser_test.mp4" alt="Pruebas de navegador" video=true style="width:100%;">}} -## Grabar tests de aplicaciones móviles +## Grabe pruebas de aplicaciones móviles {#record-mobile-application-tests} -Utiliza [tests de aplicaciones móviles Synthetic][21] para monitorizar las experiencias de tus clientes con tus aplicaciones iOS y Android de extremo a extremo desde distintos tipos de dispositivos. +Utilice [pruebas de aplicaciones móviles sintéticas][21] para monitorear cómo sus clientes experimentan sus aplicaciones iOS y Android de principio a fin desde diferentes tipos de dispositivos. -{{< img src="synthetics/mobile_app_tests.png" alt="Ejemplos de grabaciones de flujos de trabajo de un test móvil Synthetic" style="width:100%;">}} +{{< img src="synthetics/mobile_app_tests.png" alt="Ejemplos del flujo de trabajo de grabación para una prueba móvil sintética" style="width:100%;">}} -## Crear tests de ruta de red +## Cree pruebas de ruta de red {#create-network-path-tests} -Crea [tests de ruta de red de Synthetic Monitoring][25] desde ubicaciones gestionadas para realizar checks TCP, UDP e ICMP y visualizar rutas de paquetes a través de endpoints globales. +Cree [pruebas de ruta de red Synthetic][25] desde ubicaciones administradas para realizar verificaciones TCP, UDP e ICMP y visualizar rutas de paquetes a través de puntos de conexión globales. -{{< img src="synthetics/network_tests/syn_network_path.png" alt="Ejemplos de un test de red TCP de Synthetic" style="width:100%;">}} -## Conjuntos de tests +{{< img src="synthetics/network_tests/syn_network_path.png" alt="Ejemplos de una prueba de red TCP sintética" style="width:100%;">}} +## Conjuntos de pruebas {#test-suites} -Utiliza [conjuntos de tests de Synthetic Monitoring][25] para organizar múltiples tests en colecciones lógicas agrupadas por recorrido del usuario, entorno, ubicación, servicio o equipo para una gestión y resolución de problemas racionalizados. +Utilice [Conjuntos de Pruebas Sintéticas][26] para organizar múltiples pruebas en colecciones lógicas agrupadas por recorrido del usuario, entorno, ubicación, servicio o equipo para una gestión y solución de problemas más eficientes. -{{< img src="synthetics/test_suites/test_suite_summary.png" alt="Página de resumen del conjunto de tests de Synthetic Monitoring" style="width:100%;">}} +{{< img src="synthetics/test_suites/test_suite_summary.png" alt="Página de resumen del Conjunto de Pruebas de Monitoreo Sintético" style="width:100%;">}} -## Lanzar localizaciones privadas +## Inicie ubicaciones privadas {#launch-private-locations} -Utiliza [Localizaciones privadas sintéticas][15] para monitorizar APIs y sitios web internos, o crea localizaciones personalizadas en áreas críticas para tu negocio. +Utilice [ubicaciones privadas sintéticas][15] para monitorear APIs y sitios web internos o crear ubicaciones personalizadas en áreas que son críticas para su negocio. -{{< img src="synthetics/private_locations.png" alt="Private locations" style="width:100%;">}} +{{< img src="synthetics/private_locations.png" alt="Ubicaciones privadas" style="width:100%;">}} -## Conectar datos y trazas (traces) +## Conecte datos y trazas {#connect-data-and-traces} -Utiliza la [integración entre tests sintéticos y trazas de APM][16] para encontrar la causa raíz de los fallos en las peticiones de frontend, red y backend. +Utilice la [integración entre pruebas sintéticas y trazas APM][16] para encontrar la causa raíz de fallas en solicitudes de frontend, red y backend. -{{< img src="synthetics/synthetics_traces.mp4" alt="Synthetic Monitoring" video=true style="width:100%;">}} +{{< img src="synthetics/synthetics_traces.mp4" alt="Monitoreo Sintético" video=true style="width:100%;">}} -## Accede a dashboards preconfigurados +## Acceda a los tableros listos para usar {#access-out-of-the-box-dashboards} -Analiza la información de rendimiento de tus tests de API, tests de API multipaso, tests de navegador y localizaciones privadas, así como los eventos de Datadog, con [dashboards sintéticos listos para usar][17]. +Analice la información de rendimiento sobre sus pruebas de API, pruebas de API en varios pasos, pruebas de navegador y ubicaciones privadas, así como eventos de Datadog, con [tableros Synthetic listos para usar][17]. -{{< img src="synthetics/dashboards/test_dashboard.png" alt="Dashboard de monitorización Synthetic y del resumen de tests continuos" style="width:100%;">}} +{{< img src="synthetics/dashboards/test_dashboard.png" alt="Panel de Resumen de Monitoreo Sintético y Pruebas Continuas" style="width:100%;">}} -## Utiliza la monitorización Synthetic y el Explorador de resultados de tests +## Utilice el Explorador de Resultados de Monitoreo y Pruebas Sintéticas {#use-the-synthetic-monitoring-testing-results-explorer} -Crea [buscar consultas y visualizaciones][20] para tus ejecuciones de test sintético o lotes de tests que se ejecutan en pipelines CI/CD. +Cree [consultas de búsqueda y visualizaciones][20] para sus ejecuciones de prueba sintéticas o lotes de pruebas que se ejecutan en pipelines de CI/CD. -{{< img src="continuous_testing/explorer_ci_batches_1.png" alt="Explorador de tests continuos" style="width:100%;">}} +{{< img src="continuous_testing/explorer_ci_batches_1.png" alt="Explorador de Pruebas Continuas" style="width:100%;">}} -## Seguimiento de la cobertura de los tests +## Rastree la cobertura de pruebas {#track-testing-coverage} -Optimiza tu conjunto de tests [asegurándote de que se prueban los flujos de trabajo más críticos de tu aplicación][22]. +Optimice su conjunto de pruebas [asegurándose de que los flujos de trabajo más críticos de su aplicación estén siendo probados][22]. -{{< img src="synthetics/test_coverage/test_coverage.png" alt="Explorador de tests continuos" style="width:100%;">}} +{{< img src="synthetics/test_coverage/test_coverage.png" alt="Explorador de Pruebas Continuas" style="width:100%;">}} -## Notificaciones de Synthetic Monitoring +## Notificaciones de Synthetic Monitoring {#synthetic-monitoring-notifications} -Utiliza y enriquece los monitores de monitorización Synthetic para enviar notificaciones cuando un test de monitorización Synthetic está fallando. Están disponibles las siguientes funciones: +Utilice y enriquezca los monitores Synthetic para enviar notificaciones cuando una prueba de Synthetic Monitoring esté fallando. Las siguientes características están disponibles: -Mensajes de monitor prerellenados -: los mensajes de monitor prerellenados proporcionan un punto de partida estructurado para las alertas de Synthetic test. Cada mensaje incluye un título normalizado, un resumen y un pie de página con metadatos de test, lo que facilita la comprensión de la alerta de un vistazo. +Mensajes de monitor prellenados +: Los mensajes de monitor Synthetic prellenados proporcionan un punto de partida estructurado para las alertas de pruebas Synthetic. Cada mensaje incluye un título estandarizado, un resumen y un pie de página que contiene metadatos de la prueba, lo que facilita la comprensión de la alerta de un vistazo. Variables de plantilla -: las variables de plantilla permiten inyectar datos específicos de test en las notificaciones de monitor de forma dinámica. Estas variables se extraen del objeto `synthetics.attributes`. +: Las variables de plantilla le permiten inyectar datos específicos de la prueba en las notificaciones de los monitores de manera dinámica. Estas variables extraen datos del objeto `synthetics.attributes`. Uso avanzado -: el uso avanzado incluye técnicas para profundizar en el test o estructurar mensajes complejos utilizando plantillas de identificadores. +: El uso avanzado incluye técnicas para resaltar información más profunda de las pruebas o estructurar mensajes complejos utilizando plantillas de handlebars. -Alerta condicional -: las alertas condicionales te permiten cambiar el contenido de una notificación de monitor en función de resultados específicos de test o de condiciones de fallo. +Alertas condicionales +: Las alertas condicionales le permiten cambiar el contenido de una notificación de monitor según resultados específicos de la prueba o condiciones de falla. -Para obtener más información, consulta las [notificaciones de monitorización Synthetic][24]. +Para más información, consulte [notificaciones de Synthetic Monitoring][24]. -## Historial de versiones +## Historial de versiones {#version-history} -Utiliza el [historial de versiones en la monitorización Synthetic][23] para ejecutar una versión anterior de un test, restaurar tu test a cualquier versión guardada o clonar una versión para crear un nuevo test de Synthetic Monitoring. +Utilice [Historial de versiones en Synthetic Monitoring][23] para ejecutar una versión anterior de una prueba, restaurar su prueba a cualquier versión guardada o clonar una versión para crear una nueva prueba de Synthetic Monitoring. -## ¿Estás listo para comenzar? +## ¿Listo para comenzar? {#ready-to-start} -Consulta el apartado [Empezando con la monitorización Synthetic][18] para obtener instrucciones sobre cómo crear tu primer test Synthetic y la monitorización tus aplicaciones web. A continuación, explora [Empezando con localizaciones privadas][19] para obtener instrucciones sobre cómo crear tu localización privada y ejecutar tests Synthetic con tu localización privada. +Consulte [Introducción a Synthetic Monitoring][18] para obtener instrucciones sobre cómo crear su primera prueba sintética y monitorear sus aplicaciones web. Luego, consulte [Comenzando con Ubicaciones Privadas][19] para obtener instrucciones sobre cómo crear su ubicación privada y ejecutar pruebas sintéticas con su ubicación privada. -## Referencias adicionales +## Lectura Adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -176,4 +184,4 @@ Consulta el apartado [Empezando con la monitorización Synthetic][18] para obten [23]: /es/synthetics/guide/version_history/ [24]: /es/synthetics/notifications/ [25]: /es/synthetics/network_path_tests/ -[25]: /es/synthetics/test_suites/ \ No newline at end of file +[26]: /es/synthetics/test_suites/ \ No newline at end of file diff --git a/content/es/tracing/_index.md b/content/es/tracing/_index.md index 031a6aa0f45..f644421d89f 100644 --- a/content/es/tracing/_index.md +++ b/content/es/tracing/_index.md @@ -2,10 +2,10 @@ algolia: tags: - apm - - monitorización del rendimiento de las aplicaciones - - rastreo distribuido - - traza - - rastreo + - application performance monitoring + - distributed tracing + - trace + - tracing aliases: - /es/tracing/faq/terminology - /es/tracing/guide/terminology @@ -16,113 +16,125 @@ aliases: cascade: algolia: rank: 70 -description: Instrumentar el código para mejorar el rendimiento +description: Instrumenta tu código para mejorar el rendimiento further_reading: - link: https://app.datadoghq.com/release-notes?category=APM tag: Notas de la versión - text: ¡Conoce las últimas novedades de Datadog APM! (Es necesario iniciar sesión - en la aplicación) + text: ¡Consulta los últimos lanzamientos de Datadog APM! (Se requiere inicio de + sesión en la aplicación) +- link: https://learn.datadoghq.com/courses/getting-started-apm + tag: Centro de Aprendizaje + text: Comenzando con métricas y trazas de APM - link: https://www.datadoghq.com/blog/monitor-rust-otel/ tag: Blog - text: Monitorizar tus aplicaciones Rust con OpenTelemetry + text: Cómo monitorear tus aplicaciones de Rust con OpenTelemetry - link: https://www.datadoghq.com/blog/span-based-metrics/ tag: Blog - text: Genera métricas basadas en tramos (spans) para seguir las tendencias históricas - en el rendimiento de las aplicaciones + text: Genera métricas basadas en tramos para rastrear tendencias históricas en el + rendimiento de la aplicación - link: https://www.datadoghq.com/blog/apm-security-view/ tag: Blog - text: Obtén visibilidad de los riesgos, las vulnerabilidades y los ataques con APM - Security View + text: Obtén visibilidad sobre riesgos, vulnerabilidades y ataques con la Vista de + Seguridad de APM - link: https://www.datadoghq.com/blog/monitor-azure-app-service-linux/ tag: Blog - text: Monitoriza las aplicaciones web Linux en Azure App Service con Datadog + text: Monitorea tus aplicaciones web en Linux en Azure App Service con Datadog - link: https://www.datadoghq.com/blog/monitor-apis-datadog-api-catalog/ tag: Blog - text: Gestiona el rendimiento, la seguridad y la propiedad de las API con Datadog - API Catalog + text: Gestiona el rendimiento, la seguridad y la propiedad de la API con el Catálogo + de API de Datadog - link: https://www.datadoghq.com/blog/software-catalog/ tag: Blog - text: Mejorar la experiencia y la colaboración de los desarrolladores con el Catálogo - de software + text: Mejora la experiencia del desarrollador y la colaboración con el Catálogo + de Software - link: https://www.datadoghq.com/blog/datadog-csi-driver/ tag: Blog - text: Lleva la observabilidad de alto rendimiento a entornos seguros de Kubernetes + text: Aporta observabilidad de alto rendimiento a entornos de Kubernetes seguros con el controlador CSI de Datadog - link: https://dtdg.co/fe - tag: Establecer las bases - text: Participa en una sesión interactiva para mejorar tu comprensión de APM + tag: Habilitación de la Fundación + text: Únete a una sesión interactiva para mejorar tu comprensión de APM +- link: https://www.datadoghq.com/blog/gitlab-source-code-integration + tag: Blog + text: Resuelve problemas más rápido con la integración de Código Fuente de GitLab + en Datadog +- link: https://www.datadoghq.com/blog/pubsub-cloud-run-tracing + tag: Blog + text: Rastrea cargas de trabajo de Google Pub/Sub en Cloud Run con Datadog +- link: https://www.datadoghq.com/blog/analyzing-roundtrip-query-latency + tag: Blog + text: Analizando la latencia de consulta de ida y vuelta title: APM --- - {{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/381554158/rendition/1080p/file.mp4?loc=external&signature=e19b4e64632c3b1a42b11cb27fca2682dfadecd4690774c005ba2f5079b6a416" poster="/images/poster/tracing.png" >}}
    -{{< learning-center-callout header="Join an enablement webinar session" hide_image="true" btn_title="Inscribirse" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=APM">}} - Únete a una sesión introductoria o intermedia de habilitación para obtener más información sobre cómo Datadog Application Performance Monitoring (APM) proporciona un rastreo distribuido a nivel de código y con tecnología IA, desde navegadores y aplicaciones móviles a servicios y bases de datos backend. +{{< learning-center-callout header="Únete a una sesión de seminario web de habilitación" hide_image="true" btn_title="Regístrate" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=APM">}} + Únete a una sesión de habilitación introductoria o intermedia para aprender más sobre cómo Datadog Application Performance Monitoring (APM) proporciona trazado distribuido a nivel de código impulsado por IA desde aplicaciones de navegador y móviles hasta servicios de backend y bases de datos. {{< /learning-center-callout >}} -## Información general +## Resumen {#overview} -Datadog Application Performance Monitoring (APM) proporciona una visibilidad profunda de las aplicaciones, lo que permite identificar cuellos de botella en el rendimiento, solucionar problemas y optimizar los servicios. Con un rastreo distribuido, dashboards listos para usar y una correlación perfecta con otros datos de telemetría, Datadog APM ayuda a garantizar el mejor rendimiento posible y la mejor experiencia de usuario para las aplicaciones. +Datadog Application Performance Monitoring (APM) proporciona una profunda visibilidad en tus aplicaciones, permitiéndote identificar cuellos de botella en el rendimiento, solucionar problemas y optimizar tus servicios. Con trazado distribuido, paneles de control listos para usar y correlación sin problemas con otros datos de telemetría, Datadog APM ayuda a garantizar el mejor rendimiento y experiencia de usuario posible para tus aplicaciones. -Para obtener una introducción a la terminología utilizada en Datadog APM, consulta [Términos y conceptos de APM][1]. +Para una introducción a la terminología utilizada en Datadog APM, consulta [Términos y conceptos de APM][1]. -## Empezando +## Comenzando {#getting-started} -La forma más sencilla de comenzar con Datadog APM es con la Instrumentación en un solo paso. Este enfoque instala el Datadog Agent e instrumenta la aplicación en un solo paso, sin necesidad de pasos adicionales de configuración. Para obtener más información, consulta [Instrumentación en un solo paso][27]. +La forma más sencilla de comenzar con Datadog APM es con Instrumentación de Un Solo Paso. Este enfoque instala el Agente de Datadog e instrumenta tu aplicación en un solo paso, sin requerir pasos de configuración adicionales. Para aprender más, lee [Instrumentación de Un Solo Paso][27]. -Para configuraciones que requieran más personalización, Datadog admite la instrumentación personalizada con las bibliotecas de rastreo de Datadog y [Dynamic Instrumentation][30] en la interfaz de usuario de Datadog. Para obtener referencias adicionales, lee [Instrumentación de aplicaciones][2]. +Para configuraciones que requieren más personalización, Datadog admite instrumentación personalizada con los SDK de Datadog y [Instrumentación Dinámica][30] en la interfaz de usuario de Datadog. Para aprender más, lee [Instrumentación de Aplicaciones][2]. -
    Si recién empiezas con Datadog APM , lee Empezando con APM para aprender cómo enviar tu primera traza (trace) a Datadog.
    +
    Si eres nuevo en Datadog APM, lee Comenzando con APM para aprender cómo enviar tu primera traza a Datadog.
    -## Casos prácticos +## Casos de uso {#use-cases} -Descubre algunas formas en que Datadog APM puede apoyar tus casos de uso: +Descubre algunas formas en que Datadog APM puede ayudar a respaldar tus casos de uso: -| Quieres...| Cómo puede ayudar Datadog APM | +| Quieres...| Cómo Datadog APM puede ayudar | | ----------- | ----------- | -| Comprende cómo fluyen las solicitudes a través del sistema. | Utiliza [Trace Explorer][21] para consultar y visualizar trazas de extremo a extremo a través de servicios distribuidos. | -| Monitoriza el estado y el rendimiento de servicios individuales. | Utiliza el [servicio][26] y las [páginas de recursos][28] para evaluar el estado del servicio analizando métricas de rendimiento, realizando un seguimiento de las implementaciones e identificando los recursos problemáticos. | -| Correlaciona trazas con DBM, RUM, logs, sintéticos y perfiles. | [Correlaciona los datos de APM con otros datos de telemetría][20] para contextualizar los datos y realizar un análisis más exhaustivo. | -| Controla el flujo de datos en Datadog. | Utiliza los [controles de ingesta][6] para ajustar la configuración de la ingesta y las frecuencias de muestreo por servicio y recurso. Utiliza los [filtros de retención][7] para elegir qué tramos se retendrán durante 15 días. | +| Comprende cómo fluyen las solicitudes a través de tu sistema. | Utilice el [Explorador de Trazas][21] para consultar y visualizar trazas de extremo a extremo a través de servicios distribuidos. | +| Monitoree la salud y el rendimiento de los servicios individuales. | Utilice las [páginas de servicio][26] y [páginas de recursos][28] para evaluar la salud del servicio analizando métricas de rendimiento, rastreando implementaciones e identificando recursos problemáticos. | +| Correlacione trazas con DBM, RUM, registros, sintéticos y perfiles. | [Correlacione los datos de APM con otra telemetría][20] para dar contexto a sus datos para un análisis más completo. | +| Controle cómo fluye la información hacia Datadog. | Utilice [Controles de Ingesta][6] para ajustar la configuración de ingesta y las tasas de muestreo por servicio y recurso. Utilice [filtros de retención][7] para elegir qué spans retener durante 15 días. | -### Trace Explorer +### Explorador de Trazas {#trace-explorer} -[Trace Explorer][21] te permite buscar y analizar tus trazas en tiempo real. Identifica cuellos de botella en el rendimiento, soluciona errores y consulta logs y métricas para comprender el contexto completo de cualquier problema. +El [Explorador de Trazas][21] le permite buscar y analizar sus trazas en tiempo real. Identifique cuellos de botella en el rendimiento, solucione errores y pivotee hacia registros y métricas relacionadas para comprender el contexto completo de cualquier problema. -{{< img src="/tracing/trace_explorer/trace_explorer.png" alt="Vista de Trace Explorer." style="width:100%;" >}} +{{< img src="/tracing/trace_explorer/trace_explorer.png" alt="Vista del explorador de trazas." style="width:100%;" >}} -### Página de servicios +### Página de servicio {#service-page} -La [página de servicios][26] ayuda a monitorizar el rendimiento del servicio y a [comparar versiones durante las implementaciones][15]. +La [página de servicio][26] le ayuda a monitorear el rendimiento del servicio y [comparar entre versiones durante las implementaciones][15]. -{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versiones en la página de servicios" style="width:100%;">}} +{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versiones en la Página de Servicio" style="width:100%;">}} -### Correlación de trazas con otros datos de telemetría +### Correlacionando trazas con otra telemetría {#correlating-traces-with-other-telemetry} -Datadog APM se integra perfectamente con logs, Real User Monitoring (RUM), monitorización de sintéticos y más: +Datadog APM se integra sin problemas con registros, monitoreo de usuarios reales (RUM), monitoreo sintético y más: -- [Visualiza los logs de la aplicación junto con las trazas][9] a fin de encontrar logs para solicitudes, versiones o servicios específicos. -- [Asocia sesiones de RUM con trazas de backend][10] para comprender cómo afecta el rendimiento del backend a la experiencia del usuario. -- [Asocia las pruebas de sintéticos con trazas][11] para solucionar fallos en las solicitudes de frontend y backend. +- [Mira los registros de tu aplicación lado a lado con las trazas][9] para encontrar registros de solicitudes, servicios o versiones específicas. +- [Asocia sesiones de RUM con trazas de backend][10] para entender cómo el rendimiento del backend afecta la experiencia del usuario. +- [Asocia pruebas sintéticas con trazas][11] para solucionar fallas en solicitudes de frontend y backend. -{{< img src="tracing/index/ConnectLogsWithTraces.png" alt="Conectar logs y trazas" style="width:100%;">}} +{{< img src="tracing/index/ConnectLogsWithTraces.png" alt="Conectar Registros y Trazas" style="width:100%;">}} -### Controles de ingesta y filtros de retención +### Controles de ingestión y filtros de retención {#ingestion-controls-and-retention-filters} -Las trazas comienzan en las aplicaciones instrumentadas y fluyen hacia Datadog. +Las trazas comienzan en tus aplicaciones instrumentadas y fluyen hacia Datadog. -Datadog APM te proporciona herramientas para gestionar el volumen y la retención de tus datos de rastreo. Utiliza [controles de ingesta][6] para ajustar las frecuencias de muestreo y [filtros de retención][7] para controlar qué tramos se almacenan. +Datadog APM proporciona herramientas para gestionar el volumen y la retención de tus datos de trazas. Utiliza [Ingestion Controls][6] para ajustar las tasas de muestreo y [retention filters][7] para controlar qué tramos se almacenan. {{< img src="/tracing/apm_lifecycle/apm_lifecycle_0.png" alt="Flujo de datos a través de Datadog APM." style="width:100%;" >}} -## Solucionar problemas +## Solución de problemas {#troubleshooting} -Para obtener ayuda con la resolución de problemas, consulta la guía [Solucionar problemas de APM][29]. +Para asistencia en la solución de problemas, lee la guía de [Solución de Problemas de APM][29]. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md b/content/es/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md new file mode 100644 index 00000000000..1b10bb107f8 --- /dev/null +++ b/content/es/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md @@ -0,0 +1,239 @@ +--- +aliases: +- /es/tracing/opentracing/java +- /es/tracing/manual_instrumentation/java +- /es/tracing/custom_instrumentation/java +- /es/tracing/setup_overview/custom_instrumentation/java +- /es/tracing/trace_collection/custom_instrumentation/java +- /es/tracing/trace_collection/custom_instrumentation/java/dd-api +- /es/tracing/trace_collection/custom_instrumentation/java/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/java +- /es/tracing/trace_collection/otel_instrumentation/java/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/java +- /es/tracing/opentracing/python +- /es/tracing/manual_instrumentation/python +- /es/tracing/custom_instrumentation/python +- /es/tracing/setup_overview/custom_instrumentation/python +- /es/tracing/trace_collection/custom_instrumentation/python +- /es/tracing/trace_collection/custom_instrumentation/python/dd-api +- /es/tracing/trace_collection/custom_instrumentation/python/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/python +- /es/tracing/trace_collection/otel_instrumentation/python/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/python +- /es/tracing/opentracing/nodejs +- /es/tracing/manual_instrumentation/nodejs +- /es/tracing/custom_instrumentation/nodejs +- /es/tracing/setup_overview/custom_instrumentation/nodejs +- /es/tracing/trace_collection/custom_instrumentation/nodejs +- /es/tracing/trace_collection/custom_instrumentation/nodejs/dd-api +- /es/tracing/trace_collection/custom_instrumentation/nodejs/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/nodejs +- /es/tracing/trace_collection/otel_instrumentation/nodejs/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/nodejs +- /es/tracing/opentracing/go +- /es/tracing/manual_instrumentation/go +- /es/tracing/custom_instrumentation/go +- /es/tracing/setup_overview/custom_instrumentation/go +- /es/tracing/trace_collection/custom_instrumentation/go +- /es/tracing/trace_collection/custom_instrumentation/go/dd-api +- /es/tracing/trace_collection/custom_instrumentation/go/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/go +- /es/tracing/trace_collection/otel_instrumentation/go/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/go +- /es/tracing/opentracing/ruby +- /es/tracing/manual_instrumentation/ruby +- /es/tracing/custom_instrumentation/ruby +- /es/tracing/setup_overview/custom_instrumentation/ruby +- /es/tracing/trace_collection/custom_instrumentation/ruby +- /es/tracing/trace_collection/custom_instrumentation/ruby/dd-api +- /es/tracing/trace_collection/custom_instrumentation/ruby/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby +- /es/tracing/trace_collection/otel_instrumentation/ruby/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ruby +- /es/tracing/opentracing/dotnet +- /es/tracing/manual_instrumentation/dotnet +- /es/tracing/custom_instrumentation/dotnet +- /es/tracing/setup_overview/custom_instrumentation/dotnet +- /es/tracing/trace_collection/custom_instrumentation/dotnet +- /es/tracing/trace_collection/custom_instrumentation/dotnet/dd-api +- /es/tracing/trace_collection/custom_instrumentation/dotnet/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/dotnet +- /es/tracing/trace_collection/otel_instrumentation/dotnet/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet +- /es/tracing/opentracing/php +- /es/tracing/manual_instrumentation/php +- /es/tracing/custom_instrumentation/php +- /es/tracing/setup_overview/custom_instrumentation/php +- /es/tracing/trace_collection/custom_instrumentation/php +- /es/tracing/trace_collection/custom_instrumentation/php/dd-api +- /es/tracing/trace_collection/custom_instrumentation/php/otel +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/php +- /es/tracing/trace_collection/otel_instrumentation/php/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/php +- /es/tracing/manual_instrumentation/cpp +- /es/tracing/custom_instrumentation/cpp +- /es/tracing/setup_overview/custom_instrumentation/cpp +- /es/tracing/trace_collection/custom_instrumentation/cpp +- /es/tracing/trace_collection/custom_instrumentation/cpp/dd-api +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/cpp +- /es/tracing/trace_collection/custom_instrumentation/rust +- /es/tracing/trace_collection/custom_instrumentation/elixir +- /es/tracing/trace_collection/custom_instrumentation/swift +- /es/tracing/trace_collection/custom_instrumentation/dd_libraries/ +- /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ +content_filters: +- label: Language + option_group_id: custom_instrumentation_language_options + trait_id: prog_lang +- label: API + option_group_id: custom_instrumentation_api_options + trait_id: api_type +description: Agrega tramos, etiquetas e instrumentación personalizados para capturar + datos de observabilidad específicos de la aplicación utilizando las APIs de Datadog + y OpenTelemetry. +further_reading: +- link: tracing/guide/instrument_custom_method + text: Instrumenta un método personalizado para obtener visibilidad profunda en tu + lógica de negocio. +- link: tracing/connect_logs_and_traces + text: Conecta tus registros y trazas. +- link: tracing/visualization/ + text: Explora tus servicios, recursos y trazas. +- link: https://www.datadoghq.com/blog/opentelemetry-instrumentation/ + text: Aprende más sobre Datadog y la iniciativa de OpenTelemetry. +title: Instrumentación personalizada del lado del servidor. +--- + + + + + +{% if equals($prog_lang, "cpp") %} +{% if equals($api_type, "otel_api") %} +{% alert level="danger" %} +C++ no soporta la API de OpenTelemetry. Selecciona **Datadog** del menú desplegable de API para ver la documentación de instrumentación personalizada de C++. +{% /alert %} +{% /if %} +{% /if %} + + +{% if equals($prog_lang, "rust") %} +{% if equals($api_type, "dd_api") %} +{% alert level="danger" %} +Rust no soporta la API de Datadog. Selecciona **OpenTelemetry** del menú desplegable de API para ver la documentación de instrumentación personalizada de Rust. +{% /alert %} +{% /if %} +{% /if %} + + +{% if equals($prog_lang, "elixir") %} +{% if equals($api_type, "dd_api") %} +{% alert level="danger" %} +Elixir no soporta la API de Datadog. Selecciona **OpenTelemetry** del menú desplegable de API para ver la documentación de instrumentación personalizada de Elixir. +{% /alert %} +{% /if %} +{% /if %} + + + + + +{% if equals($api_type, "otel_api") %} + + +{% if equals($prog_lang, "elixir") %} +Datadog no proporciona un SDK para Elixir. Para enviar trazas a Datadog, utiliza el [SDK de OpenTelemetry para Elixir][8]. +{% /if %} + + +{% if not(includes($prog_lang, ["cpp", "elixir"])) %} + +## Resumen {% #overview %} + +{% partial file="opentelemetry/traces/otel-custom-instrumentation-overview.mdoc.md" /%} + +{% if equals($prog_lang, "java") %} +{% partial file="opentelemetry/traces/java.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "python") %} +{% partial file="opentelemetry/traces/python.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "node_js") %} +{% partial file="opentelemetry/traces/nodejs.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "go") %} +{% partial file="opentelemetry/traces/go.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "ruby") %} +{% partial file="opentelemetry/traces/ruby.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "dot_net") %} +{% partial file="opentelemetry/traces/dotnet.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "php") %} +{% partial file="opentelemetry/traces/php.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "rust") %} +{% partial file="opentelemetry/traces/rust.mdoc.md" /%} +{% /if %} + +{% /if %} +{% /if %} + + + + + + + +{% if equals($api_type, "dd_api") %} +{% if not(includes($prog_lang, ["rust", "elixir"])) %} + +## Resumen {% #overview-1 %} + +Utiliza la API de Datadog para crear, modificar o eliminar trazas de manera programática para enviarlas a Datadog. Esto es útil para rastrear código interno que no es capturado por la instrumentación automática, eliminar tramos no deseados de las trazas y proporcionar una visibilidad y contexto más profundos sobre los tramos, incluyendo la adición de etiquetas de tramo. + +{% if equals($prog_lang, "java") %} +{% partial file="tracing/custom_instrumentation/dd_api/java.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "python") %} +{% partial file="tracing/custom_instrumentation/dd_api/python.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "node_js") %} +{% partial file="tracing/custom_instrumentation/dd_api/nodejs.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "go") %} +{% partial file="tracing/custom_instrumentation/dd_api/go.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "ruby") %} +{% partial file="tracing/custom_instrumentation/dd_api/ruby.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "dot_net") %} +{% partial file="tracing/custom_instrumentation/dd_api/dotnet.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "php") %} +{% partial file="tracing/custom_instrumentation/dd_api/php.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "cpp") %} +{% partial file="tracing/custom_instrumentation/dd_api/cpp.mdoc.md" /%} +{% /if %} + +{% /if %} +{% /if %} + + +[8]: https://opentelemetry.io/docs/languages/beam/ \ No newline at end of file diff --git a/content/es/tracing/trace_collection/dd_libraries/nodejs.md b/content/es/tracing/trace_collection/dd_libraries/nodejs.md index 008f381cb07..93cb7ff7682 100644 --- a/content/es/tracing/trace_collection/dd_libraries/nodejs.md +++ b/content/es/tracing/trace_collection/dd_libraries/nodejs.md @@ -13,143 +13,151 @@ code_lang: nodejs code_lang_weight: 30 further_reading: - link: https://github.com/DataDog/dd-trace-js - tag: Código fuente - text: Código de origen + tag: Código Fuente + text: Código Fuente - link: https://datadog.github.io/dd-trace-js tag: Documentación - text: Documentación de API + text: Documentación de la API - link: tracing/glossary/ tag: Documentación - text: Explorar tus servicios, recursos y trazas (traces) + text: Explora tus servicios, recursos y trazas - link: tracing/ tag: Documentación text: Uso avanzado -title: Rastreo de aplicaciones Node.js +title: Trazando aplicaciones de Node.js type: multi-code-lang --- -## Requisitos de compatibilidad +## Requisitos de compatibilidad {#compatibility-requirements} -La última versión del rastreador Node.js es compatible con las versiones de Node.js `>=18`. Para ver la lista completa de versiones de Node.js y de compatibilidad de frameworks de Datadog (incluidas las versiones heredadas y de mantenimiento), consulta la página de [requisitos de compatibilidad][1]. +El último rastreador de Node.js es compatible con las versiones de Node.js `>=18`. Para una lista completa del soporte de versiones y marcos de Node.js de Datadog (incluyendo versiones heredadas y de mantenimiento), consulta la página de [Requisitos de compatibilidad][1]. -## Empezando +## Comenzando {#getting-started} -Antes de empezar, asegúrate de haber [instalado y configurado el Agent][13]. A continuación, sigue los siguientes pasos para añadir la biblioteca de rastreo de Datadog a tu aplicación Node.js para instrumentarla. +Antes de comenzar, asegúrate de haber [instalado y configurado el Agente][13]. Luego, completa los siguientes pasos para agregar el SDK de Datadog a tu aplicación de Node.js para instrumentarla. -### Instalación de la biblioteca de rastreo de Datadog +### Instala el SDK de Datadog {#install-the-datadog-sdk} -Para instalar la biblioteca de rastreo de Datadog utilizando npm para Node.js v18 y superiores, ejecuta: +Para instalar el SDK de Datadog usando npm para Node.js 18+, ejecuta: ```shell - npm install dd-trace --save + npm install dd-trace ``` -Para instalar la biblioteca de rastreo de Datadog (v4. y superiores de `dd-trace`) para la versión 16 de Node.js, ejecuta: +Para instalar el SDK de Datadog (versión 4.x de `dd-trace`) para la versión de Node.js 16 que ha llegado al final de su vida útil, ejecuta: ```shell npm install dd-trace@latest-node16 ``` -Para obtener más información sobre las etiquetas (tags) de distribución y la compatibilidad con las versiones de tiempos de ejecución Node.js de Datadog, consulta la página de [requisitos de compatibilidad][1]. -Si estás actualizando desde una versión principal anterior de biblioteca (0.x, 1.x, 2.x, 3.x o 4.x) a otra versión principal, consulta la [guía para migraciones][5], para evaluar cualquier cambio de última hora. +Para más información sobre las etiquetas de distribución de Datadog y el soporte de versiones del runtime de Node.js, consulta la página de [Requisitos de compatibilidad][1]. +Si estás actualizando desde una versión principal anterior de la biblioteca (0.x, 1.x, 2.x, 3.x o 4.x) a otra versión principal, lee la [Guía de Migración][5] para evaluar cualquier cambio que rompa la compatibilidad. -### Para importar e inicializar el rastreador +
    En entornos Serverless o al usar Instrumentación de Un Solo Paso, la biblioteca ya está preinstalada, por lo que no necesita agregarla como una dependencia. En su lugar, agréguela como una dependencia de desarrollo para obtener trazas localmente: +
    +
    +      npm install dd-trace -D # en lugar de `npm install dd-trace`
    +    
    +
    + +
    +
    +
    -Importa e inicializa el rastreador ya sea en código o con argumentos de línea de comandos. La biblioteca de rastreo de Node.js debe importarse e inicializarse **antes** que cualquier otro módulo. +### Instale la API pública de Datadog (opcional) {#install-the-datadog-public-api-optional} -
    Con frameworks como Next.js y Nest.js debes proporcionar una variable de entorno o añadir una marca de Node.js adicional. Consulta Uso de frameworks complejos para obtener más información.
    +Este paso solo es necesario al realizar instrumentación personalizada en Serverless o con Instrumentación de Un Solo Paso. Para otros casos de uso de instrumentación personalizada, es opcional. Para información sobre cuándo usar la API pública de Datadog, consulte [Instrumentación Personalizada usando la API de Datadog][14]. -Una vez que hayas completado la configuración, si no estás recibiendo trazas (traces) completas, incluyendo rutas URL faltantes para solicitudes web, o tramos (spans) desconectados o faltantes, **confirma que el rastreador ha sido importado e inicializado correctamente**. La biblioteca de rastreo que se inicializa en primer lugar es necesaria para que el rastreador corrija correctamente a través de parches todas los bibliotecas requeridas para la instrumentación automática. + ```shell + npm install dd-trace-api + ``` -Cuando utilices un transpilador como TypeScript, Webpack, Babel u otros, importa e inicializa la biblioteca de rastreo en un archivo externo y luego importa ese archivo como un todo cuando crees tu aplicación. +Luego puede importar `dd-trace-api` en lugar de `dd-trace` en cualquier código que realice instrumentación personalizada. -#### Opción 1: Añadir el rastreador en el código +### Importe e inicialice el rastreador {#import-and-initialize-the-tracer} -##### JavaScript +Importe e inicialice el rastreador ya sea en el código o con argumentos de línea de comandos. El SDK de Node.js necesita ser importado e inicializado **antes** de cualquier otro módulo. -```javascript -// This line must come before importing any instrumented module. -const tracer = require('dd-trace').init(); -``` +
    Con frameworks como Next.js y Nest.js, debes proporcionar una variable de entorno o agregar un flag adicional de Node.js. Consulta Uso complejo de frameworks para más información.
    -**Nota**: `DD_TRACE_ENABLED` es `true` en forma predeterminada, lo que significa que algo de instrumentación ocurre en el momento de la importación, antes de la inicialización. Para desactivar completamente la instrumentación, puedes realizar una de las siguientes acciones: -- importar el módulo condicionalmente -- configurar `DD_TRACE_ENABLED=false` (si, por ejemplo, las importaciones estáticas o ESM de nivel superior impiden la carga condicional) +Después de completar la configuración, si no estás recibiendo trazas completas, incluyendo rutas URL faltantes para solicitudes web, o tramos desconectados o faltantes, **confirma que el SDK ha sido importado e inicializado correctamente**. Es necesario inicializar primero el SDK para que pueda parchear correctamente todas las bibliotecas requeridas para la instrumentación automática. -##### TypeScript y bundlers (empaquetadores) +Al usar un transpiler como TypeScript, Webpack, Babel u otros, importa e inicializa el SDK en un archivo externo y luego importa ese archivo completo al construir tu aplicación. -Para TypeScript y bundlers que admitan la sintaxis de ECMAScript Module, inicializa el rastreador en un archivo separado para mantener el orden de carga correcto. +#### Agrega el SDK con argumentos de línea de comandos {#add-the-sdk-with-command-line-arguments} -```typescript -// server.ts -import './tracer'; // must come before importing any instrumented module. +Usa la opción `--require` de Node.js para cargar e inicializar el SDK en un solo paso. -// tracer.ts -import tracer from 'dd-trace'; -tracer.init(); // initialized in a different file to avoid hoisting. -export default tracer; +```sh +node --require dd-trace/init app.js ``` -Si la configuración por defecto es suficiente o si toda la configuración se realiza -a través de variables de entorno, también puedes utilizar `dd-trace/init`, que se carga e -inicializa en un solo paso. +El enfoque anterior requiere el uso de variables de entorno para toda la configuración del SDK. Si necesitas usar una configuración programática, inicializa `dd-trace` en un archivo dedicado y requiérelo en su lugar: -```typescript -import 'dd-trace/init'; +```sh +node --require ./dd-trace.js app.js ``` -#### Opción 2: Añadir el rastreador con argumentos de línea de comandos +El archivo debe contener esto: -Utiliza la opción `--require` de Node.js para cargar e inicializar el rastreador en un solo paso. - -```sh -node --require dd-trace/init app.js +```js +// ./dd-trace.js +require('dd-trace').init({ + // programmatic config +}) ``` -**Nota:** Esta estrategia requiere el uso de variables de entorno para todas las configuraciones del rastreador. +Para casos donde no es posible controlar los argumentos de la CLI, puedes usar una variable de entorno en su lugar: -#### Sólo aplicaciones ESM: Importar el cargador +
    DD_TRACE_ENABLED es true por defecto, lo que significa que alguna instrumentación ocurre en el momento de la importación, antes de la inicialización. Para deshabilitar completamente la instrumentación, puedes hacer una de las siguientes acciones: +
      +
    • Importa el módulo condicionalmente
    • +
    • Establece DD_TRACE_ENABLED=false (si, por ejemplo, las importaciones estáticas o de nivel superior de ESM impiden la carga condicional)
    • +
        +
    -Las aplicaciones ECMAScript Modules (ESM) requieren un argumento _adicional_ de la línea de comandos. Añade este argumento independientemente de cómo se importe e inicialice el rastreador: +#### Aplicaciones ESM solamente: Importa el cargador {#esm-applications-only-import-the-loader} + +Las aplicaciones ECMAScript Modules (ESM) requieren un _argumento_ adicional de línea de comandos. Agrega este argumento sin importar cómo se importe e inicialice el SDK de otra manera: - **Node.js < v20.6:** `--loader dd-trace/loader-hook.mjs` - **Node.js >= v20.6:** `--import dd-trace/register.js` -Por ejemplo, en Node.js 22, si inicializas el rastreador utilizando la opción uno de las anteriores, lo iniciarías así: +Por ejemplo, en Node.js 22, si inicializas el SDK usando la opción uno de arriba, lo iniciarías así: ```sh node --import dd-trace/register.js app.js ``` -También puede combinarse con el argumento de línea de comandos `--require dd-trace/init` (opción dos): +Esto también se puede combinar con el argumento de línea de comandos `--require dd-trace/init`: ```sh node --import dd-trace/register.js --require dd-trace/init app.js ``` -Existe una forma abreviada de combinar ambos argumentos de línea de comandos en Node.js v20.6 y superiores: +Existe una forma abreviada para combinar ambos argumentos de línea de comandos en Node.js v20.6 y versiones superiores: ```sh node --import dd-trace/initialize.mjs app.js ``` -### Empaquetado +### Empaquetado {#bundling} -`dd-trace` funciona interceptando las llamadas `require()` que una aplicación Node.js realiza al cargar módulos. Esto incluye módulos que están integrados en Node.js, como el módulo `fs` para acceder al sistema de archivos, así como módulos instalados desde el registro NPM, como el módulo de base de datos `pg`. +`dd-trace` funciona interceptando las llamadas `require()` que una aplicación de Node.js realiza al cargar módulos. Esto incluye módulos que están integrados en Node.js, como el módulo `fs` para acceder al sistema de archivos, así como módulos instalados desde el registro de NPM, como el módulo de base de datos `pg`. -Los bundlers rastrean todas las llamadas `require()` que una aplicación realiza a los archivos del disco. Sustituye las llamadas `require()` por código personalizado y combina todos los JavaScript resultantes en un archivo "empaquetado". Cuando se carga un módulo incorporado, como `require('fs')`, esa llamada puede seguir siendo la misma en el paquete resultante. +Los agrupadores rastrean todas las llamadas `require()` que una aplicación realiza a archivos en el disco. Reemplaza las llamadas `require()` con código personalizado y combina todo el JavaScript resultante en un solo archivo "empaquetado". Cuando se carga un módulo integrado, como `require('fs')`, esa llamada puede permanecer igual en el paquete resultante. -Las herramientas APM como `dd-trace` dejan de funcionar en este punto. Pueden seguir interceptando las llamadas a módulos incorporados, pero no interceptan las llamadas a bibliotecas de terceros. Esto significa que cuando empaquetas una aplicación `dd-trace` utilizando un bundler, es probable que capture información sobre el acceso al disco (a través de `fs`) y las solicitudes HTTP salientes (a través de `http`), pero que omita las llamadas a bibliotecas de terceros. Por ejemplo: -- Extracción de información entrante de rutas de solicitudes para el framework `express`. -- Muestra qué consulta se ejecuta para el cliente de base de datos `mysql`. +Las herramientas APM como `dd-trace` dejan de funcionar en este punto. Pueden continuar interceptando las llamadas para módulos integrados, pero no interceptan llamadas a bibliotecas de terceros. Esto significa que cuando empaquetas una aplicación `dd-trace` con un empaquetador, es probable que capture información sobre el acceso al disco (a través de `fs`) y solicitudes HTTP salientes (a través de `http`), pero omita las llamadas a bibliotecas de terceros. Por ejemplo: +- Extrayendo información de la ruta de la solicitud entrante para el framework `express`. +- Mostrando qué consulta se ejecuta para el cliente de base de datos `mysql`. -Una solución común es tratar como "externos" al bundler todos los módulos de terceros que APM necesita para la instrumentación. Con esta configuración, los módulos instrumentados permanecen en el disco y continúan siendo cargados con `require()`, mientras que los módulos no instrumentados se empaquetan. Sin embargo, esto resulta en una compilación con muchos archivos extraños y comienza a hacer fracasar el propósito de la agrupación. +Una solución común es tratar todos los módulos de terceros que el APM necesita instrumentar como "externos" al empaquetador. Con esta configuración, los módulos instrumentados permanecen en el disco y continúan cargándose con `require()` mientras que los módulos no instrumentados se empaquetan. Sin embargo, esto resulta en una compilación con muchos archivos superfluos y comienza a ir en contra del propósito del empaquetado. -Datadog recomienda disponer de complementos de bundler personalizados. Estos complementos son capaces de dar instrucciones al bundler sobre cómo comportarse, inyectar código intermediario e interceptar las llamadas "traducidas" a `require()`. Como resultado, se incluyen más paquetes en el archivo empaquetado JavaScript. +Datadog recomienda usar complementos personalizados para el empaquetador. Estos complementos pueden instruir al empaquetador sobre cómo comportarse, inyectar código intermedio e interceptar las llamadas "traducidas" `require()`. Como resultado, se incluyen más paquetes en el archivo JavaScript empaquetado. -**Nota**: Algunas aplicaciones pueden tener el 100 % de los módulos empaquetados, sin embargo los módulos nativos deben permanecer externos al paquete. +**Nota**: Algunas aplicaciones pueden tener el 100% de los módulos empaquetados, sin embargo, los módulos nativos aún deben permanecer externos al paquete. -#### Integración con esbuild +#### Empaquetando con esbuild {#bundling-with-esbuild} -Esta biblioteca proporciona compatibilidad esbuild experimental en forma de un complemento esbuild y requiere al menos Node.js v16.17 o v18.7. Para utilizar el complemento, asegúrate de tener instalado `dd-trace@3+` y luego solicita el módulo `dd-trace/esbuild` al compilar el paquete. +Esta biblioteca proporciona soporte experimental para esbuild en forma de un plugin de esbuild, y requiere al menos Node.js v16.17 o v18.7. Para usar el plugin, asegúrate de tener `dd-trace@3+` instalado, y luego requiere el módulo `dd-trace/esbuild` al construir tu paquete. -El siguiente es un ejemplo de cómo se puede utilizar `dd-trace` con esbuild: +Aquí hay un ejemplo de cómo se podría usar `dd-trace` con esbuild: ```javascript const ddPlugin = require('dd-trace/esbuild') @@ -173,11 +181,6 @@ esbuild.build({ '@datadog/native-appsec', '@datadog/native-iast-taint-tracking', '@datadog/native-iast-rewriter', - - // required if you encounter graphql errors during the build step - 'graphql/language/visitor', - 'graphql/language/printer', - 'graphql/utilities' ] }).catch((err) => { console.error(err) @@ -185,10 +188,10 @@ esbuild.build({ }) ``` -#### Integración con Next.js +#### Empaquetando con Next.js {#bundling-with-nextjs} -Si estás utilizando Next.js u otro framework que dependa de webpack para empaquetar tu aplicación, añade una declaración -similar a la de webpack en el archivo de configuración `next.config.js`: +Si estás usando Next.js u otro framework que dependa de webpack para empaquetar tu aplicación, agrega una declaración +similar a la de webpack dentro de tu archivo de configuración `next.config.js`: ```javascript /** @type {import('next').NextConfig} */ @@ -211,11 +214,6 @@ const nextConfig = { '@datadog/native-appsec', '@datadog/native-iast-taint-tracking', '@datadog/native-iast-rewriter', - - // required if you encounter graphql errors during the build step - 'graphql/language/visitor', - 'graphql/language/printer', - 'graphql/utilities' ]; config.externals.push(...externals); return config; @@ -225,17 +223,17 @@ const nextConfig = { export default nextConfig; ``` -#### Funciones no compatibles de Datadog +#### Características no soportadas de Datadog {#unsupported-datadog-features} -Las siguientes funciones están desactivadas en forma predeterminada en el rastreador Node.js. No son compatibles con la agrupación y no se pueden utilizar si la aplicación está agrupada. +Las siguientes características están desactivadas por defecto en el rastreador de Node.js. No soportan el empaquetado y no pueden ser utilizadas si tu aplicación está empaquetada. -- APM: Dynamic Instrumentation +- APM: Instrumentación Dinámica -#### Observaciones generales sobre la agrupación +#### Observaciones generales sobre el empaquetado {#general-bundling-remarks} -**Nota**: Debido al uso de módulos nativos en el rastreador, que son código C++ compilado, (normalmente terminan con una extensión de archivo `.node`), necesitas añadir entradas a tu lista `external`. Actualmente los módulos nativos utilizados en el rastreador Node.js viven dentro de paquetes prefijados `@datadog`. Esto también requerirá que envíes un directorio `node_modules/` junto con tu aplicación empaquetada. No necesitas enviar tu directorio `node_modules/` completo, ya que contendría muchos paquetes innecesarios que deberían estar contenidos en tu paquete. +**Nota**: Debido al uso de módulos nativos en el SDK, que son código C++ compilado, (generalmente terminando con una extensión de archivo `.node`), necesitas agregar entradas a tu lista `external`. Actualmente, los módulos nativos utilizados en el rastreador de Node.js viven dentro de paquetes con prefijo `@datadog`. Esto también requerirá que envíes un directorio `node_modules/` junto con tu aplicación empaquetada. No necesitas enviar todo tu directorio `node_modules/` ya que contendría muchos paquetes superfluos que deberían estar contenidos en tu paquete. -Para generar un directorio `node_modules/` más pequeño con sólo los módulos nativos requeridos, (y sus dependencias), puedes determinar primero las versiones de los paquetes que necesitas, luego crear un directorio temporal para instalarlos y copiar el directorio `node_modules/` resultante a partir de aquel. Por ejemplo: +Para generar un directorio más pequeño `node_modules/` con solo los módulos nativos requeridos, (y sus dependencias) primero puedes determinar las versiones de los paquetes que necesitas, luego crear un directorio temporal para instalarlos, y copiar el directorio resultante `node_modules/` desde allí. Por ejemplo: ```sh cd path/to/project @@ -251,17 +249,17 @@ npm install @datadog/native-metrics@2.0.0 @datadog/pprof@5.0.0 cp -R ./node_modules path/to/bundle ``` -**Nota**: En el caso de Next.js el `path/to/bundle` suele ser el directorio `.next/standalone` de tu aplicación. +**Nota**: En el caso de Next.js, el `path/to/bundle` suele ser el directorio `.next/standalone` de tu aplicación. -En esta etapa, debes ser capaz de desplegar tu paquete (que es el código de la aplicación y la mayoría de tus dependencias) con el directorio `node_modules/` que contiene los módulos nativos y sus dependencias. +En esta etapa, deberías poder desplegar tu paquete, (que es tu código de aplicación y la mayoría de tus dependencias), con el `node_modules/` directorio, que contiene los módulos nativos y sus dependencias. -## Configuración +## Configuración {#configuration} -Si es necesario, configura la biblioteca de rastreo para que envíe datos de telemetría sobre el rendimiento de la aplicación, según sea necesario, incluida la configuración del etiquetado unificado de servicios. Para ver más detalles, consulta la [configuración de bibliotecas][4]. +Si es necesario, configura el SDK para enviar datos de telemetría de rendimiento de la aplicación según lo requieras, incluyendo configurar unified service tagging. Lee [Configuración de la Biblioteca][4] para más detalles. -Para ver lista de opciones de inicialización, lee los [parámetros del rastreador][3]. +Lee [configuración del rastreador][3] para obtener una lista de opciones de inicialización. -## Referencias adicionales +## Lectura Adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -272,4 +270,5 @@ Para ver lista de opciones de inicialización, lee los [parámetros del rastread [5]: https://github.com/DataDog/dd-trace-js/blob/master/MIGRATING.md [6]: /es/tracing/trace_collection/compatibility/nodejs/#complex-framework-usage [11]: /es/tracing/trace_collection/library_injection_local/ -[13]: /es/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent \ No newline at end of file +[13]: /es/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent +[14]: /es/tracing/trace_collection/custom_instrumentation/server-side/?api_type=dd_api&prog_lang=node_js \ No newline at end of file diff --git a/content/es/tracing/trace_collection/single-step-apm/kubernetes.md b/content/es/tracing/trace_collection/single-step-apm/kubernetes.md index 5c8158d6cf5..2238b4344bc 100644 --- a/content/es/tracing/trace_collection/single-step-apm/kubernetes.md +++ b/content/es/tracing/trace_collection/single-step-apm/kubernetes.md @@ -6,74 +6,76 @@ code_lang_weight: 20 further_reading: - link: /tracing/metrics/runtime_metrics/ tag: Documentación - text: Habilitar métricas de tiempo de ejecución + text: Habilitar métricas en tiempo de ejecución - link: /tracing/guide/init_resource_calc/ tag: Documentación - text: Más información sobre el uso de los recursos del contenedor de inicialización + text: Aprender sobre el uso de recursos de contenedores init - link: /tracing/guide/local_sdk_injection tag: Documentación - text: Instrumenta tus aplicaciones mediante la inserción del kit de desarrollo de - software (SDK) local -title: Instrumentación de un solo step (UI) / paso de APM en Kubernetes + text: Instrumente sus aplicaciones utilizando la inyección local del kit de desarrollo + de software (SDK). +- link: https://learn.datadoghq.com/courses/configuring-ssi-k8s + tag: Centro de Aprendizaje + text: Configurando la instrumentación de un solo paso en Kubernetes +title: Instrumentación APM de un solo paso en Kubernetes type: multi-code-lang --- +## Resumen {#overview} -## Información general +En un entorno de Kubernetes, utilice la instrumentación de un solo paso (SSI) para APM para instalar el Agente de Datadog e [instrumentar][3] sus aplicaciones con los SDK de Datadog en un solo paso. -En un entorno de Kubernetes, utiliza la instrumentación de un solo step (UI) / paso (generic) (SSI) para APM para instalar el Datadog Agent e [instrumentar][3] tus aplicaciones con los kits de desarrollo de software (SDK) de APM de Datadog en un solo step (UI) / paso (generic). - -## Requisitos +## Requisitos {#requirements} - Kubernetes v1.20+. -- [`Helm`][1] para desplegar el Datadog Operator. -- [CLI `Kubectl`][2] para instalar el Datadog Agent. -- Compatibilidad confirmada del entorno según la [Guía de compatibilidad de instrumentación de un solo step (UI) / paso (generic) ][36]. +- [`Helm`][1] para desplegar el Operador de Datadog. +- [`Kubectl` CLI][2] para instalar el Agente de Datadog. +- Compatibilidad del entorno confirmada según la [guía de compatibilidad de instrumentación de un solo paso][36]. -## Activa APM en tus aplicaciones +## Habilitar APM en sus aplicaciones {#enable-apm-on-your-applications} -
    La instrumentación de un solo step (UI) / paso (generic) no instrumenta aplicaciones en el espacio de nombres donde está instalado el Datadog Agent. Instala el Agent en un espacio de nombres separado donde no ejecutes tus aplicaciones.
    +
    La instrumentación de un solo paso no instrumenta aplicaciones en el espacio de nombres donde se instala el Agente de Datadog. Instala el Agente en un espacio de nombres separado donde no ejecutes tus aplicaciones.
    -Sigue estos steps (UI) / pasos (generic) para activar la instrumentación de un solo step (UI) / paso (generic) en todo tu clúster. Esto envía automáticamente las traces (trazas) de todas las aplicaciones escritas en los lenguajes compatibles. +Sigue estos pasos para habilitar la Instrumentación de Paso Único en todo tu clúster. Esto envía automáticamente trazas de todas las aplicaciones escritas en lenguajes soportados. -**Nota:** Para instrumentar solo espacios de nombres o pods específicos, consulta la orientación de la carga de trabajo en [Opciones avanzadas](#advanced-options). +**Nota:** Para instrumentar solo espacios de nombres o pods específicos, consulta la segmentación de carga de trabajo en [Opciones avanzadas](#advanced-options). -1. En Datadog, ve a la page (página) de [Instalación del Datadog Agent en Kubernetes][11]. -1. Sigue las instrucciones que aparecen en pantalla para seleccionar el método de instalación, seleccionar una clave API y configurar el repositorio de Operator o Helm. -1. En la sección **Configurar `datadog-agent.yaml`**, ve a **Additional configuration** > **Application Observability** (Configuración adicional > Observabilidad de la aplicación) y activa **APM Instrumentation** (Instrumentación de APM). +1. En Datadog, ve a la página de [Instalar el Agente de Datadog en Kubernetes][11]. +1. Sigue las instrucciones en pantalla para elegir tu método de instalación, seleccionar una clave de API y configurar el Operador o el repositorio de Helm. +1. En la sección **Configurar `datadog-agent.yaml`**, ve a **Configuración adicional** > **Observabilidad de aplicaciones**, y activa **Instrumentación APM**. - {{< img src="tracing/trace_collection/k8s-apm-instrumentation-toggle.jpg" alt="El bloque de configuración para instalar el Datadog Agent en Kubernetes a través de la aplicación de Datadog" style="width:100%;" >}} + {{< img src="tracing/trace_collection/k8s-apm-instrumentation-toggle.jpg" alt="El bloque de configuración para instalar el Agente de Datadog en Kubernetes a través de la aplicación de Datadog" style="width:100%;" >}} -1. Despliega el Agent utilizando el archivo de configuración generado. +1. Despliega el Agente utilizando el archivo de configuración generado. 1. Reinicia tus aplicaciones. -
    SSI añade una pequeña cantidad de tiempo de arranque a las aplicaciones instrumentadas. Si esta sobrecarga no es aceptable para tu case (incidencia) de uso, ponte en contacto con el servicio de asistencia de Datadog .
    +
    SSI agrega una pequeña cantidad de tiempo de inicio a las aplicaciones instrumentadas. Si este sobrecosto no es aceptable para tu caso de uso, contacta a Soporte de Datadog.
    -## Configurar tags (etiquetas) de servicio unificadas +## Configura etiquetas de servicio unificadas {#configure-unified-service-tags} -Las tags (etiquetas) de servicio unificadas (UST) aplican tags (etiquetas) coherentes en todas las traces (trazas), métricas y logs, lo que facilita la navegación y la correlación de tus datos de observabilidad. Puedes configurar las UST mediante la extracción automática de etiquetas (recomendado), mediante la configuración explícita con `ddTraceConfigs` o en manifiestos de despliegue. +Las etiquetas de servicio unificadas (USTs) aplican etiquetas consistentes a través de trazas, métricas y registros, facilitando la navegación y correlación de tus datos de observabilidad. Puedes configurar USTs a través de la extracción automática de etiquetas (recomendado), mediante configuración explícita con `ddTraceConfigs`, o en manifiestos de despliegue.
    -Si utilizas la Configuración remota, la extracción automática de etiquetas no es compatible. Debes configurar las UST explícitamente mediante ddTraceConfigs. +Si está utilizando Configuración Remota, la extracción automática de etiquetas no es compatible. Debe configurar USTs explícitamente utilizando ddTraceConfigs.
    -### (Recomendado) Configurar las UST mediante la extracción automática de etiquetas +### (Recomendado) Configure USTs a través de la extracción automática de etiquetas {#recommended-configure-usts-through-automatic-label-extraction} -Con SSI, puedes extraer automáticamente los valores de las UST de las etiquetas y metadatos de los pods sin modificar las despliegues individuales. Para ello, configura `kubernetesResourcesLabelsAsTags` para asignar tus etiquetas de Kubernetes existentes a tags (etiquetas) de servicios de Datadog. +Con SSI, puede extraer automáticamente los valores de UST de las etiquetas y metadatos de los pods sin modificar implementaciones individuales. Para hacer esto, configure `kubernetesResourcesLabelsAsTags` para mapear sus etiquetas de Kubernetes existentes a las etiquetas de servicio de Datadog. -**Nota:** Este método no es compatible con la Configuración remota. Si utilizas la Configuración remota, consulta [Configurar UST explícitamente con ddTraceConfigs](#configure-usts-explicitly-with-ddtraceconfigs). +**Nota:** Este método no es compatible con la Configuración Remota. Si está utilizando Configuración Remota, consulte [Configurar USTs explícitamente con ddTraceConfigs](#configure-usts-explicitly-with-ddtraceconfigs). -#### Requisitos previos +#### Requisitos previos {#prerequisites} -| Componente | Versión mínima | +| Componente | Versión mínima | |-----------|------------------| -| `datadog-agent` | 7.69 | -| `datadog-operator` | 1.16.0 | +| `datadog-agent` | 7.69 | +| `datadog-operator` | 1.16.0 | | `datadog-helm-chart` | 3.120.0 | -#### Configuración +#### Configuración {#configuration} -Sustituye `app.kubernetes.io/name` en el siguiente ejemplo por cualquier etiqueta que contenga el nombre de tu servicio (por ejemplo, `service.kubernetes.io/name` o `component`). Puedes configurar varias etiquetas de esta forma. +Reemplace `app.kubernetes.io/name` en el siguiente ejemplo con cualquier etiqueta que contenga el nombre de su servicio (por ejemplo, `service.kubernetes.io/name` o `component`). Puede configurar múltiples etiquetas de esta manera. ```yaml datadog: @@ -95,11 +97,11 @@ datadog: enabled: true ``` -Con esta configuración, Datadog establece automáticamente la tag (etiqueta) `service` utilizando el valor de la etiqueta `app.kubernetes.io/name` para cualquier carga de trabajo instrumentada que incluya esta etiqueta. +Con esta configuración, Datadog establece automáticamente la etiqueta `service` utilizando el valor de la etiqueta `app.kubernetes.io/name` para cualquier carga de trabajo instrumentada que incluya esta etiqueta. -### Configurar UST explícitamente con ddTraceConfigs +### Configure USTs explícitamente con ddTraceConfigs {#configure-usts-explicitly-with-ddtraceconfigs} -En la mayoría de los casos, la configuración automática es suficiente. Sin embargo, si necesitas un control granular sobre las configuraciones para cargas de trabajo específicas, utiliza `ddTraceConfigs` para asignar explícitamente etiquetas a configuraciones de servicio: +En la mayoría de los casos, la configuración automática es suficiente. Sin embargo, si necesita un control granular sobre la configuración de cargas de trabajo específicas, utilice `ddTraceConfigs` para mapear explícitamente las etiquetas a las configuraciones del servicio: ```yaml datadog: @@ -131,66 +133,127 @@ datadog: ``` -### Configurar UST en manifiestos de despliegue +### Configura USTs en los manifiestos de implementación {#configure-usts-in-deployment-manifests} + +Si su configuración no utiliza etiquetas adecuadas para la extracción de UST, puede establecer USTs directamente en sus manifiestos de implementación utilizando variables de entorno. Este enfoque requiere modificar cada implementación individualmente, pero ofrece un control preciso. -Si tu configuración no utiliza etiquetas adecuadas para la extracción de UST, puedes establecer UST directamente en tus manifiestos de despliegue utilizando variables de entorno. Este enfoque requiere modificar cada despliegue individualmente, pero ofrece un control preciso. +Para instrucciones completas, consulta [configuración de USTs para servicios de Kubernetes][5]. -Para obtener instrucciones completas, consulta [configuración de UST para servicios de Kubernetes ][5]. +## Habilita productos y características dependientes del SDK {#enable-sdk-dependent-products-and-features} -## Activar productos y funciones dependientes del kit de desarrollo de software (SDK) +Después de que SSI cargue el SDK de Datadog en tus aplicaciones y habilite el rastreo distribuido, puedes configurar productos adicionales que dependen del SDK: -Después de que SSI cargue el kit de desarrollo de software (SDK) de Datadog en tus aplicaciones y active el rastreo distribuido, puedes configurar productos adicionales que dependan del kit de desarrollo de software (SDK). Estos incluyen capacidades tales como [Continuous Profiler][37], [Monitorización de seguridad de las aplicaciones][38] y [controles de ingesta de traces (trazas)][39]. +{{< ssi-products >}} Utiliza uno de los siguientes métodos de configuración: -- **[Configuración con cargas de trabajo específicas (recomendado)](#target-specific-workloads)**: +- **[Configura con orientación a cargas de trabajo (recomendado)](#target-specific-workloads)**: + + Por defecto, la Instrumentación de Un Solo Paso instrumenta todos los servicios en todos los espacios de nombres. Utiliza la orientación a cargas de trabajo para limitar la instrumentación a espacios de nombres, pods o cargas de trabajo específicas, y aplica configuraciones personalizadas. + +- **[Establecer variables de entorno][7]**: - Por defecto, Single Step Instrumentation instrumenta todos los servicios en todos los espacios de nombres. Utiliza la orientación a las cargas de trabajo para limitar la instrumentación a espacios de nombres, pods y cargas de trabajo específicos, y aplica configuraciones personalizadas. + Habilita productos estableciendo variables de entorno directamente en la configuración de tu aplicación. -- **[Configurar variables de entorno][7]**: +## Opciones avanzadas {#advanced-options} - Activa productos definiendo variables de entorno directamente en la configuración de tu aplicación. +Utilice las siguientes opciones avanzadas para personalizar cómo se comporta la instrumentación de paso único en su entorno. Estas configuraciones son opcionales y generalmente solo se necesitan en configuraciones especializadas. -## Opciones avanzadas +### Configure modos de inyección {#configure-injection-modes} -Utiliza las siguientes opciones avanzadas para personalizar el comportamiento de la instrumentación de un solo step (UI) / paso (generic) en tu entorno. Estos ajustes son opcionales y normalmente solo se necesitan en configuraciones especializadas. +SSI admite múltiples modos de inyección, que controlan cómo se entregan los archivos del inyector y de la biblioteca APM a tus contenedores de aplicación. Normalmente no necesita configurar esta opción manualmente. Considere ajustarla si nota retrasos significativos en el inicio del pod o un uso de recursos (CPU, memoria) más alto de lo esperado durante la inicialización del pod. Para más información sobre cómo funciona el inyector, consulte [Comportamiento del inyector con instrumentación de paso único][41]. -### Cargas de trabajo específicas -Por defecto, SSI instrumenta todos los servicios en todos los espacios de nombres de tu clúster. Según cuál sea tu versión del Agent, utiliza uno de los siguientes métodos de configuración para refinar qué servicios se instrumentan y de qué manera. +| Modo | Descripción | Requisitos | +|------|-------------|--------------| +| `init_container` | Utilice contenedores de inicialización para copiar archivos del inyector y de la biblioteca APM en los contenedores de la aplicación. | Agente desplegado con Helm Chart o Datadog Operator | +| `csi` | **En vista previa.** Monta archivos del inyector y de la biblioteca APM utilizando el [controlador CSI de Datadog][37]. Reduce el tiempo de inicio del pod en comparación con el modo de contenedor de inicialización. | Agente 7.76.0+, controlador CSI 1.2.0+, Helm Chart 3.178.1+ o Datadog Operator 1.25.0+ | + +Antes de usar `csi` modo, instale y active el controlador CSI de Datadog. Si está desplegando con Helm, también configure `datadog.csi.enabled: true` en su `datadog-values.yaml`. Consulte la [documentación del controlador CSI][37] para los pasos de instalación y requisitos específicos del entorno, como GKE Autopilot. + +#### Configure el modo de inyección globalmente {#configure-injection-mode-globally} {{< tabs >}} +{{% tab "Helm" %}} + +Para establecer el modo de inyección a nivel de clúster, agregue `injectionMode` a su `datadog-values.yaml`: + +```yaml +datadog: + apm: + instrumentation: + injectionMode: +``` + +Valores soportados: `init_container`, `csi`. -{{% tab "Agent v7.64+ (Recomendado)" %}} +{{% /tab %}} +{{% tab "Datadog Operator" %}} + +Para establecer el modo de inyección a nivel de clúster, agregue `injectionMode` a su `datadog-agent.yaml`: + +```yaml +features: + apm: + instrumentation: + injectionMode: +``` -Crea bloques de destino con la etiqueta `targets` para especificar qué cargas de trabajo instrumentar y qué configuraciones aplicar. +Valores soportados: `init_container`, `csi`. + +Si está utilizando Datadog Operator anterior a 1.25.0, use la [anotación de pod](#configure-injection-mode-per-pod) para anular el modo de inyección para pods específicos. + +{{% /tab %}} +{{< /tabs >}} + +#### Configure el modo de inyección por pod {#configure-injection-mode-per-pod} + +Para anular el modo de inyección para un pod específico, agregue la siguiente anotación a la especificación del pod: + +```yaml +metadata: + annotations: + admission.datadoghq.com/apm-inject.injection-mode: "" +``` + +Valores soportados: `init_container`, `csi`. + +### Dirija cargas de trabajo específicas {#target-specific-workloads} + +De forma predeterminada, SSI instrumenta todos los servicios en todos los espacios de nombres de su clúster. Dependiendo de la versión de su agente, utilice uno de los siguientes métodos de configuración para refinar qué servicios son instrumentados y cómo. + +{{< tabs >}} + +{{% tab "Agente v7.64+ (Recomendado)" %}} + +Cree bloques de destino con la etiqueta `targets` para especificar qué cargas de trabajo instrumentar y qué configuraciones aplicar. Cada bloque de destino tiene las siguientes claves: | Clave | Descripción | |------------------|-------------| -| `name` | El nombre del bloque de destino. No tiene ningún efecto sobre el estado de monitorización y solo se utiliza como metadatos. | -| `namespaceSelector` | El espacio o espacios de nombres que se instrumentarán. Especifífcalo utilizando uno o más de:
    - `matchNames`: Una lista de uno o más nombres de espacios de nombres.
    - `matchLabels`: Una lista de una o más etiquetas definidas en pares `{key,value}`.
    - `matchExpressions`: Una lista de requisitos del selector de espacios de nombres.

    Los espacios de nombres deben cumplir todos los criterios para coincidir. Para obtener más detalles, consulta la [documentación del selector de Kubernetes ][10].| -| `podSelector` | El pod o pods que se instrumentarán. Especifícalo utilizando uno o más de:
    - `matchLabels`: Una lista de una o más etiquetas definidas en pares `{key,value}`.
    - `matchExpressions`: Una lista de requisitos del selector de pods.

    Los pods deben cumplir todos los criterios para coincidir. Para obtener más detalles, consulta la [documentación del selector de Kubernetes ][10]. | -| `ddTraceVersions` | La versión del [kit de desarrollo de software (SDK) de APM de Datadog][9] que se utilizará para cada lenguaje. | -| `ddTraceConfigs` | Configuraciones del kit de desarrollo de software (SDK) de APM que permiten establecer tags (etiquetas) de servicio unificado, activar productos de Datadog más allá del rastreo y personalizar otros ajustes de APM. [Consulta la lista completa de opciones][8]. | +| `name` | El nombre del bloque de destino. Esto no tiene efecto en el estado de seguimiento y se utiliza solo como metadatos. | +| `namespaceSelector` | El(los) espacio(s) de nombres a instrumentar. Especifique utilizando uno o más de:
    - `matchNames`: Una lista de uno o más nombres de espacios de nombres.
    - `matchLabels`: Una lista de una o más etiquetas definidas en pares `{key,value}`.
    - `matchExpressions`: Una lista de requisitos de selección de espacios de nombres.

    Los espacios de nombres deben cumplir todos los criterios para coincidir. Para más detalles, consulte la [documentación del selector de Kubernetes][10].| +| `podSelector` | El(los) pod(s) a instrumentar. Especifique utilizando uno o más de:
    - `matchLabels`: Una lista de una o más etiqueta(s) definidas en pares `{key,value}`.
    - `matchExpressions`: Una lista de requisitos de selección de pod.

    Los pods deben cumplir todos los criterios para coincidir. Para más detalles, consulte la [documentación del selector de Kubernetes][10]. | +| `ddTraceVersions` | La versión del [SDK de APM de Datadog][9] a utilizar para cada lenguaje. | +| `ddTraceConfigs` | Configuraciones del SDK de APM que permiten establecer [Etiquetas de Servicio Unificadas][8], habilitando [ productos dependientes del SDK](#enable-sdk-dependent-products-and-features) más allá del rastreo, y personalizando otras [configuraciones de APM][14]. | -El archivo que necesitas configurar depende de la manera en que habilitaste la instrumentación de un solo step (UI) / paso (generic): -- Si activaste SSI con Datadog Operator, edita `datadog-agent.yaml`. -- Si activaste SSI con Helm, edita `datadog-values.yaml`. +El archivo que necesitas configurar depende de cómo habilitaste la Instrumentación de Paso Único: +- Si habilitaste SSI con Datadog Operator, edita `datadog-agent.yaml`. +- Si habilitaste SSI con Helm, edita `datadog-values.yaml`. -**Nota**: Los objetivos se evalúan en orden; la primera coincidencia tiene prioridad. +**Nota**: Los bloques de destino se evalúan en orden; la primera coincidencia tiene prioridad. -#### Ejemplos de configuraciones +#### Ejemplos de configuraciones {#example-configurations} Revisa los siguientes ejemplos que demuestran cómo seleccionar servicios específicos: -{{< collapse-content title="Example 1: Enable all namespaces except one" level="h4" >}} +{{< collapse-content title="Ejemplo 1: Habilitar todos los espacios de nombres excepto uno" level="h4" >}} Esta configuración: -- activa APM para todos los espacios de nombres, excepto el espacio de nombres `jenkins`. - - **Nota**: utiliza `enabledNamespaces` para desactivar todos los espacios de nombres, excepto los enumerados. -- indica a Datadog que instrumente las aplicaciones de Java con el kit de desarrollo de software (SDK) de APM de Java y las aplicaciones de Python predeterminadas con `v.3.1.0` del kit de desarrollo de software (SDK) de APM de Python. +- habilita APM para todos los espacios de nombres excepto el espacio de nombres `jenkins`. + - **Nota**: usa `enabledNamespaces` para deshabilitar para todos los espacios de nombres excepto los listados. +- indica a Datadog que instrumente las aplicaciones Java con el SDK de Java por defecto y las aplicaciones Python con `v.3.1.0` del SDK de Python. {{< highlight yaml "hl_lines=4-10" >}} apm: @@ -207,17 +270,17 @@ Esta configuración: {{< /collapse-content >}} -{{< collapse-content title="Example 2: Instrument a subset of namespaces, matching on names and labels" level="h4" >}} +{{< collapse-content title="Ejemplo 2: Instrumentar un subconjunto de espacios de nombres, coincidiendo con nombres y etiquetas" level="h4" >}} Esta configuración crea dos bloques de destino: -- El primer bloque (denominado `login-service_namespace`): - - activa APM para los servicios del espacio de nombres `login-service`. - - indica a Datadog que instrumente los servicios de este espacio de nombres con la versión predeterminada del kit de desarrollo de software (SDK) de APM de Java. - - configura la variable de entorno `DD_PROFILING_ENABLED` para este grupo de destino -- El segundo bloque (denominado `billing-service_apps`) - - activa APM para los servicios del espacio o espacios de nombres con la etiqueta `app:billing-service`. - - indica a Datadog que instrumente este conjunto de servicios con `v3.1.0` del kit de desarrollo de software (SDK) de APM de Python. +- El primer bloque (nombrado `login-service_namespace`): + - habilita APM para servicios en el espacio de nombres `login-service`. + - instruye a Datadog para instrumentar servicios en este espacio de nombres con la versión predeterminada del SDK de Java. + - establece la variable de entorno `DD_PROFILING_ENABLED` para este grupo objetivo +- El segundo bloque (nombrado `billing-service_apps`) + - habilita APM para servicios en el(los) espacio(s) de nombres con la etiqueta `app:billing-service`. + - instruye a Datadog para instrumentar este conjunto de servicios con `v3.1.0` del SDK de Python. {{< highlight yaml "hl_lines=4-28" >}} apm: @@ -243,14 +306,14 @@ Esta configuración crea dos bloques de destino: {{< /collapse-content >}} -{{< collapse-content title="Example 3: Instrument different workloads with different tracers" level="h4" >}} +{{< collapse-content title="Ejemplo 3: Instrumentar diferentes cargas de trabajo con diferentes rastreadores" level="h4" >}} -Esta configuración hace lo siguiente: -- activa APM para los pods con las siguientes etiquetas: - - `app:db-user`que marca los pods que ejecutan la aplicación `db-user`. - - `webserver:routing`que marca los pods que ejecutan la aplicación `request-router`. -- indica a Datadog que utilice las versiones predeterminadas de los kits de desarrollo de software (SDK) de Datadog Tracer. -- activa las variables de entorno de Datadog para aplicar a cada grupo de destino y configurar los kits de desarrollo de software (SDK). +Esta configuración realiza lo siguiente: +- habilita APM para pods con las siguientes etiquetas: + - `app:db-user`, que marca pods ejecutando la aplicación `db-user`. + - `webserver:routing`, que marca pods ejecutando la aplicación `request-router`. +- instruye a Datadog para usar las versiones predeterminadas de los SDKs de Tracer de Datadog. +- establece variables de entorno de Datadog que se aplican a cada grupo objetivo y configura los SDKs. {{< highlight yaml "hl_lines=4-28" >}} apm: @@ -276,12 +339,12 @@ Esta configuración hace lo siguiente: {{< /collapse-content >}} -{{< collapse-content title="Example 4: Instrument a pod within a namespace" level="h4" >}} +{{< collapse-content title="Ejemplo 4: Instrumentar un pod dentro de un espacio de nombres" level="h4" >}} Esta configuración: -- activa APM para los pods etiquetados como `app:password-resolver` en el espacio de nombres `login-service`. -- indica a Datadog que utilice la versión predeterminada del kit de desarrollo de software (SDK) de Datadog Tracer. -- configura las variables de entorno de Datadog que se aplicarán a este objetivo. +- habilita APM para pods etiquetados `app:password-resolver` dentro del espacio de nombres `login-service`. +- instruye a Datadog para usar la versión predeterminada del SDK de Tracer de Java de Datadog. +- establece variables de entorno de Datadog que se aplican a este bloque de destino. {{< highlight yaml "hl_lines=4-28" >}} apm: @@ -304,9 +367,9 @@ Esta configuración: {{< /collapse-content >}} -{{< collapse-content title="Example 5: Instrument a subset of pods using matchExpressions" level="h4" >}} +{{< collapse-content title="Ejemplo 5: Instrumentar un subconjunto de pods usando matchExpressions" level="h4" >}} -Esta configuración activa APM para todos los pods, excepto los que tienen alguna de las etiquetas `app=app1` o `app=app2`. +Esta configuración habilita APM para todos los pods excepto aquellos que tienen cualquiera de las etiquetas `app=app1` o `app=app2`. {{< highlight yaml "hl_lines=4-28" >}} apm: @@ -325,23 +388,53 @@ Esta configuración activa APM para todos los pods, excepto los que tienen algun {{< /collapse-content >}} +{{< collapse-content title="Ejemplo 6: Habilitar productos adicionales con ddTraceConfigs" level="h4" >}} + +Esta configuración habilita [App and API Protection (AAP)][12] y [Continuous Profiler][11] para los servicios en el espacio de nombres `web-apps`, utilizando `ddTraceConfigs` para establecer las variables de entorno requeridas: + +{{< highlight yaml "hl_lines=4-20" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "web-apps-with-security" + namespaceSelector: + matchNames: + - "web-apps" + ddTraceVersions: + java: "default" + python: "default" + ddTraceConfigs: + - name: "DD_APPSEC_ENABLED" + value: "true" + - name: "DD_PROFILING_ENABLED" + value: "auto" +{{< /highlight >}} + +Para una lista completa de productos que puedes habilitar a través de SSI, consulta [Habilitar productos y características dependientes del SDK](#enable-sdk-dependent-products-and-features). + +{{< /collapse-content >}} + [8]: /es/getting_started/tagging/unified_service_tagging/?tab=kubernetes [9]: /es/tracing/trace_collection/automatic_instrumentation/single-step-apm/compatibility/#tracer-libraries [10]: https://kubernetes.io/docs/concepts/overview/working-with-objects/labels/#resources-that-support-set-based-requirements +[11]: /es/profiler/ +[12]: /es/security/application_security/ +[14]: /es/tracing/trace_collection/library_config/ {{% /tab %}} -{{% tab "Agent <=v7.63 (heredado)" %}} +{{% tab "Agente <=v7.63 (Legado)" %}} -#### Activar o desactivar la instrumentación de los espacios de nombres +#### Habilitar o deshabilitar la instrumentación para los espacios de nombres {#enable-or-disable-instrumentation-for-namespaces} -Puedes elegir activar o desactivar la instrumentación para aplicaciones en espacios de nombres específicos. Solo puedes definir espacios de nombres activados o espacios de nombres desactivados, no ambos. +Puedes elegir habilitar o deshabilitar la instrumentación para aplicaciones en espacios de nombres específicos. Solo puedes establecer enabledNamespaces o disabledNamespaces, no ambos. -El archivo que tienes que configurar depende de si has activado la instrumentación de un solo step (UI) / paso (generic) con el Datadog Operator o con Helm: +El archivo que necesitas configurar depende de si habilitaste la Instrumentación de Paso Único con Datadog Operator o Helm: {{< collapse-content title="Datadog Operator" level="h5" >}} -Para habilitar la instrumentación para espacios de nombres específicos, añade la configuración `enabledNamespaces` a `datadog-agent.yaml`: +Para habilitar la instrumentación para espacios de nombres específicos, agrega `enabledNamespaces` configuración a `datadog-agent.yaml`: {{< highlight yaml "hl_lines=5-7" >}} features: @@ -353,7 +446,7 @@ Para habilitar la instrumentación para espacios de nombres específicos, añade - applications {{< /highlight >}} -Para deshabilitar la instrumentación para determinados espacios de nombres, añade la configuración `disabledNamespaces` a `datadog-agent.yaml`: +Para deshabilitar la instrumentación para espacios de nombres específicos, agrega `disabledNamespaces` configuración a `datadog-agent.yaml`: {{< highlight yaml "hl_lines=5-7" >}} features: @@ -369,48 +462,48 @@ Para deshabilitar la instrumentación para determinados espacios de nombres, añ {{< collapse-content title="Helm" level="h5" >}} -Para habilitar la instrumentación para espacios de nombres específicos, añade la configuración `enabledNamespaces` a `datadog-values.yaml`: +Para habilitar la instrumentación para espacios de nombres específicos, agrega `enabledNamespaces` configuración a `datadog-values.yaml`: {{< highlight yaml "hl_lines=5-7" >}} datadog: apm: instrumentation: enabled: true - enabledNamespaces: # Añadir espacios de nombres que se van a instrumentar + enabledNamespaces: # Add namespaces to instrument - namespace_1 - namespace_2 {{< /highlight >}} -Para deshabilitar la instrumentación para determinados espacios de nombres, añade la configuración `disabledNamespaces` a `datadog-values.yaml`: +Para deshabilitar la instrumentación para espacios de nombres específicos, agrega `disabledNamespaces` configuración a `datadog-values.yaml`: {{< highlight yaml "hl_lines=5-7" >}} datadog: apm: instrumentation: enabled: true - disabledNamespaces: # Añadir espacios de nombres que no se van a instrumentar + disabledNamespaces: # Add namespaces to not instrument - namespace_1 - namespace_2 {{< /highlight >}} {{< /collapse-content >}} -#### Especificar versiones de bibliotecas de rastreo +#### Especificar versiones de SDK {#specify-sdk-versions} -
    A partir del Datadog Cluster Agent v7.52.0 o superior, puedes instrumentar automáticamente un subconjunto de tus aplicaciones, basándose en las bibliotecas de rastreo que especifiques.
    +
    A partir del Agente de Clúster de Datadog v7.52.0+, puedes instrumentar automáticamente un subconjunto de tus aplicaciones, basado en los SDK que especifiques.
    -Especifica bibliotecas de rastreo de Datadog y sus versiones para instrumentar automáticamente las aplicaciones escritas en esos lenguajes. Puedes configurarlo de dos maneras, que se aplican en el siguiente orden de precedencia: +Especifica los SDK de Datadog y sus versiones para instrumentar automáticamente aplicaciones escritas en esos lenguajes. Puedes configurar esto de dos maneras, que se aplican en el siguiente orden de precedencia: -1. [Especificar al nivel del servicio](#specify-at-the-service-level) o bien -2. [Especificar al nivel del clúster](#specify-at-the-cluster-level). +1. [Especificar a nivel de servicio](#specify-at-the-service-level), o +2. [Especificar a nivel de clúster](#specify-at-the-cluster-level). -**Predeterminado**: Si no especificas ninguna versión de biblioteca, las aplicaciones escritas en lenguajes compatibles se instrumentan automáticamente utilizando las últimas versiones de bibliotecas de rastreo. +**Predeterminado**: Si no especificas ninguna versión de biblioteca, las aplicaciones escritas en lenguajes soportados se instrumentan automáticamente utilizando las versiones más recientes de SDK. -##### Especificar al nivel del servicio +##### Especificar a nivel de servicio {#specify-at-the-service-level} -Para instrumentar automáticamente aplicaciones en pods específicos, añade la anotación de lenguaje y la versión de biblioteca adecuadas para tu aplicación en la especificación de tu pod: +Para instrumentar automáticamente aplicaciones en pods específicos, agrega la anotación de lenguaje apropiada y la versión de la biblioteca para tu aplicación en la especificación de tu pod: -| Lenguaje | Anotación del pod | +| Lenguaje | Anotación de pod | |------------|-----------------------------------------------------------------------| | Java | `admission.datadoghq.com/java-lib.version: ""` | | Node.js | `admission.datadoghq.com/js-lib.version: ""` | @@ -419,7 +512,7 @@ Para instrumentar automáticamente aplicaciones en pods específicos, añade la | Ruby | `admission.datadoghq.com/ruby-lib.version: ""` | | PHP | `admission.datadoghq.com/php-lib.version: ""` | -Sustituye `` por la versión de la biblioteca deseada. Las versiones disponibles están enumeradas en los [registros de contenedores de Datadog](#change-the-default-image-registry) y en los repositorios de source (fuente) del rastreaedor para cada lenguaje: +Reemplaza `` con la versión de biblioteca deseada. Las versiones disponibles se enumeran en los [registros de contenedores de Datadog](#change-the-default-image-registry) y en los repositorios de código fuente de trazadores para cada lenguaje: - [Java][34] - [Node.js][35] @@ -428,9 +521,9 @@ Sustituye `` por la versión de la biblioteca deseada. Las - [Ruby][38] - [PHP][39] -
    Ten cuidado al utilizar la última tag (etiqueta), ya que las principales versiones de la biblioteca pueden introducir cambios de última hora.
    +
    Ten precaución al usar la etiqueta latest, ya que las versiones principales de la biblioteca pueden introducir cambios incompatibles.
    -Por ejemplo, para instrumentar aplicaciones de Java automáticamente: +Por ejemplo, para instrumentar automáticamente aplicaciones de Java: {{< highlight yaml "hl_lines=10" >}} apiVersion: apps/v1 @@ -448,15 +541,15 @@ spec: - # ... {{< /highlight >}} -##### Especificar al nivel de clúster +#####Especifica a nivel de clúster {#specify-at-the-cluster-level} -Si no activas la instrumentación automática para pods específicos utilizando anotaciones, puedes especificar qué lenguajes instrumentar en todo el clúster utilizando la configuración de SSI. Cuando se configura `apm.instrumentation.libVersions`, solo se instrumentan las aplicaciones escritas en los lenguajes especificados, utilizando las versiones de biblioteca especificadas. +Si no habilitas la instrumentación automática para pods específicos utilizando anotaciones, puedes especificar qué lenguajes instrumentar en todo el clúster utilizando la configuración de SSI. Cuando `apm.instrumentation.libVersions` está configurado, solo se instrumentan las aplicaciones escritas en los lenguajes especificados, utilizando las versiones de biblioteca especificadas. -El archivo que tienes que configurar depende de si has habilitado la instrumentación de un solo paso con el Datadog Operator o con Helm: +El archivo que necesitas configurar depende de si habilitaste la Instrumentación de Paso Único con Datadog Operator o Helm: {{< collapse-content title="Datadog Operator" level="h5" >}} -Por ejemplo, para instrumentar aplicaciones .NET, Python, y Node.js añade la siguiente configuración a tu archivo `datadog-agent.yaml`: +Por ejemplo, para instrumentar aplicaciones de .NET, Python y Node.js, agrega la siguiente configuración a tu archivo `datadog-agent.yaml`: {{< highlight yaml "hl_lines=5-8" >}} features: @@ -473,7 +566,7 @@ Por ejemplo, para instrumentar aplicaciones .NET, Python, y Node.js añade la si {{< collapse-content title="Helm" level="h5" >}} -Por ejemplo, para instrumentar aplicaciones .NET, Python, y Node.js añade la siguiente configuración a tu archivo `datadog-values.yaml`: +Por ejemplo, para instrumentar aplicaciones de .NET, Python y Node.js, agrega la siguiente configuración a tu archivo `datadog-values.yaml`: {{< highlight yaml "hl_lines=5-8" >}} datadog: @@ -500,11 +593,11 @@ Por ejemplo, para instrumentar aplicaciones .NET, Python, y Node.js añade la si {{% /tab %}} {{< /tabs >}} -### Cambiar el registro de imágenes predeterminado +### Cambiar el registro de imágenes predeterminado {#change-the-default-image-registry} Datadog publica imágenes de bibliotecas de instrumentación en gcr.io, Docker Hub y Amazon ECR: -| Lenguaje | gcr.io | hub.docker.com | gallery.ecr.aws | +| Idioma | gcr.io | hub.docker.com | gallery.ecr.aws | |------------|-------------------------------------|---------------------------------------------|-------------------------------------------| | Java | [gcr.io/datadoghq/dd-lib-java-init][15] | [hub.docker.com/r/datadog/dd-lib-java-init][16] | [gallery.ecr.aws/datadog/dd-lib-java-init][17] | | Node.js | [gcr.io/datadoghq/dd-lib-js-init][18] | [hub.docker.com/r/datadog/dd-lib-js-init][19] | [gallery.ecr.aws/datadog/dd-lib-js-init][20] | @@ -513,21 +606,21 @@ Datadog publica imágenes de bibliotecas de instrumentación en gcr.io, Docker H | Ruby | [gcr.io/datadoghq/dd-lib-ruby-init][27] | [hub.docker.com/r/datadog/dd-lib-ruby-init][28] | [gallery.ecr.aws/datadog/dd-lib-ruby-init][29] | | PHP | [gcr.io/datadoghq/dd-lib-php-init][30] | [hub.docker.com/r/datadog/dd-lib-php-init][31] | [gallery.ecr.aws/datadog/dd-lib-php-init][32] | -La variable de entorno `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` en la configuración del Datadog Agent del clúster especifica el registro utilizado por el controlador de admisión. El valor predeterminado es `gcr.io/datadoghq`. +La `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` variable de entorno en la configuración del Agente de Clúster de Datadog especifica el registro utilizado por el Controlador de Admisión. El valor predeterminado es `gcr.io/datadoghq`. -Puedes extraer la biblioteca de rastreo de un registro diferente cambiándolo por `docker.io/datadog`, `public.ecr.aws/datadog` u otra URL, si alojas las imágenes en un registro de contenedores local. +Puede obtener el SDK de un registro diferente cambiándolo a `docker.io/datadog`, `public.ecr.aws/datadog` o a otra URL si está alojando las imágenes en un registro de contenedor local. -Para obtener instrucciones sobre cómo cambiar el registro de contenedores, consulta [Cómo cambiar el registro de contenedores][33]. +Para obtener instrucciones sobre cómo cambiar su registro de contenedor, consulte [Cambiando su registro de contenedor][33]. -### Utilizar un registro privado de contenedores +### Utilice un registro de contenedor privado {#use-a-private-container-registry} -Si tu organización no permite extracciones directas de registros públicos (como `gcr.io`, `docker.io` o `public.ecr.aws`), puedes alojar internamente las imágenes necesarias de Datadog y configurar el controlador de admisión para que las utilice. +Si su organización no permite descargas directas de registros públicos (como `gcr.io`, `docker.io` o `public.ecr.aws`), puede alojar las imágenes requeridas de Datadog internamente y configurar el Controlador de Admisión para usarlas. -Para utilizar SSI con un registro privado de contenedores: +Para usar SSI con un registro de contenedor privado: -1. Sigue [estas instrucciones][34] para replicar las imágenes del contenedor de Datadog en tu registro privado. +1. Siga [estas instrucciones][34] para reflejar las imágenes de contenedor de Datadog en su registro privado. - Solo necesitas las imágenes para los lenguajes que estás instrumentando. Si no estás seguro de cuáles necesitas, esta es una referencia que cubre la mayoría de los cases (incidencias) de uso: + Solo necesita las imágenes para los lenguajes que está instrumentando. Si no está seguro de cuáles necesita, aquí hay una línea base que cubre la mayoría de los casos de uso: - `apm-inject` - `dd-lib-java-init` @@ -537,15 +630,15 @@ Para utilizar SSI con un registro privado de contenedores: - `dd-lib-ruby-init` - `dd-lib-js-init` - Puedes encontrar estas imágenes en [gcr.io][12], [Docker Hub][13] o [Amazon ECR Public Gallery][14]. + Puede encontrar estas imágenes en [gcr.io][12], [Docker Hub][13] o [Amazon ECR Public Gallery][14]. -2. Etiqueta las imágenes según tu configuración. +2. Etiquete las imágenes según su configuración. - Las versiones que reflejes deben coincidir con las versiones configuradas en tus cargas de trabajo, que pueden establecerse de una de las siguientes maneras: - - globalmente en la configuración del Agent con `ddTraceVersions` o - - por cada pod mediante anotaciones como `admission.datadoghq.com/java-lib.version`. + Las versiones que refleje deben coincidir con las versiones configuradas en sus cargas de trabajo, que pueden establecerse de las siguientes opciones: + - globalmente en la configuración del Agente usando `ddTraceVersions`, o + - por pod usando anotaciones como `admission.datadoghq.com/java-lib.version`. - Si no se configuras explícitamente ninguna versión, se utiliza la versión predeterminada (`0`). + Si no se configura explícitamente una versión, se utiliza la versión predeterminada (`0`). Por ejemplo: @@ -560,21 +653,21 @@ Para utilizar SSI con un registro privado de contenedores: python: "3" ``` - Esta configuración requiere las siguientes tags (etiquetas) de imagen: + Esta configuración requiere las siguientes etiquetas de imagen: - `apm-inject:0` - `dd-lib-java-init:1` - `dd-lib-python-init:3` -3. Actualiza la configuración del Agent del clúster para utilizar tu registro privado. +3. Actualice la configuración del Agente del Clúster para usar su registro privado. - Configure la variable de entorno `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` en tu configuración del Agent del clúster para utilizar tu registro privado. + Establezca la variable de entorno `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` en la configuración de su Agente del Clúster para usar su registro privado. -Para obtener más detalles sobre cómo cambiar el registro de contenedores, consulta [Cómo cambiar el registro de contenedores][33]. +Para más detalles sobre cómo cambiar su registro de contenedor, consulte [Cambiar su registro de contenedor][33]. -### Uso de una interfaz de red de contenedores en EKS +### Usando una Interfaz de Red de Contenedores en EKS {#using-a-container-network-interface-on-eks} -Cuando se utiliza un CNI como Calico, los nodos del plano de control no pueden iniciar connections (conexiones) de red con el controlador de admisión de Datadog e informan de un error "Dirección no admitida". -Para utilizar la instrumentación de un solo step (UI) / paso (generic), modifica el Agent del clúster de Datadog con el parámetro `useHostNetwork: true`. +Al usar un CNI como Calico, los nodos del plano de control no pueden iniciar conexiones de red al Controlador de Admisión de Datadog y reportan un error de "Dirección no permitida". +Para usar la instrumentación de Paso Único, modifique el Agente del Clúster de Datadog con el parámetro `useHostNetwork: true`. ``` datadog: @@ -587,25 +680,25 @@ clusterAgent: ... ``` -## Eliminación de la instrumentación de un solo step (UI) / paso (generic) de APM desde tu Agent +## Elimine la instrumentación de APM de Paso Único de su Agente {#remove-single-step-apm-instrumentation-from-your-agent} -Si no deseas recopilar datos de trazas de un determinado servicio, host, máquina virtual o contenedor, sigue los pasos que se indican a continuación: +Si no desea recopilar datos de trazas para un servicio, host, VM o contenedor en particular, complete los siguientes pasos: -### Eliminación de la instrumentación en servicios específicos +### Elimine la instrumentación para servicios específicos {#remove-instrumentation-for-specific-services} -Para eliminar la instrumentación de APM y dejar de enviar traces (trazas) desde un servicio específico, puedes realizar una de las siguientes acciones: +Para eliminar la instrumentación de APM y dejar de enviar trazas de un servicio específico, puede hacer una de las siguientes acciones: -#### Utilizar la selección de la carga de trabajo (recomendado) +#### Utilice reglas de instrumentación para dirigir cargas de trabajo específicas (recomendado) {#use-instrumentation-rules-to-target-specific-workloads-recommended} -Con la selección de la carga de trabajo (disponible para el Agent v7.64+), puedes activar y desactivar el rastreo para aplicaciones específicas. [Consulta los detalles de configuración aquí](#advanced-options). +Con las reglas de instrumentación (disponibles para el Agente v7.64+), puede habilitar y deshabilitar el trazado para aplicaciones específicas. [ Consulte los detalles de configuración aquí](#advanced-options). -#### Utilizar el controlador de admisión de Datadog +#### Utilice el Controlador de Admisión de Datadog {#use-the-datadog-admission-controller} -Como alternativa o para una versión del agente que no admita la selección de cargas de trabajo, también puedes desactivar la mutación de pods añadiendo una etiqueta a tu pod. +Como alternativa, o para una versión del agente que no soporte reglas de instrumentación, también puede deshabilitar la mutación de pods agregando una etiqueta a su pod. -
    Además de desactivar SSI, los siguientes steps (UI) / pasos (generic) desactivan otros webhooks mutantes. Utilízalos con cuidado.
    +
    Además de deshabilitar SSI, los siguientes pasos deshabilitan otros webhooks de mutación. Utilice con precaución.
    -1. Establece la etiqueta `admission.datadoghq.com/enabled:` en `"false"` para la especificación del pod: +1. Establezca la etiqueta `admission.datadoghq.com/enabled:` en `"false"` para la especificación del pod: ```yaml spec: template: @@ -613,22 +706,22 @@ Como alternativa o para una versión del agente que no admita la selección de c labels: admission.datadoghq.com/enabled: "false" ``` -2. Aplica la configuración: +2. Aplique la configuración: ```shell kubectl apply -f /path/to/your/deployment.yaml ``` -3. Reinicia los servicios de los que quieres eliminar la instrumentación. +3. Reinicie los servicios para los que desee eliminar la instrumentación. -### Eliminar APM para todos los servicios de la infraestructura +### Elimine APM para todos los servicios en la infraestructura {#remove-apm-for-all-services-on-the-infrastructure} -Para dejar de producir trazas, desinstala APM y reinicia la infraestructura: +Para dejar de producir trazas, desinstale APM y reinicie la infraestructura: -El archivo que tienes que configurar depende de si has habilitado la instrumentación de un solo paso con el Datadog Operator o con Helm: +El archivo que necesita configurar depende de si habilitó la Instrumentación de Paso Único con Datadog Operator o Helm: {{< tabs >}} {{% tab "Datadog Operator" %}} -1. Configura `instrumentation.enabled=false` en `datadog-agent.yaml`: +1. Establezca `instrumentation.enabled=false` en `datadog-agent.yaml`: ```yaml features: apm: @@ -636,7 +729,7 @@ El archivo que tienes que configurar depende de si has habilitado la instrumenta enabled: false ``` -2. Despliega el Datadog Agent con el archivo de configuración actualizado: +2. Despliegue el Datadog Agent con el archivo de configuración actualizado: ```shell kubectl apply -f /path/to/your/datadog-agent.yaml ``` @@ -644,7 +737,7 @@ El archivo que tienes que configurar depende de si has habilitado la instrumenta {{% tab "Helm" %}} -1. Configura `instrumentation.enabled=false` en `datadog-values.yaml`: +1. Establezca `instrumentation.enabled=false` en `datadog-values.yaml`: ```yaml datadog: apm: @@ -652,30 +745,30 @@ El archivo que tienes que configurar depende de si has habilitado la instrumenta enabled: false ``` -2. Ejecuta el siguiente comando: +2. Ejecute el siguiente comando: ```shell helm upgrade datadog-agent -f datadog-values.yaml datadog/datadog ``` {{% /tab %}} {{< /tabs >}} -## Prácticas recomendadas +## Mejores prácticas {#best-practices} -Tras activar SSI, todos los procesos compatibles del clúster se instrumentan automáticamente y comienzan a producir traces (trazas) en cuestión de minutos. +Después de habilitar SSI, todos los procesos soportados en el clúster son instrumentados automáticamente y comienzan a producir trazas en minutos. -Para controlar dónde se activa APM y reducir la sobrecarga, ten en cuenta las siguientes prácticas recomendadas. +Para controlar dónde se activa APM y reducir la sobrecarga, considere las siguientes mejores prácticas. -{{% collapse-content title="Use opt-in labels for controlled APM rollout" level="h3" expanded=false id="id-for-anchoring" %}} +{{% collapse-content title="Utilice etiquetas de opt-in para un despliegue controlado de APM" level="h3" expanded=false id="id-for-anchoring" %}} -#### Instrumentación predeterminada frente a instrumentación opcional -| Modo | Comportamiento | Cuándo utilizarla | +#### Instrumentación por defecto vs. opt-in {#default-vs-opt-in-instrumentation} +| Modo | Comportamiento | Cuándo usar | | --- | ----------- | ----------- | -| Valor predeterminado | Todos los procesos compatibles del clúster están instrumentados. | Pequeños clústeres o prototipos. | -| Optar por recibir | Utiliza la [selección de carga de trabajo][4] para restringir la instrumentación a espacios de nombres o pods específicos. | Clústeres de producción, lanzamientos escalonados o cases (incidencias) de uso sensibles a los costes. | +| Por defecto | Todos los procesos soportados en el clúster son instrumentados. | Clústeres pequeños o prototipos. | +| Opt-in | Utilice [reglas de instrumentación][4] para restringir la instrumentación a espacios de nombres o pods específicos. | Clústeres de producción, despliegues escalonados o casos de uso sensibles al costo. | -#### Ejemplo: Activación de la instrumentación para pods específicos +#### Ejemplo: Habilite la instrumentación para pods específicos {#example-enable-instrumentation-for-specific-pods} -1. Añade una etiqueta significativa (por ejemplo, `datadoghq.com/apm-instrumentation: "enabled"`) tanto a los metadatos de despliegue como a la plantilla del pod. +1. Agregue una etiqueta significativa (por ejemplo, `datadoghq.com/apm-instrumentation: "enabled"`) tanto a los metadatos de despliegue como a la plantilla del pod. ``` apiVersion: apps/v1 @@ -707,7 +800,7 @@ Para controlar dónde se activa APM y reducir la sobrecarga, ten en cuenta las s - containerPort: 8080 ``` -2. En tu configuración de Helm del Datadog Agent, activa SSI y utiliza `podSelector` para la inserción solo en pods con la etiqueta opt-in correspondiente. +2. En la configuración de Helm de su Datadog Agent, habilite SSI y utilice `podSelector` para inyectar solo en pods con la etiqueta de opt-in correspondiente. ``` apm: @@ -720,18 +813,18 @@ Para controlar dónde se activa APM y reducir la sobrecarga, ten en cuenta las s datadoghq.com/apm-instrumentation: "enabled" ``` -Para obtener más ejemplos, consulta [selección de cargas de trabajo][4]. +Consulte [reglas de instrumentación][4] para ejemplos adicionales. {{% /collapse-content %}} -{{% collapse-content title="Control which APM SDKs are loaded" level="h3" expanded=false id="id-for-anchoring" %}} +{{% collapse-content title="Controle qué SDKs de Datadog se cargan" level="h3" expanded=false id="id-for-anchoring" %}} -Utiliza `ddTraceVersions` en tu configuración del Agent de Helm para controlar el lenguaje y la versión del kit de desarrollo de software (SDK) de APM. Esto evita que se descarguen kits de desarrollo de software (SDK) innecesarios, lo que minimiza la huella del contendor de inicialización, reduce el tamaño de la imagen y permite actualizaciones más deliberadas del rastreador (por ejemplo, para cumplir con los requisitos de conformidad o simplificar la depuración). +Utilice `ddTraceVersions` en la configuración de Helm de su Datadog Agent para controlar tanto el idioma como la versión del SDK de Datadog. Esto evita que se descarguen SDKs innecesarios, lo que minimiza la huella del contenedor de inicialización, reduce el tamaño de la imagen y permite actualizaciones de trazadores más deliberadas (por ejemplo, para cumplir con requisitos de cumplimiento o simplificar la depuración). -#### Ejemplo: Especificar un kit de desarrollo de software (SDK) de APM de Java para un espacio de nombres +#### Ejemplo: Especifique un SDK de Java para un espacio de nombres {#example-specify-a-java-sdk-for-a-namespace} -En el espacio de nombres `login-service` solo se ejecutan aplicaciones de Java. Para evitar la descarga de otros kit de desarrollo de software (SDK), configura el Agent para que se dirija a ese espacio de nombres e inserte únicamente la versión 1.48.2 del kit de desarrollo de software (SDK) de Java. +Solo las aplicaciones de Java se ejecutan en el espacio de nombres `login-service`. Para evitar la descarga de otros SDKs, configura el agente para que apunte a ese espacio de nombres e inyecte solo la versión 1.48.2 del SDK de Java. ``` @@ -743,9 +836,9 @@ targets: java: "1.48.2" # pin version ``` -#### Configuración predeterminada +#### Configuración predeterminada {#default-configuration} -Si un pod no coincide con ninguna regla de `ddTraceVersions`, se aplica el objetivo predeterminado. +Si un pod no coincide con ninguna regla `ddTraceVersions`, se aplica el objetivo predeterminado. ``` targets: @@ -760,11 +853,11 @@ targets: {{% /collapse-content %}} -## Solucionar problemas +## Solución de problemas {#troubleshooting} -Si tienes problemas para activar APM con SSI, consulta la [Guía de resolución de problemas de SSI][35]. +Si encuentras problemas al habilitar APM con SSI, consulta la [guía de solución de problemas de SSI][35]. -## Referencias adicionales +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -800,6 +893,5 @@ Si tienes problemas para activar APM con SSI, consulta la [Guía de resolución [34]: /es/containers/guide/sync_container_images/#copy-an-image-to-another-registry-using-crane [35]: /es/tracing/trace_collection/automatic_instrumentation/single-step-apm/troubleshooting [36]: /es/tracing/trace_collection/automatic_instrumentation/single-step-apm/compatibility/ -[37]: /es/profiler/ -[38]: /es/security/application_security/ -[39]: /es/tracing/trace_pipeline/ingestion_controls/ \ No newline at end of file +[37]: /es/containers/kubernetes/csi_driver/ +[41]: /es/tracing/guide/injectors/ \ No newline at end of file diff --git a/content/es/tracing/trace_pipeline/ingestion_mechanisms.md b/content/es/tracing/trace_pipeline/ingestion_mechanisms.md index adb81255039..9ae2052d7b2 100644 --- a/content/es/tracing/trace_pipeline/ingestion_mechanisms.md +++ b/content/es/tracing/trace_pipeline/ingestion_mechanisms.md @@ -1,58 +1,61 @@ --- aliases: - /es/tracing/trace_ingestion/mechanisms -description: Descripción general de los mecanismos en el trazador y el agente que - controlan la ingestión de trazas. +description: Descripción general de los mecanismos en el SDK y el Agente que controlan + la ingestión de trazas. further_reading: - link: /tracing/trace_pipeline/ingestion_controls/ - tag: Documentation - text: Ingestion Control + tag: Documentación + text: Controles de Ingestión - link: /tracing/trace_pipeline/trace_retention/ - tag: Documentation - text: Retención de trazas + tag: Documentación + text: Retención de Trazas - link: /tracing/trace_pipeline/metrics/ - tag: Documentation - text: Métricas de uso + tag: Documentación + text: Métricas de Uso - link: https://www.datadoghq.com/blog/zendesk-cost-optimization/#improving-tracing-efficiency-through-targeted-changes tag: Blog text: 'Optimizando Datadog a gran escala: Observabilidad rentable en Zendesk' +- link: https://learn.datadoghq.com/courses/apm-rate-limit-retention + tag: Centro de Aprendizaje + text: Limitación de Tasa de APM y Retención title: Mecanismos de Ingestión --- {{< img src="tracing/apm_lifecycle/ingestion_sampling_rules.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Reglas de Muestreo de Ingestión" >}} -Múltiples mecanismos son responsables de elegir si los tramos generados por sus aplicaciones son enviados a Datadog (_ingresados_). La lógica detrás de estos mecanismos radica en las [bibliotecas de trazado][1] y en el Agente de Datadog. Dependiendo de la configuración, todo o parte del tráfico generado por los servicios instrumentados es ingresado. +Múltiples mecanismos determinan si los tramos generados por sus aplicaciones son enviados a Datadog (_ingresados_). La lógica detrás de estos mecanismos está en los [SDKs][1] y en el Agente de Datadog. Dependiendo de la configuración, todo o parte del tráfico generado por los servicios instrumentados es ingerido. -A cada tramo ingresado se le adjunta una única **razón de ingestión** que se refiere a uno de los mecanismos descritos en esta página. [Métricas de uso][2] `datadog.estimated_usage.apm.ingested_bytes` y `datadog.estimated_usage.apm.ingested_spans` están etiquetadas por `ingestion_reason`. +Cada tramo ingresado tiene una razón de **ingestión** única que se refiere a uno de los mecanismos descritos en esta página. Las [métricas de uso][2] `datadog.estimated_usage.apm.ingested_bytes` y `datadog.estimated_usage.apm.ingested_spans` están etiquetadas por `ingestion_reason`. -Utilice el [tablero de razones de ingestión][3] para investigar en contexto cada una de estas razones de ingestión. Obtenga una descripción general del volumen atribuido a cada mecanismo, para saber rápidamente en qué opciones de configuración centrarse. +Utilice el [tablero de Razones de Ingestión][3] para investigar cada razón de ingestión en contexto e identificar en qué opciones de configuración enfocarse. -## Muestreo basado en la cabeza +## Muestreo basado en cabeza {#head-based-sampling} -El mecanismo de muestreo predeterminado se llama _muestreo basado en la cabeza_. La decisión de mantener o descartar una traza se toma al principio de la traza, al inicio del [tramo raíz][4]. Esta decisión se propaga a otros servicios como parte de su contexto de solicitud, por ejemplo, como un encabezado de solicitud HTTP. +El mecanismo de muestreo predeterminado se llama _muestreo basado en cabeza_. La decisión de mantener o eliminar una traza se toma al inicio del [root span][4] y luego se propaga a otros servicios como parte de su contexto de solicitud (por ejemplo, como un encabezado de solicitud HTTP). -Debido a que la decisión se toma al principio de la traza y luego se transmite a todas las partes de la traza, se garantiza que la traza se mantenga o se descarte en su totalidad. +Debido a que la decisión se toma al principio de la traza y se comunica a todas las partes, la traza se mantiene o se elimina en su totalidad. -{{< img src="/tracing/guide/ingestion_sampling_use_cases/head-based-sampling.png" alt="Muestreo basado en la cabeza" style="width:100%;" >}} +{{< img src="/tracing/guide/ingestion_sampling_use_cases/head-based-sampling.png" alt="Muestreo basado en cabecera" style="width:100%;" >}} -Puede establecer tasas de muestreo para el muestreo basado en la cabeza en dos lugares: -- A nivel de **[Agente](#in-the-agent)** (predeterminado) -- A nivel de **[biblioteca de trazado](#in-tracing-libraries-user-defined-rules)**: cualquier mecanismo de biblioteca de trazado anula la configuración del Agente. +Puede establecer tasas de muestreo para el muestreo basado en cabecera en dos lugares: +- En el nivel de **[Agente](#in-the-agent)** (predeterminado) +- En el nivel de **[SDK](#in-sdks-user-defined-rules)**: cualquier mecanismo de SDK anula la configuración del Agente. -### En el Agente +### En el Agente {#in-the-agent} `ingestion_reason: auto` -El Agente de Datadog envía continuamente tasas de muestreo a las bibliotecas de trazado para aplicar en la raíz de las trazas. El Agente ajusta las tasas para lograr un objetivo de diez trazas por segundo en total, distribuidas a los servicios dependiendo del tráfico. +El Agente de Datadog envía continuamente tasas de muestreo a los SDK para aplicar en la raíz de las trazas. El Agente ajusta las tasas para lograr un objetivo de diez trazas por segundo en total, distribuidas a los servicios dependiendo del tráfico. Por ejemplo, si el servicio `A` tiene más tráfico que el servicio `B`, el Agente podría variar la tasa de muestreo para `A` de tal manera que `A` no mantenga más de siete trazas por segundo, y ajustar de manera similar la tasa de muestreo para `B` de tal manera que `B` no mantenga más de tres trazas por segundo, para un total de 10 trazas por segundo. -#### Configuración remota +#### Configuración remota {#remote-configuration} -La configuración de la tasa de muestreo en el Agente se puede configurar de forma remota si estás utilizando la versión del Agente [7.42.0][20] o superior. Para comenzar, configura [Remote Configuration][21] y luego configura el parámetro `ingestion_reason` desde la [Ingestion Control page][5]. Remote Configuration te permite cambiar el parámetro sin tener que reiniciar el Agent. La configuración establecida de forma remota tiene prioridad sobre las configuraciones locales, incluidas las variables de entorno y configuraciones de `datadog.yaml`. +La configuración de la tasa de muestreo en el Agente se puede configurar de forma remota si está utilizando la versión del Agente [7.42.0][20] o superior. Para comenzar, configure [Remote Configuration][21] y luego configure el `ingestion_reason` parámetro desde la [página de Ingestion Control][5]. Remote Configuration le permite cambiar el parámetro sin reiniciar el Agent. La Remote Configuration tiene prioridad sobre las configuraciones locales, incluidas las variables de entorno y la configuración de `datadog.yaml`. -#### Configuración local +#### Configuración local {#local-configuration} -Establece el objetivo de trazas por segundo del Agent en su archivo de configuración principal (`datadog.yaml`) o como una variable de entorno: +Establezca las trazas por segundo del Agent en su archivo de configuración principal (`datadog.yaml`) o como una variable de entorno: ``` @param target_traces_per_second - integer - optional - default: 10 @@ -60,17 +63,17 @@ Establece el objetivo de trazas por segundo del Agent en su archivo de configura ``` **Notas**: -- La tasa de muestreo de trazos por segundo establecida en el Agente solo se aplica a las bibliotecas de trazado de Datadog. No tiene efecto en otras bibliotecas de trazado como los SDK de OpenTelemetry. +- La tasa de muestreo de trazas por segundo establecida en el Agent solo se aplica a los SDK de Datadog. No tiene efecto en otros SDK como los SDK de OpenTelemetry. - El objetivo no es un valor fijo. En realidad, fluctúa dependiendo de los picos de tráfico y otros factores. -Todos los tramos de una traza muestreada utilizando el Datadog Agent [tasas de muestreo calculadas automáticamente](#in-the-agent) están etiquetados con la razón de ingestión `auto`. La etiqueta `ingestion_reason` también se establece en [métricas de uso][2]. Los servicios que utilizan el mecanismo predeterminado del Agent de Datadog están etiquetados como `Automatic` en la columna de Configuración de la [Ingestion Control Page][5]. +Los spans de las trazas muestreadas por las [tasas de muestreo automáticas](#in-the-agent) del Datadog Agent están etiquetados con la razón de ingestión `auto`. La etiqueta `ingestion_reason` también se establece en [métricas de uso][2]. Los servicios que utilizan este mecanismo predeterminado están etiquetados como `Automatic` en la columna de Configuración de la [Ingestion Control Page][5]. -### En bibliotecas de trazado: reglas definidas por el usuario +### En SDKs: reglas definidas por el usuario {#in-sdks-user-defined-rules} `ingestion_reason: rule` -Para un control más granular, utilice las opciones de configuración de muestreo de la biblioteca de trazado: -- Establezca una **tasa de muestreo específica** que se aplique a la raíz del trazado, por servicio y/o nombre de recurso, sobreescribiendo el [mecanismo predeterminado](#in-the-agent) del Agente. -- Establece un **límite de tasa** en el número de trazas ingresadas por segundo. El límite de tasa predeterminado es de 100 trazas por segundo por instancia de servicio (cuando se utiliza el [mecanismo predeterminado](#in-the-agent) del Agente, se ignora el limitador de tasa). +Para un control más granular, utilice las opciones de configuración de muestreo del SDK: +- Establezca una **tasa de muestreo específica que se aplique a la raíz de la traza** por nombre de servicio o recurso, sobrescribiendo el [mecanismo predeterminado](#in-the-agent) del Agente. +- Establezca un **límite de tasa** en el número de trazas ingeridas por segundo. El límite de tasa predeterminado es de 100 trazas por segundo por instancia de servicio. Al utilizar el [mecanismo predeterminado](#in-the-agent) del Agent, se ignora el limitador de tasa. **Nota**: Las reglas de muestreo también son controles de muestreo basados en la cabeza. Si el tráfico para un servicio es mayor que el máximo configurado de trazas por segundo, entonces las trazas se descartan en la raíz. No crea trazas incompletas. @@ -78,19 +81,19 @@ La configuración se puede establecer mediante variables de entorno o directamen {{< tabs >}} {{% tab "Java" %}} -**Remote Configuration** +**Configuración remota** -A partir de la versión 1.34.0, para aplicaciones Java, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. +A partir de la versión 1.34.0, para aplicaciones Java, establezca las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][1]. -**Nota**: La configuración remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida de forma remota tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones Java, configure las tasas de muestreo por servicio y por recurso (a partir de la versión [v1.26.0][3] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones Java, establezca las tasas de muestreo por servicio y por recurso (a partir de la versión [v1.26.0][3] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. -Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, configure: +Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, establezca: ``` # using system property @@ -100,57 +103,57 @@ java -Ddd.trace.sampling.rules='[{"service": "my-service", "resource": "GET /che export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource":"GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -El valor del nombre del servicio es sensible a mayúsculas y debe coincidir con el caso del nombre real del servicio. +El valor del nombre del servicio es sensible a mayúsculas y minúsculas y debe coincidir con el caso del nombre real del servicio. -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya configuró `DD_TRACE_SAMPLE_RATE` a `0.1`, configure `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. +**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya estableció `DD_TRACE_SAMPLE_RATE` a `0.1`, establezca `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Java][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Java][2]. [1]: /es/tracing/guide/resource_based_sampling [2]: /es/tracing/trace_collection/dd_libraries/java [3]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.26.0 {{% /tab %}} {{% tab "Python" %}} -**Remote Configuration** +**Configuración remota** -A partir de la versión 2.9.0, para aplicaciones Python, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. +A partir de la versión 2.9.0, para aplicaciones de Python, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Página de Control de Ingesta. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][3]. -**Nota**: La configuración remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida de forma remota tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones Python, configure las tasas de muestreo por servicio y por recurso (a partir de la versión [v2.8.0][1] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones de Python, configure las tasas de muestreo por servicio y por recurso (a partir de la versión [v2.8.0][1] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. -Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, configure: +Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, establezca: ``` export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource": "GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya configuró `DD_TRACE_SAMPLE_RATE` a `0.1`, configure `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. +**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya estableció `DD_TRACE_SAMPLE_RATE` a `0.1`, establezca `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Python][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v2.8.0 [2]: /es/tracing/trace_collection/dd_libraries/python [3]: /es/tracing/guide/resource_based_sampling/ {{% /tab %}} {{% tab "Ruby" %}} -**Remote Configuration** +**Configuración remota** -A partir de la versión 2.0.0, para aplicaciones Ruby, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. +A partir de la versión 2.0.0, para aplicaciones de Ruby, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Página de Control de Ingesta. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][1]. -**Nota**: La configuración remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida remotamente tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones de Ruby, establece una tasa de muestreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Establece las tasas de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones de Ruby, configure una tasa de muestreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configure las tasas de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. Por ejemplo, para enviar el 50% de las trazas para el servicio llamado `my-service` y el 10% del resto de las trazas: @@ -159,36 +162,36 @@ export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' ``` -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Ruby][1]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Ruby][1]. [1]: /es/tracing/trace_collection/dd_libraries/ruby#sampling {{% /tab %}} -{{% tab "Ve" %}} -**Remote Configuration** +{{% tab "Go" %}} +**Configuración remota** -A partir de la versión 1.64.0, para aplicaciones de Go, establezca las tasas de muestreo por servicio y por recurso desde la Ingestion Control Page UI. +A partir de la versión 1.64.0, para aplicaciones de Go, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. -Lee más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en este [artículo][3]. +Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en este [artículo][3]. -**Nota**: La configuración establecida de forma remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida remotamente tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones de Go, establece las tasas de muestreo por servicio y por recurso (a partir de la versión [v1.60.0][2] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones de Go, configure las tasas de muestreo por servicio y por recurso (a partir de la versión [v1.60.0][2] para muestreo basado en recursos) con la variable de entorno `DD_TRACE_SAMPLING_RULES`. -Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, configure: +Por ejemplo, para capturar el 100% de las trazas para el recurso `GET /checkout` del servicio `my-service`, y el 20% de las trazas de otros puntos de conexión, establezca: ``` export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource": "GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya configuró `DD_TRACE_SAMPLE_RATE` a `0.1`, configure `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. +**Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está en desuso. Utilice `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya estableció `DD_TRACE_SAMPLE_RATE` a `0.1`, establezca `DD_TRACE_SAMPLING_RULES` a `[{"sample_rate":0.1}]` en su lugar. -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Go][1]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Go][1]. [1]: /es/tracing/trace_collection/dd_libraries/go [2]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.60.0 @@ -197,15 +200,15 @@ Lee más sobre los controles de muestreo en la [documentación de la biblioteca {{% tab "Node.js" %}} **Configuración remota** -A partir de la versión 5.16.0, para aplicaciones de Node.js, establece las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Página de Control de Ingesta. +A partir de la versión 5.16.0, para aplicaciones de Node.js, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][1]. -**Nota**: La configuración remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida remotamente tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones de Node.js, establece una tasa de muestreo global en la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. +Para aplicaciones de Node.js, configure una tasa de muestreo global en la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. También puede establecer tasas de muestreo por servicio. Por ejemplo, para enviar el 50% de las trazas para el servicio llamado `my-service` y el 10% para el resto de las trazas: @@ -222,44 +225,44 @@ tracer.init({ }); ``` -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Node.js][1]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Node.js][1]. [1]: /es/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} {{% tab "PHP" %}} **Configuración remota** -A partir de la versión 1.4.0, para aplicaciones PHP, configure las tasas de muestreo por servicio y por recurso desde la Ingestion Control Page. +A partir de la versión 1.4.0, para aplicaciones PHP, establezca las tasas de muestreo por servicio y por recurso desde la Ingestion Control Page. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][1]. -**Nota**: La configuración establecida de forma remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida remotamente tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones PHP, establezca una tasa de muestreo global para la biblioteca utilizando la `DD_TRACE_SAMPLE_RATE` variable de entorno. Establece las tasas de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones PHP, establezca una tasa de muestreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configure las tasas de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. -Por ejemplo, para enviar el 50% de las trazas para el servicio llamado `my-service`, el 20% de las trazas de otros puntos de conexión y el 10% para el resto de las trazas, configure: +Por ejemplo, para enviar el 50% de las trazas para el servicio llamado `my-service`, el 20% de las trazas de otros puntos de conexión y el 10% para el resto de las trazas, establezca: ``` export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource":"GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de PHP][1]. +Lea más sobre los controles de muestreo en la [documentación del SDK de PHP][1]. [1]: /es/tracing/trace_collection/dd_libraries/php {{% /tab %}} {{% tab "C++" %}} **Configuración remota** -A partir de la versión 0.2.2, para aplicaciones C++, configure las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. +A partir de la versión 0.2.2, para aplicaciones C++, establezca las tasas de muestreo por servicio y por recurso desde la interfaz de usuario de la Ingestion Control Page. Lea más sobre cómo configurar remotamente las tasas de muestreo por servicio y recurso en la [guía de muestreo basado en recursos][1]. -**Nota**: La configuración remota tiene prioridad sobre la configuración local. +**Nota**: La configuración establecida remotamente tiene prioridad sobre la configuración local. **Configuración local** A partir de [v0.1.0][1], la biblioteca de C++ de Datadog admite las siguientes configuraciones: @@ -274,13 +277,13 @@ export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' ``` -C++ no proporciona integraciones para instrumentación automática, pero se utiliza mediante el trazado por proxy como Envoy, Nginx o Istio. Lea más sobre cómo configurar el muestreo para proxies en [Tracing proxies][2]. +C++ no proporciona integraciones para instrumentación automática, pero se utiliza mediante el rastreo por proxy como Envoy, NGINX o Istio. Lea más sobre cómo configurar el muestreo para proxies en [Rastreo de proxies][2]. [1]: https://github.com/DataDog/dd-trace-cpp/releases/tag/v0.1.0 [2]: /es/tracing/trace_collection/proxy_setup {{% /tab %}} {{% tab ".NET" %}} -Para aplicaciones .NET, establezca una tasa de muestreo global para la biblioteca utilizando la `DD_TRACE_SAMPLE_RATE` variable de entorno. Establezca las tasas de muestreo por servicio con la `DD_TRACE_SAMPLING_RULES` variable de entorno. +Para aplicaciones .NET, configure una tasa de muestreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Para aplicaciones .NET, configure las tasas de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. Por ejemplo, para enviar el 50% de las trazas para el servicio llamado `my-service` y el 10% para el resto de las trazas: @@ -296,78 +299,76 @@ $env:DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' } ``` -
    A partir de la versión 2.35.0, si Agent Remote Configuration está habilitada donde se ejecuta el servicio, puede establecer un DD_TRACE_SAMPLE_RATE por servicio en la interfaz de usuario del Software Catalog UI.
    +
    A partir de la versión 2.35.0, si Configuración Remota del Agente está habilitada donde se ejecuta el servicio, establezca un DD_TRACE_SAMPLE_RATE por servicio en la interfaz de usuario del Software Catalog.
    -Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` a un número de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. +Configure un límite de tasa estableciendo la variable de entorno `DD_TRACE_RATE_LIMIT` al máximo de trazas por segundo por instancia de servicio. Si no se establece ningún valor `DD_TRACE_RATE_LIMIT`, se aplica un límite de 100 trazas por segundo. -Lea más sobre los controles de muestreo en la [.NET tracing library documentation][1].\ -Lee más sobre [la configuración de variables de entorno para .NET][2]. +Lea más sobre los controles de muestreo en la [.NET SDK documentation][1].\ +Lea más sobre [configuración de variables de entorno para .NET][2]. [1]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/dotnet-core [2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/dotnet-core?tab=registryeditor#configuring-process-environment-variables {{% /tab %}} {{< /tabs >}} -**Nota**: Todos los tramos de un rastro muestreado utilizando una configuración de biblioteca de trazado están etiquetados con la razón de ingestión `rule`. Los servicios configurados con reglas de muestreo definidas por el usuario están marcados como `Configured` en la columna Configuration de la [Ingestion Control Page][5]. +**Nota**: Todos los tramos de una traza muestreada utilizando una configuración de SDK están etiquetados con la razón de ingestión `rule`. Los servicios configurados con reglas de muestreo definidas por el usuario están marcados como `Configured` en la columna de Configuración de la [Ingestion Control Page][5]. -## Trazas de error y trazas raras +## Errores y trazas raras {#error-and-rare-traces} -Para las trazas que no son capturadas por el muestreo basado en la cabeza, dos mecanismos adicionales de muestreo del Agente de Datadog aseguran que las trazas críticas y diversas se mantengan e ingresen. Estos dos muestreadores mantienen un conjunto diverso de trazas locales (conjunto de tramos del mismo host) al capturar todas las combinaciones de un conjunto predeterminado de etiquetas: +Para los trazos que no son capturados por el muestreo basado en la cabeza, dos mecanismos adicionales de muestreo del Agente de Datadog capturan trazos críticos y diversos que de otro modo serían descartados. Estos muestreadores mantienen un conjunto diverso de trazas locales (tramos del mismo servidor) al capturar todas las combinaciones de un conjunto predeterminado de etiquetas: -- **Trazas de error**: Muestrear errores es importante para proporcionar visibilidad sobre posibles fallas del sistema. -- **Trazas raras**: Muestrear trazas raras te permite mantener visibilidad sobre tu sistema en su totalidad, asegurando que los servicios y recursos de bajo tráfico aún sean monitoreados. +- **Trazas de error**: El muestreo de errores proporciona visibilidad sobre posibles fallos del sistema. +- **Trazas raras**: El muestreo de trazos raros mantiene visibilidad sobre servicios y recursos de bajo tráfico en tu sistema. -**Nota**: Los muestreadores de errores y raras son ignorados para los servicios para los cuales estableciste [reglas de muestreo de biblioteca](#in-tracing-libraries-user-defined-rules). +**Nota**: Los muestreadores de errores y raros son ignorados para los servicios para los cuales se han establecido [reglas de muestreo de biblioteca](#in-sdks-user-defined-rules). -### Trazas de error +### Trazas de error {#error-traces} `ingestion_reason: error` -El muestreador de errores captura partes de trazas que contienen tramos de error que no son capturados por el muestreo basado en la cabeza. Captura trazas de error hasta una tasa de 10 trazas por segundo (por Agente). Asegura una visibilidad completa sobre errores cuando la tasa de muestreo basada en la cabeza es baja. +El muestreador de errores captura partes de trazas que contienen tramos de error no capturados por el muestreo basado en la cabeza, a una tasa de hasta 10 trazas por segundo por agente. Esto ayuda a mantener la visibilidad sobre los errores cuando la tasa de muestreo basada en la cabeza es baja. -Con la versión 7.33 del Agente en adelante, puedes configurar el muestreador de errores en el archivo de configuración principal del Agente (`datadog.yaml`) o con variables de entorno: +Con la versión 7.33 del Agente en adelante, configure el muestreador de errores en el archivo de configuración principal del Agente (`datadog.yaml`) o con variables de entorno: ``` @param errors_per_second - integer - optional - default: 10 @env DD_APM_ERROR_TPS - integer - optional - default: 10 ``` -{{< img src="/tracing/guide/ingestion_sampling_use_cases/error-spans-sampling.png" alt="Muestreo de errores" style="width:100%;" >}} +{{< img src="/tracing/guide/ingestion_sampling_use_cases/error-spans-sampling.png" alt="Muestreo de Errores" style="width:100%;" >}} **Notas**: -1. Establezca el parámetro en `0` para deshabilitar el muestreador de errores. -2. El muestreador de errores captura trazas locales con tramos de error a nivel de Agente. Si la traza es distribuida, no hay garantía de que la traza completa se envíe a Datadog. -3. Por defecto, las trazas descartadas por las reglas de la biblioteca de trazado o lógica personalizada como `manual.drop` están **excluidas** bajo el muestreador de errores. - -#### Datadog Agent 7.42.0 y superior +1. Establece el parámetro en `0` para deshabilitar el muestreador de errores. +2. El muestreador de errores captura trazas de errores locales a nivel del Agente. Si la traza es distribuida, la traza completa puede no ser enviada a Datadog. +3. Por defecto, los tramos descartados por reglas del SDK o lógica personalizada como `manual.drop` están **excluidos** bajo el muestreador de errores. -El muestreo de errores es configurable de forma remota si está utilizando la versión del Agente [7.42.0][20] o superior. Siga la [documentación][21] para habilitar la configuración remota en sus Agentes. Con la configuración remota, puede habilitar la recolección de tramos raros sin tener que reiniciar el Datadog Agent. +#### Datadog Agent 7.42.0 y superior {#datadog-agent-7420-and-higher} -#### Datadog Agent 6/7.41.0 y superior +El muestreo de errores es configurable de forma remota si estás utilizando la versión del Agent [7.42.0][20] o superior. Sigue la [documentación][21] para habilitar la configuración remota en tus Agents. Con la configuración remota, puedes habilitar la recolección de tramos raros sin reiniciar el Agent de Datadog. -Para anular el comportamiento predeterminado de modo que los tramos descartados por las reglas de la biblioteca de trazado o lógica personalizada como `manual.drop` estén **incluidos** por el muestreador de errores, habilite la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Datadog Agent (o el contenedor dedicado de Trace Agent dentro del pod de Datadog Agent en Kubernetes). +#### Datadog Agent 6/7.41.0 y superior {#datadog-agent-67410-and-higher} +Para anular el comportamiento predeterminado de manera que los tramos descartados por las reglas del SDK o lógica personalizada, como `manual.drop`, se incluyan **** por el muestreador de errores, habilita la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Datadog Agent (o en el contenedor dedicado del Trace Agent dentro del pod del Datadog Agent en Kubernetes). -#### Datadog Agent 6/7.33 a 6/7.40.x +#### Datadog Agent 6/7.33 a 6/7.40.x {#datadog-agent-6733-to-6740x} -El comportamiento predeterminado del muestreo de errores no se puede cambiar para estas versiones de Agente. Actualice el Datadog Agent a Datadog Agent 6/7.41.0 y superior. +El comportamiento predeterminado del muestreo de errores no puede ser cambiado para estas versiones del Agent. Actualiza el Datadog Agent a Datadog Agent 6/7.41.0 y superior. - -### Trazas raras +### Trazas raras {#rare-traces} `ingestion_reason: rare` -El muestreador raro envía un conjunto de tramos raros a Datadog. Captura combinaciones de `env`, `service`, `name`, `resource`, `error.type` y `http.status` hasta 5 trazas por segundo (por Agente). Asegura visibilidad en recursos de bajo tráfico cuando la tasa de muestreo basada en la cabeza es baja. +El muestreador raro envía un conjunto de tramos raros a Datadog. Captura combinaciones de `env`, `service`, `name`, `resource`, `error.type` y `http.status` a hasta 5 trazas por segundo por Agent. Esto ayuda a mantener la visibilidad en recursos de bajo tráfico cuando la tasa de muestreo basada en la cabeza es baja. -**Nota**: El muestreador raro captura trazas locales a nivel de Agente. Si la traza está distribuida, no hay forma de garantizar que la traza completa se enviará a Datadog. +**Nota**: El muestreador raro captura trazas locales a nivel de Agent. Si la traza está distribuida, no hay garantía de que la traza completa se envíe a Datadog. -#### Datadog Agent 7.42.0 y superior +#### Datadog Agent 7.42.0 y superior {#datadog-agent-7420-and-higher-1} -La tasa de muestreo rara es configurable de forma remota si está utilizando la versión del Agente [7.42.0][20] o superior. Siga la [documentación][21] para habilitar la configuración remota en sus Agentes. Con la configuración remota, puede cambiar el valor del parámetro sin tener que reiniciar el Datadog Agent. +El muestreo raro es configurable de forma remota si estás utilizando la versión del Agent [7.42.0][20] o superior. Sigue la [documentación][21] para habilitar la configuración remota en tus Agents. Con la configuración remota, puedes cambiar el valor del parámetro sin reiniciar el Datadog Agent. -#### Datadog Agent 6/7.41.0 y superior +#### Datadog Agent 6/7.41.0 y superior {#datadog-agent-67410-and-higher-1} Por defecto, el muestreador raro **no está habilitado**. -**Nota**: Cuando **está habilitado**, los tramos descartados por las reglas de la biblioteca de trazado o lógica personalizada como `manual.drop` son **excluidos** bajo este muestreador. +**Nota**: Cuando **está habilitado**, los spans descartados por reglas de SDK o lógica personalizada como `manual.drop` son **excluidos** bajo este muestreador. Para configurar el muestreador raro, actualice la `apm_config.enable_rare_sampler` configuración en el archivo de configuración principal del Datadog Agent (`datadog.yaml`) o con la variable de entorno `DD_APM_ENABLE_RARE_SAMPLER`: @@ -376,15 +377,13 @@ Para configurar el muestreador raro, actualice la `apm_config.enable_rare_sample @env DD_APM_ENABLE_RARE_SAMPLER - boolean - optional - default: false ``` -Para evaluar los tramos descartados por las reglas de la biblioteca de trazado o lógica personalizada como `manual.drop`, - habilite la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Trace Agent. - +Para evaluar los tramos descartados por reglas del SDK o lógica personalizada, como `manual.drop`, habilite la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Trace Agent. -#### Datadog Agent 6/7.33 a 6/7.40.x +#### Datadog Agent 6/7.33 a 6/7.40.x {#datadog-agent-6733-to-6740x-1} Por defecto, el muestreador raro está habilitado. -**Nota**: Cuando **está habilitado**, los tramos descartados por las reglas de la biblioteca de trazado o lógica personalizada como `manual.drop` **son excluidos** bajo este muestreador. Para incluir estos tramos en esta lógica, actualice a Datadog Agent 6.41.0/7.41.0 o superior. +**Nota**: Cuando **está habilitado**, los tramos descartados por reglas de SDK o lógica personalizada, como `manual.drop` **, son excluidos** bajo este muestreador. Para incluir estos tramos en esta lógica, actualice a Datadog Agent 6.41.0/7.41.0 o superior. Para cambiar la configuración predeterminada del muestreador raro, actualice la `apm_config.disable_rare_sampler` configuración en el archivo de configuración principal del Datadog Agent (`datadog.yaml`) o con la variable de entorno `DD_APM_DISABLE_RARE_SAMPLER`: @@ -393,14 +392,14 @@ Para cambiar la configuración predeterminada del muestreador raro, actualice la @env DD_APM_DISABLE_RARE_SAMPLER - boolean - optional - default: false ``` -## Force keep and drop +## Forzar mantener y descartar {#force-keep-and-drop} `ingestion_reason: manual` -El mecanismo de muestreo basado en la cabeza puede ser anulado a nivel de la biblioteca de trazado. Por ejemplo, si necesita monitorear una transacción crítica, puede forzar que la traza asociada se mantenga. Por otro lado, para información innecesaria o repetitiva como las verificaciones de salud, puede forzar que la traza se descarte. +El mecanismo de muestreo basado en la cabeza puede ser anulado a nivel del SDK. Por ejemplo, si necesita monitorear una transacción crítica, puede forzar que se mantenga la traza asociada. Por otro lado, para información innecesaria o repetitiva como las verificaciones de salud, puede forzar que se descarte la traza. -- Establezca Manual Keep en un tramo para indicar que este y todos los tramos hijos deben ser ingeridos. La traza resultante puede parecer incompleta en la interfaz de usuario si el tramo en cuestión no es el tramo raíz de la traza. +- Establezca Manual Keep en un tramo para indicar que éste y todos los tramos hijos deben ser ingeridos. La traza resultante puede parecer incompleta en la interfaz de usuario si el tramo en cuestión no es el tramo raíz de la traza. -- Establezca Manual Drop en un tramo para asegurarse de que **ningún** tramo hijo sea ingerido. [Los muestreadores de errores y los muestreadores raros](#error-and-rare-traces) serán ignorados en el Datadog Agent. +- Establezca Manual Drop en un tramo para asegurarse de que **ningún** tramo hijo sea ingerido. Los [muestreadores de error y raros](#error-and-rare-traces) son ignorados en el Agente. {{< programming-lang-wrapper langs="java,python,ruby,go,nodejs,.NET,php,cpp" >}} {{< programming-lang lang="java" >}} @@ -425,7 +424,7 @@ public class MyClass { } ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```java import datadog.trace.api.DDTags; @@ -462,7 +461,7 @@ def handler(): # method impl follows ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```python from ddtrace import tracer @@ -488,7 +487,7 @@ Datadog::Tracing.trace(name, options) do |span, trace| end ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```ruby Datadog::Tracing.trace(name, options) do |span, trace| @@ -526,7 +525,7 @@ func handler(w http.ResponseWriter, r *http.Request) { } ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```Go package main @@ -567,7 +566,7 @@ span.setTag(tags.MANUAL_KEEP) ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```js const tracer = require('dd-trace') @@ -599,7 +598,7 @@ using(var scope = Tracer.Instance.StartActive("my-operation")) } ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```cs using Datadog.Trace; @@ -632,7 +631,7 @@ Mantenga manualmente una traza: ?> ``` -Elimine manualmente una traza: +Descartar una traza manualmente: ```php }} {{< /programming-lang-wrapper >}} -La conservación manual de trazas debe realizarse antes de la propagación del contexto. Si se mantiene después de la propagación del contexto, el sistema no puede garantizar que se conserve toda la traza a través de los servicios. La conservación manual de trazas se establece en la ubicación del cliente de rastreo, por lo que la traza aún puede ser eliminada por el Datadog Agent o la ubicación del servidor según las reglas de muestreo. +Establezca Manual Keep antes de la propagación del contexto. Si se establece después de la propagación del contexto, es posible que la traza completa no se mantenga a través de los servicios. Debido a que esta decisión se establece en el cliente de traza, la traza aún puede ser descartada por el Agent o el servidor según las reglas de muestreo. -## Tramos individuales +## Tramos individuales {#single-spans} `ingestion_reason: single_span` -Si necesita muestrear un tramo específico, pero no necesita que la traza completa esté disponible, las bibliotecas de rastreo le permiten establecer una tasa de muestreo que se puede configurar para un solo tramo. +Si necesita muestrear un tramo específico pero no requiere la traza completa, los SDK permiten establecer una tasa de muestreo para un solo tramo. -Por ejemplo, si está construyendo [métricas a partir de tramos][6] para el seguimiento de servicios específicos, puede configurar reglas de muestreo de tramos para garantizar que estas métricas se basen en el 100% del tráfico de la aplicación, sin tener que ingerir el 100% de las trazas de todas las solicitudes que fluyen a través del servicio. +Por ejemplo, si está construyendo [métricas a partir de tramos][6] para monitorear servicios específicos, puede configurar reglas de muestreo de tramos para que estas métricas se basen en el 100% del tráfico de la aplicación, sin ingerir el 100% de las trazas de todas las solicitudes que fluyen a través del servicio. Esta función está disponible para Datadog Agent v[7.40.0][19]+. -**Nota**: Las reglas de muestreo de tramos individuales **no** se pueden usar para descartar tramos que son conservados por el muestreo basado en cabeza, solo para conservar tramos adicionales que son descartados por el muestreo basado en cabeza. +**Nota**: Las reglas de muestreo de tramos individuales **no** pueden ser utilizadas para descartar tramos que son mantenidos por [muestreo basado en la cabeza](#head-based-sampling), solo para mantener tramos adicionales que son descartados por el muestreo basado en la cabeza. {{< tabs >}} {{% tab "Java" %}} -A partir de la biblioteca de rastreo [versión 1.7.0][1], para aplicaciones Java, establezca las reglas de muestreo de **tramo** por servicio y por nombre de operación con la `DD_SPAN_SAMPLING_RULES` variable de entorno. +A partir del SDK [versión 1.7.0][1], para aplicaciones Java, establezca reglas de muestreo de **tramo** por servicio y por nombre de operación con la `DD_SPAN_SAMPLING_RULES`variable de entorno. -Por ejemplo, para recolectar el 100% de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta 50 tramos por segundo: +Por ejemplo, para recopilar el 100% de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta 50 tramos por segundo: ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de traza de Java][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Java][2]. [1]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.7.0 [2]: /es/tracing/trace_collection/dd_libraries/java {{% /tab %}} {{% tab "Python" %}} -A partir de la versión [v1.4.0][1], para aplicaciones Python, establezca las reglas de muestreo de **tramo** por servicio y por nombre de operación con la `DD_SPAN_SAMPLING_RULES` variable de entorno. +A partir de la versión [v1.4.0][1], para aplicaciones Python, establezca reglas de muestreo de **tramo** por servicio y por nombre de operación con la `DD_SPAN_SAMPLING_RULES`variable de entorno. Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: @@ -728,8 +727,7 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` - -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de traza de Python][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v1.4.0 [2]: /es/tracing/trace_collection/dd_libraries/python @@ -743,7 +741,7 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Lea más sobre los controles de muestreo en la [documentación de la biblioteca de traza de Ruby][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Ruby][2]. [1]: https://github.com/DataDog/dd-trace-rb/releases/tag/v1.5.0 [2]: /es/tracing/trace_collection/dd_libraries/ruby#sampling @@ -756,22 +754,22 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -A partir de la versión [v1.60.0][3], para aplicaciones Go, establezca las reglas de muestreo de tramos por recurso y por etiqueta con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +A partir de la versión [v1.60.0][3], para aplicaciones Go, establezca las reglas de muestreo de **tramo** por recurso y por etiquetas con la `DD_SPAN_SAMPLING_RULES` variable de entorno. -Por ejemplo, para recopilar `100%` de los tramos del servicio para el recurso `POST /api/create_issue`, para la etiqueta `priority` con valor `high`: +Por ejemplo, para recolectar `100%` de los tramos del servicio para el recurso `POST /api/create_issue`, para la etiqueta `priority` con valor `high`: ``` @env DD_SPAN_SAMPLING_RULES=[{"resource": "POST /api/create_issue", "tags": { "priority":"high" }, "sample_rate":1.0}] ``` -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Go][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Go][2]. [1]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.41.0 [2]: /es/tracing/trace_collection/dd_libraries/go [3]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.60.0 {{% /tab %}} {{% tab "Node.js" %}} -Para aplicaciones de Node.js, establece las reglas de muestreo de **tramo** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +Para aplicaciones de Node.js, establezca las reglas de muestreo de **span** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: @@ -779,12 +777,12 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de Node.js][1]. +Lea más sobre los controles de muestreo en la [documentación del SDK de Node.js][1]. [1]: /es/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} {{% tab "PHP" %}} -A partir de la versión [v0.77.0][1], para aplicaciones de PHP, establece las reglas de muestreo de **tramo** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +A partir de la versión [v0.77.0][1], para aplicaciones PHP, establezca las reglas de muestreo de **span** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: @@ -792,13 +790,13 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de PHP][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de PHP][2]. [1]: https://github.com/DataDog/dd-trace-php/releases/tag/0.77.0 [2]: /es/tracing/trace_collection/dd_libraries/php {{% /tab %}} {{% tab "C++" %}} -A partir de la versión [v0.1.0][1], para aplicaciones de C++, establece las reglas de muestreo de **tramo** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +A partir de la versión [v0.1.0][1], para aplicaciones C++, establezca las reglas de muestreo de **span** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: @@ -809,7 +807,7 @@ Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-servi [1]: https://github.com/DataDog/dd-trace-cpp/releases/tag/v0.1.0 {{% /tab %}} {{% tab ".NET" %}} -A partir de la versión [v2.18.0][1], para aplicaciones de .NET, establece las reglas de muestreo de **tramo** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +A partir de la versión [v2.18.0][1], para aplicaciones .NET, establezca las reglas de muestreo de **span** por servicio y por nombre de operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. Por ejemplo, para recolectar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: @@ -823,58 +821,58 @@ $env:DD_SPAN_SAMPLING_RULES='[{"service": "my-service", "name": "http.request", } ``` -Lee más sobre los controles de muestreo en la [documentación de la biblioteca de trazado de .NET][2]. +Lea más sobre los controles de muestreo en la [documentación del SDK de .NET][2]. [1]: https://github.com/DataDog/dd-trace-dotnet/releases/tag/v2.18.0 [2]: /es/tracing/trace_collection/dd_libraries/dotnet-core {{% /tab %}} {{< /tabs >}} -
    El mecanismo de App Analytics está completamente obsoleto. Para ingerir tramos individuales sin la traza completa, utiliza la configuración de Muestreo de Tramo Único. Para ingerir trazas completas, utiliza configuraciones de Muestreo Basado en Cabeza.
    +
    El mecanismo legado de App Analytics está completamente descontinuado. Utilice muestreo de un solo tramo (descrito arriba) para ingerir tramos individuales, o muestreo basado en head para ingerir trazas completas.
    -## Tramos de producto ingeridos +## Tramos de producto ingeridos {#product-ingested-spans} -### Trazas de RUM +### Trazas RUM {#rum-traces} `ingestion_reason:rum` -Una solicitud de una aplicación web o móvil genera una traza cuando los servicios de backend están instrumentados. [La integración de APM con Real User Monitoring][7] vincula las solicitudes de aplicaciones web y móviles a sus trazas de backend correspondientes para que puedas ver tus datos completos de frontend y backend a través de una sola lente. +Una solicitud de una aplicación web o móvil genera una traza cuando los servicios de backend están instrumentados. [La integración de APM con RUM][7] vincula las solicitudes de aplicaciones web y móviles a sus trazas de backend correspondientes para que pueda ver todos sus datos de frontend y backend a través de una sola lente. -A partir de la versión `4.30.0` del SDK de RUM para navegador, puedes controlar los volúmenes ingeridos y mantener un muestreo de las trazas de backend configurando el parámetro de inicialización `traceSampleRate`. Establece `traceSampleRate` a un número entre `0` y `100`. -Si no se establece ningún valor de `traceSampleRate`, se envía un 100% de las trazas provenientes de las solicitudes del navegador a Datadog por defecto. +A partir de la versión `4.30.0` del SDK del navegador RUM, puede controlar los volúmenes ingeridos y mantener un muestreo de las trazas de backend configurando el parámetro de inicialización `traceSampleRate`. Establezca `traceSampleRate` en un número entre `0` y `100`. +Si no se establece un valor de `traceSampleRate`, se utiliza un valor predeterminado del 100% de las trazas provenientes de las solicitudes del navegador que se envían a Datadog. -De manera similar, controla la tasa de muestreo de trazas en otros SDK utilizando parámetros similares: +También puede controlar la tasa de muestreo de trazas en otros SDKs: | SDK | Parámetro | Versión mínima | |-------------|-----------------------|--------------------| | Navegador | `traceSampleRate` | [v4.30.0][8] | -| iOS | `tracingSamplingRate` | [1.11.0][9] _La tasa de muestreo se informa en la página de Ingestion Control desde [1.13.0][16]_ | -| Android | `traceSampleRate` | [1.13.0][10] _La tasa de muestreo se informa en la página de Ingestion Control desde [1.15.0][17]_ | +| iOS | `tracingSamplingRate` | [1.11.0][9] _La tasa de muestreo se informa en la Página de Control de Ingesta desde [1.13.0][16]_ | +| Android | `traceSampleRate` | [1.13.0][10] _La tasa de muestreo se informa en la Página de Control de Ingesta desde [1.15.0][17]_ | | Flutter | `tracingSamplingRate` | [1.0.0][11] | -| React Native | `tracingSamplingRate` | [1.0.0][12] _La tasa de muestreo se informa en la página de Ingestion Control desde [1.2.0][18]_ | +| React Native | `tracingSamplingRate` | [1.0.0][12] _La tasa de muestreo se informa en la Página de Control de Ingesta desde [1.2.0][18]_ | -### Trazas sintéticas +### Trazas sintéticas {#synthetic-traces} `ingestion_reason:synthetics` y `ingestion_reason:synthetics-browser` -Las pruebas de HTTP y navegador generan trazas cuando los servicios de backend están instrumentados. [La integración de APM con Synthetic Testing][13] vincula tus pruebas sintéticas con las trazas de backend correspondientes. Navega desde una ejecución de prueba que falló hasta la causa raíz del problema observando la traza generada por esa ejecución de prueba. +Las pruebas de HTTP y del navegador generan trazas cuando los servicios de backend están instrumentados. [La integración de APM con Synthetic Testing][13] vincula sus pruebas sintéticas con las trazas de backend correspondientes. Navegue desde una ejecución de prueba que falló hasta la causa raíz del problema observando la traza generada por esa ejecución de prueba. -Por defecto, el 100% de las pruebas sintéticas de HTTP y navegador generan trazas de backend. +Por defecto, el 100% de las pruebas sintéticas de HTTP y del navegador generan trazas de backend. -### Otros productos +### Otros productos {#other-products} -Algunas razones adicionales de ingesta se atribuyen a tramos que son generados por productos específicos de Datadog: +Algunas razones adicionales de ingesta se atribuyen a los tramos que son generados por productos específicos de Datadog: | Producto | Razón de Ingesta | Descripción del Mecanismo de Ingesta | |------------|-------------------------------------|---------------------------------| -| Serverless | `lambda` y `xray` | Tus trazas recibidas de las [aplicaciones Serverless][14] trazadas con Datadog Tracing Libraries o la integración de AWS X-Ray. | -| App and API Protection | `appsec` | Trazas ingeridas de Datadog Tracing Libraries y marcadas por [AAP][15] como una amenaza. | -| Data Observability: Jobs Monitoring | `data_jobs` | Trazas ingeridas desde la integración de Datadog Java Tracer Spark o la integración de Databricks. | +| Serverless | `lambda` y `xray` | Sus trazas recibidas de las [aplicaciones Serverless][14] trazadas con los SDK de Datadog o la integración de AWS X-Ray. | +| App and API Protection | `appsec` | Trazas ingeridas de los SDKs de Datadog y marcadas por [AAP][15] como una amenaza. | +| Data Observability: Jobs Monitoring | `data_jobs` | Trazas ingeridas de la integración de Datadog Java Tracer Spark o la integración de Databricks. | -## Mecanismos de ingestión en OpenTelemetry +## Mecanismos de ingestión en OpenTelemetry {#ingestion-mechanisms-in-opentelemetry} `ingestion_reason:otel` -Dependiendo de tu configuración con los SDK de OpenTelemetry (usando el OpenTelemetry Collector o el Datadog Agent), tienes múltiples formas de controlar el muestreo de ingestión. Consulta [Muestreo de Ingestión con OpenTelemetry][22] para obtener detalles sobre las opciones disponibles para el muestreo a nivel de SDK de OpenTelemetry, OpenTelemetry Collector y Datadog Agent en varias configuraciones de OpenTelemetry. +Dependiendo de su configuración con los SDK de OpenTelemetry (usando el OpenTelemetry Collector o el Agente de Datadog), tiene múltiples formas de controlar el muestreo de ingestión. Consulte [Muestreo de ingestión con OpenTelemetry][22] para obtener detalles sobre las opciones disponibles para el muestreo a nivel de SDK de OpenTelemetry, OpenTelemetry Collector y Datadog Agent en varias configuraciones de OpenTelemetry. -## Lectura adicional +## Lectura adicional {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/universal_service_monitoring/_index.md b/content/es/universal_service_monitoring/_index.md index e1f7338d6e7..a5c7633a117 100644 --- a/content/es/universal_service_monitoring/_index.md +++ b/content/es/universal_service_monitoring/_index.md @@ -4,75 +4,80 @@ aliases: cascade: algolia: rank: 70 +description: Monitorea las métricas de salud del servicio en toda tu infraestructura + sin necesidad de instrumentación de código utilizando Universal Service Monitoring + y Datadog Agent. further_reading: - link: /universal_service_monitoring/setup/ tag: Documentación - text: Configuración de Universal Service Monitoring + text: Setting Up Universal Service Monitoring - link: https://www.datadoghq.com/blog/universal-service-monitoring-datadog/ tag: Blog - text: Señales clave en segundos con Universal Service Monitoring + text: Señales doradas en segundos con Universal Service Monitoring - link: /getting_started/tagging/unified_service_tagging/ tag: Documentación - text: Etiquetado de servicios unificado + text: Unified Service Tagging - link: /tracing/software_catalog/ tag: Documentación - text: Descubrir y catalogar los servicios que informan a Datadog + text: Descubre y cataloga los servicios que reportan a Datadog - link: /tracing/services/service_page/ tag: Documentación - text: Más información sobre servicios en Datadog + text: Aprende más sobre los servicios en Datadog - link: /tracing/services/services_map/ tag: Documentación - text: Leer sobre el Mapa de servicios + text: Lee sobre el Mapa de Servicios - link: https://www.datadoghq.com/blog/monitor-connection-churn-datadog/ tag: Blog - text: Prácticas recomendadas para la monitorización y corrección del churn de conexiones + text: Mejores prácticas para monitorear y remediar la rotación de conexiones - link: https://www.datadoghq.com/blog/software-catalog/ tag: Blog - text: Mejorar la experiencia y la colaboración de los desarrolladores con Software - Catalog -title: Universal Service Monitoring + text: Mejora la experiencia del desarrollador y la colaboración con el Catálogo + de Software +- link: https://learn.datadoghq.com/courses/getting-started-usm + tag: Centro de Aprendizaje + text: Comenzando con Monitoreo Universal de Servicios (USM) +title: Monitoreo Universal de Servicios --- +## Resumen {#overview} -## Información general +Universal Service Monitoring (USM) proporciona visibilidad en las métricas de salud de tu servicio de manera universal en toda tu infraestructura _sin tener que instrumentar tu código_. Se basa únicamente en la presencia de un Datadog Agent configurado y [Unified Service Tagging][1], y trae datos de rendimiento sobre tus servicios no instrumentados a vistas como el Software Catalog y Service Map. USM también funciona con [Deployment Tracking][2], Monitors, Dashboards y SLOs. -Universal Service Monitoring (USM) proporciona visibilidad de las métricas de salud de tus servicios de forma universal en todo tu stack tecnológico _sin tener que instrumentar tu código_. Se basa únicamente en la presencia de un Datadog Agent configurado y el [etiquetado unificado de servicio][1], y aporta datos de rendimiento sobre tus servicios no instrumentados en vistas como Software Catalog y Mapa de servicios. USM también funciona con [Deployment Tracking][2], monitores, dashboards y SLO. +{{< img src="universal_service_monitoring/usm-demo.mp4" alt="Video demostrativo de Universal Service Monitoring. Un resumen de un servicio se accede haciendo clic en un servicio en el Service Map y seleccionando Ver resumen del servicio." video="true" >}} -{{< img src="universal_service_monitoring/usm-demo.mp4" alt="Vídeo que demuestra Universal Service Monitoring. Información general de un servicio al que se accede haciendo clic en un servicio en el Mapa de servicio y seleccionando Ver información general." video="true" >}} +## Configuración {#setup} -## Configurar +Para obtener información sobre las plataformas y protocolos compatibles, así como instrucciones para comenzar, lea [Setting Up Universal Service Monitoring][7]. -Para obtener información sobre las plataformas y protocolos compatibles y para obtener instrucciones sobre cómo empezar, lee [Configuración de Universal Service Monitoring][7]. +
    Vista previa: Protocolos adicionales y métodos de cifrado

    USM está en Preview para descubrir cloud services y para decodificar protocolos adicionales y métodos de cifrado de tráfico. Para más información y para solicitar acceso, lea Cloud Service Discovery and Additional Protocols.

    -
    Vista previa: protocolos y métodos de cifrado adicionales

    USM está en Vista previa para detectar servicios en la nube y para decodificar protocolos adicionales y métodos de encriptación de tráfico. Para obtener más información y solicitar acceso, lee Cloud Service Discovery and Additional Protocols.

    +## Automatic service tagging {#automatic-service-tagging} -## Etiquetado de servicios automático +Universal Service Monitoring detecta automáticamente los servicios que se ejecutan en tu infraestructura. Si no encuentra [unified service tags][1], les asigna un nombre basado en una de las etiquetas: `app`, `short_image`, `kube_container_name`, `container_name`, `kube_deployment`, `kube_service`. -Universal Service Monitoring detecta automáticamente servicios que se ejecutan en tu infraestructura. Si no encuentra [etiquetas de servicio unificado][1], les asigna un nombre basado en una de las etiquetas (tags): `app`, `short_image`, `kube_container_name`, `container_name`, `kube_deployment`, `kube_service`. +Para actualizar el nombre del servicio, configura [Unified Service Tagging][1]. -Para actualizar el nombre del servicio, configura [Etiquetado de servicios unificado][1]. +{{< img src="universal_service_monitoring/automatic-service-tagging.png" alt="Cuando Datadog detecta automáticamente tus servicios, la etiqueta utilizada se muestra en la parte superior de la página del servicio." style="width:80%;" >}} -{{< img src="universal_service_monitoring/automatic-service-tagging.png" alt="Cuando Datadog detecta automáticamente tus servicios, la etiqueta utilizada para mostrar esto está en la parte superior de la Página de servicios" style="width:80%;" >}} +## Explorando tus servicios {#exploring-your-services} -## Explorar tus servicios +Después de configurar el Agent, espera aproximadamente cinco minutos para que tu servicio aparezca en el Software Catalog. Haz clic en el servicio para ver la página de detalles del servicio. Un nombre de operación de `universal.http.server` o `universal.http.client` en la esquina superior izquierda indica que la telemetría del servicio proviene de Universal Service Monitoring. -Después de configurar el Agent, espera unos cinco minutos a que tu servicio aparezca en el Software Catalog. Haz clic en el servicio para ver la página de detalles del servicio. Un nombre de operación de `universal.http.server` o `universal.http.client` en la parte superior izquierda indica que la telemetría del servicio procede de Universal Service Monitoring. +El nombre de operación `universal.http.server` captura métricas de salud para el tráfico entrante a su servicio. El nombre de operación correspondiente `universal.http.client` representa el tráfico saliente a otros destinos. -El nombre de operación `universal.http.server` captura las métricas de estado para el tráfico entrante a tu servicio. El nombre de operación `universal.http.client` correspondiente representa el tráfico saliente hacia otros destinos. +{{< img src="universal_service_monitoring/select_service_operation_cropped.png" alt="El menú desplegable de operaciones en la pestaña de Servicios muestra los nombres de operación disponibles." style="width:100%;" >}} -{{< img src="universal_service_monitoring/select_service_operation_cropped.png" alt="El menú desplegable de la operación en la pestaña Services (Servicios) que muestra los nombres de operación disponibles" style="width:100%;" >}} +Después de habilitar Universal Service Monitoring, puede: -Después de activar Universal Service Monitoring, puedes: +- Navega a **APM** > **Software Catalog** o **APM** > **Service Map** para [visualizar tus servicios y sus dependencias][3]. -- Navega a **APM** > **Software Catalog** o **APM** > **Service Map** (APM > Mapa de servicios) para [visualizar tus servicios y sus dependencias][3]. +- Haz clic en páginas de servicio específicas para ver métricas de señal dorada (solicitudes, errores y duración), y correlaciona estas con cambios recientes en el código mediante [Deployment Tracking][2]. -- Haz clic en páginas específicas de servicio para ver las métricas de señales clave (solicitudes, errores y duración) y correlacionarlas con los cambios de código recientes con [Rastreo de implementación][2]. +- Crea [Monitors][4], [Dashboards][5] y [SLOs][6] utilizando las métricas `universal.http.*`. -- Crea [monitores][4], [dashboards][5] y [SLOs][6] utilizando las métricas `universal.http.*`. - -## Referencias adicionales +## Lecturas adicionales {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -81,5 +86,5 @@ Después de activar Universal Service Monitoring, puedes: [3]: /es/tracing/software_catalog/ [4]: /es/monitors/types/apm/?tab=apmmetrics [5]: /es/dashboards/ -[6]: /es/service_management/service_level_objectives/metric/ +[6]: /es/service_level_objectives/metric/ [7]: /es/universal_service_monitoring/setup/ \ No newline at end of file diff --git a/content/fr/account_management/_index.md b/content/fr/account_management/_index.md index 62a2e080a7c..4585179a216 100644 --- a/content/fr/account_management/_index.md +++ b/content/fr/account_management/_index.md @@ -1,117 +1,158 @@ --- -title: Gestion de compte -description: "Gérer votre organisation et votre compte Datadog" aliases: - - /guides/billing - - /account_management/settings +- /fr/guides/billing +- /fr/account_management/settings cascade: - algolia: - rank: 70 + algolia: + rank: 70 +description: Gérez votre compte et votre organisation Datadog further_reading: - - link: "https://www.datadoghq.com/blog/volkswagen-organizations/" - tag: "Blog" - text: "Meilleures pratiques pour la gestion des organisations Datadog à grande échelle (en anglais)" +- link: https://www.datadoghq.com/blog/volkswagen-organizations/ + tag: GitHub + text: Meilleures pratiques pour gérer les organisations Datadog à grande échelle +title: Gestion de compte --- -{{< site-region region="gov" >}} -
    La plateforme Datadog for Government prend uniquement en charge l'authentification SAML ou l'authentification de base avec nom d'utilisateur/adresse e-mail et mot de passe. Avant de configurer l'authentification SAML, assurez-vous qu'au moins un compte avec nom d'utilisateur ou adresse e-mail et mot de passe est disponible afin de maintenir l'accès pendant le processus de configuration. Datadog recommande d'activer l'authentification multifacteur (MFA) pour les comptes avec mot de passe. +{{< site-region region="gov,gov2" >}} +
    La plateforme Datadog pour le gouvernement ne prend en charge que l'authentification SAML ou l'authentification de base utilisant un nom d'utilisateur/email et un mot de passe. Avant de configurer l'authentification SAML, assurez-vous qu'au moins un compte avec nom d'utilisateur/email et mot de passe est établi pour maintenir l'accès pendant le processus de configuration. Datadog recommande d'activer l'authentification multi-facteurs (MFA) pour les comptes basés sur un mot de passe. -Si vous avez besoin d'activer SAML pour un compte d'essai, contactez l'assistance Datadog.
    +Si vous avez besoin que SAML soit activé pour un compte d'essai, contactez le support Datadog.
    {{< /site-region >}} -## Paramètres personnels +## Paramètres personnels {#personal-settings} Les pages des paramètres personnels Datadog vous permettent de contrôler les informations à votre sujet que les autres membres de votre organisation peuvent consulter, de changer d'organisation, de quitter une organisation et de gérer vos préférences de notification. -### Profil +### Profil {#profile} -Votre profil permet aux autres membres de votre organisation de vous reconnaître dans Datadog. Vous pouvez définir ou modifier votre nom, votre adresse e-mail et votre poste depuis l'[onglet Profile][11] de la page **Personal Settings**. +Votre profil est la façon dont les autres dans votre organisation vous reconnaissent dans Datadog. Définissez ou mettez à jour votre nom, votre adresse e-mail et votre titre depuis l'onglet [Profil][11] dans la page {{< ui >}}Personal Settings{{< /ui >}}. Pour modifier votre photo, créez un compte sur [Gravatar][1] et associez-le à votre adresse e-mail. -Si vous vous connectez à Datadog à l'aide de l'authentification Google, votre adresse e-mail est fournie par votre compte Google et n'est **pas** modifiable dans Datadog. Pour modifier votre adresse e-mail dans Google, consultez la [documentation Google][2]. +Si vous vous connectez à Datadog en utilisant l'authentification Google, votre adresse e-mail est fournie par votre compte Google et est **non** modifiable dans Datadog. Pour changer votre adresse e-mail dans Google, consultez la [documentation Google][2]. -### Préférences +### Préférences {#preferences} {{% site-region region="us,us3,us5,eu,ap1,ap2" %}} -Vous pouvez gérer votre fuseau horaire, vos préférences d'accessibilité visuelle et vos abonnements par e-mail à partir de l'onglet [Preferences][3] de la page **Paramètres personnels**. +Vous pouvez gérer votre fuseau horaire, votre format horaire, vos préférences d'accessibilité visuelle et vos abonnements par e-mail depuis l'onglet [Préférences][3] dans la page {{< ui >}}Personal Settings{{< /ui >}}. -#### Abonnements aux services de messagerie +#### Abonnements par e-mail {#email-subscriptions} -Dans la section des abonnements par e-mail, vous avez accès aux rapports suivants :{{< site-region region="us3,us5,gov,ap1,ap2" >}} -
    Les résumés par e-mail ne sont pas disponibles dans le site sélectionné ({{< region-param key="dd_site_name" >}}).
    +La section E-mail subscriptions vous donne accès aux rapports suivants : +{{< site-region region="us3,us5,gov,gov2,ap1,ap2" >}} +
    Les résumés d'e-mails ne sont pas disponibles dans le site sélectionné ({{< region-param key="dd_site_name" >}}).
    {{< /site-region >}} -* Daily Digest (Synthèse quotidienne) -* Weekly Digest (Synthèse hebdomadaire) +* Résumé quotidien +* Résumé hebdomadaire -Pour savoir si un e-mail de synthèse est susceptible de vous intéresser, consultez un exemple en cliquant sur le lien **Example** en regard de chaque abonnement. Vous pouvez également utiliser le bouton **Unsubscribe From all** pour vous désabonner de toutes les synthèses. +Si vous n'êtes pas sûr qu'un résumé d'e-mail vous concerne, vous pouvez voir un exemple en cliquant sur le {{< ui >}}Example{{< /ui >}} lien à côté de chaque abonnement par e-mail. Vous pouvez également utiliser le bouton {{< ui >}}Unsubscribe From All{{< /ui >}} pour vous désinscrire de tous les abonnements par e-mail. {{% /site-region %}} -{{% site-region region="gov" %}} -Vous pouvez gérer votre fuseau horaire, vos préférences d'accessibilité visuelle et vos abonnements aux services de messagerie depuis l'onglet [**Preferences** tab][3] de la page **Personal Settings**. +{{% site-region region="gov,gov2" %}} +Vous pouvez gérer votre fuseau horaire, votre format horaire et votre préférence d'accessibilité visuelle depuis l'onglet [**Préférences**][3] dans la page {{< ui >}}Personal Settings{{< /ui >}}. {{% /site-region %}} -#### Accessibilité visuelle +#### Format horaire {#time-format} + +Choisissez si les heures sont affichées au format 12 heures ou 24 heures dans Datadog (par exemple, "2:30 pm" ou "14:30"). Les nouveaux comptes sont par défaut au format 12 heures. Les graphiques et certaines données tabulaires s'affichent toujours au format 24 heures. + +#### Accessibilité visuelle {#visual-accessibility} -Les préférences d'accessibilité visuelle offrent cinq paramètres différents conçus pour répondre aux besoins des personnes souffrant d'une anomalie de la vision des couleurs, de troubles de l'acuité visuelle ou d'une sensibilité aux couleurs vives. Si vous activez l'un de ces paramètres d'accessibilité, tous les graphiques qui utilisent la palette de couleurs classique seront convertis pour afficher des couleurs adaptées à vos besoins visuels. +La préférence d'accessibilité visuelle a cinq paramètres différents pour répondre aux déficiences de la vision des couleurs, à une faible acuité visuelle et à la sensibilité aux couleurs vives. Si vous optez pour un paramètre de couleur accessible, Datadog traduit tous les graphiques utilisant la palette de couleurs classique en un ensemble de couleurs accessibles adaptées à vos besoins visuels. -**Remarque** : vos préférences d'accessibilité visuelle sont enregistrées en local dans votre navigateur. Si vous changez de navigateur ou effacez votre cache, le paramètre par défaut sera rétabli. +**Remarque** : Votre préférence d'accessibilité visuelle est enregistrée localement dans votre navigateur. Si vous utilisez un autre navigateur ou si vous videz votre cache, la préférence est réinitialisée à la valeur par défaut. -### Organisations +### Organisations {#organizations} -L'[onglet Organizations][12] de la page **Personal Settings** répertorie toutes les organisations auxquelles vous êtes associé. Passez d'une organisation à une autre à partir de cette page ou en survolant le menu des comptes de la barre de navigation sur la gauche. +L'onglet [Organisations][12] dans {{< ui >}}Personal Settings{{< /ui >}} répertorie toutes les organisations avec lesquelles vous êtes associé. Basculez entre ces organisations depuis cette page ou en survolant le menu du compte dans la navigation à gauche. -**Remarque** : si vous quittez une organisation, vous ne pourrez pas la rejoindre à nouveau à moins d'être invité par un administrateur de cette organisation. +**Remarque** : Si vous quittez une organisation, vous ne pouvez pas la rejoindre à nouveau à moins d'être invité par un administrateur de cette organisation. -Pour rejoindre une organisation existante, un administrateur doit vous inviter. Vous recevrez alors un e-mail avec l'objet "You've been invited to join \". Cliquez sur le bouton **Join Account** de l'e-mail. +Pour rejoindre une organisation existante, vous devez être invité par un administrateur. Après avoir été invité, vous recevez un e-mail avec l'objet : "Vous avez été invité à rejoindre \". Cliquez sur le bouton {{< ui >}}Join Account{{< /ui >}} dans l’e-mail. Si vous êtes un administrateur d'organisation, consultez les ressources suivantes pour obtenir davantage d'informations : -* [Gérer les utilisateurs de votre organisation][4] -* [Configurer l'authentification unique avec SAML][5] +* [Gérer les utilisateurs dans votre organisation][4] +* [Configurer l’authentification unique avec SAML][5] * [Renommer votre organisation][6] -* [Gérer des comptes multi-organisations][7] -* [Modifier votre formule Datadog et consulter l'historique d'utilisation et de facturation][8] +* [Gérer les comptes multi-organisation][7] +* [Changer votre plan Datadog et consulter l’historique d’utilisation et de facturation][8] +* [Choisir la topologie de votre organisation (organisation unique vs. multi-organisation)][15] -### Sécurité +### Sécurité {#security} -#### Clés d'application +#### Clés d’application {#application-keys} -Vous pouvez gérer vos clés d'application depuis l'[onglet Application Keys][13] de la page **Personal Settings**. Pour copier une clé, passez le curseur dessus jusqu'à ce que l'icône **Copy Key** s'affiche sur la droite, et cliquez sur cette icône. Vous pouvez également cliquer sur la clé de votre choix pour modifier son nom, consulter sa date de création, afficher le profil de son propriétaire ou la révoquer. +L’onglet [Clés d’application][13] dans {{< ui >}}Personal Settings{{< /ui >}} vous permet de gérer vos clés d’application. Pour copier une clé, survolez-la jusqu’à ce que l’icône {{< ui >}}Copy Key{{< /ui >}} apparaisse à droite, puis cliquez dessus. Vous pouvez également cliquer sur une clé spécifique pour modifier son nom, voir quand elle a été créée, consulter le profil du propriétaire de la clé, la copier ou la révoquer. -#### Apps +#### Applications {#apps} -L'[onglet Apps][14] de la page **Personal Settings** vous permet de gérer les apps qui ont été installées ou créées par des membres de votre organisation. Vous pouvez filtrer les apps en recherchant du texte, ou utiliser les cases à cocher pour afficher uniquement les apps activées ou désactivées. +L’onglet [Applications][14] dans {{< ui >}}Personal Settings{{< /ui >}} vous permet de gérer les applications qui ont été installées ou créées par des membres de votre organisation. Vous pouvez filtrer les applications avec une chaîne de recherche, ou choisir de n’afficher que les applications activées ou désactivées à l’aide de cases à cocher. Lorsque vous passez votre curseur sur une app, une option vous permettant de l'activer ou la désactiver apparaît à droite de son nom. -## Apparence +#### Vérification par e-mail {#email-verification} +Vérifiez votre adresse e-mail pour renforcer la sécurité de votre compte et accéder à des fonctionnalités de gestion supplémentaires. Les utilisateurs vérifiés ont un meilleur contrôle sur la sécurité de leur compte et peuvent voir toutes les organisations auxquelles ils appartiennent. + +- **Les utilisateurs de connexion Google** sont automatiquement vérifiés lors de leur première connexion. +- **Les utilisateurs basés sur un mot de passe** vérifient leur e-mail lors de la définition de leur mot de passe pour la première fois. +- **Les utilisateurs SAML** doivent vérifier manuellement leur e-mail via Datadog. + +Après avoir été vérifié, vous accédez à : +- La possibilité de **se déconnecter de toutes les sessions web actives** sur tous les appareils, garantissant la sécurité en cas de compromission des identifiants. +- La possibilité de **voir et de passer d’une organisation à l’autre** en dehors de la hiérarchie de votre organisation actuelle. + +Les utilisateurs non vérifiés peuvent toujours accéder à Datadog, mais sont limités à la visualisation des organisations au sein de leur hiérarchie et ne peuvent pas révoquer les sessions actives. + +#### Vérifiez votre e-mail {#verify-your-email} + +Pour vérifier votre e-mail : +1. Accédez à votre {{< ui >}}Profile Settings{{< /ui >}}. +2. Cliquez sur {{< ui >}}Verify Account{{< /ui >}}. +3. Entrez le **code de vérification** envoyé à votre e-mail enregistré. +4. Cliquez {{< ui >}}Submit{{< /ui >}} pour compléter le processus de vérification. + +#### Déconnectez-vous de toutes les sessions web actives {#log-out-of-all-active-web-sessions} + +Pour vous déconnecter de toutes les sessions web actives : +Se déconnecter de toutes les sessions web actives vous déconnecte de toutes les sessions en cours sur les appareils, y compris celui que vous utilisez. + + +Pour vous déconnecter de toutes les sessions web actives : +1. Allez à {{< ui >}}Personal Settings{{< /ui >}}. +2. Cliquez {{< ui >}}Log Out of All Web Sessions{{< /ui >}}. +3. Confirmez l'action. + +Après confirmation, vous êtes déconnecté de tous les appareils et devez vous reconnecter. + +## Apparence {#appearance} -Pour activer le mode sombre dans Datadog, passez votre curseur sur votre avatar dans la barre latérale ou appuyez sur `Ctrl+Opt+D` / `Ctrl+Alt+D`. +Affichez Datadog en mode sombre en survolant votre avatar dans la barre latérale, ou en appuyant sur `Ctrl+Opt+D` / `Ctrl+Alt+D`. -Pour faire en sorte que l'apparence du site s'adapte automatiquement à celle de votre système, sélectionnez l'option *System*. Ainsi, le thème défini sur Datadog correspondra toujours au thème défini sur votre système. +Pour s'adapter au paramètre d'apparence de votre ordinateur, sélectionnez l'option {{< ui >}}System{{< /ui >}}. Cela synchronise automatiquement l'apparence de Datadog avec le thème défini au niveau de votre système d'exploitation. -## Connexion à GitHub +## Connexion à GitHub {#connecting-to-github} -Si vous avez installé l'[intégration GitHub][9] pour créer des événements dans Datadog, associez votre compte GitHub personnel à votre compte utilisateur Datadog. Ainsi, les commentaires que vous publierez dans les événements GitHub de Datadog seront automatiquement publiés dans l'issue ou la pull request correspondante dans GitHub. +Si vous avez installé l'[intégration GitHub][9] pour créer des événements dans Datadog, liez votre compte GitHub personnel à votre compte utilisateur Datadog. En liant vos comptes, tous les commentaires que vous publiez sur les événements GitHub dans Datadog sont automatiquement publiés dans le ticket ou la pull request correspondante sur GitHub. -## Désactivation du compte de votre organisation +## Désactivation du compte de votre organisation {#disabling-your-organizations-account} Pour désactiver le compte Datadog de votre organisation, contactez l'[assistance Datadog][10]. [1]: https://gravatar.com [2]: https://support.google.com/accounts/answer/19870?hl=en [3]: https://app.datadoghq.com/personal-settings/preferences -[4]: /account_management/users/ -[5]: /account_management/saml/ -[6]: /account_management/org_settings/#change-your-organization-name -[7]: /account_management/multi_organization/ -[8]: /account_management/org_settings/ -[9]: /integrations/github/ -[10]: /help/ +[4]: /fr/account_management/users/ +[5]: /fr/account_management/saml/ +[6]: /fr/account_management/org_settings/#change-your-organization-name +[7]: /fr/account_management/multi_organization/ +[8]: /fr/account_management/org_settings/ +[9]: /fr/integrations/github/ +[10]: /fr/help/ [11]: https://app.datadoghq.com/personal-settings/profile [12]: https://app.datadoghq.com/personal-settings/organizations [13]: https://app.datadoghq.com/personal-settings/application-keys [14]: https://app.datadoghq.com/personal-settings/apps +[15]: /fr/getting_started/organization_topology/ \ No newline at end of file diff --git a/content/fr/account_management/api-app-keys.md b/content/fr/account_management/api-app-keys.md index 43673dd6b52..ea8f4aab1e1 100644 --- a/content/fr/account_management/api-app-keys.md +++ b/content/fr/account_management/api-app-keys.md @@ -6,155 +6,196 @@ aliases: - /fr/account_management/faq/how-do-i-reset-my-application-keys/ - /fr/agent/faq/how-do-i-reset-my-datadog-api-keys/ - /fr/account_management/faq/api-app-key-management/ +description: Gérez les clés API, les clés d'application et les jetons clients pour + les applications web avec des fonctionnalités de sécurité. title: Clés d'API et clés d'application --- +## Clés API {#api-keys} -## Clés d'API +Les clés API sont uniques à votre organisation. Une [clé API][1] est requise par l'Agent Datadog pour soumettre des métriques et des événements à Datadog. -Les clés d'API sont uniques à votre organisation. Une [clé d'API][1] est requise par l'Agent Datadog pour envoyer des métriques et des événements à Datadog. +## Clés d'application {#application-keys} -## Clés d'application +[Les clés d'application][2], en conjonction avec la clé API de votre organisation, donnent aux utilisateurs accès à l'API programmatique de Datadog. Les clés d'application sont associées au compte utilisateur qui les a créées et, par défaut, ont les permissions de l'utilisateur qui les a créées. -Les [clés d'application][2], associées à la clé API de votre organisation, permettent aux utilisateurs d'accéder à l'API programmatique de Datadog. Les clés d'application sont associées au compte utilisateur qui les a créées et disposent par défaut des autorisations de l'utilisateur qui les a créées. +### Mode de lecture unique {#one-time-read-mode} -### Portées +Le mode de lecture unique (OTR) est une fonctionnalité de sécurité qui limite la visibilité des secrets de clé d'application uniquement au moment de la création. Lorsque le mode OTR est activé, les secrets de clé d'application ne sont affichés qu'une seule fois lors de la création et ne peuvent pas être récupérés ultérieurement pour des raisons de sécurité. -Afin de mieux protéger et sécuriser vos applications, vous avez la possibilité d'appliquer des portées d'autorisation à vos clés d'application, de façon à définir des autorisations plus granulaires et à limiter les données auxquelles les applications ont accès. Vous pourrez ainsi contrôler les accès de vos applications avec plus de précision et réduire les failles de sécurité en limitant les accès superflus. Par exemple, une application qui se contente de lire des dashboards n'a pas besoin de pouvoir gérer les utilisateurs ou de supprimer les données de votre organisation. +#### Pour les nouvelles organisations {#for-new-organizations} -Lorsque vous appliquez des portées à des clés d'application, il est recommandé d'accorder uniquement les privilèges et les autorisations dont l'application a besoin pour fonctionner correctement. Seules les portées spécifiées par l'utilisateur sont appliquées à la clé d'application : aucune autre autorisation n'est accordée. Vous pouvez modifier la portée d'autorisation d'une clé d'application à tout moment, mais il est essentiel de réfléchir à l'impact que ces modifications auront sur le fonctionnement de votre application et les données auxquelles elle pourra accéder. +Toutes les clés d'application pour les nouvelles organisations parentes (et leurs organisations enfants) créées après le 20 août 2025 ont le mode OTR activé par défaut. Ce paramètre est permanent et ne peut pas être modifié. -**Remarques :** +#### Pour les organisations existantes {#for-existing-organizations} -- Les utilisateurs ou les comptes de service qui disposent des [autorisations][4] pour créer ou modifier des clés d'application peuvent également définir des portées de clés d'application. L'utilisateur doit disposer de l'autorisation `user_app_keys` pour appliquer une portée à ses propres clés d'application, ou de l'autorisation `org_app_keys_write` pour appliquer une portée aux clés d'application des autres utilisateurs de son organisation. L'utilisateur doit disposer de l'autorisation `service_account_write` pour appliquer une portée aux clés d'application des comptes de service. +Les administrateurs d'organisation peuvent activer ou désactiver le mode OTR depuis [**Paramètres de l'organisation** > **Clés d'application**][2]. Après avoir activé le mode OTR : + +- Les secrets de clé d'application ne sont visibles qu'une seule fois, au moment de la création +- Ils ne peuvent plus être récupérés via l'interface utilisateur ou l'API +- Le paramètre peut être activé ou désactivé par les administrateurs d'organisation pendant 3 mois après l'activation +- Après 3 mois d'activation continue, le mode OTR devient permanent et le commutateur est supprimé. + +**Permissions** : Les utilisateurs doivent avoir à la fois les permissions `org_app_keys_write` et `org_management` pour activer ou désactiver le mode OTR pour leur organisation. + +### Scopes {#scopes} + +Pour mieux protéger et sécuriser vos applications, vous pouvez spécifier des portées d'autorisation pour vos clés d'application afin de définir des permissions plus granulaires et de minimiser l'accès que les applications ont à vos données Datadog. Cela vous donne un contrôle d'accès granulaire sur vos applications et minimise les vulnérabilités de sécurité en limitant l'accès superflu. Par exemple, une application qui ne fait que lire des tableaux de bord n'a pas besoin de droits administratifs pour gérer les utilisateurs ou supprimer des données de votre organisation. + +La meilleure pratique recommandée pour définir les clés d'application consiste à accorder à vos clés les privilèges minimaux et les permissions minimales nécessaires pour qu'une application fonctionne comme prévu. Les clés d'application à portées spécifiques reçoivent uniquement les portées spécifiées par l'utilisateur, sans permission additionnelle. Bien que vous puissiez modifier les portées d'autorisation de vos clés d'application à tout moment, considérez comment ces changements peuvent affecter la fonctionnalité ou l'accès existant de votre application. + +**Notes :** + +-Les utilisateurs ou comptes de service disposant de [permissions][3] pour créer ou modifier des clés d'application peuvent attribuer des portées à ces clés. Un utilisateur doit détenir la permission `user_app_keys` pour attribuer des portées à ses propres clés d'application, ou la permission `org_app_keys_write` pour attribuer des portées aux clés d'application appartenant à tout utilisateur de son organisation. Un utilisateur doit avoir la permission `service_account_write` pour attribuer des portées aux clés d'application des comptes de service. - Le propriétaire d'une application ne peut pas autoriser une application s'il ne dispose pas de l'ensemble des autorisations requises, même s'il applique une portée d'autorisation qu'il ne possède pas à une clé d'application. -- En cas d'autorisation manquante lors de l'écriture d'une clé d'application ou de l'autorisation d'une application, une erreur `403 Forbidden` est renvoyée. Pour en savoir plus sur les différentes erreurs pouvant être renvoyées, consultez la documentation de l'[API Datadog][5]. +- Les erreurs dues à des permissions manquantes lors de l'écriture de clés d'application ou de l'autorisation d'applications affichent une erreur `403 Forbidden`. Plus d'informations sur les différentes réponses d'erreur peuvent être trouvées dans la documentation de l'[API Datadog][4]. - Si le rôle ou les autorisations d'un utilisateur changent, les portées d'autorisation pour ses clés d'application restent identiques. -## Tokens client +### Accès à l'API Actions {#actions-api-access} -Pour des raisons de sécurité, vous ne pouvez pas utiliser de clés d'API pour envoyer des données depuis une application pour navigateur, mobile ou téléviseur : celles-ci seraient exposées côté client. Les applications conçues pour les utilisateurs finaux reposent donc sur des tokens client pour transmettre des données à Datadog. +Les API d'actions incluent : +- [App Builder][5] +- [Actions Connections][6] +- [Workflow Automation][7] + +Pour utiliser des clés d'application avec ces API, vous devez activer l'accès à l'API Actions sur la clé d'application. Cela peut être fait [via l'interface utilisateur][2] ou [API][21]. Par défaut, les clés d'application ne peuvent pas être utilisées avec ces API. + +{{< img src="account_management/click-enable-actions-api-access.png" alt="Cliquez sur Activer pour l'accès à l'API Actions" style="width:80%;" >}} + +**Remarque** : La section {{< ui >}}Last used{{< /ui >}} n'apparaît que si [le journal d'audit est activé][22] dans le compte et que vous avez la permission [`Audit Trail Read`][23]. + +## Jetons clients {#client-tokens} + +Pour des raisons de sécurité, les clés API ne peuvent pas être utilisées pour envoyer des données depuis un navigateur, une application mobile ou une application TV, car elles seraient exposées côté client. Au lieu de cela, les applications destinées aux utilisateurs finaux utilisent des jetons clients pour envoyer des données à Datadog. Plusieurs types de clients doivent utiliser un token client pour envoyer des données. Par exemple : -- Les collecteurs de logs pour les [navigateurs Web][6], [Android][7], [iOS][8], [React Native][9], [Flutter][10], et [Roku][11], qui envoient des logs. -- Les applications [Real User Monitoring][12], qui envoient des événements et des logs +- Les collecteurs de journaux pour [navigateur web][8], [Android][9], [iOS][10], [React Native][11], [Flutter][12] et [Roku][13] soumettent des journaux. +- Les applications [Surveillance des utilisateurs réels][14] soumettent des événements et des journaux. -Les tokens client sont uniques à votre organisation. Pour les gérer, accédez à **Organization Settings**, puis cliquez sur l'onglet **Client Tokens**. +Les jetons clients sont uniques à votre organisation. Pour gérer vos jetons clients, allez à {{< ui >}}Organization Settings{{< /ui >}}, puis cliquez sur l'onglet {{< ui >}}Client Tokens{{< /ui >}}. -**Remarque** : lorsqu'un utilisateur ayant créé un token client est désactivé, le token client demeure valide. +**Remarque** : Lorsqu'un utilisateur qui a créé un jeton client est désactivé, le jeton client reste actif. -## Ajouter une clé d'API ou un token client +## Ajoutez une clé API ou un jeton client {#add-an-api-key-or-client-token} Pour ajouter une clé d'API Datadog ou un token client, procédez comme suit : -1. Accédez aux paramètres d'organisation, puis cliquez sur l'onglet [**API keys**][1] ou [**Client Tokens**][13]. -2. Cliquez sur le bouton **New Key** ou **New Client Token**, en fonction de l'élément à créer. +1. Accédez aux paramètres de l'organisation, puis cliquez sur l'onglet [**Clés API**][1] ou [**Jetons clients**][15]. +2. Cliquez sur le bouton {{< ui >}}New Key{{< /ui >}} ou {{< ui >}}New Client Token{{< /ui >}}, selon celui que vous créez. 3. Attribuez un nom à votre clé ou à votre token. -4. Cliquez sur **Create API key** ou **Create Client Token**. +4. Cliquez sur {{< ui >}}Create API key{{< /ui >}} ou {{< ui >}}Create Client Token{{< /ui >}}. -{{< img src="account_management/api-key.png" alt="Accédez à la page des clés dʼAPI de votre organisation dans Datadog" style="width:80%;" >}} +{{< img src="account_management/api-key.png" alt="Accédez à la page des clés API pour votre organisation dans Datadog" style="width:80%;" >}} -**Remarques :** +**Remarques :** -- Votre organisation doit posséder entre une et 50 clés d'API. +- Votre organisation doit avoir au moins une clé API et au maximum 50 clés API. - Les noms de clé doivent être uniques au sein de votre organisation. -## Supprimer des clés d'API ou des tokens client +## Supprimez les clés API ou les jetons clients {#remove-api-keys-or-client-tokens} -Pour supprimer une clé d'API ou un token client Datadog, accédez à la liste des clés ou tokens, puis cliquez sur l'icône en forme de **corbeille** de l'option **Revoke** en regard de la clé ou du token à supprimer. +Pour supprimer une clé API ou un jeton client Datadog, accédez à la liste des clés ou des jetons, puis cliquez sur le {{< ui >}}Delete{{< /ui >}} {{< img src="icons/delete.png" inline="true" style="width:14px;">}} icône à côté de la clé ou du jeton que vous souhaitez supprimer. -## Ajouter des clés d'application +## Ajouter des clés d'application {#add-application-keys} -Pour ajouter une clé d'application Datadog, accédez à [**Organization Settings** > **Application Keys**][2]. Cliquez ensuite sur **New Key**. Cette option s'affiche uniquement si vous disposez de l'[autorisation][4] requise pour créer des clés d'application. +Pour ajouter une clé d'application Datadog, accédez à [**Paramètres de l'organisation** > **Clés d'application**][2]. Si vous avez la [permission][3] de créer des clés d'application, cliquez sur {{< ui >}}New Key{{< /ui >}}. -{{< img src="account_management/app-key.png" alt="Accédez à la page des clés dʼapplication de votre organisation dans Datadog" style="width:80%;" >}} +{{< img src="account_management/app-key.png" alt="Accédez à la page des clés d'application pour votre organisation dans Datadog." style="width:80%;" >}} -{{< site-region region="ap2,gov" >}} -
    Assurez-vous de stocker votre clé d'application en toute sécurité dès sa création, car le secret de la clé ne peut pas être récupéré ultérieurement.
    +{{< site-region region="ap2,gov,gov2" >}} +
    Assurez-vous de stocker en toute sécurité votre clé d'application immédiatement après sa création, car le secret de la clé ne peut pas être récupéré ultérieurement.
    {{< /site-region >}} -**Remarques :** +
    Si votre organisation a le mode Lecture Unique (OTR) activé, assurez-vous de stocker en toute sécurité votre clé d'application immédiatement après sa création, car le secret de la clé ne peut pas être récupéré ultérieurement.
    + +**Remarques:** -- Les noms de clé d'application ne peuvent pas être vides. +- Les noms des clés d'application ne peuvent pas être vides. -## Supprimer des clés d'application +## Supprimer des clés d'application {#remove-application-keys} -Pour supprimer une clé d'application Datadog, accédez à [**Organization Settings** > **Application Keys**][2]. Vos clés d'application s'affichent alors. Cliquez ensuite sur l'option **Revoke** en regard de la clé à révoquer. Cette option s'affiche uniquement si vous disposez de l'[autorisation][4] requise pour créer et gérer des clés d'application. Si vous êtes autorisé à gérer toutes les clés d'application de votre organisation, vous pouvez rechercher la clé à révoquer, puis cliquer sur l'option **Revoke** correspondante. +Pour supprimer une clé d'application Datadog, accédez à [**Paramètres de l'organisation** > **Clés d'application**][2]. Si vous avez la [permission][3] de créer et de gérer des clés d'application, vous pouvez voir vos propres clés et cliquer sur {{< ui >}}Revoke{{< /ui >}} à côté de la clé que vous souhaitez révoquer. Si vous avez la permission de gérer toutes les clés d'application de l'organisation, vous pouvez rechercher la clé que vous souhaitez révoquer et cliquer sur {{< ui >}}Revoke{{< /ui >}} à côté de celle-ci. -## Propagation des clés et cohérence éventuelle +## Délai de propagation des clés et cohérence éventuelle {#key-propagation-delay-and-eventual-consistency} -Les clés API et les clés d'application de Datadog suivent un modèle de cohérence éventuelle. En raison de l'architecture distribuée du système, les mises à jour de clés, comme leur création ou révocation, peuvent prendre quelques secondes pour se propager complètement. +Les clés API et d'application de Datadog suivent un modèle de cohérence éventuelle. En raison de la nature distribuée des systèmes de Datadog, les mises à jour des clés, telles que la création et la révocation, peuvent prendre quelques secondes pour se propager complètement. En conséquence : -- N'utilisez pas immédiatement une nouvelle clé API ou d'application dans des workflows critiques. Prévoyez quelques secondes pour sa propagation. Mettez en place une stratégie de nouvelle tentative avec backoff exponentiel court pour gérer les erreurs transitoires durant la propagation. -- Pour vérifier si une clé API est active, utilisez l'endpoint [/api/v1/validate][18]. -- Pour vérifier si une clé d'application est active, utilisez l'endpoint `/api/v2/validate_keys` avec les bonnes paires de clés. +- Ne pas utiliser de nouvelles clés API ou d'application immédiatement dans des workflows critiques. Prévoir une brève période (quelques secondes) pour la propagation. Vous pouvez mettre en œuvre une stratégie de réessai avec un court délai exponentiel pour gérer les erreurs transitoires pendant la fenêtre de propagation. +- Pour valider si une clé API est active et utilisable, appelez le point de terminaison [/api/v1/validate][16]. +- Pour vérifier qu'une clé d'application est active, utilisez le point de terminaison `/api/v2/validate_keys` avec la paire de clés appropriée. L'utilisation d'une clé nouvellement créée avant sa propagation complète peut entraîner des erreurs d'authentification temporaires, telles que 403 Forbidden ou 401 Unauthorized. -## Définir le champ d'application d'une clé d'application +## Définir la portée des clés d'application {#scope-application-keys} -Pour appliquer des portées d'autorisation à des clés d'application, créez ou modifiez une clé d'application en [envoyant une requête sur l'API Datadog][5] ou lʼIU pour créer ou modifier une clé dʼapplication. Il est possible d'appliquer une portée aux clés d'application appartenant à [l'utilisateur actuel][14] ou à un [compte de service][15]. Si ce champ n'est pas spécifié, par défaut, la portée de la clé d'application correspondra aux autorisations de l'utilisateur qui l'a créée. +Pour spécifier des portées d'autorisation pour les clés d'application, effectuez une requête à l'[API Datadog][4] ou utilisez l'interface utilisateur pour créer ou modifier une clé d'application. Les portées peuvent être spécifiées pour les clés d'application appartenant à [l'utilisateur actuel][17] ou à un [compte de service][18]. Si ce champ n'est pas spécifié, les clés d'application ont par défaut toutes les mêmes portées et permissions que l'utilisateur qui les a créées. -**Remarques :** +**Remarques:** -- Les noms des portées sont sensibles à la casse. +- Les noms de portée sont sensibles à la casse. -## Utilisation de plusieurs clés d'API +## Utilisation de plusieurs clés API {#using-multiple-api-keys} -Pensez à configurer plusieurs clés d'API pour votre organisation. Par exemple, utilisez des clés d'API différentes pour chacune de vos méthodes de déploiement : une pour le déploiement d'un Agent sur Kubernetes dans AWS, une pour le déploiement sur site avec Chef, une pour les scripts Terraform qui automatisent vos dashboards ou monitors, et une pour les développeurs qui réalisent des déploiements localement. +Envisagez de configurer plusieurs clés API pour votre organisation. Par exemple, utilisez différentes clés API pour chacune de vos méthodes de déploiement : une pour déployer un Agent sur Kubernetes dans AWS, une pour le déployer sur site avec Chef, une pour les scripts Terraform qui automatisent vos tableaux de bord ou vos moniteurs, et une pour les développeurs déployant localement. L'utilisation de plusieurs clés d'API vous permet d'effectuer une rotation des clés dans le cadre de vos mesures de sécurité ou de révoquer une clé spécifique si elle est exposée par inadvertance ou si vous cessez d'utiliser le service auquel elle est associée. -Si la limite de 50 clés d'API est insuffisante pour votre organisation, contactez l'[assistance][16] pour demander d'augmenter ce nombre. +Si votre organisation a besoin de plus que la limite intégrée de 50 clés API, contactez [le support][19] pour demander une augmentation de votre limite. -## Désactiver un compte utilisateur +## Désactivation d'un compte utilisateur {#disabling-a-user-account} -Si le compte d'un utilisateur est désactivé, les clés d'application créées par cet utilisateur sont révoquées. Les clés d'API créées par le compte désactivé ne sont pas supprimées et restent valides. +Si le compte d'un utilisateur est désactivé, toutes les clés d'application que l'utilisateur a créées sont révoquées. Toutes les clés API qui ont été créées par le compte désactivé ne sont pas supprimées et restent valides. -## Transferts de clé +## Transfert de clés {#transferring-keys} -Pour des raisons de sécurité, Datadog ne transfère pas les clés d'application d'un utilisateur à un autre. Si vous devez partager une clé d'application, utilisez un [compte de service][17]. +Pour des raisons de sécurité, Datadog ne transfère pas les clés d'application d'un utilisateur à un autre. Si vous devez partager une clé d'application, utilisez un [compte de service][20]. -## Que faire en cas d'exposition d'une clé d'API ou d'application +## Que faire si une clé API ou une clé d'application a été exposée {#what-to-do-if-an-api-or-application-key-was-exposed} -Si une clé privée a été compromise ou exposée publiquement, vous devez prendre des mesures pour sécuriser votre compte aussi vite que possible. Le fait de supprimer le fichier contenant la clé d'un site public comme GitHub ne garantit **pas** qu'un tiers n'y a pas déjà accédé. +Si une clé privée a été compromise ou exposée publiquement, des mesures doivent être prises le plus rapidement possible pour garantir la sécurité de votre compte. Supprimer le fichier contenant la clé d'un site public tel que GitHub **ne** garantit pas qu'il n'a pas déjà été consulté par une autre partie. Suivez ces étapes pour protéger votre compte : -**Remarque :** la révocation d'une clé active peut affecter le fonctionnement de vos services. Si la portée de la clé est vaste ou inconnue, nous vous conseillons de suivre les étapes 2 à 5 **avant** de révoquer la clé affectée. +**Remarque :** Révoquer une clé active peut avoir un impact sur vos services. Si l'étendue d'utilisation est large ou indéterminée, envisagez les étapes 2 à 5 **avant** de révoquer la clé concernée. 1. Révoquez la clé affectée. 2. Supprimez le code contenant la clé privée de tous les fichiers accessibles publiquement : - - Publiez le fichier corrigé sur votre dépôt public. + - Publiez le fichier assaini dans votre dépôt public. - Supprimez les données sensibles de votre historique de commits. 3. Créez une nouvelle clé. 4. Mettez à jour la clé pour les services affectés. 5. Vérifiez que votre compte n'a fait l'objet d'aucun accès non autorisé : - Utilisateurs récemment ajoutés - Nouvelles ressources - - Modifications apportées aux rôles ou aux autorisations + - Changements de rôles ou de permissions -Si vous avez identifié une activité inhabituelle ou que vous avez besoin d'aide pour sécuriser votre compte, contactez l'[assistance Datadog][16]. +Si une activité inhabituelle est identifiée, ou si vous avez besoin d'aide supplémentaire pour sécuriser votre compte, contactez [le support Datadog][19]. -## Dépannage +## Dépannage {#troubleshooting} -Besoin d'aide ? Contactez [l'assistance Datadog][16]. +Besoin d'aide ? Contactez [le support Datadog][19]. [1]: https://app.datadoghq.com/organization-settings/api-keys -[2]: https://app.datadoghq.com/access/application-keys -[4]: /fr/account_management/rbac/permissions -[5]: /fr/api/latest/key-management/ -[6]: /fr/logs/log_collection/javascript/ -[7]: /fr/logs/log_collection/android/ -[8]: /fr/logs/log_collection/ios/ -[9]: /fr/logs/log_collection/reactnative/ -[10]: /fr/logs/log_collection/flutter/ -[11]: /fr/logs/log_collection/roku/ -[12]: /fr/real_user_monitoring/ -[13]: https://app.datadoghq.com/organization-settings/client-tokens -[14]: /fr/api/latest/key-management/#create-an-application-key-for-current-user -[15]: /fr/api/latest/service-accounts/ -[16]: /fr/help/ -[17]: /fr/account_management/org_settings/service_accounts/ -[18]: /fr/api/latest/authentication/#validate-api-key \ No newline at end of file +[2]: https://app.datadoghq.com/organization-settings/application-keys +[3]: /fr/account_management/rbac/permissions +[4]: /fr/api/latest/key-management/ +[5]: /fr/api/latest/app-builder/ +[6]: /fr/api/latest/action-connection/ +[7]: /fr/api/latest/workflow-automation/ +[8]: /fr/logs/log_collection/javascript/ +[9]: /fr/logs/log_collection/android/ +[10]: /fr/logs/log_collection/ios/ +[11]: /fr/logs/log_collection/reactnative/ +[12]: /fr/logs/log_collection/flutter/ +[13]: /fr/logs/log_collection/roku/ +[14]: /fr/real_user_monitoring/ +[15]: https://app.datadoghq.com/organization-settings/client-tokens +[16]: /fr/api/latest/authentication/#validate-api-key +[17]: /fr/api/latest/key-management/#create-an-application-key-for-current-user +[18]: /fr/api/latest/service-accounts/ +[19]: /fr/help/ +[20]: /fr/account_management/org_settings/service_accounts/ +[21]: /fr/api/latest/action-connection/#register-a-new-app-key +[22]: /fr/account_management/audit_trail/#setup +[23]: /fr/account_management/rbac/permissions/#compliance \ No newline at end of file diff --git a/content/fr/account_management/rbac/permissions.md b/content/fr/account_management/rbac/permissions.md index c4ef83d3f8a..08cd925b0ac 100644 --- a/content/fr/account_management/rbac/permissions.md +++ b/content/fr/account_management/rbac/permissions.md @@ -1,56 +1,92 @@ --- +algolia: + category: Documentation + rank: 80 + subcategory: Datadog Role Permissions aliases: - /fr/account_management/faq/managing-global-role-permissions +description: Référence complète des autorisations Datadog, y compris les rôles gérés, + les rôles personnalisés, les autorisations sensibles et la liste des autorisations. disable_toc: true further_reading: - link: /account_management/rbac/ tag: Documentation - text: Découvrir comment créer, mettre à jour et supprimer un rôle -- link: /api/v2/roles/#enumerer-les-autorisations + text: Créer, mettre à jour et supprimer un rôle +- link: /api/v2/roles/#list-permissions tag: Documentation text: Gérer vos autorisations avec l'API Permission title: Autorisations des rôles Datadog -algolia: - rank: 80 - category: Documentation - subcategory: Autorisations des rôles Datadog --- +## Autorisations {#permissions} + +Les autorisations définissent le type d'accès qu'un utilisateur a à une ressource donnée. En général, les autorisations donnent à un utilisateur le droit de lire, de modifier ou de supprimer un objet. Les autorisations sous-tendent les droits d'accès de tous les rôles, y compris les trois rôles gérés et les rôles personnalisés. + +### Autorisations sensibles {#sensitive-permissions} + +Certaines autorisations Datadog donnent accès à des fonctionnalités plus privilégiées qu'il est important de connaître, telles que : + +- Accès pour modifier les paramètres de l'organisation +- Accès pour lire des données potentiellement sensibles +- Accès pour effectuer des opérations privilégiées + +Les autorisations sensibles sont signalées dans les interfaces Rôles et Autorisations pour indiquer qu'elles peuvent nécessiter une attention accrue. En tant que meilleure pratique, les administrateurs configurant des rôles doivent prêter une attention particulière à ces autorisations et confirmer lesquelles de ces autorisations sont attribuées à leurs rôles et utilisateurs. + +### Autorisations en mode aperçu {#preview-mode-permissions} + +Certaines autorisations apparaissent en "mode aperçu" avant de devenir pleinement appliquées. Pendant cette période : + +- Les autorisations en aperçu sont marquées dans l'application avec un badge "Aperçu" +- Elles ne restreignent pas l'accès jusqu'à la fin de la période d'aperçu +- L'aperçu dure généralement de 2 à 4 semaines avant que l'application des autorisations ne commence. +- Les administrateurs doivent configurer les rôles de manière appropriée pendant cette période + +Le mode aperçu donne aux administrateurs de votre organisation la possibilité d'opter pour certaines nouvelles autorisations, afin qu'ils puissent éviter de perdre l'accès à des ressources qui étaient auparavant non restreintes. Les notes de version associées à chaque mode d'aperçu indiquent quand la permission est créée et quand elle sera appliquée. Bien que ces permissions ne restreignent pas l'accès pendant l'aperçu, Datadog recommande de mettre à jour les configurations de rôle avant qu'elles ne soient appliquées pour éviter toute interruption. + +## Rôles {#roles} + +### Rôles gérés {#managed-roles} + +Par défaut, les utilisateurs existants sont associés à l'un des trois rôles gérés : + +- Rôle Administrateur Datadog +- Rôle Standard Datadog +- Rôle Datadog en lecture seule -Une fois votre rôle créé, attribuez-lui ou retirez-lui directement des autorisations en [le modifiant dans Datadog][1] ou via [l'API Permission de Datadog][2]. Vous trouverez ci-dessous la liste des autorisations disponibles. +Tous les utilisateurs ayant l'un de ces rôles peuvent lire des données, sauf pour les ressources [individuellement restreintes en lecture][1]. Les utilisateurs administrateurs et standards ont des autorisations d'écriture sur les actifs. Les utilisateurs administrateurs ont des autorisations supplémentaires de lecture et d'écriture pour les actifs sensibles liés à la gestion des utilisateurs, à la gestion de l'organisation, à la facturation et à l'utilisation. -## Présentation +Les rôles gérés sont créés et maintenus par Datadog. Leurs autorisations peuvent être mises à jour automatiquement par Datadog à mesure que de nouvelles fonctionnalités sont ajoutées ou que les autorisations changent. Les utilisateurs ne peuvent pas modifier directement les rôles gérés, mais ils peuvent les cloner pour créer des [rôles personnalisés](#custom-roles) avec des autorisations spécifiques. Si nécessaire, les utilisateurs peuvent supprimer des rôles gérés de leur compte. -### Autorisations générales +### Rôles personnalisés {#custom-roles} -Les autorisations générales définissent les niveaux d'accès minimum pour votre rôle. Les [autorisations avancées](#autorisations-avancees) permettent ensuite d'accorder des droits supplémentaires. +Créez un rôle personnalisé pour combiner des permissions en de nouveaux rôles. Un rôle personnalisé vous permet de définir un profil, par exemple, un administrateur de facturation, puis d'attribuer les autorisations appropriées pour ce rôle. Après avoir créé un rôle, attribuez ou retirez des autorisations à ce rôle directement en [mettant à jour le rôle dans Datadog][2], ou via l'[API d’autorisations Datadog][3]. Vous pouvez également ajouter une permission à plusieurs rôles personnalisés à la fois en sélectionnant ces rôles depuis la page des rôles et en cliquant sur {{< ui >}}Add Permission{{< /ui >}}. -{{< permissions group="Géneral" >}} +Contrairement aux rôles gérés, les rôles personnalisés ne reçoivent pas de nouvelles autorisations lorsque Datadog publie de nouveaux produits et fonctionnalités, sauf s'ils sont configurés pour recevoir des mises à jour automatiques. Si les mises à jour automatiques sont désactivées, les rôles personnalisés ne reçoivent que de nouvelles autorisations pour maintenir la compatibilité lorsque Datadog publie une nouvelle autorisation qui restreint une fonctionnalité existante. -**Remarque** : il n'existe pas d'autorisation `read-only`. Pour obtenir un accès en lecture seule, il suffit de ne pas accorder l'autorisation `standard`. +Pour configurer les mises à jour automatiques pour les rôles personnalisés : -### Autorisations avancées +1. Allez sur la page des paramètres de l'organisation et cliquez sur l'onglet {{< ui >}}Roles{{< /ui >}}. +2. Cliquez sur le rôle que vous souhaitez mettre à jour et cliquez sur {{< ui >}}Edit Role{{< /ui >}}. +3. Sous {{< ui >}}Automatically Receives Permissions{{< /ui >}}, choisissez une option dans le menu déroulant : Aucune, Rôle Datadog en lecture seule, Rôle Datadog standard ou Rôle Datadog administrateur. -Par défaut, les utilisateurs existants sont associés à l'un des trois rôles prêts à l'emploi : +Si le rôle personnalisé est configuré pour recevoir des mises à jour automatiques, votre rôle personnalisé reçoit toutes les nouvelles autorisations dès qu'elles sont publiées pour le modèle de rôle sélectionné. Aucune autorisation déjà publiée n'est ajoutée. Vous pouvez ajouter ou supprimer des autorisations de ce rôle et continuer à recevoir des mises à jour automatiques. -- Admin Datadog -- Standard Datadog -- Read-Only Datadog +**Remarque** : Lorsque vous ajoutez un nouveau rôle personnalisé à un utilisateur, assurez-vous de supprimer le rôle Datadog géré associé à cet utilisateur pour appliquer strictement les nouvelles autorisations du rôle. -Tous les utilisateurs peuvent lire l'ensemble des types de données. Les utilisateurs Admin et Standard sont autorisés à écrire des données sur des ressources. +## Liste des autorisations {#permissions-list} -**Remarque** : lorsque vous attribuez un nouveau rôle personnalisé à un utilisateur, assurez-vous de supprimer le rôle Datadog par défaut attribué à cet utilisateur afin d'appliquer les nouvelles autorisations de rôle. +Le tableau suivant répertorie le nom, la description et le rôle par défaut pour toutes les autorisations disponibles dans Datadog. Chaque type d'actif a des autorisations de lecture et d'écriture correspondantes. -En plus des autorisations générales, vous pouvez définir des autorisations plus granulaires pour des ressources ou des types de données spécifiques. Les autorisations peuvent être globales ou limitées à un sous-ensemble d'éléments. Vous trouverez ci-dessous les détails de ces options et leur impact sur chacune des autorisations disponibles. +Chaque rôle géré hérite de toutes les autorisations des rôles moins puissants. Par conséquent, le rôle Datadog standard a toutes les autorisations énumérées dans le tableau avec Datadog en lecture seule comme rôle par défaut. De plus, le rôle Datadog administrateur contient toutes les autorisations des rôles Datadog standard et Datadog en lecture seule. {{% permissions %}} -{{< permissions group="Logs" >}} -## Pour aller plus loin +## Lecture complémentaire {#further-reading} {{< partial name="whats-next/whats-next.html" >}}
    -*Log Rehydration est une marque déposée de Datadog, Inc. +*Log Rehydration est une marque de commerce de Datadog, Inc. -[1]: /fr/account_management/users/#edit-a-user-s-roles -[2]: /fr/api/latest/roles/#list-permissions \ No newline at end of file +[1]: /fr/account_management/rbac/granular_access +[2]: /fr/account_management/users/#edit-a-user-s-roles +[3]: /fr/api/latest/roles/#list-permissions \ No newline at end of file diff --git a/content/fr/agent/_index.md b/content/fr/agent/_index.md index 682f7ed3596..8603c4e541b 100644 --- a/content/fr/agent/_index.md +++ b/content/fr/agent/_index.md @@ -36,8 +36,11 @@ further_reading: tag: Documentation text: Pourquoi installer l'Agent sur des instances cloud ? - link: https://www.datadoghq.com/blog/dont-fear-the-agent/ - tag: Blog + tag: GitHub text: N'ayez pas peur de l'Agent +- link: https://learn.datadoghq.com/courses/agent-on-host + tag: Centre d'apprentissage + text: L'Agent sur un hôte title: Agent ---
    @@ -46,123 +49,123 @@ L'Agent v7 est disponible. Mettez ## Aperçu {#overview} -L'Agent Datadog est un logiciel qui s'exécute sur vos hôtes. Il collecte des événements et des métriques à partir des hôtes et les envoie à Datadog, où vous pouvez analyser vos données de surveillance et de performance. L'Agent Datadog est open source et son code source est disponible sur GitHub à [DataDog/datadog-agent][1]. +L'Agent Datadog est un logiciel qui s'exécute sur vos hôtes. Il collecte des événements et des métriques des hôtes et les envoie à Datadog, où vous pouvez analyser vos données de surveillance et de performance. L'Agent Datadog est open source et son code source est disponible sur GitHub à [DataDog/datadog-agent][1].
    {{< partial name="platforms/platforms.html" links="platforms" >}}

    -Datadog recommande de mettre à jour l'Agent Datadog à chaque version mineure et de correctif, ou, au minimum, mensuellement.

    +Datadog recommande de mettre à jour l'Agent Datadog à chaque version mineure et patch, ou, au minimum, mensuellement.

    -La mise à niveau vers une version majeure de l'Agent Datadog et le maintien de sa mise à jour est le seul moyen pris en charge d'obtenir les dernières fonctionnalités et corrections de l'Agent.

    +La mise à niveau vers une version majeure de l'Agent Datadog et le maintien à jour est le seul moyen pris en charge d'obtenir les dernières fonctionnalités et corrections de l'Agent.

    Il est recommandé d'installer complètement l'Agent. Cependant, un package DogStatsD autonome est disponible pour Amazon Linux, CentOS, Debian, Fedora, Red Hat, SUSE et Ubuntu. Ce package est utilisé dans des environnements conteneurisés où DogStatsD fonctionne comme un sidecar ou dans des environnements exécutant un serveur DogStatsD sans la fonctionnalité complète de l'Agent.

    ## Gestion de l'Agent {#managing-the-agent} -### Gestion de l'Agent avec l'Automatisation de Flotte (recommandé) {#managing-the-agent-with-fleet-automation-recommended} -[L'Automatisation de Flotte][15] est le flux de travail principal dans l'application pour installer, mettre à niveau, configurer et dépanner l'Agent Datadog à grande échelle. +### Gestion de l'Agent avec l'automatisation de flotte (recommandée) {#managing-the-agent-with-fleet-automation-recommended} +[Fleet Automation][15] est le flux de travail principal intégré à l'application pour installer, mettre à niveau, configurer et dépanner l'Agent Datadog à grande échelle. -{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="La vue d'Automatisation de Flotte qui vous permet de gérer vos Agents Datadog de manière centralisée en un seul endroit." style="width:100%;">}} +{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="La vue Fleet Automation qui vous permet de gérer vos Agents Datadog de manière centralisée en un seul endroit." style="width:100%;">}} -- **Voir la configuration & l'historique** : Voir chaque Agent de votre flotte, sa version, les produits activés, les fichiers de configuration et les modifications historiques depuis une seule page. -- **[Mettre à niveau les Agents obsolètes][13]** : Déclencher des mises à niveau à distance pour vos Agents afin de garder votre flotte à jour en quelques clics. -- **[Envoyer un signal de détresse pour obtenir de l'aide][14]** : Depuis l'onglet Support d'un hôte, générez un signal de détresse et attachez-le à un cas de Support existant ou nouveau sans avoir à utiliser la ligne de commande. -- **Auditer l'utilisation de la clé API** : Identifier quels Agents utilisent une clé API spécifique et faire pivoter les clés en toute sécurité. +- **{{< ui >}}View configuration & history{{< /ui >}}**: Voir chaque Agent de votre flotte, sa version, les produits activés, les fichiers de configuration et les modifications historiques depuis une seule page. +- **[Upgrade outdated Agents][13]** : Déclenchez des mises à niveau à distance pour vos Agents afin de maintenir votre flotte à jour en quelques clics. +- **[Send a flare for support][14]** : Depuis l'onglet {{< ui >}}Support{{< /ui >}} d'un hôte, générez un flare et attachez-le à un cas de support existant ou nouveau sans avoir à utiliser la ligne de commande. +- **Audit de l'utilisation de la clé API** : Identifiez quels Agents utilisent une clé API spécifique et faites tourner les clés en toute sécurité. -### Interface graphique Datadog Agent Manager {#datadog-agent-manager-gui} +### Interface graphique du gestionnaire d'Agents Datadog {#datadog-agent-manager-gui}
    L'interface graphique de l'Agent n'est pas prise en charge sur les plateformes Windows 32 bits.
    L'interface graphique Datadog Agent Manager vous permet d'accomplir ce qui suit : -- Voir les informations de statut pour votre Agent -- Voir tous les contrôles en cours d'exécution -- Voir le journal de l'Agent -- Modifier le fichier de configuration de l'Agent (`datadog.yaml`) -- Ajouter ou modifier les contrôles de l'Agent -- Envoyer des signaux de détresse +- Consultez les informations de statut pour votre Agent +- Consultez toutes les vérifications en cours +- Consultez le journal de l'Agent +- Modifiez le fichier de configuration de l'Agent (`datadog.yaml`) +- Ajoutez ou modifiez les vérifications de l'Agent +- Envoyez des flares -L'interface graphique du gestionnaire d'Agent Datadog est activée par défaut sur Windows et macOS, et fonctionne sur le port `5002`. Utilisez la commande `datadog-agent launch-gui` pour ouvrir l'interface graphique dans votre navigateur web par défaut. +L'interface graphique du gestionnaire d'Agents Datadog est activée par défaut sur Windows et macOS, et fonctionne sur le port `5002`. Utilisez la commande `datadog-agent launch-gui` pour ouvrir l'interface graphique dans votre navigateur web par défaut. Vous pouvez changer le port par défaut de l'interface graphique dans votre fichier de configuration `datadog.yaml`. Pour désactiver l'interface graphique, définissez la valeur du port sur `-1`. Sur Linux, l'interface graphique est désactivée par défaut. Prérequis de l'interface graphique : - Les cookies doivent être activés dans votre navigateur. L'interface graphique génère et enregistre un jeton dans votre navigateur, qui est utilisé pour authentifier toutes les communications avec le serveur de l'interface graphique. - Pour démarrer l'interface graphique, l'utilisateur doit avoir les autorisations requises. Si vous pouvez ouvrir `datadog.yaml`, vous pouvez utiliser l'interface graphique. -- Pour des raisons de sécurité, l'interface graphique ne peut **être** accessible que depuis l'interface réseau locale (`localhost`/`127.0.0.1`), vous devez donc être sur l'hôte où l'Agent est en cours d'exécution. Vous ne pouvez pas exécuter l'Agent sur une VM ou un conteneur et y accéder depuis la machine hôte. +- Pour des raisons de sécurité, l'interface graphique ne peut **être** accessible que depuis l'interface réseau locale (`localhost`/`127.0.0.1`), vous devez donc être sur l'hôte où l'Agent est en cours d'exécution. Vous ne pouvez pas exécuter l'Agent sur une machine virtuelle ou un conteneur et y accéder depuis la machine hôte. ### Interface de ligne de commande {#command-line-interface} -À partir de l'Agent 6 et plus tard, l'interface de ligne de commande de l'Agent est basée sur des sous-commandes. Pour une liste complète des sous-commandes de l'Agent, voir [Commandes de l'Agent][2]. +À partir de l'Agent 6 et des versions ultérieures, l'interface de ligne de commande de l'Agent est basée sur des sous-commandes. Pour une liste complète des sous-commandes de l'Agent, voir [Agent Commands][2]. -## En apprendre plus avec l'Agent Datadog {#getting-further-with-the-datadog-agent} +## Aller plus loin avec l'Agent Datadog {#getting-further-with-the-datadog-agent} ### Mettre à jour l'Agent {#update-the-agent} Pour mettre à jour manuellement les composants principaux de l'Agent Datadog depuis et vers une version mineure sur un host donné, exécutez la [commande d'installation correspondant à votre plateforme][7]. -**Remarque** : Si vous souhaitez mettre à jour manuellement une intégration spécifique de l'Agent, consultez le [guide de gestion des intégrations][8]. +**Note** : Si vous souhaitez mettre à jour manuellement une intégration spécifique de l'Agent, consultez le [Integration Management guide][8]. ### Fichiers de configuration {#configuration-files} Consultez la [documentation relative aux fichiers de configuration de l'Agent][9]. -### Site de Datadog {#datadog-site} +### Site Datadog {#datadog-site} -Modifiez le [fichier de configuration principal de l'Agent][10], `datadog.yaml`, pour définir le paramètre `site` (par défaut `datadoghq.com`). +Modifiez le [Agent's main configuration file][10], `datadog.yaml`, pour définir le paramètre `site` (par défaut `datadoghq.com`). ```yaml site: {{< region-param key="dd_site" >}} ``` -**Remarque** : Consultez la [documentation de démarrage avec les sites Datadog][11] pour plus de détails sur le paramètre `site`. +**Note** : Consultez la [Getting Started with Datadog Sites documentation][11] pour plus de détails sur le paramètre `site`. -### Emplacement des logs {#log-location} +### Emplacement des journaux {#log-location} Consultez la section [Fichiers de log de l'Agent][12]. -## Traitement de l'Agent {#agent-overhead} +## Surcharge de l'Agent {#agent-overhead} -Un exemple de la consommation de ressources de l'Agent Datadog est ci-dessous. Des tests ont été effectués sur une instance de machine Amazon EC2 `c5.xlarge` (4 VCPU/ 8 Go de RAM) et des performances comparables ont été observées pour les instances basées sur ARM64 avec des ressources similaires. Le `datadog-agent` standard fonctionnait avec un contrôle de processus pour surveiller l'Agent lui-même. L'activation de plus d'intégrations peut augmenter la consommation de ressources de l'Agent. +Un exemple de la consommation de ressources de l'Agent Datadog est ci-dessous. Des tests ont été effectués sur une instance de machine `c5.xlarge` Amazon EC2 (4 VCPU/ 8 Go de RAM) et des performances comparables ont été observées pour les instances basées sur ARM64 avec des ressources similaires. La version standard `datadog-agent` fonctionnait avec un contrôle de processus pour surveiller l'Agent lui-même. Activer plus d'intégrations peut augmenter la consommation de ressources de l'Agent. L'activation des vérifications JMX oblige l'Agent à utiliser plus de mémoire en fonction du nombre de beans exposés par les JVM surveillées. L'activation des Agents de trace et de processus augmente également la consommation de ressources. * Version de l'Agent testé : 7.34.0 * CPU : ~ 0,08 % du CPU utilisé en moyenne -* Mémoire : ~ 130 Mo de RAM utilisés (mémoire RSS) +* Mémoire : ~ 130 Mo de RAM utilisée (mémoire RSS) * Bande passante réseau : ~ 140 B/s ▼ | 800 B/s ▲ * Disque : * Linux 830 Mo à 880 Mo selon la distribution * Windows : 870 Mo -**Collecte de journaux** : +**Collecte de journaux** : -Les résultats ci-dessous proviennent d'une collecte de *110 Ko de journaux par seconde* à partir d'un fichier avec le [transmetteur HTTP][6] activé. Il montre l'évolution de l'utilisation des ressources pour les différents niveaux de compression disponibles. +Les résultats ci-dessous sont obtenus à partir d'une collecte de * 110 Ko de journaux par seconde * d'un fichier avec le [HTTP forwarder][6] activé. Cela montre l'évolution de l'utilisation des ressources pour les différents niveaux de compression disponibles. {{< tabs >}} {{% tab "Niveau de compression HTTP 6" %}} -* Version de test de l'agent : 6.15.0 +* Agent Test version: 6.15.0 * CPU : ~ 1,5 % du CPU utilisé en moyenne -* Mémoire : ~ 95 Mo de RAM utilisés. +* Mémoire : ~ 95 Mo de RAM utilisée. * Bande passante réseau : ~ 14 KB/s ▲ {{% /tab %}} {{% tab "Niveau de compression HTTP 1" %}} -* Version de test de l'agent : 6.15.0 +* Agent Test version: 6.15.0 * CPU : ~ 1 % du CPU utilisé en moyenne -* Mémoire : ~ 95 Mo de RAM utilisés. +* Mémoire : ~ 95 Mo de RAM utilisée. * Bande passante réseau : ~ 20 KB/s ▲ {{% /tab %}} -{{% tab "HTTP non compressé" %}} +{{% tab "HTTP Uncompressed" %}} * Version de test de l'agent : 6.15.0 * CPU : ~ 0,7 % du CPU utilisé en moyenne -* Mémoire : ~ 90 Mo de RAM utilisés (mémoire RSS) +* Mémoire : ~ 90 Mo de RAM utilisée (mémoire RSS) * Bande passante réseau : ~ 200 Ko/s ▲ {{% /tab %}} @@ -171,21 +174,21 @@ Les résultats ci-dessous proviennent d'une collecte de *110 Ko de journaux par ## Ressources supplémentaires {#additional-resources} {{< whatsnext desc="Cette section comprend les sujets suivants :">}} - {{< nextlink href="/agent/kubernetes">}}Kubernetes : Installer et configurer l'agent Datadog sur Kubernetes.{{< /nextlink >}} - {{< nextlink href="/agent/cluster_agent">}}Agent de cluster : Installer et configurer l'agent de cluster pour Kubernetes, une version de l'agent Datadog conçue pour collecter efficacement des données de surveillance à partir d'un cluster orchestré.{{< /nextlink >}} - {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS : Installer et configurer l'agent Datadog sur Amazon ECS.{{< /nextlink >}} - {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate : Installer et configurer l'agent Datadog avec Amazon ECS sur AWS Fargate{{< /nextlink >}} - {{< nextlink href="/agent/iot">}}IoT : Installer et configurer l'agent IoT Datadog, une version de l'agent Datadog optimisée pour la surveillance des appareils IoT et des applications embarquées.{{< /nextlink >}} - {{< nextlink href="/agent/logs">}}Collecte de journaux : Activer et configurer la collecte de journaux dans l'agent Datadog.{{< /nextlink >}} - {{< nextlink href="/agent/configuration/proxy">}}Proxy : Si votre configuration réseau restreint le trafic sortant, utilisez un proxy pour le trafic de l'agent.{{< /nextlink >}} + {{< nextlink href="/agent/kubernetes">}}Kubernetes : Installer et configurer l'Agent Datadog sur Kubernetes.{{< /nextlink >}} + {{< nextlink href="/agent/cluster_agent">}}Cluster Agent : Installer et configurer le Cluster Agent pour Kubernetes, une version de l'Agent Datadog conçue pour collecter efficacement des données de surveillance à partir d'un cluster orchestré.{{< /nextlink >}} + {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS : Installer et configurer l'Agent Datadog sur Amazon ECS.{{< /nextlink >}} + {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate : Installer et configurer l'Agent Datadog avec Amazon ECS sur AWS Fargate.{{< /nextlink >}} + {{< nextlink href="/agent/iot">}}IoT : Installer et configurer l'Agent IoT Datadog, une version de l'Agent Datadog optimisée pour la surveillance des appareils IoT et des applications embarquées.{{< /nextlink >}} + {{< nextlink href="/agent/logs">}}Collecte de journaux : Activer et configurer la collecte de journaux dans l'Agent Datadog.{{< /nextlink >}} + {{< nextlink href="/agent/configuration/proxy">}}Proxy : Si votre configuration réseau restreint le trafic sortant, utilisez un proxy pour le trafic de l'Agent.{{< /nextlink >}} {{< nextlink href="/agent/versions/">}}Versions : L'Agent 7 est la dernière version majeure de l'Agent Datadog. Découvrez les changements entre les versions majeures de l'Agent et comment effectuer une mise à niveau.{{< /nextlink >}} {{< nextlink href="/agent/troubleshooting">}}Dépannage : Trouvez des informations de dépannage pour l'Agent Datadog.{{< /nextlink >}} {{< nextlink href="/agent/guide">}}Guides : Ce sont des tutoriels approfondis et étape par étape pour utiliser l'Agent.{{< /nextlink >}} {{< nextlink href="/agent/security">}}Sécurité : Informations sur les principales capacités et fonctionnalités de sécurité disponibles pour les clients afin d'assurer la sécurité de leur environnement.{{< /nextlink >}} - {{< nextlink href="/getting_started/observability_pipelines">}}Configurer les Pipelines d'Observabilité et Datadog : Déployez le Worker des Pipelines d'Observabilité en tant qu'agrégateur pour collecter, transformer et acheminer tous vos journaux et métriques vers n'importe quelle destination.{{< /nextlink >}} + {{< nextlink href="/getting_started/observability_pipelines">}}Configurer les pipelines d'observabilité et Datadog : Déployer le Worker des pipelines d'observabilité en tant qu'agrégateur pour collecter, transformer et acheminer tous vos journaux et métriques vers n'importe quelle destination.{{< /nextlink >}} {{< /whatsnext >}} -## Lectures complémentaires {#further-reading} +##Lectures complémentaires{#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/agent/configuration/agent-commands.md b/content/fr/agent/configuration/agent-commands.md new file mode 100644 index 00000000000..f744bda6911 --- /dev/null +++ b/content/fr/agent/configuration/agent-commands.md @@ -0,0 +1,162 @@ +--- +algolia: + tags: + - agent status command +aliases: +- /fr/agent/faq/agent-status-and-information +- /fr/agent/faq/start-stop-restart-the-datadog-agent +- /fr/agent/faq/agent-commands +- /fr/agent/guide/agent-commands +description: Référence complète des commandes de l'Agent Datadog pour démarrer, arrêter, + dépanner et gérer l'Agent. +further_reading: +- link: /agent/troubleshooting/ + tag: Documentation + text: Dépannage de l'Agent +title: Commandes de l'Agent +--- +
    + +## Démarrer, arrêter et redémarrer l'Agent {#start-stop-and-restart-the-agent} + +### Démarrer l'Agent {#start-the-agent} + +Liste des commandes pour démarrer l'Agent Datadog : + +| Plateforme | Commande | +|------------|--------------------------------------------------------------------| +| AIX | `startsrc -s datadog-agent` | +| Linux | Consultez la [documentation de l'Agent][1] pour votre système d'exploitation. | +| Docker | Utilisez la [commande d'installation][2]. | +| Kubernetes | `kubectl create -f datadog-agent.yaml` | +| macOS | `launchctl start com.datadoghq.agent` *ou* via l'application systray | +| Source | `sudo service datadog-agent start` | +| Windows | Consultez la [documentation de l'Agent Windows][3]. | + +### Arrêter l'Agent {#stop-the-agent} + +Liste des commandes pour arrêter l'Agent Datadog : + +| Plateforme | Commande | +|------------|----------------------------------------------------------------------------------| +| AIX | `stopsrc -s datadog-agent` | +| Linux | Consultez la [documentation de l'Agent][1] pour votre système d'exploitation. | +| Docker | `docker exec -it agent stop` | +| Kubernetes | `kubectl delete pod `—note : le pod est automatiquement replanifié | +| macOS | `launchctl stop com.datadoghq.agent` *ou* via l'application systray | +| Source | `sudo service datadog-agent stop` | +| Windows | Consultez la [documentation de l'Agent Windows][3]. | + +### Redémarrer l'Agent {#restart-the-agent} + +Liste des commandes pour redémarrer l'Agent Datadog : + +| Plateforme | Commande | +|------------|----------------------------------------------------------------------------------| +| Linux | Consultez la [documentation de l'Agent][1] pour votre système d'exploitation. | +| Docker | Utilisez la [commande d'installation][2]. | +| Kubernetes | `kubectl delete pod `—note : le pod est automatiquement reprogrammé | +| macOS | Arrêtez puis redémarrez l'Agent avec :
    `launchctl stop com.datadoghq.agent`
    `launchctl start com.datadoghq.agent`
    Ou utilisez l'application systray | +| Source | *Plateforme non prise en charge* | +| Windows | Consultez la [documentation de l'Agent Windows][3]. | + + +## État et informations de l'Agent {#agent-status-and-information} + +### État du service {#service-status} + +Liste des commandes pour afficher le statut de l'Agent Datadog : + +| Plateforme | Commande | +|-----------------|-------------------------------------------------------------------------------| +| AIX | `lssrc -s datadog-agent` | +| Linux | Consultez la [documentation de l'Agent][1] pour votre système d'exploitation. | +| Docker (Debian) | `sudo docker exec -it s6-svstat /var/run/s6/services/agent/` | +| Kubernetes | `kubectl exec -it -- s6-svstat /var/run/s6/services/agent/` | +| macOS | `launchctl list com.datadoghq.agent` *ou* via l'application systray | +| Source | `sudo service datadog-agent status` | +| Windows | Consultez la [documentation de l'Agent Windows][4]. | +| [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | + +### Informations sur l'agent {#agent-information} + +Liste des commandes pour afficher le statut de votre Agent Datadog et les intégrations activées. + +| Plateforme | Commande | +|------------|------------------------------------------------------| +| AIX | `datadog-agent status` | +| Linux | `sudo datadog-agent status` | +| Docker | `sudo docker exec -it agent status` | +| Kubernetes | `kubectl exec -it -- agent status` | +| macOS | `datadog-agent status` or through the [web GUI][6] | +| Source | `sudo datadog-agent status` | +| Windows | Consultez la [documentation de l'Agent Windows][4]. | +| [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | + +Une intégration correctement configurée s'affiche sous **Running Checks** sans avertissements ni erreurs, comme indiqué ci-dessous : + +```text +Running Checks +============== + network (1.6.0) + --------------- + Total Runs: 5 + Metric Samples: 26, Total: 130 + Events: 0, Total: 0 + Service Checks: 0, Total: 0 + Average Execution Time : 0ms +``` + +## Autres commandes {#other-commands} + +L'interface de ligne de commande de l'Agent est basée sur des sous-commandes. Pour voir la liste des sous-commandes disponibles, exécutez : + +```shell + --help +``` + +Pour exécuter une sous-commande, vous devez invoquer le binaire de l'Agent : + +```shell + +``` + +Certaines options ont des flags et des options détaillées sous `--help`. Par exemple, utilisez l'aide avec la sous-commande `check` : + +```shell + check --help +``` + +| Sous-commande | Remarques | +|-------------------|-----------------------------------------------------------------------------| +| `check` | Exécutez la vérification spécifiée. | +| `config` | [Gestion de la configuration d'exécution][7]. | +| `configcheck` | Imprimez toutes les configurations chargées et résolues d'un Agent en cours d'exécution. | +| `diagnose` | Exécutez un diagnostic de connectivité sur votre système. | +| `flare` | [Collect a flare and send it to Datadog][8]. | +| `health` | Imprimez l'état actuel de l'Agent. | +| `help` | Aide sur n'importe quelle commande. | +| `hostname` | Imprimez le nom d'hôte utilisé par l'Agent. | +| `import` | Importez et convertissez les fichiers de configuration des versions précédentes de l'Agent. | +| `jmx` | Dépannage JMX. | +| `launch-gui` | Démarrez l'interface graphique de l'Agent Datadog. | +| `restart-service` | Redémarrez l'Agent dans le gestionnaire de contrôle des services. Windows uniquement. | +| `start-service` | Démarrez l'Agent dans le gestionnaire de contrôle des services. Windows uniquement. | +| `stream-logs` | Diffusez les journaux traités par un Agent en cours d'exécution. | +| `stopservice` | Arrêtez l'Agent dans le gestionnaire de contrôle des services. Windows uniquement. | +| `version` | Imprimez les informations de version. | + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/agent/ +[2]: /fr/agent/docker/ +[3]: /fr/agent/basic_agent_usage/windows/ +[4]: /fr/agent/basic_agent_usage/windows/#status-and-information +[5]: /fr/containers/cluster_agent/ +[6]: /fr/agent/basic_agent_usage/#gui +[7]: /fr/agent/troubleshooting/config/ +[8]: /fr/agent/troubleshooting/send_a_flare/ \ No newline at end of file diff --git a/content/fr/agent/configuration/network.md b/content/fr/agent/configuration/network.md index 7c820bec003..3e42503d4d3 100644 --- a/content/fr/agent/configuration/network.md +++ b/content/fr/agent/configuration/network.md @@ -30,10 +30,10 @@ title: Trafic réseau ## Aperçu {#overview}
    -Le trafic est toujours initié par l'Agent vers Datadog. Aucune session n'est jamais initiée de Datadog vers l'Agent. +Le trafic est toujours initié par l'Agent vers Datadog. Aucune session n'est initiée par Datadog vers l'Agent.
    -Tout le trafic de l'Agent est envoyé via SSL. La destination dépend du service et du site Datadog. Pour voir les destinations basées sur votre [site Datadog][11], cliquez sur le sélecteur `DATADOG SITE` à droite. +Tout le trafic de l'Agent est envoyé via SSL. La destination dépend du service et du site Datadog. Pour voir les destinations basées sur votre [site Datadog][11], cliquez sur le sélecteur {{< ui >}}DATADOG SITE{{< /ui >}} à droite. ## Installation {#installation} @@ -62,7 +62,7 @@ Ce comportement peut être désactivé dans la version 7.72.0 et ultérieure en [Images de Conteneurs][13] : `contimage-intake.`{{< region-param key="dd_site" code="true" >}} -[Conteneurs en Direct][3], [Processus en Direct][4], [Surveillance du Réseau Cloud][24], [Surveillance Universelle des Services][25] +[Conteneurs en Direct][3], [Processus en Direct][4], [Surveillance du Réseau Cloud][24], [Surveillance des Services Universels][25] : `process.`{{< region-param key="dd_site" code="true" >}} [Surveillance des Dispositifs Réseau][10] @@ -71,7 +71,8 @@ Ce comportement peut être désactivé dans la version 7.72.0 et ultérieure en `ndmflow-intake.`{{< region-param key="dd_site" code="true" >}} [Chemin Réseau][14] -: `netpath-intake.`{{< region-param key="dd_site" code="true" >}} +: `netpath-intake.`{{< region-param key="dd_site" code="true" >}}
    +Dans l'Agent v7.75+, le Chemin Réseau contacte des services externes via HTTPS pour résoudre l'adresse IP publique de l'hôte source. C'est optionnel et le Chemin Réseau fonctionne sans cela, mais si votre réseau restreint le trafic sortant et que vous souhaitez la résolution de l'adresse IP publique source, ajoutez les éléments suivants à votre liste d'autorisation : `icanhazip.com`, `ipinfo.io`, `checkip.amazonaws.com`, `api.ipify.org`, `whatismyip.akamai.com`. Voir [Configuration du Chemin Réseau][33] pour plus de détails. [Orchestrateur][5] : `orchestrator.`{{< region-param key="dd_site" code="true" >}}
    @@ -86,18 +87,18 @@ Ce comportement peut être désactivé dans la version 7.72.0 et ultérieure en [Vulnérabilités de Sécurité Cloud][29] : `sbom-intake.`{{< region-param key="dd_site" code="true" >}} -[Emplacements Privés de Surveillance Synthétique][8] -: Travailleurs Synthétiques v1.5.0 ou ultérieur : `intake.synthetics.`{{< region-param key="dd_site" code="true" >}} est le seul point de terminaison que vous devez configurer.
    -Résultats des tests API pour le Travailleur Synthétique > v0.1.6 : `intake.synthetics.`{{< region-param key="dd_site" code="true" >}}
    -Résultats des tests de navigateur pour le Travailleur Synthétique > v0.2.0 : `intake-v2.synthetics.`{{< region-param key="dd_site" code="true" >}}
    -Résultats des tests API pour le Travailleur Synthétique < v0.1.5 : `api.`{{< region-param key="dd_site" code="true" >}} +[Surveillance Synthétique des Emplacements Privés][8] +: Synthetics Worker v1.5.0 ou version ultérieure : `intake.synthetics.`{{< region-param key="dd_site" code="true" >}} est le seul point de terminaison que vous devez configurer.
    +Résultats des tests API pour le Synthetics Worker > v0.1.6 : `intake.synthetics.`{{< region-param key="dd_site" code="true" >}}
    +Résultats des tests de navigateur pour le Synthetics Worker > v0.2.0 : `intake-v2.synthetics.`{{< region-param key="dd_site" code="true" >}}
    +Résultats des tests API pour le Synthetics Worker < v0.1.5 : `api.`{{< region-param key="dd_site" code="true" >}} {{% site-region region="us,eu,us3,us5,ap1,ap2" %}} [Configuration à Distance][101] : `config.`{{< region-param key="dd_site" code="true" >}} -[Surveillance de Base de Données][102] +[Surveillance de base de données][102] : `dbm-metrics-intake.`{{< region-param key="dd_site" code="true" >}}
    `dbquery-intake.`{{< region-param key="dd_site" code="true" >}} @@ -108,22 +109,22 @@ Résultats des tests API pour le Travailleur Synthétique < v0.1.5 : `api.`{{< r {{% logs-tcp-disclaimer %}} -[Logs][30] & [logs HIPAA][31] +[Journaux][30] et [journaux HIPAA][31] : (Obsolète) TCP : {{< region-param key=tcp_endpoint code="true" >}}
    HTTP : {{< region-param key=agent_http_endpoint code="true" >}}
    -Autre : Voir [points de terminaison des journaux][32] +Autre : Voir [points de terminaison de journaux][32] -[Journaux HIPAA hérités][31] (Obsolète, TCP non pris en charge) +[journaux HIPAA hérités][31] (Obsolète, TCP non pris en charge) : {{< region-param key=hipaa_logs_legacy code="true" >}} [Métriques][26], [Vérifications de service][27], [Événements][28] et autres métadonnées de l'Agent : `-app.agent.`{{< region-param key="dd_site" code="true" >}}
    Par exemple, l'Agent v7.31.0 rapporte à `7-31-0-app.agent.`{{< region-param key="dd_site" code="true" >}}. Vous devez ajouter `*.agent.`{{< region-param key="dd_site" code="true" >}} à votre liste d'inclusion dans votre(s) pare-feu(s).
    -Depuis v6.1.0, l'Agent interroge également l'API de Datadog pour fournir des fonctionnalités non critiques (Par exemple, afficher la validité de la clé API configurée) :
    +Depuis v6.1.0, l'Agent interroge également l'API de Datadog pour fournir des fonctionnalités non critiques (Par exemple, afficher la validité de la clé API configurée) :
    Agent v7.18.0 ou 6.18.0 et versions ultérieures : `api.`{{< region-param key="dd_site" code="true" >}}
    Agent < v7.18.0 ou 6.18.0 : `app.`{{< region-param key="dd_site" code="true" >}} -[Flare de l'Agent][12] +[Agent flare][12] : `-flare.agent.`{{< region-param key="dd_site" code="true" >}}
    Par exemple, l'Agent v7.31.0 envoie des données de flare à `7-31-0-flare.agent.`{{< region-param key="dd_site" code="true" >}}. Vous devez ajouter `*.agent.`{{< region-param key="dd_site" code="true" >}} à votre liste d'inclusion dans votre(s) pare-feu(s).
    @@ -160,12 +161,12 @@ Les informations sont structurées au format JSON selon le schéma suivant : Chaque section possède un endpoint dédié sur, par exemple : -- `https://ip-ranges.{{< region-param key="dd_site" >}}/logs.json` pour les IP utilisées pour recevoir des données de journaux via TCP. -- `https://ip-ranges.{{< region-param key="dd_site" >}}/apm.json` pour les IP utilisées pour recevoir des données APM. +- `https://ip-ranges.{{< region-param key="dd_site" >}}`/logs.json` pour les adresses IP utilisées pour recevoir les données de journaux via TCP. +- `https://ip-ranges.`{{< region-param key="dd_site" >}}`/apm.json` pour les adresses IP utilisées pour recevoir les données APM. ### Inclusion {#inclusion} -Ajoutez tous les `ip-ranges` à votre liste d'inclusion. Bien qu'un sous-ensemble soit actif à tout moment, il existe des variations dans l'ensemble en raison du fonctionnement et de la maintenance réguliers du réseau. +Ajoutez tous les `ip-ranges` à votre liste d'inclusion. Bien qu'un sous-ensemble soit actif à tout moment, il existe des variations au fil du temps dans l'ensemble complet en raison du fonctionnement et de la maintenance réguliers du réseau. ## Ports ouverts {#open-ports} @@ -185,8 +186,8 @@ Ouvrez les ports suivants pour bénéficier de toutes les fonctionnalités de l' | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | ---------------------------------------------- | ---------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | | Agent
    APM
    Conteneurs
    Processus en direct
    Métriques
    Surveillance du réseau Cloud
    Surveillance des services universels | 443 | TCP | La plupart des données de l'Agent utilisent le port 443. | | [Autoscaling d'Agent personnalisé][22] | 8443 | TCP | | -| Collecte de journaux | {{< region-param key=web_integrations_port >}} | (Obsolète) TCP | Journalisation via TCP.
    **Remarque** : La collecte de journaux TCP n'est **pas prise en charge**. Datadog ne fournit **aucune garantie de livraison ou de fiabilité** lors de l'utilisation de TCP, et les données de journal peuvent être perdues sans préavis. Pour une ingestion fiable, utilisez le point de terminaison d'entrée HTTP, un Agent Datadog officiel ou une intégration de transfert à la place. Pour d'autres types de connexion, voir [points de terminaison de journaux][21]. | -| NTP | 123 | UDP | Protocole de temps réseau (NTP). Voir [cibles NTP par défaut][20].
    Pour des informations sur le dépannage NTP, voir [problèmes NTP][19]. | +| Collecte de journaux | {{< region-param key=web_integrations_port >}} | (Obsolète) TCP | Collecte de journaux sur TCP.
    **Remarque** : La collecte de journaux TCP n'est **pas prise en charge**. Datadog ne fournit **aucune garantie de livraison ou de fiabilité** lors de l'utilisation de TCP, et les données de journal peuvent être perdues sans préavis. Pour une ingestion fiable, utilisez le point de terminaison d'entrée HTTP, un Agent Datadog officiel ou une intégration de transfert à la place. Pour d'autres types de connexion, voir [logs endpoints][21]. | +| NTP | 123 | UDP | Protocole de temps réseau (NTP). Voir [cibles NTP par défaut][20].
    Pour des informations sur le dépannage de NTP, voir [problèmes NTP][19]. | [19]: /fr/agent/faq/network-time-protocol-ntp-offset-issues/ [20]: /fr/integrations/ntp/#overview @@ -195,11 +196,11 @@ Ouvrez les ports suivants pour bénéficier de toutes les fonctionnalités de l' {{% /site-region %}} -{{% site-region region="us3,us5,gov,ap1,ap2" %}} +{{% site-region region="us3,us5,gov,gov2,ap1,ap2" %}} | Produit/Fonctionnalité | Port | Protocole | Description | | ------------------------------------------------------------------------------------------------------------------- | ---- | -------- | ---------------------------------------------------------------------------------------------------------------------------- | -| Agent
    APM
    Conteneurs
    Processus en direct
    Métriques
    Surveillance du réseau Cloud
    Surveillance des services universels | 443 | TCP | La plupart des données de l'Agent utilisent le port 443. | +| Agent
    APM
    Containers
    Live Processes
    Metrics
    Cloud Network Monitoring
    Universal Service Monitoring | 443 | TCP | La plupart des données de l'Agent utilisent le port 443. | | NTP | 123 | UDP | Protocole de temps réseau (NTP). Voir [cibles NTP par défaut][20].
    Pour des informations sur le dépannage de NTP, voir [problèmes NTP][19]. | [19]: /fr/agent/faq/network-time-protocol-ntp-offset-issues/ @@ -213,66 +214,66 @@ Ports utilisés pour les services de l'Agent qui communiquent entre eux en local | Produit/Fonctionnalité | Port | Protocole | Description | | ---------------------------- | ---- | -------- | ------------------------------------------------------------------------------------------------------------------------------ | -| [Interface graphique de l'agent navigateur][16] | 5002 | TCP | | +| [Interface graphique du navigateur de l'agent][16] | 5002 | TCP | | | Récepteur APM | 8126 | TCP | Inclut le traçage et le profileur. | -| [DogStatsD][18] | 8125 | UDP | Port pour DogStatsD sauf si `dogstatsd_non_local_traffic` est défini sur vrai. Ce port est disponible sur localhost IPv4 : `127.0.0.1`. | +| [DogStatsD][18] | 8125 | UDP | Port pour DogStatsD à moins que `dogstatsd_non_local_traffic` ne soit défini sur vrai. Ce port est disponible sur localhost IPv4 : `127.0.0.1`. | | serveur go_expvar (APM) | 5012 | TCP | Pour plus d'informations, voir [la documentation d'intégration go_expar][15]. | | serveur d'intégration go_expvar | 5000 | TCP | Pour plus d'informations, voir [la documentation d'intégration go_expar][15]. | | API IPC | 5001 | TCP | Port utilisé pour la communication entre processus (IPC). | | Débogage de l'agent de processus | 6062 | TCP | Points de terminaison de débogage pour l'agent de processus. | -| Exécution de l'agent de processus | 6162 | TCP | Paramètres de configuration d'exécution pour l'agent de processus. | +| Runtime du Process Agent | 6162 | TCP | Paramètres de configuration du runtime du Process Agent. | ## Configurer les ports {#configure-ports} -Si vous devez changer un port entrant parce que le port par défaut est déjà utilisé par un service existant sur votre réseau, modifiez le fichier de configuration `datadog.yaml`. Vous pouvez trouver la plupart des ports dans la section **Configuration avancée** du fichier : +Si vous devez changer un port entrant parce que le port par défaut est déjà utilisé par un service existant sur votre réseau, modifiez le `datadog.yaml` fichier de configuration. Vous pouvez trouver la plupart des ports dans la section **configuration avancée** du fichier : {{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} -## @param expvar_port - integer - optional - default: 5000 {#param-expvar-port-integer-optional-default-5000} -## @env DD_EXPVAR_PORT - integer - optional - default: 5000 {#env-dd-expvar-port-integer-optional-default-5000} -## The port for the go_expvar server. {#the-port-for-the-go-expvar-server} +## @param expvar_port - integer - optional - default: 5000 HEADANCHOR:param-expvar-port-integer-optional-default-5000:ENDANCHOR +## @env DD_EXPVAR_PORT - integer - optional - default: 5000 HEADANCHOR:env-dd-expvar-port-integer-optional-default-5000:ENDANCHOR +## The port for the go_expvar server. HEADANCHOR:the-port-for-the-go-expvar-server:ENDANCHOR # -# expvar_port: 5000 {#expvar-port-5000} +# expvar_port: 5000 HEADANCHOR:expvar-port-5000:ENDANCHOR -## @param cmd_port - integer - optional - default: 5001 {#param-cmd-port-integer-optional-default-5001} -## @env DD_CMD_PORT - integer - optional - default: 5001 {#env-dd-cmd-port-integer-optional-default-5001} -## The port on which the IPC api listens. {#the-port-on-which-the-ipc-api-listens} +## @param cmd_port - integer - optional - default: 5001 HEADANCHOR:param-cmd-port-integer-optional-default-5001:ENDANCHOR +## @env DD_CMD_PORT - integer - optional - default: 5001 HEADANCHOR:env-dd-cmd-port-integer-optional-default-5001:ENDANCHOR +## The port on which the IPC api listens. HEADANCHOR:the-port-on-which-the-ipc-api-listens:ENDANCHOR # -# cmd_port: 5001 {#cmd-port-5001} - -## @param GUI_port - integer - optional {#param-gui-port-integer-optional} -## @env DD_GUI_PORT - integer - optional {#env-dd-gui-port-integer-optional} -## The port for the browser GUI to be served. {#the-port-for-the-browser-gui-to-be-served} -## Setting 'GUI_port: -1' turns off the GUI completely {#setting-gui-port-1-turns-off-the-gui-completely} -## Default is: {#default-is} -## * Windows & macOS : `5002` {#windows-macos-5002} -## * Linux: `-1` {#linux-1} +# cmd_port: 5001 HEADANCHOR:cmd-port-5001:ENDANCHOR + +## @param GUI_port - integer - optional HEADANCHOR:param-gui-port-integer-optional:ENDANCHOR +## @env DD_GUI_PORT - integer - optional HEADANCHOR:env-dd-gui-port-integer-optional:ENDANCHOR +## The port for the browser GUI to be served. HEADANCHOR:the-port-for-the-browser-gui-to-be-served:ENDANCHOR +## Setting 'GUI_port: -1' turns off the GUI completely HEADANCHOR:setting-gui-port-1-turns-off-the-gui-completely:ENDANCHOR +## Default is: HEADANCHOR:default-is:ENDANCHOR +## * Windows & macOS : `5002` HEADANCHOR:windows-macos-5002:ENDANCHOR +## * Linux: `-1` HEADANCHOR:linux-1:ENDANCHOR ## # -# GUI_port: {#gui-port} +# GUI_port: HEADANCHOR:gui-port:ENDANCHOR {{< /code-block >}} -Le récepteur APM et les ports DogStatsD se trouvent dans les sections **Configuration de collecte de traces** et **Configuration de DogStatsD** du fichier de configuration `datadog.yaml`, respectivement : +Les ports du récepteur APM et de DogStatsD se trouvent respectivement dans les sections **configuration de la collecte de traces** et **configuration de DogStatsD** du fichier de configuration `datadog.yaml` : {{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} -## @param dogstatsd_port - integer - optional - default: 8125 {#param-dogstatsd-port-integer-optional-default-8125} -## @env DD_DOGSTATSD_PORT - integer - optional - default: 8125 {#env-dd-dogstatsd-port-integer-optional-default-8125} -## Override the Agent DogStatsD port. {#override-the-agent-dogstatsd-port} -## Note: Make sure your client is sending to the same UDP port. {#note-make-sure-your-client-is-sending-to-the-same-udp-port} +## @param dogstatsd_port - integer - optional - default: 8125 HEADANCHOR:param-dogstatsd-port-integer-optional-default-8125:ENDANCHOR +## @env DD_DOGSTATSD_PORT - integer - optional - default: 8125 HEADANCHOR:env-dd-dogstatsd-port-integer-optional-default-8125:ENDANCHOR +## Override the Agent DogStatsD port. HEADANCHOR:override-the-agent-dogstatsd-port:ENDANCHOR +## Note: Make sure your client is sending to the same UDP port. HEADANCHOR:note-make-sure-your-client-is-sending-to-the-same-udp-port:ENDANCHOR # -# dogstatsd_port: 8125 {#dogstatsd-port-8125} +# dogstatsd_port: 8125 HEADANCHOR:dogstatsd-port-8125:ENDANCHOR [...] -## @param receiver_port - integer - optional - default: 8126 {#param-receiver-port-integer-optional-default-8126} -## @env DD_APM_RECEIVER_PORT - integer - optional - default: 8126 {#env-dd-apm-receiver-port-integer-optional-default-8126} -## The port that the trace receiver should listen on. {#the-port-that-the-trace-receiver-should-listen-on} -## Set to 0 to disable the HTTP receiver. {#set-to-0-to-disable-the-http-receiver} +## @param receiver_port - integer - optional - default: 8126 HEADANCHOR:param-receiver-port-integer-optional-default-8126:ENDANCHOR +## @env DD_APM_RECEIVER_PORT - integer - optional - default: 8126 HEADANCHOR:env-dd-apm-receiver-port-integer-optional-default-8126:ENDANCHOR +## The port that the trace receiver should listen on. HEADANCHOR:the-port-that-the-trace-receiver-should-listen-on:ENDANCHOR +## Set to 0 to disable the HTTP receiver. HEADANCHOR:set-to-0-to-disable-the-http-receiver:ENDANCHOR # -# receiver_port: 8126 {#receiver-port-8126} +# receiver_port: 8126 HEADANCHOR:receiver-port-8126:ENDANCHOR {{< /code-block >}} -
    Si vous changez la valeur du port DogStatsD ou du port du récepteur APM ici, vous devez également changer la configuration de la bibliothèque de traçage APM pour le port correspondant. Voir les informations sur la configuration des ports dans la documentation de configuration de la bibliothèque pour votre langue.
    +
    Si vous changez la valeur du port DogStatsD ou du port du récepteur APM ici, vous devez également changer la configuration du SDK Datadog pour le port correspondant. Consultez les informations sur la configuration des ports dans la documentation Library Configuration docs.
    ## Utilisation de proxies {#using-proxies} @@ -281,19 +282,19 @@ Pour obtenir des instructions détaillées sur la configuration d'un proxy, cons ## Mise en mémoire tampon des données {#data-buffering} Si le réseau devient indisponible, l'Agent stocke les métriques en mémoire. -L'utilisation maximale de la mémoire pour stocker les métriques est définie par le paramètre de configuration `forwarder_retry_queue_payloads_max_size`. Lorsque cette limite est atteinte, les métriques sont supprimées. +L'utilisation maximale de la mémoire pour stocker les métriques est définie par le `forwarder_retry_queue_payloads_max_size` paramètre de configuration. Lorsque cette limite est atteinte, les métriques sont supprimées. -L'Agent v7.27.0 ou version ultérieure stocke les métriques sur disque lorsque la limite de mémoire est atteinte. Activez cette fonctionnalité en définissant `forwarder_storage_max_size_in_bytes` sur une valeur positive indiquant la quantité maximale d'espace de stockage, en octets, que l'Agent peut utiliser pour stocker les métriques sur disque. +L'Agent v7.27.0 ou ultérieur stocke les métriques sur disque lorsque la limite de mémoire est atteinte. Activez cette fonctionnalité en définissant `forwarder_storage_max_size_in_bytes` sur une valeur positive indiquant la quantité maximale d'espace de stockage, en octets, que l'Agent peut utiliser pour stocker les métriques sur disque. Les métriques sont stockées dans le dossier défini par le paramètre `forwarder_storage_path`, qui est par défaut `/opt/datadog-agent/run/transactions_to_retry` sur les systèmes Unix, et `C:\ProgramData\Datadog\run\transactions_to_retry` sur Windows. -Pour éviter de manquer d'espace de stockage, l'Agent stocke les métriques sur disque uniquement si l'espace de stockage total utilisé est inférieur à 80 pour cent. Cette limite est définie par le paramètre `forwarder_storage_max_disk_ratio`. +Pour éviter de manquer d'espace de stockage, l'Agent ne stocke les métriques sur disque que si l'espace de stockage total utilisé est inférieur à 80 pour cent. Cette limite est définie par le `forwarder_storage_max_disk_ratio` paramètre. ## Installation de l'Opérateur Datadog {#installing-the-datadog-operator} Si vous installez l'Opérateur Datadog dans un environnement Kubernetes avec une connectivité limitée, vous devez autoriser les points de terminaison suivants pour le port TCP 443, en fonction de votre registre : -- `registry.datadoghq.com` (Registre de conteneurs Datadog) +- `registry.datadoghq.com` (registre de conteneurs Datadog) - `us-docker.pkg.dev/datadog-prod/public-images` (peut recevoir des redirections de `registry.datadoghq.com`) - `gcr.io/datadoghq` (GCR US) - `eu.gcr.io/datadoghq` (GCR Europe) @@ -303,7 +304,7 @@ Si vous installez l'Opérateur Datadog dans un environnement Kubernetes avec une - `docker.io/datadog` (DockerHub) -## Lectures complémentaires {#further-reading} +## Pour aller plus loin {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -338,4 +339,5 @@ Si vous installez l'Opérateur Datadog dans un environnement Kubernetes avec une [29]: /fr/security/cloud_security_management/vulnerabilities/ [30]: /fr/logs/ [31]: /fr/data_security/logs/#hipaa-enabled-customers -[32]: /fr/logs/log_collection/#logging-endpoints \ No newline at end of file +[32]: /fr/logs/log_collection/#logging-endpoints +[33]: /fr/network_monitoring/network_path/setup/#source-public-ip-resolution \ No newline at end of file diff --git a/content/fr/bits_ai/mcp_server/_index.md b/content/fr/bits_ai/mcp_server/_index.md new file mode 100644 index 00000000000..9227ce9f9b2 --- /dev/null +++ b/content/fr/bits_ai/mcp_server/_index.md @@ -0,0 +1,113 @@ +--- +algolia: + rank: 90 + tags: + - mcp + - mcp server +description: Connectez les agents IA aux données d'observabilité de Datadog en utilisant + le serveur MCP pour interroger les métriques, les journaux, les traces et d'autres + informations. +further_reading: +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: Extension Datadog pour Cursor +- link: bits_ai/mcp_server/setup + tag: Documentation + text: Configurer le serveur MCP de Datadog +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Outils du serveur MCP de Datadog +- link: bits_ai/ + tag: Documentation + text: Aperçu de Bits AI +- link: https://www.datadoghq.com/blog/datadog-mcp-server-use-cases + tag: GitHub + text: Quatre façons dont les équipes d'ingénierie utilisent le serveur MCP de Datadog + pour alimenter les agents IA +- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/ + tag: GitHub + text: Connectez vos agents IA aux outils et au contexte de Datadog en utilisant + le serveur MCP de Datadog +- link: https://www.datadoghq.com/blog/datadog-cursor-extension/ + tag: GitHub + text: Déboguez les problèmes de production en direct avec l'extension Datadog Cursor +- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/ + tag: GitHub + text: 'Datadog + OpenAI : intégration Codex CLI pour DevOps assisté par IA' +title: Serveur MCP de Datadog +--- +Le serveur MCP de Datadog agit comme un pont entre vos données d'observabilité dans Datadog et tous les agents IA qui prennent en charge le [Modèle de Protocole de Contexte (MCP)][1]. En fournissant un accès structuré aux contextes, fonctionnalités et outils pertinents de Datadog, le serveur MCP vous permet d'interroger et de récupérer des informations d'observabilité directement depuis des clients alimentés par IA tels que Cursor, OpenAI Codex, Claude Code ou votre propre agent IA. + +**Prêt à commencer ?** Sélectionnez votre agent ci-dessous ou consultez [Configurer le serveur MCP de Datadog][27] pour les instructions de connexion. + +{{< partial name="mcp_server/mcp_server_agents.html" >}} + +Cette démo montre le serveur MCP de Datadog utilisé dans Cursor et Claude Code (désactivez la sourdine pour l'audio) : + +{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="Démo du serveur MCP de Datadog dans Cursor et Claude Code :" video="true" >}} + + +## Avertissements {#disclaimers} + +- Le serveur MCP de Datadog est éligible HIPAA. Vous êtes responsable de vous assurer que les outils IA que vous connectez au serveur MCP de Datadog répondent à vos exigences de conformité, telles que HIPAA. +- Le serveur MCP de Datadog n'est pas compatible avec GovCloud. +- Datadog collecte certaines informations sur votre utilisation du serveur MCP de Datadog à distance, y compris la manière dont vous interagissez avec lui, si des erreurs se sont produites lors de son utilisation, ce qui a causé ces erreurs, et les identifiants des utilisateurs conformément à la Politique de confidentialité de Datadog et au Contrat de licence utilisateur final (EULA) de Datadog. Ces données sont utilisées pour aider à améliorer les performances et les fonctionnalités du serveur, y compris les transitions vers et depuis le serveur et la page de connexion Datadog applicable pour accéder aux services, ainsi que le contexte (par exemple, les invites utilisateur) menant à l'utilisation des outils MCP. Les données sont conservées pendant 120 jours. + +## Limites de taux d'utilisation équitable {#fair-use-rate-limits} + +Le serveur MCP est soumis aux limites d'utilisation équitable suivantes : +- Limite de rafale d'appels d'outils : 50 requêtes toutes les 10 secondes +- 5000 appels d'outils par jour +- 50 000 appels d'outils par mois. + +Ces limites sont **susceptibles d'être modifiées** et peuvent être ajustées si votre cas d'utilisation nécessite davantage. Veuillez contacter [le support Datadog][37] pour toute demande ou question. + +## Surveillance des appels d'outils du serveur MCP Datadog {#monitoring-the-datadog-mcp-server-tool-calls} + +Vous pouvez suivre l'utilisation du serveur MCP Datadog pour votre organisation en utilisant les indicateurs Datadog et le Journal d'audit. + +Tous les appels d'outils sont enregistrés dans le [Journal d'audit Datadog][16] avec des métadonnées les identifiant comme des actions MCP, y compris le nom de l'outil, les arguments, l'identité de l'utilisateur et le client MCP utilisé. Voir [Suivre les appels d'outils dans le Journal d'audit](#track-tool-calls-in-audit-trail) pour plus d'informations. + +Datadog émet également deux indicateurs standard que vous pouvez utiliser pour surveiller l'activité du serveur MCP : + +- `datadog.mcp.session.starts` : Émis à chaque initialisation de session. +- `datadog.mcp.tool.usage` : Une métrique de distribution émise à chaque appel d'outil. + +Les deux indicateurs sont étiquetés avec des attributs tels que `user_id`, `user_email`, `client` (le nom du client MCP, tel que `claude` ou `cursor`), et `tool_name`. + +Parce que `datadog.mcp.tool.usage` est un indicateur de distribution, utilisez `count` (pas `sum`) avec `.as_count()` pour obtenir le nombre d'appels d'outils. Par exemple, pour interroger le nombre total d'appels d'outils regroupés par adresse e-mail utilisateur : + +``` +count:datadog.mcp.tool.usage{*} by {user_email}.as_count() +``` + +## Outils disponibles {#available-tools} + +Voir [Outils du serveur MCP Datadog][2] pour une référence complète des outils disponibles organisés par jeu d'outils, avec des exemples de requêtes. Pour activer des jeux d'outils spécifiques, voir [Configurer le serveur MCP Datadog][28] pour des instructions. + +## Efficacité contextuelle {#context-efficiency} + +Le serveur MCP Datadog est optimisé pour fournir des réponses de manière à ce que les agents IA obtiennent un contexte pertinent sans être submergés par des informations inutiles. Exemple : + +- Les réponses sont tronquées en fonction de la longueur estimée des réponses fournies par chaque outil. Les outils répondent aux agents IA avec des instructions sur la façon de demander plus d'informations si la réponse a été tronquée. +- La plupart des outils ont un paramètre `max_tokens` qui permet aux agents IA de demander moins ou plus d'informations. + +## Suivre les appels d'outils dans le Journal d'audit {#track-tool-calls-in-audit-trail} + +Vous pouvez consulter des informations sur les appels effectués par les outils du serveur MCP dans le [Journal d'audit][16] de Datadog. Rechercher ou filtrer par le nom de l'événement `MCP Server`. + +## Retour d'information {#feedback} + +Le serveur MCP Datadog fait l'objet d'un développement important. Utilisez [ce formulaire de commentaires][19] pour partager vos retours, cas d'utilisation ou problèmes rencontrés avec vos prompts et requêtes. + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://modelcontextprotocol.io/ +[2]: /fr/bits_ai/mcp_server/tools +[16]: /fr/account_management/audit_trail/ +[19]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform +[27]: /fr/bits_ai/mcp_server/setup +[28]: /fr/bits_ai/mcp_server/setup#toolsets +[37]: https://help.datadoghq.com/hc/en-us/requests/new \ No newline at end of file diff --git a/content/fr/bits_ai/mcp_server/setup.md b/content/fr/bits_ai/mcp_server/setup.md new file mode 100644 index 00000000000..a156212efdc --- /dev/null +++ b/content/fr/bits_ai/mcp_server/setup.md @@ -0,0 +1,743 @@ +--- +algolia: + rank: 75 + tags: + - mcp + - mcp server + - setup +description: Apprenez à connecter votre agent IA au serveur Datadog MCP. +further_reading: +- link: bits_ai/mcp_server + tag: Documentation + text: Serveur Datadog MCP +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Outils du serveur Datadog MCP +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: Extension Datadog pour Cursor +title: Configurer le serveur Datadog MCP +--- +Apprenez à configurer et à paramétrer le serveur Datadog MCP, qui vous permet de récupérer des informations de télémétrie et de gérer les fonctionnalités de la plateforme directement depuis des clients alimentés par l'IA. Sélectionnez votre client : + +{{< tabs >}} +{{% tab "Claude" %}} + +Connectez Claude (y compris Claude Cowork) au serveur Datadog MCP en l'ajoutant en tant que {{< ui >}}custom connector{{< /ui >}} avec l'URL MCP distante. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Suivez le guide du centre d'aide de Claude sur [connecteurs personnalisés][1] pour ajouter un nouveau connecteur personnalisé. + +1. Lorsque vous êtes invité à entrer une URL, saisissez le point de terminaison du serveur Datadog MCP pour votre [site Datadog][2] ({{< region-param key="dd_site_name" >}}). Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. +
    {{< region-param key="mcp_server_endpoint" >}}
    + + Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Complétez le flux de connexion OAuth lorsque vous y êtes invité. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +[1]: https://support.claude.com/en/articles/11175166-get-started-with-custom-connectors-using-remote-mcp +[2]: /fr/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site Datadog sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Claude Code" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre site [Datadog régional][1]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Exécutez dans le terminal : +
    claude mcp add --transport http datadog-mcp {{< region-param key="mcp_server_endpoint" >}}
    + + Alternativement, ajoutez à `~/.claude.json` : +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +         }
    +       }
    +    }
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +
    Si l'authentification à distance n'est pas disponible, utilisez l'authentification binaire locale à la place.
    + +[1]: /fr/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} + +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    + +{{< /site-region >}} + +[1]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "Codex" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre site [Datadog régional][1]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Modifiez `~/.codex/config.toml` (ou votre fichier de configuration Codex CLI) pour ajouter le serveur Datadog MCP avec le transport HTTP et l'URL de point de terminaison pour votre site. Exemple : + +
    [mcp_servers.datadog]
    +   url = "{{< region-param key="mcp_server_endpoint" >}}"
    +   
    + + Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Connectez-vous au serveur Datadog MCP : + + ```shell + codex mcp login datadog + ``` + + Cela ouvre votre navigateur pour compléter le flux OAuth. Codex stocke les identifiants résultants afin que vous n'ayez pas besoin de vous reconnecter jusqu'à l'expiration du jeton. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "Cursor" %}} + +Installez le [Datadog Plugin][1] depuis le Cursor Marketplace — le plugin inclut le serveur Datadog MCP et d'autres ressources. Si vous avez précédemment installé le serveur Datadog MCP manuellement, supprimez-le de la configuration de l'IDE pour éviter les conflits. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Vous pouvez installer le plugin depuis le Cursor Marketplace ou depuis l'interface de Cursor : + - Depuis le Cursor Marketplace, ouvrez le [Datadog Plugin][1] et cliquez sur **Add to Cursor**. + - Dans Cursor, accédez à **Cursor Settings** > **Plugins**, puis recherchez le Datadog Plugin et cliquez sur **Add to Cursor**. + +1. Après l'installation du plugin, tapez `/ddsetup` dans le chat de l'agent pour effectuer la configuration initiale. +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +[1]: https://cursor.com/marketplace/datadog +[2]: /fr/ide_plugins/vscode/?tab=cursor#installation +[3]: /fr/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: https://cursor.com/marketplace/datadog +{{% /tab %}} + +{{% tab "Devin" %}} + +Connectez Devin au serveur Datadog MCP en l'activant depuis le marché MCP de Devin. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Dans Devin, allez à {{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Marketplace{{< /ui >}} et recherchez `Datadog`. +1. Sélectionnez votre site Datadog pour le {{< ui >}}Server URL{{< /ui >}} ; par exemple, votre site sélectionné est {{< region-param key="dd_site_name" code="true" >}}. +1. Entrez vos clés API et d'application Datadog. +1. Installez et activez le serveur, puis complétez le flux de connexion OAuth lorsque cela est demandé. +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +
    Pour utiliser des ensembles d'outils spécifiques au produit, configurez un serveur MCP personnalisé dans Devin et incluez le paramètre de requête toolsets à la fin de l'URL du point de terminaison. Consultez Ensembles d'outils pour plus d'informations. +
    + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Gemini CLI" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre site [Datadog régional][1]. Pour les instructions correctes, utilisez le sélecteur **Site Datadog** sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Exécutez dans le terminal : +
    gemini mcp add --transport http datadog {{< region-param key="mcp_server_endpoint" >}}
    + + Alternativement, ajoutez à `~/.gemini/settings.json` : +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "httpUrl": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +
    Si l'authentification à distance n'est pas disponible, utilisez l'authentification binaire locale à la place.
    + +[1]: /fr/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "Goose" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre [Datadog site régional][3]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ajoutez le serveur MCP Datadog à Goose en utilisant l'une des méthodes suivantes : + - **Installation en un clic (recommandée) :** Utilisez le serveur MCP Datadog {{< region-param key="goose_mcp_install_deeplink" link="true" text="install deeplink" >}}. + - **Configuration manuelle :** Suivez les instructions de Goose pour [ajouter un serveur MCP][2], en utilisant l'endpoint listé dans cette section comme l'URL du serveur HTTP diffusé. Pour modifier la configuration directement, modifiez `~/.config/goose/config.yaml`. + +1. Pour activer [des outils spécifiques au produit][1], incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'observabilité APM et LLM : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + + To enable all generally available toolsets, use `toolsets=all`. This works best for clients that support tool filtering. + +1. Lors du premier lancement de session, choisissez votre compte Datadog lorsque cela est demandé pour vous authentifier. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +[1]: /fr/bits_ai/mcp_server#toolsets +[2]: https://goose-docs.ai/docs/getting-started/using-extensions#mcp-servers +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[3]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "IDE JetBrain" %}} + +JetBrains propose les plugins [Junie][1] et [AI Assistant][2] pour sa gamme d'IDE. GitHub propose le plugin [Copilot][4]. Alternativement, de nombreux développeurs utilisent un agent CLI, tel que Claude Code, Codex ou Gemini CLI, en complément de leur IDE. + +Dirigez votre plugin vers le point de terminaison du serveur MCP pour votre site [Datadog régional][3]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +{{% collapse-content title="Junie" level="h4" expanded=false id="jetbrains-junie" %}} +1. Allez à {{< ui >}}Tools{{< /ui >}} > {{< ui >}}Junie{{< /ui >}} > {{< ui >}}MCP Settings{{< /ui >}} et ajoutez le bloc suivant : + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Vous êtes invité à vous connecter via OAuth. L'indicateur de statut dans les paramètres affiche une coche verte lorsque la connexion est réussie. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{% /collapse-content %}} + +{{% collapse-content title="JetBrains AI Assistant" level="h4" expanded=false id="jetbrains-ai-assistant" %}} +1. Allez à {{< ui >}}Tools{{< /ui >}} > {{< ui >}}AI Assistant{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}} et ajoutez le bloc suivant : + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +          "headers": {
    +            "DD_API_KEY": "<VOTRE_API_KEY>",
    +            "DD_APPLICATION_KEY": "<VOTRE_APP_KEY>"
    +          }
    +        }
    +      }
    +    }
    +    
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. L'indicateur de statut dans les paramètres affiche une coche verte lorsque la connexion est réussie. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{% /collapse-content %}} + +{{% collapse-content title="GitHub Copilot" level="h4" expanded=false id="github-copilot" %}} +1. Allez à {{< ui >}}Tools{{< /ui >}} > {{< ui >}}GitHub Copilot{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}} et ajoutez le bloc suivant : + +
    {
    +      "serveurs": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Cliquez sur l'élément `Start` qui apparaît dans l'éditeur pour démarrer le serveur. Vous êtes invité à vous connecter via OAuth. + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{% /collapse-content %}} + +{{% collapse-content title="CLIs d'agent" level="h4" expanded=false id="jetbrains-agent-clis" %}} +De nombreux développeurs utilisent un CLI d'agent tel que Claude Code, Codex ou Gemini CLI en parallèle de leur IDE JetBrains. Voir la configuration de ces outils CLI : +- [Claude Code][4] +- [Codex][5] +- [Gemini CLI][6] + +Le [plugin Datadog pour les IDE JetBrains][3] s'intègre à ces CLIs d'agent. Pour une expérience ininterrompue, installez le plugin en même temps que vous configurez le serveur Datadog MCP. + +[3]: /fr/ide_plugins/idea/ +[4]: /fr/bits_ai/mcp_server/setup/?tab=claudecode +[5]: /fr/bits_ai/mcp_server/setup/?tab=codex +[6]: /fr/bits_ai/mcp_server/setup/?tab=geminicli +{{% /collapse-content %}} +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: https://plugins.jetbrains.com/plugin/26104-junie-the-ai-coding-agent-by-jetbrains +[2]: https://plugins.jetbrains.com/plugin/22282-jetbrains-ai-assistant +[3]: /fr/getting_started/site/ +[4]: https://plugins.jetbrains.com/plugin/17718-github-copilot--your-ai-pair-programmer +{{% /tab %}} + +{{% tab "Kiro" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre [site Datadog][3] régional. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ajoutez ce qui suit à votre [fichier de configuration Kiro MCP][2] (`~/.kiro/settings/mcp.json` pour une configuration spécifique à l'utilisateur) : + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +[2]: https://kiro.dev/docs/mcp/configuration/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[3]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "OpenCode" %}} + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre [site Datadog régional][1]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ajoutez ce qui suit à votre fichier de configuration `opencode.json` : +
    {
    +     "mcp": {
    +       "datadog": {
    +         "type": "remote",
    +         "url": "{{< region-param key="mcp_server_endpoint" >}}\
    +         "enabled": true
    +       }
    +     }
    +   }
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + + Pour activer tous les ensembles d'outils généralement disponibles, utilisez `toolsets=all`. Cela fonctionne mieux pour les clients qui prennent en charge le filtrage des outils. + +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +[1]: /fr/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "VS Code" %}} + +L'[extension Cursor et VS Code de Datadog][1] inclut un accès intégré au serveur Datadog MCP géré. GitHub Copilot peut également accéder au serveur Datadog MCP dans VS Code (nécessite un abonnement actif à GitHub Copilot). + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. Installez l'extension (omettez `--profile` et le nom de profil pour l’installer dans le profil par défaut de VS Code ): + ```shell + code --install-extension datadog.datadog-vscode --profile + ``` + Alternativement, installez l'[extension Datadog][2]. Si vous avez déjà installé l'extension, assurez-vous qu'elle est à jour. +1. Connectez-vous à votre compte Datadog. +1. **Redémarrez l'IDE.** +1. Confirmez que le serveur Datadog MCP est disponible et que les [outils][3] sont listés : ouvrez le panneau de discussion, sélectionnez le mode agent et cliquez sur le bouton {{< ui >}}Configure Tools{{< /ui >}}. + {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="Bouton Configurer les Outils dans VS Code" style="width:70%;" >}} +1. Si vous avez précédemment installé manuellement le serveur Datadog MCP, retirez-le de la configuration de l'IDE pour éviter les conflits. Ouvrez la palette de commandes (`Shift` + `Cmd/Ctrl` + `P`) et exécutez `MCP: Open User Configuration`. +1. Vérifiez que vous disposez des [permissions](#required-permissions) requises pour accéder aux ressources Datadog que vous souhaitez utiliser. + +[2]: /fr/ide_plugins/vscode/?tab=vscode#installation +[3]: /fr/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /fr/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "Warp" %}} + +[Warp][1] est un terminal agentique avec un support MCP intégré. Dirigez l'agent Warp vers le point de terminaison du serveur MCP pour votre [site Datadog régional][2]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Dans l'application Warp, allez à {{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Servers{{< /ui >}} et cliquez sur {{< ui >}}+ Add{{< /ui >}}. + +1. Collez la configuration suivante : + +
    {
    +      "Datadog": {
    +        "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +      }
    +    }
    + + To enable [product-specific tools](#toolsets), include the `toolsets` query parameter at the end of the endpoint URL. For example, this URL enables _only_ APM and LLM Observability tools (use `toolsets=all` to enable all generally available toolsets, best for clients that support tool filtering): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Cliquez sur {{< ui >}}Start{{< /ui >}} sur le serveur Datadog. Warp ouvre votre navigateur pour compléter le flux de connexion OAuth. Les identifiants sont stockés en toute sécurité sur votre appareil et réutilisés pour les sessions futures. + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: https://www.warp.dev/ +[2]: /fr/getting_started/site/ +{{% /tab %}} + +{{% tab "Other" %}} + +Pour la plupart des autres [clients pris en charge](#supported-clients), utilisez ces instructions pour l'authentification à distance. Pour Cline ou lorsque l'authentification à distance est peu fiable ou non disponible, utilisez [l'authentification binaire locale](#local-binary-authentication). + +Dirigez votre agent IA vers le point de terminaison du serveur MCP pour votre site [Datadog régional][1]. Pour les instructions correctes, utilisez le sélecteur {{< ui >}}Datadog Site{{< /ui >}} sur le côté droit de cette page de documentation pour sélectionner votre site. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Point de terminaison sélectionné ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Ajoutez le serveur Datadog MCP au fichier de configuration de votre client en utilisant le transport HTTP et l'URL du point de terminaison de votre site. Exemple : + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. Pour activer les [outils spécifiques au produit](#toolsets), incluez le paramètre de requête `toolsets` à la fin de l'URL du point de terminaison. Par exemple, cette URL active _uniquement_ les outils d'Observabilité APM et LLM (utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles, idéal pour les clients qui prennent en charge le filtrage des outils) : + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Vérifiez que vous avez les [permissions](#required-permissions) requises pour les ressources Datadog auxquelles vous souhaitez accéder. + +{{< /site-region >}} + +{{< site-region region="gov,gov2" >}} +
    Le serveur Datadog MCP n'est pas pris en charge pour votre site sélectionné ({{< region-param key="dd_site_name" >}}).
    + +{{< /site-region >}} + +[1]: /fr/getting_started/site/ +{{% /tab %}} +{{< /tabs >}} + +## Ensembles d'outils {#toolsets} + +Le serveur MCP de Datadog prend en charge _ensembles d'outils_, ce qui vous permet d'utiliser uniquement les [outils MCP][49] dont vous avez besoin, économisant ainsi de l'espace précieux dans la fenêtre de contexte. Pour utiliser un ensemble d'outils, incluez le paramètre de requête `toolsets` dans l'URL du point de terminaison lors de la connexion au serveur MCP ([authentification à distance](#authentication) uniquement). Utilisez `toolsets=all` pour activer tous les ensembles d'outils généralement disponibles en même temps. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Par exemple, en fonction de votre site [Datadog sélectionné][17] ({{< region-param key="dd_site_name" >}}) : + +- Récupérer uniquement les outils de base (c'est le paramètre par défaut si `toolsets` n'est pas spécifié) : +
    {{< region-param key="mcp_server_endpoint" >}}
    + +- Récupérer uniquement les outils liés aux tests synthétiques : +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=synthetics
    + +- Récupérer les outils de base, de tests synthétiques et de livraison de logiciels : +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=core,synthetics,software-delivery
    + +- Récupérer tous les outils généralement disponibles : +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=all
    + +
    Activer tous les ensembles d'outils augmente le nombre de définitions d'outils envoyées à votre client IA, ce qui consomme de l'espace dans la fenêtre de contexte. toolsets=all fonctionne mieux avec des clients qui prennent en charge le filtrage des outils, comme Claude Code.
    + +[17]: /fr/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +### Ensembles d'outils disponibles {#available-toolsets} + +Ces ensembles d'outils sont généralement disponibles. Consultez [Outils du serveur MCP de Datadog][49] pour une référence complète des outils disponibles organisés par ensemble d'outils, avec des exemples de requêtes. + +- `core` : L'ensemble d'outils par défaut pour les journaux, les métriques, les traces, les tableaux de bord, les moniteurs, les incidents, les hôtes, les services, les événements et les carnets de notes +- `alerting` : Outils pour valider et créer des moniteurs, rechercher des groupes de moniteurs, récupérer des modèles de moniteurs, analyser la couverture des moniteurs et rechercher des SLOs +- `cases` : Outils pour [Gestion des cas][42], y compris la création, la recherche et la mise à jour de cas ; la gestion de projets ; et le lien avec des problèmes Jira. +- `dashboards` : Outils pour récupérer, créer, mettre à jour et supprimer des [tableaux de bord][46], ainsi que la référence et la validation du schéma des widgets +- `dbm` : Outils pour interagir avec [Surveillance de base de données][33] +- `ddsql` : Outils pour interroger les données de Datadog en utilisant [DDSQL][44], un dialecte SQL prenant en charge les ressources d'infrastructure, les journaux, les métriques, RUM, les spans et d'autres sources de données Datadog +- `error-tracking` : Outils pour interagir avec [Suivi des erreurs][32] de Datadog +- `feature-flags` : Outils pour gérer les [drapeaux de fonctionnalités][35], y compris la création, la liste et la mise à jour des drapeaux et de leurs environnements +- `kubernetes` : Outils pour rechercher et décrire les ressources [Kubernetes][51] et récupérer des manifests à travers tous les clusters +- `llmobs` : Outils pour rechercher et analyser les spans et expériences [LLM Observability][36] +- `networks` : Outils pour l'analyse de [Surveillance du réseau cloud][37] et [Surveillance des dispositifs réseau][38] +- `onboarding` : Outils d'intégration agentique pour la configuration et la mise en place guidée de Datadog +- `product-analytics` : Outils pour interagir avec les requêtes [Analyse de produit][41] +- `reference-tables` : Outils pour gérer les [Tables de référence][48], y compris la liste des tables, la lecture des lignes, l'ajout de lignes et la création de tables à partir du stockage cloud +- `security` : Outils pour le scan de sécurité du code et la recherche de [signaux de sécurité][39] et de [constatations de sécurité][40] +- `software-delivery` : Outils pour interagir avec la livraison de logiciels ([Visibilité CI][30] et [Optimisation des tests][31]) +- `synthetics` : Outils pour interagir avec les [Tests synthétiques][29] de Datadog +- `workflows` : Outils pour [Automatisation des flux de travail][43], y compris la liste, l'inspection, l'exécution et la configuration des flux de travail pour l'utilisation des agents + +### Ensembles d'outils en préversion {#preview-toolsets} + +Ces ensembles d'outils sont en préversion. Inscrivez-vous à un ensemble d'outils en remplissant le formulaire d'aperçu du produit ou contactez [le support Datadog][47] pour demander l'accès. +- `apm` : ([Inscrivez-vous][45]) Outils pour une analyse approfondie des traces [APM][34], recherche de spans, insights de Watchdog et investigation des performances + +## Clients pris en charge {#supported-clients} + +| Client | Développeur | Notes | +|--------|------|------| +| [Cursor][3] | Cursor | Datadog [extension Cursor & VS Code][15] recommandée. | +| [Claude Code][4] | Anthropic | | +| [Claude][19] | Anthropic | Utilisez [la configuration du connecteur personnalisé](?tab=claude#installation). Comprend Claude Cowork. | +| [Codex CLI][6] | OpenAI | | +| [Gemini CLI][50] | Google | | +| [Warp][28] | Warp | | +| [VS Code][7] | Microsoft | Datadog [extension Cursor & VS Code][16] recommandée. | +| [JetBrains IDEs][18] | JetBrains | [Plugin Datadog][18] recommandé. | +| [Kiro][9], [Kiro CLI][10] | Amazon Web Services | | +| [Goose][8] | Agentic AI Foundation | | +| [Cline][11] | Divers | Voir l'onglet {{< ui >}}Other{{< /ui >}} ci-dessus. Utilisez l'authentification binaire locale pour Cline si l'authentification à distance est peu fiable. | + +
    Le serveur MCP de Datadog est en plein développement, et d'autres clients pris en charge pourraient devenir disponibles.
    + +## Permissions requises {#required-permissions} + +Les outils du serveur MCP nécessitent les [permissions de rôle utilisateur Datadog][22] suivantes : + +| Permission | Requise pour | +|------------|-------------| +| mcp_read | Outils qui lisent des données de Datadog (par exemple, interroger des moniteurs, rechercher des journaux, récupérer des tableaux de bord) | +| mcp_write | Outils qui créent ou modifient des ressources dans Datadog (par exemple, créer des moniteurs, mettre des hôtes en sourdine) | + +En plus de `mcp_read` ou `mcp_write`, les utilisateurs ont besoin des autorisations standard de Datadog pour la ressource sous-jacente. Par exemple, l'utilisation d'un outil MCP qui lit les moniteurs nécessite à la fois `mcp_read` et l'autorisation [Monitors Read][24]. Voir [Datadog Role Permissions][25] pour la liste complète des autorisations au niveau des ressources. + +Les utilisateurs ayant le **Rôle Standard Datadog** disposent par défaut des autorisations du serveur MCP. Si votre organisation utilise des [rôles personnalisés][23], ajoutez les autorisations manuellement : +1. Allez à [**Paramètres de l'organisation > Rôles**][26] en tant qu'administrateur, et cliquez sur le rôle que vous souhaitez mettre à jour. +1. Cliquez sur {{< ui >}}Edit Role{{< /ui >}} (icône de crayon). +1. Sous la liste des autorisations, sélectionnez les cases à cocher {{< ui >}}MCP Read{{< /ui >}} et {{< ui >}}MCP Write{{< /ui >}}. +1. Sélectionnez toutes les autres autorisations au niveau des ressources dont vous avez besoin pour le rôle. +1. Cliquez sur {{< ui >}}Save{{< /ui >}}. + +Les administrateurs d'organisation peuvent gérer l'accès global au MCP et les capacités d'écriture depuis [Paramètres de l'organisation][27]. + +## Authentification {#authentication} + +Le serveur MCP utilise OAuth 2.0 pour [l'authentification][14]. Si vous ne pouvez pas passer par le flux OAuth (par exemple, sur un serveur), vous pouvez fournir un Datadog [API key et application key] en tant que `DD_API_KEY` et `DD_APPLICATION_KEY` en-têtes HTTP. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +Par exemple, en fonction du [Datadog site][17] sélectionné ({{< region-param key="dd_site_name" >}}) : + +
    {
    +  "mcpServers": {
    +    "datadog": {
    +      "type": "http",
    +      "url": "{{< region-param key="mcp_server_endpoint" >}}",
    +      "headers": {
    +          "DD_API_KEY": "<YOUR_API_KEY>",
    +          "DD_APPLICATION_KEY": "<YOUR_APPLICATION_KEY>"
    +      }
    +    }
    +  }
    +}
    +
    + +[17]: /fr/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +Pour des raisons de sécurité, utilisez une clé API et une clé d'application à portée limitée provenant d'un [compte de service][13] qui dispose uniquement des autorisations requises. + +### Authentification binaire locale {#local-binary-authentication} + +L'authentification locale est recommandée pour Cline et lorsque l'authentification à distance est peu fiable ou indisponible. Après l'installation, vous n'avez généralement pas besoin de mettre à jour le binaire local pour bénéficier des mises à jour du serveur MCP, car les outils sont distants. + +{{% collapse-content title="Configurez le binaire local du serveur Datadog MCP." level="h5" expanded=false id="mcp-local-binary" %}} + +1. Installez le binaire du serveur Datadog MCP (macOS et Linux) : + ```bash + curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash + ``` + Cela installe le binaire dans `~/.local/bin/datadog_mcp_cli`. + + Pour Windows, téléchargez la [version Windows][20]. + +2. Exécutez `datadog_mcp_cli login` manuellement pour suivre le flux de connexion OAuth et choisir un [Datadog site][21]. + +3. Configurez votre client IA pour utiliser le transport stdio avec `datadog_mcp_cli` comme commande. Par exemple, sur macOS (remplacez `` par votre nom d'utilisateur OS) : + ```json + { + "mcpServers": { + "datadog": { + "type": "stdio", + "command": "/Users//.local/bin/datadog_mcp_cli", + "args": [], + "env": {} + } + } + } + ``` + + Pour d'autres systèmes d'exploitation, remplacez le chemin `command` par l'emplacement du binaire téléchargé : + - Linux : `/home//.local/bin/datadog_mcp_cli` + - Windows : `\bin\datadog_mcp_cli.exe` + +
    Pour Claude Code, vous pouvez plutôt exécuter : +
    claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli
    + +4. Redémarrez complètement votre client IA pour appliquer la configuration et charger le serveur MCP. +{{% /collapse-content %}} + +## Testez l'accès au serveur MCP {#test-access-to-the-mcp-server} + +1. Installez l'[inspecteur MCP][2], un outil de développement pour tester et déboguer les serveurs MCP. + + ```bash + npx @modelcontextprotocol/inspector + ``` +2. Dans l'interface web de l'inspecteur, pour {{< ui >}}Transport Type{{< /ui >}}, sélectionnez {{< ui >}}Streamable HTTP{{< /ui >}}. +3. Pour {{< ui >}}URL{{< /ui >}}, entrez le point de terminaison du serveur MCP pour votre site Datadog régional. + {{< site-region region="us,us3,us5,eu,ap1,ap2" >}} + Par exemple, pour {{< region-param key="dd_site_name" >}}: {{< region-param key="mcp_server_endpoint" >}} + {{< /site-region >}} +4. Cliquez sur {{< ui >}}Connect{{< /ui >}}, puis allez à {{< ui >}}Tools{{< /ui >}} > {{< ui >}}List Tools{{< /ui >}}. +5. Vérifiez si les [outils disponibles][12] apparaissent. + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/account_management/api-app-keys/ +[2]: https://github.com/modelcontextprotocol/inspector +[3]: https://cursor.com +[4]: https://claude.com/product/claude-code +[5]: https://claude.com/download +[6]: https://chatgpt.com/codex +[7]: https://code.visualstudio.com/ +[8]: https://github.com/block/goose +[9]: https://kiro.dev/ +[10]: https://kiro.dev/cli/ +[11]: https://cline.bot/ +[12]: /fr/bits_ai/mcp_server/tools +[13]: /fr/account_management/org_settings/service_accounts/ +[14]: https://modelcontextprotocol.io/specification/draft/basic/authorization +[15]: /fr/ide_plugins/vscode/?tab=cursor +[16]: /fr/ide_plugins/vscode/ +[17]: /fr/getting_started/site/#navigate-the-datadog-documentation-by-site +[18]: /fr/ide_plugins/idea/ +[19]: https://claude.ai +[20]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe +[21]: /fr/getting_started/site/ +[22]: /fr/account_management/rbac/permissions/#mcp +[23]: /fr/account_management/rbac/?tab=datadogapplication#custom-roles +[24]: /fr/account_management/rbac/permissions/#monitors +[25]: /fr/account_management/rbac/permissions/ +[26]: https://app.datadoghq.com/organization-settings/roles +[27]: https://app.datadoghq.com/organization-settings/preferences +[28]: https://www.warp.dev/ +[29]: /fr/synthetics/ +[30]: /fr/continuous_integration/ +[31]: /fr/tests/ +[32]: /fr/error_tracking/ +[33]: /fr/database_monitoring/ +[34]: /fr/tracing/ +[35]: /fr/feature_flags/ +[36]: /fr/llm_observability/mcp_server/ +[37]: /fr/network_monitoring/cloud_network_monitoring/ +[38]: /fr/network_monitoring/devices/ +[39]: /fr/security/threats/security_signals/ +[40]: /fr/security/misconfigurations/findings/ +[41]: /fr/product_analytics +[42]: /fr/service_management/case_management/ +[43]: /fr/actions/workflows/ +[44]: /fr/ddsql_editor/ +[45]: https://www.datadoghq.com/product-preview/apm-mcp-toolset/ +[46]: /fr/dashboards/ +[47]: /fr/help/ +[48]: /fr/reference_tables/ +[49]: /fr/bits_ai/mcp_server/tools +[50]: https://github.com/google-gemini/gemini-cli +[51]: /fr/containers/monitoring/kubernetes_explorer/ \ No newline at end of file diff --git a/content/fr/containers/kubernetes/prometheus.md b/content/fr/containers/kubernetes/prometheus.md index a723ad5e844..c97918f626f 100644 --- a/content/fr/containers/kubernetes/prometheus.md +++ b/content/fr/containers/kubernetes/prometheus.md @@ -5,52 +5,57 @@ aliases: - /fr/agent/openmetrics - /fr/agent/prometheus - /fr/agent/kubernetes/prometheus +description: Collectez Prometheus et OpenMetrics à partir des charges de travail Kubernetes + en utilisant l'Agent Datadog avec l'Autodécouverte further_reading: +- link: https://www.datadoghq.com/blog/kubernetes-operator-performance + tag: GitHub + text: Surveillez vos opérateurs Kubernetes pour maintenir le bon fonctionnement + des applications - link: /agent/kubernetes/log/ tag: Documentation text: Recueillir les logs de votre application - link: /agent/kubernetes/apm/ tag: Documentation - text: Recueillir les traces de vos applications + text: Recueillir les traces de votre application - link: /agent/kubernetes/integrations/ tag: Documentation text: Recueillir automatiquement les métriques et les logs de vos applications - link: /agent/guide/autodiscovery-management/ tag: Documentation - text: Limiter la collecte de données à un sous-ensemble de conteneurs + text: Limitez la collecte de données à un sous-ensemble de conteneurs - link: /agent/kubernetes/tag/ tag: Documentation - text: Attribuer des tags à toutes les données envoyées par un conteneur + text: Attribuez des tags à toutes les données envoyées par un conteneur - link: /integrations/guide/prometheus-metrics/ tag: Documentation text: Mappage de métriques Prometheus avec des métriques Datadog title: Collecte de métriques Prometheus et OpenMetrics avec Kubernetes --- +## Aperçu {#overview} -## Présentation +Collectez vos métriques Prometheus et OpenMetrics exposées depuis votre application fonctionnant à l'intérieur de Kubernetes en utilisant l'Agent Datadog et les intégrations [OpenMetrics][1] ou [Prometheus][2]. Par défaut, toutes les métriques récupérées par la vérification générique de Prometheus sont considérées comme des métriques personnalisées. -Collectez les métriques Prometheus et OpenMetrics exposées par votre application s'exécutant dans Kubernetes à l'aide de l'Agent Datadog et des intégrations [OpenMetrics][1] ou [Prometheus][2]. Par défaut, toutes les métriques récupérées par la vérification Prometheus générique sont considérées comme des métriques personnalisées. +À partir de la version 6.5.0, l'Agent inclut des vérifications [OpenMetrics][3] et [Prometheus][4] capables de récupérer les points de terminaison Prometheus. Pour une utilisation plus avancée de l'interface `OpenMetricsCheck`, y compris l'écriture d'une vérification personnalisée, consultez la section [Outils de développement][5]. -Depuis la version 6.5.0, l'Agent inclut les vérifications [OpenMetrics][3] et [Prometheus][4], capables d'interroger des endpoints Prometheus. Pour un usage avancé de l'interface `OpenMetricsCheck`, y compris la création d'une vérification personnalisée, consultez la section [Outils pour développeurs][5]. +Cette page décrit les principes d'utilisation de base de ces checks. Ils vous permettent de scraper des métriques custom à partir d'endpoints Prometheus. Pour obtenir une explication sur le mappage de métriques Prometheus et OpenMetrics avec des métriques Datadog, consultez le [guide dédié][6]. -Cette page explique l'utilisation de base de ces checks, qui vous permettent d'interroger des métriques personnalisées à partir de endpoints Prometheus. Pour une explication du mappage entre les métriques Prometheus et celles de Datadog, consultez le guide [Mappage de métriques Prometheus avec des métriques Datadog][6]. +**Remarque** : Datadog recommande d'utiliser la vérification OpenMetrics car elle est plus efficace et prend entièrement en charge le format texte de Prometheus. Utilisez la vérification Prometheus uniquement lorsque le point de terminaison des métriques ne prend pas en charge un format texte. -**Remarque :** nous vous conseillons d'utiliser le [check OpenMetrics][1] du fait de son efficacité accrue et de sa prise en charge complète du format texte Prometheus. N'utilisez le check Prometheus que lorsque l'endpoint de métriques ne prend pas en charge un format texte. +## Configuration {#setup} -## Configuration +### Installation {#installation} -### Installation +[Déployez l'Agent Datadog dans votre cluster Kubernetes][7]. Les vérifications OpenMetrics et Prometheus sont incluses dans le package [Agent Datadog][8], donc vous n'avez pas besoin d'installer quoi que ce soit d'autre sur vos conteneurs ou hôtes. -[Déployez l'Agent Datadog dans votre cluster Kubernetes][7]. Les checks OpenMetrics et Prometheus sont inclus dans le paquet de l'[Agent Datadog][8] : vous n'avez donc rien d'autre à installer sur vos conteneurs ou vos hosts. +### Configuration {#configuration} -### Configuration - -Configurez votre check OpenMetrics ou Prometheus à l'aide de la fonctionnalité Autodiscovery, en appliquant les `annotations` suivantes à votre **pod** exposant les métriques OpenMetrics/Prometheus : +Configurez votre vérification OpenMetrics ou Prometheus en utilisant l'Autodécouverte, en appliquant le `annotations` suivant à votre **pod** exposant les métriques OpenMetrics/Prometheus : {{< tabs >}} {{% tab "Kubernetes (AD v2)" %}} -**Remarque :** les annotations AD v2 ont été ajoutées dans la version 7.36 de l'Agent Datadog afin de simplifier la configuration de l'intégration. Pour les versions précédentes de l'Agent Datadog, utilisez les annotations AD v1. +**Remarque** : Les annotations AD v2 ont été introduites dans la version 7.36 de l'Agent Datadog pour simplifier la configuration de l'intégration. Pour les versions précédentes de l'Agent Datadog, utilisez les annotations AD v1. ```yaml # (...) @@ -106,34 +111,34 @@ spec: Les placeholders à configurer sont les suivants : -| Placeholder | Rôle | +| Espace réservé | Description | |------------------------------------------|----------------------------------------------------------------------------------------------------| | `` | Correspond au nom du conteneur qui expose les métriques. | -| `` | Le chemin d'URL pour les métriques traitées par le conteneur, au format Prometheus. | -| `` | L'espace de nommage spécifié ici sera ajouté comme préfixe à chaque métrique lors de son affichage dans Datadog. | -| `` | La clé de la métrique Prometheus à récupérer à partir de l'endpoint Prometheus. | -| `` | Remplace la clé de métrique `` par le `` dans Datadog. | +| `` | Chemin URL pour les métriques servies par le conteneur, au format Prometheus. | +| `` | Définit l'espace de noms à préfixer à chaque métrique lorsqu'elle est visualisée dans Datadog. | +| `` | Clé des métriques Prometheus à récupérer depuis le point de terminaison Prometheus. | +| `` | Transforme la clé de métrique `` en `` dans Datadog. | -La configuration `metrics` est une liste de métriques à récupérer en tant que métriques personnalisées. Indiquez chaque métrique à collecter ainsi que le nom souhaité dans Datadog sous forme de paires clé-valeur, par exemple : `{"":""}`. Pour éviter des frais excessifs liés aux métriques personnalisées, Datadog recommande de limiter la portée aux seules métriques nécessaires. Vous pouvez également fournir une liste de noms de métriques sous forme de chaînes de caractères, interprétées comme des expressions régulières, pour collecter les métriques souhaitées avec leur nom d'origine. Pour récupérer **toutes** les métriques, utilisez `".*"` plutôt que `"*"`. +La configuration `metrics` est une liste de métriques à récupérer en tant que métriques personnalisées. Incluez chaque métrique à récupérer et le nom de métrique souhaité dans Datadog sous forme de paires clé-valeur, par exemple, `{"":""}`. Pour éviter des frais excessifs pour les métriques personnalisées, Datadog recommande de limiter la portée aux seules métriques dont vous avez besoin. Vous pouvez alternativement fournir une liste de chaînes de noms de métriques, interprétées comme des expressions régulières, pour récupérer les métriques souhaitées avec leurs noms actuels. Si vous souhaitez **toutes** les métriques, utilisez alors `".*"` plutôt que `"*"`. -**Remarque** : les expressions régulières peuvent entraîner l'envoi d'un volume important de métriques custom. +**Remarque :** Les expressions régulières peuvent potentiellement envoyer beaucoup de métriques personnalisées. -Pour obtenir la liste complète des paramètres disponibles pour les instances, notamment `namespace` et `metrics`, consultez l'[exemple de configuration openmetrics.d/conf.yaml][9]. +Pour une liste complète des paramètres disponibles pour les instances, y compris `namespace` et `metrics`, consultez le [fichier de configuration d'exemple openmetrics.d/conf.yaml][9]. -**Remarque** : la vérification est limitée par défaut à 2 000 métriques. Utilisez le paramètre optionnel `max_returned_metrics` pour modifier cette limite. +**Remarque** : La vérification se limite par défaut à 2000 métriques. Spécifiez le paramètre optionnel `max_returned_metrics` pour modifier cette limite. -## Prise en main +## Pour commencer {#getting-started} -### Collecte simple de métriques (OpenMetrics Check) +### Collecte simple de métriques (Vérification OpenMetrics) {#simple-metric-collection-openmetrics-check} 1. [Lancez l'Agent Datadog][10]. -2. Utilisez le [fichier `prometheus.yaml` de Prometheus][11] pour lancer un exemple de déploiement Prometheus qui comporte la configuration Autodiscovery sur le pod : +2. Utilisez le [Prometheus `prometheus.yaml`][11] pour lancer un exemple de déploiement Prometheus avec la configuration d'Autodécouverte sur le pod : {{< tabs >}} {{% tab "Kubernetes (AD v2)" %}} - **Remarque :** les annotations AD v2 ont été ajoutées dans la version 7.36 de l'Agent Datadog afin de simplifier la configuration de l'intégration. Pour les versions précédentes de l'Agent Datadog, utilisez les annotations AD v1. + **Remarque :** Les annotations AD v2 ont été introduites dans la version 7.36 de l'Agent Datadog pour simplifier la configuration de l'intégration. Pour les versions précédentes de l'Agent Datadog, utilisez les annotations AD v1. ```yaml # (...) @@ -196,32 +201,32 @@ Pour obtenir la liste complète des paramètres disponibles pour les instances, {{% /tab %}} {{< /tabs >}} - Commande pour créer le déploiement Prometheus : + Command to create the Prometheus Deployment: ```shell kubectl create -f prometheus.yaml ``` -3. Rendez-vous sur votre page [Fleet Automation][16] et filtrez par l'intégration `openmetrics` pour consulter des informations détaillées sur l'état de vos vérifications. +3. Accédez à votre page [Automatisation de flotte][16] et filtrez pour l'intégration `openmetrics` afin de voir des informations détaillées sur l'état de vos vérifications. -4. Accédez à votre page [Metric summary][12] pour visualiser les métriques recueillies à partir de cet exemple de pod. Cette configuration recueillera les métriques `promhttp_metric_handler_requests`, `promhttp_metric_handler_requests_in_flight`, ainsi que toutes les métriques commençant par `go_memory` qui sont exposées. +4. Accédez à votre page [Résumé des métriques][12] pour voir les métriques collectées depuis cet exemple de pod. Cette configuration collectera la métrique `promhttp_metric_handler_requests`, `promhttp_metric_handler_requests_in_flight` et toutes les métriques exposées commençant par `go_memory`. - {{< img src="integrations/guide/prometheus_kubernetes/openmetrics_v2_collected_metric_kubernetes.png" alt="Métriques Prometheus recueillies Kubernetes">}} + {{< img src="integrations/guide/prometheus_kubernetes/openmetrics_v2_collected_metric_kubernetes.png" alt="Métrique Prometheus collectée sur Kubernetes">}} -## Collecte de métriques avec les annotations Prometheus (Prometheus Check) +## Collecte de métriques avec les annotations Prometheus (Vérification Prometheus) {#metric-collection-with-prometheus-annotations-prometheus-check} -Grâce à la fonctionnalité Autodiscovery Prometheus, l'Agent Datadog peut détecter les annotations Prometheus natives (comme `prometheus.io/scrape`, `prometheus.io/path` ou `prometheus.io/port`) et planifier automatiquement des checks OpenMetrics de façon à recueillir des métriques Prometheus dans Kubernetes. +Avec l'Autodécouverte Prometheus, l'Agent Datadog est capable de détecter les annotations Prometheus natives (par exemple : `prometheus.io/scrape`, `prometheus.io/path`, `prometheus.io/port`) et de planifier automatiquement des vérifications OpenMetrics pour collecter les métriques Prometheus dans Kubernetes. -**Remarque :** nous vous conseillons d'utiliser le [check OpenMetrics][1] du fait de son efficacité accrue et de sa prise en charge complète du format texte Prometheus. N'utilisez le check Prometheus que lorsque l'endpoint de métriques ne prend pas en charge un format texte. +**Remarque** : Datadog recommande d'utiliser la vérification OpenMetrics car elle est plus efficace et prend entièrement en charge le format texte Prometheus. Utilisez la vérification Prometheus uniquement lorsque le point de terminaison des métriques ne prend pas en charge un format texte. -### Prérequis +### Exigences {#requirements} -- Agent Datadog v7.27+ ou v6.27+ (pour les checks de pod) -- Agent de cluster Datadog v1.11+ (pour les checks de service et d'endpoint) +- Agent Datadog v7.27+ ou v6.27+ (pour les vérifications de Pod) +- Agent Cluster Datadog v1.11+ (pour les vérifications de service et de point de terminaison) -### Configuration +### Configuration {#configuration-1} -Il est conseillé de commencer par vérifier quels pods et services contiennent l'annotation `prometheus.io/scrape=true` avant d'activer cette fonctionnalité. Pour ce faire, utilisez les commandes suivantes : +Il est recommandé de vérifier d'abord quels pods et services ont l'annotation `prometheus.io/scrape=true` avant d'activer cette fonctionnalité. Cela peut être fait avec les commandes suivantes : ```shell kubectl get pods -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/scrape=="true")].metadata.name}' --all-namespaces @@ -229,11 +234,11 @@ kubectl get pods -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/sc kubectl get services -o=jsonpath='{.items[?(@.metadata.annotations.prometheus\.io/scrape=="true")].metadata.name}' --all-namespaces ``` -Une fois la fonctionnalité Prometheus Scrape activée, l'Agent Datadog recueille des métriques custom à partir de ces ressources. Si vous ne souhaitez pas recueillir de métriques custom à partir de ces ressources, vous pouvez supprimer cette annotation ou mettre à jour les règles Autodiscovery comme décrit dans la section [Configuration avancée](#configuration-avancee). +Une fois la fonctionnalité de récupération Prometheus activée, l'Agent Datadog collecte des métriques personnalisées à partir de ces ressources. Si vous ne souhaitez pas collecter les métriques personnalisées de ces ressources, vous pouvez supprimer cette annotation ou mettre à jour les règles d'Autodécouverte comme décrit dans la section [configuration avancée](#advanced-configuration). -**Remarque** : l'activation de cette fonctionnalité sans configuration avancée peut entraîner une augmentation importante du nombre de métriques personnalisées, avec des conséquences sur la facturation. Consultez la [section de configuration avancée](#configuration-avancee) pour apprendre à limiter la collecte à un sous-ensemble de conteneurs/pods/services. +**Remarque** : Activer cette fonctionnalité sans configuration avancée peut entraîner une augmentation significative des métriques personnalisées, ce qui peut avoir des implications sur la facturation. Voir la section [configuration avancée](#advanced-configuration) pour apprendre à ne collecter des métriques que d'un sous-ensemble de conteneurs/pods/services. -#### Configuration de base +#### Configuration de base {#basic-configuration} {{< tabs >}} {{% tab "Operator Datadog" %}} @@ -275,16 +280,18 @@ datadog: {{% k8s-helm-redeploy %}} {{% /tab %}} -{{% tab "Configuration manuelle (DaemonSet)" %}} +{{% tab "Manuel (DaemonSet)" %}} + +Dans votre manifeste DaemonSet pour l'Agent `daemonset.yaml`, ajoutez les variables d'environnement suivantes pour le conteneur de l'Agent : -Dans votre manifeste DaemonSet pour l'Agent, `daemonset.yaml`, ajoutez les variables d'environnement suivantes pour le conteneur de l'Agent : ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED value: "true" - name: DD_PROMETHEUS_SCRAPE_VERSION value: "2" ``` -Si l'Agent de cluster est activé, à l'intérieur de son manifeste `cluster-agent-deployment.yaml`, ajoutez les variables d'environnement suivantes pour le conteneur de l'Agent de cluster : +Si l'Agent Cluster est activé, dans son manifeste `cluster-agent-deployment.yaml`, ajoutez les variables d'environnement suivantes pour le conteneur de l'Agent Cluster : + ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED value: "true" @@ -295,33 +302,33 @@ Si l'Agent de cluster est activé, à l'intérieur de son manifeste `cluster-age {{% /tab %}} {{< /tabs >}} -Grâce à ces lignes, l'Agent Datadog détecte les pods qui possèdent des annotations Prometheus natives et génère les checks OpenMetrics correspondants. +Grâce à ces lignes, l'Agent Datadog détecte les pods qui possède des annotations Prometheus natives et génère les checks OpenMetrics correspondants. En outre, lorsqu'il est activé, l'Agent de cluster Datadog détecte également les services qui possèdent des annotations Prometheus natives et génère les checks OpenMetrics correspondants. -- `prometheus.io/scrape=true` : requis. -- `prometheus.io/path` : facultatif (valeur par défaut : `/metrics`). -- `prometheus.io/port` : facultatif (valeur par défaut : `%%port%%`). [Template variable][13] remplacée par le port du conteneur ou service. +- `prometheus.io/scrape=true` : Requis. +- `prometheus.io/path` : Optionnel, par défaut `/metrics`. +- `prometheus.io/port` : Optionnel, la valeur par défaut est `%%port%%`, une [variable de modèle][13] qui est remplacée par le port du conteneur/service. -Ces paramètres permettent de générer un check qui recueille toutes les métriques exposées, en se basant sur la configuration par défaut de l'[intégration OpenMetrics][1]. +Ces paramètres permettent de générer un check qui recueille toutes les métriques exposées, à l'aide de la configuration par défaut de l'[intégration OpenMetrics][1]. -#### Configuration avancée +#### Configuration avancée {#advanced-configuration} -Vous pouvez configurer davantage la collecte de métriques (au-delà des annotations Prometheus natives) à l'aide du champ `additionalConfigs`. +Vous pouvez configurer davantage la collecte de métriques (au-delà des annotations natives de Prometheus) avec le champ `additionalConfigs`. -##### Configurations de checks OpenMetrics supplémentaires +##### Configurations de vérification OpenMetrics supplémentaires {#additional-openmetrics-check-configurations} -Utilisez `additionalConfigs.configurations` pour définir des configurations de checks OpenMetrics supplémentaires. Consultez la [liste des paramètres OpenMetrics pris en charge][15] que vous pouvez passer via `additionalConfigs`. +Utilisez `additionalConfigs.configurations` pour définir des configurations de vérification OpenMetrics supplémentaires. Consultez la [liste des paramètres OpenMetrics pris en charge][15] que vous pouvez passer dans `additionalConfigs`. -##### Règles personnalisées d'Autodiscovery +##### Règles d'autodécouverte personnalisées {#custom-autodiscovery-rules} -Utilisez `additionalConfigs.autodiscovery` pour définir des règles personnalisées d'Autodiscovery. Ces règles peuvent reposer sur les noms de conteneurs, les annotations Kubernetes, ou les deux. +Utilisez `additionalConfigs.autodiscovery` pour définir des règles d'autodécouverte personnalisées. Ces règles peuvent être basées sur des noms de conteneurs, des annotations Kubernetes, ou les deux. `additionalConfigs.autodiscovery.kubernetes_container_names` -: Une liste de noms de conteneurs à cibler, au format expression régulière. +: Une liste de noms de conteneurs à cibler, au format d'expression régulière. `additionalConfigs.autodiscovery.kubernetes_annotations` -: Deux maps (`include` et `exclude`) d'annotations permettant de définir des règles de découverte. +: Deux cartes (`include` et `exclude`) d'annotations pour définir des règles de découverte. Par défaut : ```yaml @@ -331,11 +338,11 @@ Utilisez `additionalConfigs.autodiscovery` pour définir des règles personnalis prometheus.io/scrape: "false" ``` -Si `kubernetes_container_names` et `kubernetes_annotations` sont tous deux définis, une logique **ET** est appliquée (les deux règles doivent correspondre). +Si `kubernetes_container_names` et `kubernetes_annotations` sont tous deux définis, la logique **ET** est utilisée (les deux règles doivent correspondre). -##### Exemples +##### Exemples {#examples} -La configuration suivante cible un conteneur nommé `my-app` exécuté dans un pod avec l'annotation `app=my-app`. La configuration du check OpenMetrics est personnalisée pour activer l'option `send_distribution_buckets` et définir un délai d'attente personnalisé de 5 secondes. +La configuration suivante cible un conteneur nommé `my-app` s'exécutant dans un pod avec l'annotation `app=my-app`. La configuration de vérification OpenMetrics est personnalisée pour activer l'option `send_distribution_buckets` et définir un délai d'attente personnalisé de 5 secondes. {{< tabs >}} {{% tab "Operator Datadog" %}} @@ -390,9 +397,9 @@ datadog: {{< /code-block >}} {{% /tab %}} -{{% tab "Manual (DaemonSet)" %}} +{{% tab "Manuel (DaemonSet)" %}} -Pour DaemonSet, la configuration avancée se définit dans la variable d'environnement `DD_PROMETHEUS_SCRAPE_CHECKS`, et non dans un champ `additionalConfigs`. +Pour DaemonSet, la configuration avancée est définie dans la variable d'environnement `DD_PROMETHEUS_SCRAPE_CHECKS`, pas dans un champ `additionalConfigs`. ```yaml - name: DD_PROMETHEUS_SCRAPE_ENABLED @@ -409,13 +416,13 @@ Pour DaemonSet, la configuration avancée se définit dans la variable d'environ {{% /tab %}} {{< /tabs >}} -## Proposer une intégration personnalisée comme intégration officielle +## De l'intégration personnalisée à l'intégration officielle {#from-custom-to-official-integration} -Par défaut, toutes les métriques récupérées par le check Prometheus générique sont considérées comme des métriques custom. Si vous surveillez un logiciel prêt à l'emploi et que vous pensez qu'il mérite une intégration officielle, n'hésitez pas à apporter votre [contribution][5] ! +Par défaut, toutes les métriques récupérées par la vérification générique de Prometheus sont considérées comme des métriques personnalisées. Si vous surveillez un logiciel standard et pensez qu'il mérite une intégration officielle, n'hésitez pas à [contribuer][5] ! -Les intégrations officielles utilisent des répertoires dédiés. Le check générique intègre un système de création d'instances qui se charge de coder en dur la configuration par défaut et les métadonnées des métriques. Reportez-vous au référentiel sur l'intégration [kube-proxy][14] pour obtenir un exemple. +Les intégrations officielles ont leurs propres répertoires dédiés. Il existe un mécanisme d'instance par défaut dans la vérification générique pour coder en dur la configuration par défaut et les métadonnées des métriques. Par exemple, référez-vous à l'intégration [kube-proxy][14]. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -423,13 +430,13 @@ Les intégrations officielles utilisent des répertoires dédiés. Le check gén [2]: /fr/integrations/prometheus/ [3]: https://github.com/DataDog/integrations-core/tree/master/openmetrics [4]: https://github.com/DataDog/integrations-core/tree/master/prometheus -[5]: /fr/developers/custom_checks/prometheus/ +[5]: /fr/extend/custom_checks/prometheus/ [6]: /fr/integrations/guide/prometheus-metrics [7]: /fr/agent/kubernetes/#installation [8]: /fr/getting_started/tagging/ [9]: https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example [10]: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes -[11]: /resources/yaml/prometheus.yaml +[11]: /fr/resources/yaml/prometheus.yaml [12]: https://app.datadoghq.com/metric/summary [13]: /fr/agent/faq/template_variables/ [14]: https://github.com/DataDog/integrations-core/tree/master/kube_proxy diff --git a/content/fr/dashboards/_index.md b/content/fr/dashboards/_index.md index b83a14a1c56..a60d6d751f6 100644 --- a/content/fr/dashboards/_index.md +++ b/content/fr/dashboards/_index.md @@ -15,105 +15,113 @@ cascade: rank: 70 tags: - snapshot - - serverless_aws_lambda + - dashboards description: Visualiser vos données pour mieux les comprendre further_reading: -- link: https://app.datadoghq.com/release-notes?category=Dashboards - tag: Notes de version - text: Découvrez les dernières versions des dashboards Datadog (connexion à l'application - requise). - link: /dashboards/sharing/ tag: Documentation text: Partager vos graphiques en dehors de Datadog -- link: https://www.datadoghq.com/blog/datadog-clipboard/ - tag: Blog - text: Ajouter des widgets de dashboard à votre presse-papiers -- link: https://www.datadoghq.com/blog/datadog-dashboards/ - tag: Blog - text: Des dashboards Datadog encore plus efficaces - link: https://datadoghq.dev/integrations-core/guidelines/dashboards/#best-practices - tag: Documentation pour développeurs + tag: Meilleures pratiques text: Créer des dashboards d'intégration efficaces - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive sur l'amélioration des visualisations avec des dashboards +- link: https://www.datadoghq.com/blog/datadog-clipboard/ + tag: GitHub + text: Ajouter des widgets Dashbard à votre presse-papiers +- link: https://www.datadoghq.com/blog/datadog-dashboards/ + tag: GitHub + text: Des dashboards Datadog encore plus efficaces +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: GitHub + text: Concevez des tableaux de bord exécutifs efficaces avec Datadog +- link: https://app.datadoghq.com/release-notes?category=Dashboards + tag: Notes de version + text: Découvrez les dernières versions des tableaux de bord Datadog ! (Connexion + à l'application requise). title: Dashboards --- +## Aperçu {#overview} -## Présentation - -Les dashboards fournissent des informations en temps réel sur les performances et la santé des systèmes et des applications au sein d'une organisation. Ils permettent aux utilisateurs d'analyser visuellement les données, de suivre les indicateurs clés de performance (KPI) et de surveiller les tendances de manière efficace. Avec les dashboards, les équipes peuvent identifier les anomalies, hiérarchiser les problèmes, les détecter de manière proactive, diagnostiquer leurs causes profondes et s'assurer que les objectifs de fiabilité sont atteints. Donnez à vos équipes les moyens de prendre des décisions éclairées, d'optimiser le fonctionnement des systèmes et de favoriser la réussite de l'entreprise en fournissant une interface centralisée et conviviale pour surveiller et analyser les indicateurs de performance et les métriques critiques. +Les tableaux de bord fournissent des informations en temps réel sur la performance et la santé des systèmes et des applications au sein d'une organisation. Ils permettent aux utilisateurs d'analyser visuellement les données, de suivre les indicateurs clés de performance (KPIs) et de surveiller les tendances de manière efficace. Avec les tableaux de bord, les équipes peuvent identifier des anomalies, prioriser les problèmes, détecter proactivement les problèmes, diagnostiquer les causes profondes et s'assurer que les objectifs de fiabilité sont atteints. Donnez à vos équipes les moyens de prendre des décisions éclairées, d'optimiser les opérations système et de favoriser le succès commercial en fournissant une interface centralisée et conviviale pour surveiller et analyser les métriques critiques et les indicateurs de performance. -{{< whatsnext desc="Fonctionnalités des dashboards :">}} - {{< nextlink href="/dashboards/configure" >}}Configurer : présentation des options de configuration pour les dashboards{{< /nextlink >}} - {{< nextlink href="/dashboards/configure" >}}Liste de dashboards : recherchez, consultez ou créez des dashboards et des listes{{< /nextlink >}} - {{< nextlink href="/dashboards/template_variables" >}}Template variables : filtrez des widgets de façon dynamique dans un dashboard{{< /nextlink >}} - {{< nextlink href="/service_management/incident_management/datadog_clipboard/" >}}Datadog Clipboard (en anglais){{< /nextlink >}} - {{< nextlink href="/api/latest/dashboards" >}}API : gérez des dashboards par programmation{{< /nextlink >}} +{{< whatsnext desc="Fonctionnalités des tableaux de bord :">}} + {{< nextlink href="/dashboards/configure" >}}Configurer : Aperçu des options de configuration pour les tableaux de bord{{< /nextlink >}} + {{< nextlink href="/dashboards/list" >}}Liste des tableaux de bord : Rechercher, afficher ou créer des tableaux de bord et des listes{{< /nextlink >}} + {{< nextlink href="/dashboards/template_variables" >}}Variable de modèle : Filtrer dynamiquement les widgets dans un tableau de bord{{< /nextlink >}} + {{< nextlink href="/dashboards/guide/datadog_clipboard/" >}}Presse-papiers Datadog{{< /nextlink >}} + {{< nextlink href="/api/latest/dashboards" >}}API : Gérer les tableaux de bord par programmation{{< /nextlink >}} {{< /whatsnext >}} -{{< whatsnext desc="Fonctionnalités des graphiques :">}} - {{< nextlink href="/dashboards/widgets" >}}Widgets : apprenez à configurer les différentes visualisations{{< /nextlink >}} - {{< nextlink href="/dashboards/querying" >}}Requêtes : découvrez les options de mise en forme des requêtes de graphique{{< /nextlink >}} - {{< nextlink href="/dashboards/functions" >}}Fonctions : modifiez des requêtes de métrique et les graphiques générés{{< /nextlink >}} - {{< nextlink href="/dashboards/change_overlays" >}}Overlays: Automatically overlay change events on graphs (en anglais){{< /nextlink >}} +{{< whatsnext desc="Fonctionnalités des graphiques:">}} + {{< nextlink href="/dashboards/widgets" >}}Widgets : Apprenez la configuration pour différentes visualisations{{< /nextlink >}} + {{< nextlink href="/dashboards/querying" >}}Interrogation : Voir les options de formatage pour les requêtes de graphes{{< /nextlink >}} + {{< nextlink href="/dashboards/functions" >}}Fonctions : Modifier les requêtes de métriques et les graphes résultants{{< /nextlink >}} + {{< nextlink href="/dashboards/change_overlays" >}}Superpositions : Superposer automatiquement les événements de changement sur les graphes{{< /nextlink >}} {{< /whatsnext >}} -## Prise en main +## Commencez {#get-started} -{{< whatsnext desc="Consultez les ressources suivantes :" >}} - {{< nextlink href="/getting_started/dashboards/" >}}Débuter avec les dashboards{{< /nextlink >}} - {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Learning Course: Introduction to Dashboards (en anglais){{< /nextlink >}} - {{< nextlink href="https://learn.datadoghq.com/courses/building-better-dashboards" >}}Learning Course: Building Better Dashboards (en anglais){{< /nextlink >}} -{{< /whatsnext >}} - -Pour créer un dashboard, cliquez sur **+New Dashboard** sur la page [Dashboard List][4] ou sur **New Dashboard** depuis le menu de navigation. Attribuez un nom à votre dashboard, puis choisissez une disposition. +Pour créer un tableau de bord : +1. Cliquez sur **+Nouveau tableau de bord** sur la page [Liste des tableaux de bord][4] ou sur **Nouveau tableau de bord** dans le menu de navigation. +2. Entrez un nom de tableau de bord et choisissez une option de mise en page. -{{< img src="dashboards/create-dashboard.png" alt="Ajout d'un nouveau dashboard" style="width:70%;">}} +{{< img src="dashboards/create-dashboard.png" alt="Ajout d'un nouveau tableau de bord" style="width:70%;">}} Dashboards -: ils sont disposés au sein d'une grille qui peut inclure un vaste choix d'objets, tels que des images, des graphiques et des logs. Ils servent généralement à visualiser les statuts de vos services et à mettre en récit vos données. Ils peuvent être mis à jour en temps réel et représenter des points fixes historiques. Leur grille peut inclure jusqu'à 12 carrés. Ils s'avèrent également très utiles pour le debugging. +: Une mise en page basée sur une grille, qui peut inclure divers objets tels que des images, des graphiques et des logs. Ils sont couramment utilisés comme tableaux de statut ou vues narratives qui se mettent à jour en temps réel et peuvent représenter des points fixes dans le passé. Ils ont une largeur maximale de 12 cases de grille et fonctionnent également bien pour le débogage. Timeboards -: ils sont automatiquement mis en forme et représentent un point unique (fixe ou mis à jour en temps réel) sur l'ensemble du dashboard. Ils sont généralement utilisés pour dépanner, mettre en corrélation et explorer les données. +: Des mises en page automatiques qui représentent un seul point dans le temps—soit fixe soit en temps réel—sur l'ensemble du tableau de bord. Ils sont couramment utilisés pour le dépannage, la corrélation et l'exploration générale des données. Screenboards -: dashboards qui vous permettent de représenter librement de nombreux objets tels que des images, des graphiques ou des logs. Généralement utilisés pour visualiser les statuts de vos services et pour mettre en récit vos données, ils peuvent être mis à jour en temps réel ou représenter des points fixes historiques. +: Tableaux de bord avec des mises en page libres qui peuvent inclure divers objets tels que des images, des graphiques et des logs. Ils sont couramment utilisés comme tableaux de statut ou vues narratives qui se mettent à jour en temps réel ou représentent des points fixes dans le passé. + +{{< whatsnext desc="Voir les ressources suivantes :" >}} + {{< nextlink href="/getting_started/dashboards/" >}}Débuter avec les dashboards{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Cours d'apprentissage : Introduction aux tableaux de bord{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/building-better-dashboards" >}}Cours d'apprentissage : Construire de meilleurs tableaux de bord{{< /nextlink >}} +{{< /whatsnext >}} -## Taux d'actualisation +## Taux de rafraîchissement {#refresh-rate} -Le taux d'actualisation d'un dashboard privé dépend de l'intervalle affiché. Plus l'intervalle est court, plus les données sont actualisées régulièrement. Les dashboards publics s'actualisent toutes les 30 secondes, peu importe l'intervalle sélectionné. +Le taux de rafraîchissement d'un tableau de bord privé dépend de la période que vous consultez. Plus la période est courte, plus les données sont rafraîchies fréquemment. Les tableaux de bord partagés publiquement se rafraîchissent toutes les trente secondes, quelle que soit la période sélectionnée. -| Intervalle | Taux d'actualisation | +| Période | Taux de rafraîchissement | |--------------|--------------| -| 1 minute | 10 secondes | -| 2 minutes | 10 secondes | -| 5 minutes | 10 secondes | -| 10 minutes | 10 secondes | -| 30 minutes | 20 secondes | -| 1 heure | 20 secondes | -| 3 heures | 1 minute | -| 4 heures | 1 minute | -| 1 jour | 3 minutes | -| 2 jours | 10 minutes | -| 1 semaine | 1 heure | -| 1 mois | 1 heure | -| 3 mois | 1 heure | -| 6 mois | 1 heure | -| 1 an | 1 heure | - -## Consulter des dashboards sur des appareils mobiles - -Consultez vos dashboards dans un format compatible avec les appareil mobiles avec l'application mobile Datadog, qui est disponible sur l'[App Store d'Apple][2] et le [Google Play Store][3]. Lʼapplication mobile propose des widgets sur l'écran d'accueil de votre appareil mobile. Grâce à ces widgets, vous pouvez surveiller l'intégrité de vos services et votre infrastructure sans avoir à ouvrir l'application mobile. - -**Remarque** : pour configurer ou modifier un dashboard, vous devez vous connecter à l'interface utilisateur du navigateur Datadog. Pour plus d'informations sur l'installation de l'application, voir la documentation [Datadog Mobile App][1]. - -## Pour aller plus loin +| 1 minute | 10 secondes | +| 2 minutes | 10 secondes | +| 5 minutes | 10 secondes | +| 10 minutes | 10 secondes | +| 30 minutes | 20 secondes | +| 1 heure | 20 secondes | +| 3 heures | 1 minute | +| 4 heures | 1 minute | +| 1 jour | 3 minutes | +| 2 jours | 10 minutes | +| 1 semaine | 1 heure | +| 1 mois | 1 heure | +| 3 mois | 1 heure | +| 6 mois | 1 heure | +| 1 an | 1 heure | + +## Afficher les tableaux de bord sur les appareils mobiles {#view-dashboards-on-mobile-devices} + +Affichez vos tableaux de bord dans un format adapté aux mobiles grâce à la Datadog Mobile App, disponible sur [Apple App Store][2] et [Google Play Store][3]. L'application mobile est équipée de widgets d'écran d'accueil mobiles qui vous permettent de surveiller la santé des services et l'infrastructure sans ouvrir l'application mobile. + +**Remarque** : Pour configurer ou modifier un tableau de bord, vous devez vous connecter à l'interface utilisateur du navigateur Datadog. Pour plus d'informations sur l'installation de la Datadog Mobile App, consultez la documentation [Datadog Mobile App][1]. + +## Lectures complémentaires {#further-reading} + +{{< learning-center-callout header="Essayez de créer des widgets graphiques dans le Centre d'apprentissage Datadog" btn_title="Inscrivez-vous maintenant" btn_url="https://learn.datadoghq.com/courses/dashboard-graph-widgets">}} Explorez les widgets de séries temporelles, de valeur de requête, de liste principale, de tableau, de distribution et de graphique circulaire. Apprenez à configurer les widgets et à comprendre quand chaque type de widget doit être utilisé. {{< /learning-center-callout >}} + +{{< learning-center-callout header="Essayez de créer des widgets de tableau, de liste, de SLO et d'architecture dans le Centre d'apprentissage Datadog." btn_title="Inscrivez-vous maintenant" btn_url="https://learn.datadoghq.com/courses/discovering-table-list-widgets">}} Explorez les widgets de tableau, de liste, de SLO et d'architecture. Apprenez à suivre les métriques et la performance d'une application web et découvrez comment présenter des données importantes. {{< /learning-center-callout >}} {{< partial name="whats-next/whats-next.html" >}} -[1]: /fr/service_management/mobile/ +[1]: /fr/mobile/ [2]: https://apps.apple.com/app/datadog/id1391380318 [3]: https://play.google.com/store/apps/details?id=com.datadog.app [4]: https://app.datadoghq.com/dashboard/lists \ No newline at end of file diff --git a/content/fr/extend/dogstatsd/_index.md b/content/fr/extend/dogstatsd/_index.md new file mode 100644 index 00000000000..016ec3229de --- /dev/null +++ b/content/fr/extend/dogstatsd/_index.md @@ -0,0 +1,637 @@ +--- +aliases: +- /fr/guides/dogstatsd/ +- /fr/guides/DogStatsD/ +- /fr/developers/faq/how-to-remove-the-host-tag-when-submitting-metrics-via-dogstatsd/ +- /fr/integrations/faq/dogstatsd-and-docker +- /fr/agent/kubernetes/dogstatsd +- /fr/developers/dogstatsd/ +description: Aperçu des fonctionnalités de DogStatsD, y compris les types de données + et le tagging. +further_reading: +- link: integrations/node + tag: Documentation + text: Activez DogStatsD pour Node.js via l'intégration Node.js +- link: extend/dogstatsd + tag: Documentation + text: Présentation de DogStatsD +- link: extend/libraries + tag: Documentation + text: Bibliothèques client de Datadog et sa communauté pour DogStatsD et les API +- link: https://www.datadoghq.com/blog/monitor-azure-app-service-linux/ + tag: GitHub + text: Surveillez vos applications web Linux sur Azure App Service avec Datadog +- link: https://www.datadoghq.com/blog/datadog-csi-driver/ + tag: GitHub + text: Apportez une observabilité haute performance aux environnements Kubernetes + sécurisés avec le pilote CSI de Datadog +- link: https://learn.datadoghq.com/courses/create-custom-metrics-dogstatsd + tag: Centre d'apprentissage + text: Créez des métriques personnalisées avec DogStatsD +title: Débit de données élevé +--- +Le moyen le plus simple d'envoyer vos métriques d'application personnalisées dans Datadog est de les envoyer à DogStatsD, un service d'agrégation de métriques inclus avec l'Agent Datadog. DogStatsD implémente le protocole [StatsD][1] et ajoute quelques extensions spécifiques à Datadog : + +- Type de métrique histogramme +- Vérifications de service +- Événements +- Étiquetage + +Tout client StatsD conforme fonctionne avec DogStatsD et l'Agent, mais n'inclut pas les [extensions spécifiques à Datadog](#dive-into-dogstatsd). + +**Remarque** : DogStatsD ne met PAS en œuvre les temporisateurs de StatsD en tant que type de métrique natif (bien qu'il les prenne en charge via [histogrammes][2]). + +DogStatsD est disponible sur le registre de conteneurs Datadog, GAR, ECR, Azure ACR et Docker Hub : + +| Registre | Image | +| -------------------------- | --------------------------------------- | +| Registre de conteneurs Datadog | [registry.datadoghq.com/dogstatsd][33] | +| Registre d'artefacts Google | [gcr.io/datadoghq/dogstatsd][4] | +| Amazon ECR | [public.ecr.aws/datadog/dogstatsd][34] | +| Azure ACR | datadoghq.azurecr.io/dogstatsd | +| Docker Hub | [hub.docker.com/r/datadog/dogstatsd][3] | + +
    Docker Hub est soumis à des limites de taux de téléchargement d'images. Si vous n'êtes pas client de Docker Hub, Datadog recommande d'utiliser le registre de conteneurs Datadog ou un registre de fournisseur de cloud à la place. Pour les instructions, voir Changer votre registre de conteneurs.
    + +## Comment cela fonctionne {#how-it-works} + +DogStatsD accepte les [métriques custom][5], les [événements][6] et les [checks de service][7] par le biais du protocole UDP. Il les agrège et les transmet régulièrement à Datadog. + +Parce qu'il utilise UDP, votre application peut envoyer des métriques à DogStatsD et reprendre son travail sans attendre de réponse. Si DogStatsD devient un jour indisponible, votre application ne subit pas d'interruption. + +{{< img src="metrics/custom_metrics/dogstatsd_metrics_submission/dogstatsd.png" alt="dogstatsd" >}} + +Lorsqu'il reçoit des données, DogStatsD agrège plusieurs points de données pour chaque métrique unique en un seul point de données sur une période de temps appelée _l'intervalle de vidage_. DogStatsD utilise un intervalle de vidage de 10 secondes. + +## Configuration {#setup} + +DogStatsD se compose d'un serveur, qui est intégré à l'Agent Datadog, et d'une bibliothèque cliente, qui est disponible dans plusieurs langages. Le serveur DogStatsD est activé par défaut sur le port UDP `8125` pour l'Agent v6+. Vous pouvez définir un port personnalisé pour le serveur si nécessaire. Configurez votre client pour qu'il corresponde à l'adresse et au port du serveur DogStatsD de l'Agent Datadog. + +### Serveur DogStatsD de l'Agent Datadog {#datadog-agent-dogstatsd-server} + +{{< tabs >}} +{{% tab "Agent de host" %}} + +Si vous devez changer le port, configurez l'option `dogstatsd_port` dans le fichier de configuration principal de l'[Agent][1], et redémarrez l'Agent. Vous pouvez également configurer DogStatsD pour utiliser un [socket de domaine UNIX][2]. + +Pour activer un port UDP personnalisé pour le serveur DogStatsD de l'Agent : + +1. Définissez le paramètre `dogstatsd_port` : + + ```yaml + ## @param dogstatsd_port - integer - optional - default: 8125 + ## Override the Agent DogStatsD port. + ## Note: Make sure your client is sending to the same UDP port. + # + dogstatsd_port: 8125 + ``` + +2. [Redémarrez votre Agent][3]. + +[1]: /fr/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file +[2]: /fr/extend/dogstatsd/unix_socket/ +[3]: /fr/agent/configuration/agent-commands/ +{{% /tab %}} +{{% tab "Agent de conteneur" %}} + +Par défaut, DogStatsD écoute sur le port UDP **8125**, donc vous devez lier ce port à votre port hôte lors de l'exécution de l'Agent dans un conteneur. Si vos métriques StatsD proviennent de l'extérieur de `localhost`, vous devez définir `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` sur `true` pour permettre la collecte des métriques. Pour exécuter l'Agent avec le serveur DogStatsD actif, exécutez la commande suivante : + +```shell +docker run -d --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC="true" \ + -p 8125:8125/udp \ + registry.datadoghq.com/agent:latest +``` + +Si vous devez changer le port utilisé pour collecter les métriques StatsD, utilisez la variable d'environnement `DD_DOGSTATSD_PORT="`. Vous pouvez également configurer DogStatsD pour utiliser un [socket de domaine UNIX][1]. + +[1]: /fr/extend/dogstatsd/unix_socket/ +{{% /tab %}} +{{% tab "Operator Datadog" %}} + +La collecte des métriques StatsD est activée par défaut sur le [socket de domaine UNIX][1]. Pour commencer à collecter vos métriques StatsD via UDP, vous devez activer la fonctionnalité DogStatsD dans les paramètres de l'Opérateur. + +1. Ajoutez `features.dogstatsd.hostPortConfig.enabled` à votre manifeste `datadog-agent.yaml` : + + ```yaml + features: + dogstatsd: + hostPortConfig: + enabled: true + ``` + + This is an example `datadog-agent.yaml` manifest: + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + features: + dogstatsd: + hostPortConfig: + enabled: true + ``` + + This enables the Agent to collect StatsD metrics over UDP on port `8125`. + +2. Appliquez le changement : + + ```shell + kubectl apply -f datadog-agent.yaml + ``` + +**Avertissement** : Le paramètre `features.dogstatsd.hostPortConfig.hostPort` ouvre un port sur votre hôte. Assurez-vous que votre pare-feu n'autorise l'accès qu'à vos applications ou sources de confiance. Si votre plugin réseau ne prend pas en charge `hostPorts`, ajoutez `hostNetwork: true` dans les spécifications de votre pod Agent. Cela partage l'espace de noms réseau de votre hôte avec l'Agent Datadog. Cela signifie également que tous les ports ouverts sur le conteneur sont ouverts sur l'hôte. Si un port est utilisé à la fois sur l'hôte et dans votre conteneur, ils entrent en conflit (puisqu'ils partagent le même espace de noms réseau) et le pod ne démarre pas. Certaines installations Kubernetes ne permettent pas cela. + +### Envoyez les métriques StatsD à l'Agent {#send-statsd-metrics-to-the-agent} + +Votre application a besoin d'un moyen fiable pour déterminer l'adresse IP de son hôte. C'est simple dans Kubernetes 1.7, qui élargit l'ensemble des attributs que vous pouvez passer à vos pods en tant que variables d'environnement. Dans les versions 1.7 et supérieures, vous pouvez passer l'IP de l'hôte à n'importe quel pod en ajoutant une variable d'environnement au PodSpec. Par exemple, votre manifeste d'application pourrait ressembler à ceci : + +```yaml +env: + - name: DD_AGENT_HOST + valueFrom: + fieldRef: + fieldPath: status.hostIP +``` + +Avec cela, tout pod exécutant votre application est capable d'envoyer des métriques DogStatsD avec le port `8125` sur `$DD_AGENT_HOST`. + +**Remarque** : En tant que meilleure pratique, Datadog recommande d'utiliser un étiquetage de service unifié lors de l'attribution d'attributs. Le balisage de service unifié relie la télémétrie de Datadog grâce à l'utilisation de trois balises standard : `env`, `service` et `version`. Pour savoir comment unifier votre environnement, consultez [unified service tagging][4]. + +[1]: /fr/extend/dogstatsd/unix_socket/ +[2]: https://github.com/containernetworking/cni +[3]: https://kubernetes.io/docs/setup/independent/troubleshooting-kubeadm/#hostport-services-do-not-work +[4]: /fr/getting_started/tagging/unified_service_tagging +{{% /tab %}} +{{% tab "Helm" %}} + +Pour recueillir des métriques custom avec [DogStatsD][1] avec Helm : + +1. Mettez à jour votre fichier [datadog-values.yaml][2] pour activer DogStatsD : + + ```yaml + dogstatsd: + port: 8125 + useHostPort: true + nonLocalTraffic: true + ``` + + **Note**: `hostPort` functionality requires a networking provider that adheres to the [CNI specification][3], such as Calico, Canal, or Flannel. For more information, including a workaround for non-CNI network providers, see the Kubernetes documentation: [HostPort services do not work][4]. + + **Warning**: The `hostPort` parameter opens a port on your host. Make sure your firewall only allows access from your applications or trusted sources. If your network plugin doesn't support `hostPorts`, so add `hostNetwork: true` in your Agent pod specifications. This shares the network namespace of your host with the Datadog Agent. It also means that all ports opened on the container are opened on the host. If a port is used both on the host and in your container, they conflict (since they share the same network namespace) and the pod does not start. Some Kubernetes installations do not allow this. + +2. Mettez à niveau la configuration de votre Agent : + + ``` shell + helm upgrade -f datadog-values.yaml datadog/datadog + ``` + +3. Mettez à jour vos pods d'application : Votre application a besoin d'un moyen fiable pour déterminer l'adresse IP de son hôte. C'est simple dans Kubernetes 1.7, qui élargit l'ensemble des attributs que vous pouvez passer à vos pods en tant que variables d'environnement. Dans les versions 1.7 et supérieures, vous pouvez passer l'IP de l'hôte à n'importe quel pod en ajoutant une variable d'environnement au PodSpec. Par exemple, votre manifeste d'application pourrait ressembler à ceci : + + ```yaml + env: + - name: DD_AGENT_HOST + valueFrom: + fieldRef: + fieldPath: status.hostIP + ``` + + With this, any pod running your application is able to send DogStatsD metrics through port `8125` on `$DD_AGENT_HOST`. + +[1]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/ +[2]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml +[3]: https://github.com/containernetworking/cni +[4]: https://kubernetes.io/docs/setup/independent/troubleshooting-kubeadm/#hostport-services-do-not-work +{{% /tab %}} +{{< /tabs >}} + +### Détection d'origine {#origin-detection} + +L'Agent Datadog v6.10.0 prend en charge _la détection d'origine_, ce qui permet à DogStatsD de détecter d'où proviennent les métriques des conteneurs et de les taguer automatiquement. Lorsque la détection d'origine est activée, toutes les métriques reçues via UDP sont taguées par le même pod +sont taguées comme des métriques d’Autodécouverte. + +#### Dans un client DogStatsD {#in-a-dogstatsd-client} + +La détection d'origine est activée par défaut dans tous les clients DogStatsD. + +Pour **désactiver** la détection d'origine dans un client, effectuez l'une des actions suivantes : +- Définissez la variable d'environnement `DD_ORIGIN_DETECTION_ENABLED=false` +- Configurez la bibliothèque DogStatsD pour désactiver la détection d'origine. Pour des instructions, consultez [la documentation de votre bibliothèque DogStatsD spécifique][10]. + +#### Dans l'Agent Datadog {#in-the-datadog-agent} +La détection d'origine n'est pas activée par défaut dans l'Agent Datadog. Pour **activer** la détection d'origine dans l'Agent Datadog, définissez la variable d'environnement `DD_DOGSTATSD_ORIGIN_DETECTION_CLIENT` sur `true`. + +Définissez [`shareProcessNamespace:true` dans la spécification du pod][12] pour aider l'Agent à la détection d'origine sur EKS Fargate. + +#### Comment les origines sont détectées {#how-origins-are-detected} + +La détection d'origine peut être réalisée de plusieurs manières. La détection d'origine via les cgroups est activée par défaut. La détection d'origine sur UDP ou `DD_EXTERNAL_ENV` nécessite une configuration. + +{{< tabs >}} +{{% tab "Cgroups" %}} +Sur Linux, l'ID du conteneur peut être extrait des entrées `procfs` liées à `cgroups`. Le client lit à partir de `/proc/self/cgroup` ou `/proc/self/mountinfo` pour tenter d'analyser l'ID du conteneur. + +Dans cgroup v2, l'ID du conteneur peut être déduit en résolvant le chemin du cgroup à partir de `/proc/self/cgroup`, en le combinant avec le point de montage du cgroup à partir de `/proc/self/mountinfo`. L'inode du répertoire résultant est envoyé à l'Agent Datadog. Si l'Agent Datadog se trouve sur le même nœud que le client, cette information peut être utilisée pour identifier le UID du pod. +{{% /tab %}} + +{{% tab "UDP" %}} +Pour activer la détection d'origine sur UDP, ajoutez les lignes suivantes au manifeste de votre application : + +```yaml +env: +- name: DD_ENTITY_ID + valueFrom: + fieldRef: + fieldPath: metadata.uid +``` + +Le client DogStatsD attache une étiquette interne, `entity_id`. La valeur de cette étiquette est le contenu de la variable d'environnement `DD_ENTITY_ID`, qui est le UID du pod. + +
    Pour UDP, les étiquettes pod_name ne sont pas ajoutées par défaut pour éviter de créer trop de métriques personnalisées.
    +{{% /tab %}} + +{{% tab "DD_EXTERNAL_ENV" %}} +Ajoutez l'étiquette suivante à votre pod : + +``` +admission.datadoghq.com/enabled: "true" +``` + +Si votre pod a cette étiquette, le [Contrôleur d'Admissions][1] injecte une variable d'environnement, `DD_EXTERNAL_ENV`. La valeur de cette variable est envoyée dans un champ avec la métrique, qui peut être utilisée par l'Agent Datadog pour déterminer l'origine de la métrique. + +[1]: /fr/containers/cluster_agent/admission_controller +{{% /tab %}} +{{< /tabs >}} + +#### Cardinalité des étiquettes {#tag-cardinality} + +Lisez [Attribution des Étiquettes : Cardinalité des Étiquettes][11] pour plus d'informations sur la cardinalité des étiquettes. + +##### Globalement {#globally} + +Vous pouvez spécifier la cardinalité des étiquettes globalement en définissant la variable d'environnement `DD_CARDINALITY`, ou en passant un champ `'cardinality'` au constructeur. + +##### Par métrique {#per-metric} + +Vous pouvez spécifier la cardinalité des étiquettes par métrique en passant la valeur dans le paramètre `cardinality`. Les valeurs valides pour ce paramètre sont `"none"`, `"low"`, `"orchestrator"` ou `"high"`. + +### Client DogStatsD {#dogstatsd-client} + +Installez la bibliothèque cliente DogStatsD dans la langue de votre choix et configurez-la pour qu'elle corresponde à l'adresse et au port du serveur DogStatsD de l'Agent Datadog. + +#### Installez le client DogStatsD {#install-the-dogstatsd-client} + +Les bibliothèques officielles du client Datadog-DogStatsD sont disponibles pour les langages suivants. Tout client StatsD conforme fonctionne avec DogStatsD et l'Agent, mais n'inclut pas les fonctionnalités spécifiques à Datadog mentionnées ci-dessus : +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} + +{{< programming-lang lang="python" >}} + +```shell +pip install datadog +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} + +```shell +gem install dogstatsd-ruby +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} + +```shell +go get github.com/DataDog/datadog-go/v5/statsd +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="java" >}} + +Le client Java DataDog StatsD est distribué avec Maven Central et peut être [téléchargé depuis Maven][1]. Commencez par ajouter la configuration suivante à votre `pom.xml` : + +```xml + + com.datadoghq + java-dogstatsd-client + 4.2.1 + +``` + +[1]: https://search.maven.org/search?q=g:com.datadoghq%20a:java-dogstatsd-client +{{< /programming-lang >}} + +{{< programming-lang lang="PHP" >}} + +Ajoutez ce qui suit à votre `composer.json` : + +```text +"datadog/php-datadogstatsd": "1.6.*" +``` + +**Note** : La première version livrée dans Composer est _0.0.3_ + +Ou clonez manuellement le dépôt sur [github.com/DataDog/php-datadogstatsd][1] et configurez-le avec `require './src/DogStatsd.php'`. + + + +[1]: https://github.com/DataDog/php-datadogstatsd#php-datadog-statsd-client +{{< /programming-lang >}} + +{{< programming-lang lang=".NET" >}} + +Installez le package directement via l'interface de ligne de commande Nuget ou récupérez [le PackageReference depuis NuGet][1] : + +```shell +dotnet add package DogStatsD-CSharp-Client +``` + +[1]: https://www.nuget.org/packages/DogStatsD-CSharp-Client +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + + +#### Instanciez le client DogStatsD {#instantiate-the-dogstatsd-client} + +Une fois votre client DogStastD installé, instanciez-le dans votre code : +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} + +{{< programming-lang lang="python" >}} + +```python +from datadog import initialize, statsd + +options = { + 'statsd_host':'127.0.0.1', + 'statsd_port':8125 +} + +initialize(**options) +``` + +
    + Par défaut, les instances du client Python DogStatsD (y compris l'instance globale statsd) ne peuvent pas être partagées entre les processus mais sont sûres pour les threads. En raison de cela, le processus parent et chaque processus enfant doivent créer leurs propres instances du client ou le tamponnage doit être explicitement désactivé en définissant disable_buffering sur True. Consultez la documentation sur datadog.dogstatsd pour plus de détails. +
    + +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} + +```ruby +# Import the library +require 'datadog/statsd' + +# Create a DogStatsD client instance. +statsd = Datadog::Statsd.new('localhost', 8125) +``` + +
    + Si vous utilisez DogStatsD avec l'Agent de conteneur ou dans Kubernetes, vous devez instancier l'hôte vers lequel les métriques StatsD sont transférées avec la variable d'environnement $DD_DOGSTATSD_SOCKET si vous utilisez un socket de domaine UNIX, ou avec la variable d'environnement $DD_AGENT_HOST si vous utilisez la méthode de liaison de port hôte. +
    + +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} + +```go +dogstatsd_client, err := statsd.New("127.0.0.1:8125") +if err != nil { + log.Fatal(err) +} +``` + +Pour toutes les options disponibles, consultez la documentation [GoDoc de Datadog][1]. + + + +[1]: https://pkg.go.dev/github.com/DataDog/datadog-go/v5/statsd +{{< /programming-lang >}} + +{{< programming-lang lang="java" >}} + +```java +import com.timgroup.statsd.NonBlockingStatsDClientBuilder; +import com.timgroup.statsd.StatsDClient; + +public class DogStatsdClient { + + public static void main(String[] args) throws Exception { + + StatsDClient statsd = new NonBlockingStatsDClientBuilder() + .prefix("statsd") + .hostname("localhost") + .port(8125) + .build(); + + + // alternatively + StatsDClient statsdAlt = new NonBlockingStatsDClient( + new NonBlockingStatsDClientBuilder( + .prefix("statsd") + .hostname("localhost") + .port(8125) + .resolve())); + + } +} +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="PHP" >}} + +Instanciez un nouvel objet DogStatsD avec `composer` : + +```php + '127.0.0.1', + 'port' => 8125, + ) + ); +``` + +{{< /programming-lang >}} + +{{< programming-lang lang=".NET" >}} + +Configurez la classe DogStatsD : + +```csharp +// The code is located under the StatsdClient namespace +using StatsdClient; + +// ... + +var dogstatsdConfig = new StatsdConfig +{ + StatsdServerName = "127.0.0.1", + StatsdPort = 8125, +}; + +using (var dogStatsdService = new DogStatsdService()) +{ + if (!dogStatsdService.Configure(dogstatsdConfig)) + throw new InvalidOperationException("Cannot initialize DogstatsD. Set optionalExceptionHandler argument in the `Configure` method for more information."); + // ... +} // Flush metrics not yet sent +``` + +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +### Paramètres d'instanciation du client {#client-instantiation-parameters} + +**Note** : En tant que meilleure pratique, Datadog recommande d'utiliser le balisage de service unifié lors de l'attribution des balises. Le balisage de service unifié relie la télémétrie de Datadog grâce à l'utilisation de trois balises standard : `env`, `service` et `version`. Pour apprendre comment unifier votre environnement, consultez [unified service tagging][8]. + +En plus de la configuration requise de DogStatsD (`url` et `port`), les paramètres optionnels suivants sont disponibles pour votre client DogStatsD : + +{{< programming-lang-wrapper langs="python,ruby,go,java,PHP,.NET" >}} +{{< programming-lang lang="python" >}} +| Paramètre | Type | Par défaut | Description | +| ---------------------- | --------------- | ----------- | -------------------------------------------------------------------------------------------------------------- | +| `statsd_host` | Chaîne | `localhost` | L'hôte de votre serveur DogStatsD. | +| `statsd_port` | Entier | `8125` | Le port de votre serveur DogStatsD. | +| `statsd_socket_path` | Chaîne | `null` | Le chemin vers le socket de domaine UNIX de DogStatsD (remplace `host` et `port`, uniquement pris en charge avec l'Agent v6+). | +| `statsd_constant_tags` | Liste de chaînes | `null` | Étiquettes à appliquer à toutes les métriques, événements et vérifications de service. | +| `statsd_namespace` | Chaîne | `null` | Espace de noms à préfixer à toutes les métriques, événements et vérifications de service. | + +Pour la liste complète des paramètres optionnels disponibles pour `datadog.initialize()` ainsi que les paramètres uniquement disponibles lors de l'instanciation explicite des instances `datadog.dogstatsd.DogStatsd`, consultez la [bibliothèque Python Datadog][1]. + + +[1]: https://datadogpy.readthedocs.io/en/latest +{{< /programming-lang >}} +{{< programming-lang lang="ruby" >}} + +| Paramètre | Type | Par défaut | Description | +| --------------- | --------------- | ----------- | -------------------------------------------------------------------------------------------------------------- | +| `host` | Chaîne | `localhost` | L'hôte de votre serveur DogStatsD. | +| `port` | Entier | `8125` | Le port de votre serveur DogStatsD. | +| `socket_path` | Chaîne | `null` | Le chemin vers le socket de domaine UNIX de DogStatsD (remplace `host` et `port`, uniquement pris en charge avec l'Agent v6+). | +| `tags` | Liste de chaînes | `null` | Étiquettes à appliquer à toutes les métriques, événements et vérifications de service. | +| `namespace` | Chaîne | `null` | Espace de noms à préfixer à toutes les métriques, événements et vérifications de service. | +| `single_thread` | Booléen | `false` | Fait en sorte que le client envoie les métriques sur le fil principal lorsqu'il est activé plutôt que dans un fil compagnon. | + +Pour obtenir la liste complète des paramètres facultatifs, consultez le [référentiel dogstatsd-ruby][1] sur GitHub. + + +[1]: https://github.com/DataDog/dogstatsd-ruby +{{< /programming-lang >}} +{{< programming-lang lang="go" >}} + +Le client Go dispose de plusieurs options pour la configuration du comportement de votre client. + +| Paramètre | Type | Description | +| ----------------- | --------------- | --------------------------------------------------------------------------- | +| `WithNamespace()` | Chaîne | Configurez un espace de noms à préfixer à toutes les métriques, événements et vérifications de service. | +| `WithTags()` | Liste de chaînes | Étiquettes globales appliquées à chaque métrique, événement et vérification de service. | + +Pour découvrir toutes les options disponibles, consultez la [documentation Datadog pour Go][1] (en anglais). + + +[1]: https://pkg.go.dev/github.com/DataDog/datadog-go/v5/statsd#Option +{{< /programming-lang >}} +{{< programming-lang lang="java" >}} + +À partir de v2.10.0, la manière recommandée d'instancier le client est d'utiliser le NonBlockingStatsDClientBuilder. Vous +pouvez utiliser les méthodes de constructeur suivantes pour définir les paramètres du client. + +| Méthode de constructeur | Type | Par défaut | Description | +| -------------------------------------------- | -------------- | --------- | ---------------------------------------------------------------------------------- | +| `prefix(String val)` | Chaîne | null | Le préfixe à appliquer à toutes les métriques, événements et vérifications de service. | +| `hostname(String val)` | Chaîne | localhost | Le nom d'hôte du serveur StatsD ciblé. | +| `port(int val)` | Entier | 8125 | Le port du serveur StatsD ciblé. | +| `constantTags(String... val)` | Chaîne varargs | null | Étiquettes globales à appliquer à chaque métrique, événement et vérification de service. | +| `blocking(boolean val)` | Booléen | faux | Le type de client à instancier : bloquant ou non-bloquant. | +| `socketBufferSize(int val)` | Entier | -1 | La taille du tampon de socket sous-jacent. | +| `enableTelemetry(boolean val)` | Booléen | faux | Rapport de télémétrie du client. | +| `entityID(String val)` | Chaîne | null | ID d'entité pour la détection d'origine. | +| `errorHandler(StatsDClientErrorHandler val)` | Entier | null | Gestionnaire d'erreurs en cas d'erreur interne du client. | +| `maxPacketSizeBytes(int val)` | Entier | 8192/1432 | La taille maximale du paquet; 8192 sur UDS, 1432 pour UDP. | +| `processorWorkers(int val)` | Entier | 1 | Le nombre de threads de travail assemblant les tampons pour l'envoi. | +| `senderWorkers(int val)` | Entier | 1 | Le nombre de threads d'envoi transmettant les tampons au socket. | +| `poolSize(int val)` | Entier | 512 | Taille du pool de tampons de paquets réseau. | +| `queueSize(int val)` | Entier | 4096 | Nombre maximum de messages non traités dans la file d'attente. | +| `timeout(int val)` | Entier | 100 | le délai d'attente en millisecondes pour les opérations bloquantes. S'applique uniquement aux sockets unix. | + +Pour plus d'informations, recherchez le [package][1] Java DogStatsD pour la classe NonBlockingStatsDClient et la classe NonBlockingStatsDClientBuilder. Assurez-vous de consulter la version qui correspond à votre version du client. + + +[1]: https://javadoc.io/doc/com.datadoghq/java-dogstatsd-client/latest/index.html +{{< /programming-lang >}} +{{< programming-lang lang="PHP" >}} + +| Paramètre | Type | Par défaut | Description | +| ------------------ | --------------- | ----------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| `host` | Chaîne | `localhost` | L'hôte de votre serveur DogStatsD. Si cela n'est pas défini, l'Agent regarde la variable d'environnement `DD_AGENT_HOST` ou `DD_DOGSTATSD_URL`. | +| `port` | Entier | `8125` | Le port de votre serveur DogStatsD. Si cela n'est pas défini, l'Agent regarde la variable d'environnement `DD_DOGSTATSD_PORT` ou `DD_DOGSTATSD_URL`. | +| `socket_path` | Chaîne | `null` | Le chemin vers le socket de domaine UNIX DogStatsD (remplace `host` et `port`). Cela n'est pris en charge qu'avec l'Agent v6+. Si cela n'est pas défini, l'Agent examine la variable d'environnement `DD_DOGSTATSD_URL`. | +| `global_tags` | Liste de chaînes | `null` | Étiquettes à appliquer à toutes les métriques, événements et vérifications de service. L'étiquette `@dd.internal.entity_id` est ajoutée à global_tags à partir de la variable d'environnement `DD_ENTITY_ID`. | +| `origin_detection` | Booléen | Vrai | Les champs de détection d'origine doivent-ils être ajoutés à chaque métrique ? | +| `container_id` | Chaîne | `null` | Un identifiant de conteneur pour étiqueter toutes les métriques pour la détection d'origine. | + +{{< /programming-lang >}} +{{< programming-lang lang=".NET" >}} + +| Paramètre | Type | Par défaut | Description | +| ------------------ | --------------- | ----------- | -------------------------------------------------------------------- | +| `StatsdServerName` | Chaîne | `localhost` | Le nom d'hôte du serveur StatsD ciblé. | +| `StatsdPort` | Entier | `8125` | Le port du serveur StatsD ciblé. | +| `Prefix` | Chaîne | `null` | Préfixe à appliquer à chaque métrique, événement et vérification de service. | +| `ConstantTags` | Liste de chaînes | `null` | Étiquettes globales à appliquer à chaque métrique, événement et vérification de service. | +| `OriginDetection` | Booléen | Vrai | Les champs de détection d'origine doivent-ils être ajoutés à chaque métrique ? | +| `ContainerID` | Chaîne | `null` | Un identifiant de conteneur pour étiqueter toutes les métriques pour la détection d'origine. | + +{{< /programming-lang >}} +{{< /programming-lang-wrapper >}} + +## Plongez dans DogStatsD {#dive-into-dogstatsd} + +DogStatsD et StatsD sont assez semblables. Toutefois, DogStatsD comprend des fonctionnalités avancées propres à Datadog, y compris les types de données, les événements, les checks de service et les tags disponibles : + +{{< whatsnext desc="">}} +{{< nextlink href="/metrics/custom_metrics/dogstatsd_metrics_submission/" >}}Envoyer des métriques à Datadog avec DogStatsD.{{< /nextlink >}} +{{< nextlink href="/events/guides/dogstatsd/" >}}Envoyer des événements à Datadog avec DogStatsD.{{< /nextlink >}} +{{< nextlink href="/extend/service_checks/dogstatsd_service_checks_submission/" >}}Envoyer des vérifications de service à Datadog avec DogStatsD.{{< /nextlink >}} +{{< /whatsnext >}} + +Si vous souhaitez approfondir vos connaissances sur le format des datagrammes utilisé par DogStatsD, ou concevoir votre propre bibliothèque Datadog, consultez la section relative au [datagramme et à l'interface système][9], qui décrit également comment envoyer des métriques et des événements directement depuis la ligne de commande. + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/statsd/statsd +[2]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/ +[3]: https://hub.docker.com/r/datadog/dogstatsd +[4]: https://gcr.io/datadoghq/dogstatsd +[5]: /fr/metrics/custom_metrics/ +[6]: /fr/events/guides/dogstatsd/ +[7]: /fr/extend/service_checks/dogstatsd_service_checks_submission/ +[8]: /fr/getting_started/tagging/unified_service_tagging +[9]: /fr/extend/dogstatsd/datagram_shell/ +[10]: /fr/extend/community/libraries/ +[11]: /fr/getting_started/tagging/assigning_tags/?tab=containerizedenvironments#tags-cardinality +[12]: https://kubernetes.io/docs/tasks/configure-pod-container/share-process-namespace/ +[33]: https://registry.datadoghq.com/v2/dogstatsd/tags/list +[34]: https://gallery.ecr.aws/datadog/dogstatsd \ No newline at end of file diff --git a/content/fr/getting_started/_index.md b/content/fr/getting_started/_index.md new file mode 100644 index 00000000000..40c55f01f3a --- /dev/null +++ b/content/fr/getting_started/_index.md @@ -0,0 +1,155 @@ +--- +aliases: +- /fr/overview +- /fr/getting_started/faq/ +cascade: + algolia: + category: Getting Started + rank: 50 +description: Introduction à la plateforme d'observabilité de Datadog avec des guides + pour l'installation, la configuration et le démarrage avec les fonctionnalités clés. +disable_sidebar: true +further_reading: +- link: https://learn.datadoghq.com/ + tag: Centre d'apprentissage + text: Suivez un cours pour commencer avec Datadog +- link: https://datadoghq.com/blog/ + tag: GitHub + text: Découvrez les nouveaux produits et fonctionnalités de Datadog, les intégrations, + et plus encore +- link: https://app.datadoghq.com/help/quick_start + tag: App + text: Explorez le Guide de démarrage rapide +- link: https://learn.datadoghq.com/courses/introduction-to-observability + tag: Centre d'apprentissage + text: Introduction à l'observabilité +title: Débuter +--- +## Qu'est-ce que Datadog ? {#what-is-datadog} + +Datadog est une plateforme d'observabilité qui prend en charge chaque phase du développement logiciel sur n'importe quelle pile technologique. La plateforme se compose de nombreux produits qui vous aident à construire, tester, surveiller, déboguer, optimiser et sécuriser votre logiciel. Ces produits peuvent être utilisés individuellement ou combinés en une solution personnalisée. + +Le tableau qui suit présente quelques-uns des produits Datadog : + + + + + + + + + + + + + + + + + + + + + + + + + + +
    CatégorieExemples de produits

    Développement

    +
      +
    • Mettez en évidence les vulnérabilités de code dans votre éditeur de texte ou sur GitHub avec Sécurité du code.
    • +
    • Facilitez une session de pair-programming à distance avec CoScreen.
    +

    Testing

    +
      +
    • Bloquez le code défectueux avant son déploiement en production avec PR Gates.
    • +
    • Simulez des utilisateurs à travers le monde pour tester votre application web, API ou application mobile avec Surveillance synthétique.
    • +
    +

    Surveillance

    + +

    Dépannage

    +
      +
    • Gérez les erreurs et les incidents, en résumant les problèmes et en suggérant des solutions.
    • +
    • Mesurez le taux de désabonnement des utilisateurs et détectez la frustration des utilisateurs avec Real User Monitoring.
    • +
    +

    Sécurité

    + +
    + +De plus, des centaines d'[intégrations][1] vous permettent de superposer les fonctionnalités de Datadog sur les technologies que vous utilisez déjà. Par exemple, l'[intégration AWS][2] collecte des journaux, des événements et des métriques de plus de 90 services AWS. + +## En savoir plus {#learn-more} + +{{< learning-center-callout header="Participez à une session de webinaire de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/session/datadog-overview/">}} + Cette session de formation de base aide à répondre à la question clé : "Qu'est-ce que Datadog et que peut-il faire pour moi ?" Vous apprendrez comment envoyer des données à Datadog et quelles pages visiter pour mieux comprendre l'état de vos différents environnements, applications et infrastructures. +{{< /learning-center-callout >}} + +### Suivez un cours {#take-a-course} +Le Datadog Learning Center offre une expérience pratique avec la plateforme Datadog. Les [cours de démarrage][3] couvrent les pratiques d'observabilité, les concepts clés de Datadog, et plus encore. + +Pour vous familiariser rapidement avec Datadog, essayez notre [formation de démarrage rapide][4]. + +### Approfondissez un domaine de produit {#dive-deeper-into-a-product-area} +{{< whatsnext desc="Commencez avec l'un des guides ci-dessous :">}} +{{< nextlink href="/getting_started/application" >}}Datadog : Découvrez comment utiliser l'interface utilisateur de Datadog : Tableaux de bord, liste d'infrastructure, cartes, et plus.{{< /nextlink >}} +{{< nextlink href="/getting_started/site" >}}Site Datadog: Sélectionnez le site Datadog approprié pour votre région et vos exigences de sécurité.{{< /nextlink >}} +{{< nextlink href="/getting_started/devsecops" >}}Bundles DevSecOps d’Infrastructure: Commencez avec les bundles DevSecOps d’Infrastructure.{{< /nextlink >}} +{{< nextlink href="/getting_started/agent" >}}Agent: Envoyez des métriques et des événements de vos hôtes vers Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/api" >}}API: Commencez avec l'API HTTP de Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/integrations" >}}Intégrations: Apprenez à collecter des métriques, des traces et des journaux avec les intégrations Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/search" >}}Recherche: Apprenez les fondamentaux de la recherche et du filtrage à travers les produits Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/tagging" >}}Tags: Commencez à taguer vos métriques, journaux et traces.{{< /nextlink >}} +{{< nextlink href="/getting_started/opentelemetry" >}}OpenTelemetry: Apprenez à envoyer des métriques, des traces et des journaux OpenTelemetry vers Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/learning_center" >}}Centre d'apprentissage: Suivez un parcours d'apprentissage, suivez un cours ou un laboratoire autonome, et explorez le programme de certification Datadog.{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Services de plateforme:">}} +{{< nextlink href="/getting_started/dashboards" >}}Tableaux de bord: Créez, partagez et maintenez des tableaux de bord qui répondent aux questions de travail qui vous importent.{{< /nextlink >}} +{{< nextlink href="/getting_started/incident_management" >}}Gestion des incidents: Communiquez et suivez les problèmes dans vos systèmes.{{< /nextlink >}} +{{< nextlink href="/getting_started/monitors" >}}Moniteurs: Configurez des alertes et des notifications afin que votre équipe sache quand des changements critiques se produisent.{{< /nextlink >}} +{{< nextlink href="/getting_started/notebooks" >}}Carnets: Combinez des graphiques en direct, des métriques, des journaux et des moniteurs pour isoler les problèmes et créer des guides interactifs.{{< /nextlink >}} +{{< nextlink href="/getting_started/organization_topology" >}}Topologie de l'organisation: Choisissez entre des déploiements Datadog à organisation unique et multi-organisations et gérez l'isolement avec des contrôles d'accès.{{< /nextlink >}} +{{< nextlink href="/getting_started/teams" >}}Équipes: Construisez un modèle de propriété fiable en synchronisant les données des équipes provenant de fournisseurs d'identité, de GitHub et d'autres sources dans Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/workflow_automation" >}}Automatisation des flux de travail: Automatisez les processus de bout en bout en réponse aux alertes et aux signaux de sécurité.{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Produit:">}} +{{< nextlink href="/getting_started/containers" >}}Conteneurs: Apprenez à utiliser l'Autodécouverte de l'Agent et l'opérateur Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/serverless" >}}Serverless pour AWS Lambda: Apprenez à collecter des métriques, des journaux et des traces de votre infrastructure sans serveur.{{< /nextlink >}} +{{< nextlink href="/getting_started/internal_developer_portal" >}}Portail développeur interne: Unifiez la télémétrie, les métadonnées et les flux de travail pour accélérer la livraison. {{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}Traçage: Configurez l'Agent pour tracer une petite application.{{< /nextlink >}} +{{< nextlink href="/getting_started/profiler" >}}Profileur: Utilisez le Profileur Continu pour identifier et résoudre les problèmes de performance dans votre code.{{< /nextlink >}} +{{< nextlink href="/getting_started/database_monitoring" >}}Surveillance de la Base de Données: Consultez la santé et la performance des bases de données, et résolvez rapidement tout problème qui survient.{{< /nextlink >}} +{{< nextlink href="/getting_started/synthetics" >}}Surveillance Synthétique: Commencez à tester et à surveiller vos points de terminaison API et vos parcours commerciaux clés avec des tests synthétiques.{{< /nextlink >}} +{{< nextlink href="/getting_started/continuous_testing" >}}Tests Continus: Exécutez des tests synthétiques de bout en bout dans vos pipelines CI et vos IDE.{{< /nextlink >}} +{{< nextlink href="/getting_started/session_replay" >}}Session Replay: Obtenez un aperçu approfondi de la manière dont les utilisateurs interagissent avec votre produit grâce aux Session Replays.{{< /nextlink >}} +{{< nextlink href="/getting_started/application_security" >}}Protection des Applications et des API: Découvrez les meilleures pratiques pour rendre votre équipe opérationnelle avec AAP.{{< /nextlink >}} +{{< nextlink href="/getting_started/cloud_security_management" >}}Sécurité Cloud: Découvrez les meilleures pratiques pour rendre votre équipe opérationnelle avec la Sécurité Cloud.{{< /nextlink >}} +{{< nextlink href="/getting_started/cloud_siem" >}}Cloud SIEM: Découvrez les meilleures pratiques pour rendre votre équipe opérationnelle avec Cloud SIEM.{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}Journaux: Envoyez vos premiers journaux et utilisez le traitement des journaux pour les enrichir.{{< /nextlink >}} +{{< nextlink href="/getting_started/ci_visibility" >}}Visibilité CI: Collectez les données de pipeline CI en configurant des intégrations avec vos fournisseurs CI.{{< /nextlink >}} +{{< nextlink href="/getting_started/feature_flags" >}}Drapeaux de Fonctionnalités: Gérez la livraison des fonctionnalités et personnalisez les expériences utilisateur, avec une observabilité intégrée.{{< /nextlink >}} +{{< nextlink href="/getting_started/test_optimization" >}}Optimisation des Tests: Collectez les données de test CI en configurant des services de test dans Datadog.{{< /nextlink >}} +{{< nextlink href="/getting_started/test_impact_analysis" >}}Analyse d'Impact des Tests: Optimisez votre suite de tests et réduisez les coûts CI en n'exécutant que les tests pertinents pour vos modifications de code.{{< /nextlink >}} +{{< nextlink href="/getting_started/code_security" >}}Sécurité du Code: Analysez votre code de première partie et les bibliothèques open source dans vos applications, du développement à l'exécution.{{< /nextlink >}} +{{< /whatsnext >}} + +##Essayez un produit ou une fonctionnalité en avant-première{#try-a-preview-product-or-feature} + +Les équipes produit de Datadog ajoutent fréquemment de nouvelles fonctionnalités qui pourraient vous aider. Vous pouvez essayer certaines d'entre elles avant qu'elles ne soient généralement disponibles pour voir si elles vous aident et pour nous donner des retours afin de les améliorer. Pour voir une liste complète des avant-premières actives, obtenir plus d'informations et vous inscrire pour participer, rendez-vous sur [Programme d'Aperçu des Produits Datadog][5]. + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/getting_started/integrations/ +[2]: /fr/integrations/amazon_web_services/ +[3]: https://learn.datadoghq.com/collections/getting-started +[4]: https://learn.datadoghq.com/courses/course-quickstart +[5]: https://www.datadoghq.com/product-preview/ \ No newline at end of file diff --git a/content/fr/getting_started/agent/_index.md b/content/fr/getting_started/agent/_index.md index a8d8a4877a0..922a3be3c77 100644 --- a/content/fr/getting_started/agent/_index.md +++ b/content/fr/getting_started/agent/_index.md @@ -1,189 +1,150 @@ --- +description: Guide pour installer et configurer l'Agent Datadog afin de collecter + des métriques, des événements et des journaux au niveau système depuis les hôtes. further_reading: -- link: /agent/basic_agent_usage/ +- link: agent/ tag: Documentation - text: Utilisation de base de l'Agent + text: L'Agent Datadog - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive pour booster la surveillance de votre infrastructure - link: /agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ tag: FAQ - text: Pourquoi installer l'Agent Datadog sur mes instances cloud ? + text: Pourquoi installer l'Agent Datadog sur mes instances dans le cloud ? +- link: https://www.datadoghq.com/blog/lambda-managed-instances + tag: GitHub + text: Surveillez les instances gérées AWS Lambda avec Datadog title: Débuter avec l'Agent --- +## Aperçu {#overview} -Ce guide présente le fonctionnement de l'Agent et décrit la marche à suivre pour envoyer des métriques système à la plateforme Datadog. En guise d'exemple, l'installation d'un Agent sur Ubuntu est expliquée. Voici les thèmes abordés : +Ce guide présente l'Agent Datadog et couvre : - - Installation de l'Agent - - Vérification de l'exécution de l'Agent - - Configuration des fonctionnalités de l'Agent - - Ressources pour le dépannage + - [ Introduction à l'Agent ](#what-is-the-datadog-agent) + - [ Installation ](#installation) + - [ Données collectées par l'Agent ](#data-collected-by-the-agent) + - [ Configurations et fonctionnalités avancées ](#advanced-configurations-and-features) + - [ Dépannage ](#troubleshooting) -## Présentation -### Fonctionnement de l'Agent +## Qu'est-ce que l'Agent Datadog ? {#what-is-the-datadog-agent} -L'Agent Datadog est un logiciel qui s'exécute sur vos hosts. Il recueille les événements et les métriques des hosts et les envoie à la plateforme Datadog, à partir de laquelle vous pouvez analyser vos données de surveillance et de performance. Il peut être exécuté sur des hosts locaux (Windows ou macOS), des environnements conteneurisés (Docker ou Kubernetes) ainsi que sur site dans des centres de données. Vous pouvez installer et configurer l'Agent à l'aide d'outils de gestion de la configuration (Chef, Puppet ou Ansible). +L'Agent Datadog est un logiciel qui s'exécute sur vos hôtes. Il collecte des événements et des métriques depuis les hôtes et les envoie à Datadog, où vous pouvez analyser vos données de surveillance et de performance. -L'Agent est capable de recueillir 75 à 100 métriques système toutes les 15 à 20 secondes. Avec une configuration supplémentaire, il est même possible d'envoyer en temps réel des données, logs et traces provenant de processus en cours d'exécution à la plateforme Datadog. L'Agent Datadog est open source et son code source est disponible sur GitHub dans [DataDog/datadog-agent][1]. +L'Agent peut s'exécuter sur : +- Hôtes locaux (Windows, Linux, macOS) +- Environnements conteneurisés (Docker, Kubernetes) +- Centres de données sur site -### Charge de l'Agent +Vous pouvez également installer et configurer l'Agent en utilisant des outils de gestion de configuration tels que Chef, Puppet ou Ansible. -L'espace et les ressources requis pour l'Agent varient selon la configuration et les données envoyées. Lors d'une première utilisation, l'Agent utilise en moyenne environ 0,08 % du CPU et 830 à 880 Mo d'espace disque. +L'Agent peut collecter 75 à 100 métriques au niveau système toutes les 15 à 20 secondes. Avec une configuration supplémentaire, il peut envoyer des données en direct, des journaux et des traces des processus en cours d'exécution à Datadog. L'Agent Datadog est open source, et son code source est disponible sur GitHub à [DataDog/datadog-agent][1]. -Consultez la rubrique [Charge de l'Agent][2] pour en savoir plus sur ces benchmarks. - -### Données collectées - -#### Métriques de l'Agent +### Le fichier de configuration de l'Agent {#the-agent-configuration-file} -Les métriques de l'Agent suivantes correspondent aux informations envoyées par l'Agent à Datadog à son propre sujet. Elles vous permettent d'identifier les hosts ou conteneurs sur lesquels des Agents s'exécutent, l'heure de lancement d'un Agent, ou encore la version de Python exécutée par un Agent. - -| Métrique | Description | -| -------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| `datadog.agent.python.version` | Affiche la valeur `1` si l'Agent transmet des données à Datadog. Le tag `python_version` est ajouté à la métrique. | -| `datadog.agent.running` | Affiche la valeur `1` si l'Agent transmet des données à Datadog. | -| `datadog.agent.started` | Nombre ayant pour valeur `1` envoyé lorsque l'Agent se lance (disponible pour les versions 6.12 et ultérieures). | - -Consultez l'intégration [Agent Metrics][3] pour obtenir la liste complète des métriques de l'Agent. +Le fichier de configuration principal de l'Agent est `datadog.yaml`. Les paramètres requis sont : +- Votre [clé API Datadog][16], qui est utilisée pour associer les données de l'Agent à votre organisation. +- Votre [site Datadog][41] ({{< region-param key="dd_site" code="true" >}}). -#### Checks +Consultez le [fichier d'exemple `config_template.yaml`][23] pour toutes les options de configuration disponibles. Vous pouvez ajuster les fichiers de configuration de l'Agent pour tirer parti d'autres fonctionnalités de Datadog. -En fonction de votre plateforme, l'Agent présente plusieurs checks de base activés par défaut qui recueillent des métriques. - -| Check | Métriques | Plateformes | -| ----------- | ------------- | ------------------ | -| CPU | [System][4] | Toutes | -| Disk | [Disk][5] | Toutes | -| IO | [System][4] | Toutes | -| Memory | [System][4] | Toutes | -| Network | [Network][6] | Toutes | -| NTP | [NTP][7] | Toutes | -| Uptime | [System][4] | Toutes | -| File Handle | [System][4] | Toutes sauf Mac | -| Load | [System][4] | Toutes sauf Windows | -| Docker | [Docker][8] | Docker | -| Winproc | [System][4] | Windows | - -Pour recueillir des métriques provenant d'autres technologies, consultez la page relative aux [intégrations][9]. -## Différences entre les Agents pour hosts et les Agents pour conteneurs +## Installation {#installation} -Ce guide décrit la procédure d'installation et de configuration d'un Agent sur un host. Si vous comptez installer par la suite des Agents dans un environnement conteneurisé, sachez que la marche à suivre diffère légèrement. - -1. Pour une installation sur un host, la configuration de l'Agent est basée sur un fichier YAML (tel que décrit plus en détail dans ce guide). À l'inverse, sur un conteneur, les options de configuration sont définies via des [variables d'environnement][10]. Exemples : - - `DD_API_KEY` pour la clé d'API Datadog - - `DD_SITE` pour le site Datadog - -2. De la même manière, sur un host, les [intégrations][9] sont activées à l'aide du fichier de configuration de l'Agent, tandis que dans un environnement conteneurisé, la fonctionnalité Autodiscovery de Datadog identifie automatiquement les intégrations. Consultez la section [Fonction Autodiscovery de l'Agent][11] pour en savoir plus. - -Référez-vous aux sections relatives à [Agent Docker][12] ou à [Kubernetes][13] pour découvrir un exemple d'exécution de l'Agent dans un environnement conteneurisé. - -## Pourquoi installer l'Agent - -L'Agent doit être installé afin de pouvoir envoyer des données à partir des nombreuses intégrations basées sur l'Agent. Il n'est pas forcément nécessaire d'utiliser l'Agent pour transmettre des données à la plateforme Datadog : par exemple, il est possible d'envoyer des logs et des métriques par l'intermédiaire de l'API Datadog. Toutefois, il s'agit de l'outil recommandé pour transmettre vos données à la plateforme Datadog. +### Prérequis {#prerequisites} +1. Créez un [compte Datadog][15]. -L'Agent recueille des données sur les hosts toutes les 15 secondes, afin que vous puissiez visualiser en détail l'activité de vos environnements. Comme indiqué précédemment à la rubrique [Checks][14], l'Agent dispose de plusieurs checks qui recueillent plus de 50 métriques par défaut, afin d'améliorer votre visibilité sur vos données système. +2. Notez votre [clé d'API Datadog][16] afin de pouvoir y accéder facilement. -## Implémentation +### Configuration {#setup} -### Prérequis +Utilisez [Fleet Automation][39], le flux de travail intégré de Datadog, pour installer, mettre à niveau, configurer et dépanner l'Agent Datadog sur un seul hôte ou à grande échelle. -1. Créez un [compte Datadog][15]. - -2. Notez votre [clé d'API Datadog][16] afin de pouvoir y accéder facilement. +Consultez la [documentation de l'Agent][40] pour une configuration supplémentaire de l'Agent pour votre plateforme spécifique. -3. Ouvrez l'interface Datadog. -**Remarque** : l'exemple de ce guide repose sur le système d'exploitation Ubuntu. Référez-vous à la page [Utilisation de base de l'Agent][17] pour consulter la liste complète des plateformes prises en charge. +## Données collectées par l'Agent {#data-collected-by-the-agent} -### Installation +Pour vous donner une visibilité complète sur votre infrastructure, l'Agent Datadog rapporte des métriques sur sa propre santé et sa configuration, ainsi que des métriques recueillies à partir de vos hôtes et services via ses vérifications par défaut. -Dans l'interface Datadog, cliquez sur **Integrations > Agent** pour accéder à la page d'installation de l'Agent, puis sélectionnez Ubuntu. Pour installer l'Agent Datadog sur un host, utilisez la commande d'installation d'une ligne indiquée sur cette page (voir l'exemple ci-dessous), en prenant soin de spécifier votre [clé d'API Datadog][16]. +### Métriques de l'Agent {#agent-metrics} -Exemple de commande d'installation Ubuntu d'une ligne : +L'Agent rapporte les métriques suivantes à Datadog à son sujet. Ces métriques fournissent des informations sur les hôtes ou conteneurs sur lesquels l'Agent s'exécute, sur le moment où chaque Agent a démarré, et sur la version de Python utilisée par l'Agent. -```shell -DD_API_KEY= DD_SITE="{{< region-param key="dd_site" >}}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" -``` +| Métrique | Description | +| -------------------------------- |------------------------------------------------- | +| `datadog.agent.running` | Affiche une valeur de `1` si l'Agent signale à Datadog. | +| `datadog.agent.started` | Un compteur envoyé avec une valeur de `1` lorsque l'Agent démarre (disponible dans v6.12+). | +| `datadog.agent.python.version` | La métrique est étiquetée avec le `python_version`. | -Pour obtenir les dernières instructions d'installation, accédez à la [page d'installation de l'Agent][18] pour votre système d'exploitation dans l'application. -### Validation +Consultez l'intégration [Agent Metrics][3] pour obtenir la liste complète des métriques de l'Agent. -#### Commande dans le terminal +### Vérifications {#checks} -Exécutez la [commande status][19] de l'Agent pour vérifier que l'installation s'est bien déroulée. +En fonction de votre plateforme, l'Agent présente plusieurs checks principaux activés par défaut qui recueillent des métriques. -```shell -sudo datadog-agent status -``` -Si aucune erreur n'a été rencontrée lors de l'installation, un rapport sur le statut de l'Agent est renvoyé. Les premières lignes ressemblent alors à ce qui suit : - -```text -=============== -Agent (v7.36.1) -=============== - - Status date: 2022-06-15 15:54:48.364 EDT / 2022-06-15 19:54:48.364 UTC (1655322888364) - Agent start: 2022-06-15 15:54:29.85 EDT / 2022-06-15 19:54:29.85 UTC (1655322869850) - Pid: 9801 - Go Version: go1.17.6 - Python Version: 3.8.11 - Build arch: amd64 - Agent flavor: agent - Check Runners: 6 - Log Level: info -``` +| Vérification | Métriques | Plateformes | +| ----------- | ------------- | ------------------ | +| CPU | [Système][4] | Tout | +| Disque | [Disque][5] | Tout | +| IO | [Système][4] | Tout | +| Mémoire | [Système][4] | Tout | +| Réseau | [Réseau][6] | Tout | +| NTP | [NTP][7] | Tout | +| Temps de fonctionnement | [Système][4] | Tout | +| Descripteur de fichier | [Système][4] | Tout sauf Mac | +| Charge | [Système][4] | Tout sauf Windows | +| Docker | [Docker][8] | Docker | +| Winproc | [Système][4] | Windows | -#### Événements +Pour recueillir des métriques provenant d'autres technologies, consultez la page relative aux [intégrations][9]. -Dans l'interface Datadog, cliquez sur **Events > Explorer** pour accéder à la page de l'Events Explorer. L'Agent envoie des événements à Datadog dès lors qu'un Agent est démarré ou redémarré. Le message suivant s'affiche si votre Agent a bien été installé : -```text -Datadog agent (v. 7.XX.X) started on -``` -#### Checks de service +### Vérifications de service {#service-checks} La configuration de base de l'Agent permet d'obtenir les checks de service suivants : - - `datadog.agent.up` : - renvoie `OK` si l'Agent est connecté à Datadog. - - - `datadog.agent.check_status` : - renvoie `CRITICAL` si un check de l'Agent ne parvient pas à envoyer des métriques à Datadog. Si ce n'est pas le cas, renvoie `OK`. + - `datadog.agent.up`: Renvoie **OK** si l'Agent se connecte à Datadog. + - `datadog.agent.check_status`: Renvoie **CRITICAL** si une vérification de l'Agent ne parvient pas à envoyer des métriques à Datadog ; sinon renvoie **OK**. -Grâce à ces checks, vous pouvez visualiser en quelques secondes le statut de l'Agent, par l'intermédiaire des monitors et dashboards de la plateforme Datadog. Consultez la [présentation des checks de service][20] pour en savoir plus. +Ces vérifications peuvent être utilisées dans Datadog pour visualiser l'état de l'Agent à travers des moniteurs et des tableaux de bord en un coup d'œil. Voir [Aperçu de la vérification de service][21] pour en savoir plus. -#### Métriques -Depuis l'interface Datadog, sélectionnez **Metrics > Summary** pour accéder à la page Metrics Summary, puis recherchez la métrique `datadog.agent.started` ou `datadog.agent.running`. Si ces métriques ne s'affichent pas de suite, il est possible que vous deviez attendre quelques minutes le temps que l'Agent envoie les données à la plateforme Datadog. +## Configurations et fonctionnalités avancées {#advanced-configurations-and-features} -Cliquez sur l'une des métriques pour ouvrir un volet connexe. Ce dernier contient des métadonnées supplémentaires à propos de l'origine des métriques et des tags associés. Dans cet exemple, nous n'avons pas encore configuré de tag sur ce host. Vous devriez donc voir uniquement les tags par défaut attribués aux métriques, notamment `version` et `host`. Consultez la rubrique « Fichiers de configuration de l'Agent » ci-dessous pour en savoir plus sur l'ajout de tags. +{{% collapse-content title="Différences entre l'Agent pour hôtes et conteneurs" level="h4" expanded=false id="id-for-anchoring" %}} -Découvrez plus d'informations sur d'autres métriques par défaut, comme `ntp.offset` et `system.cpu.idle`. +Il existe des différences clés entre l'installation des Agents sur un hôte et dans un environnement conteneurisé : -## Fichiers de configuration de l'Agent +- **Différences de configuration** : + - **Hôte** : L'Agent est configuré à l'aide d'un fichier YAML. + - **Conteneur** : Les options de configuration sont passées à l'aide de [variables d'environnement][10], par exemple : + + ```sh + `DD_API_KEY` # Datadog API key + `DD_SITE` # Datadog site + ``` -Le principal fichier de configuration de l'Agent s'intitule `datadog.yaml`. Il requiert les paramètres suivants : -- votre [clé d'API Datadog][16], qui permet d'associer les données de votre Agent à votre organisation, et -- le site Datadog ({{< region-param key="dd_site" code="true" >}}). +- **Détection des intégrations** : + - **Hôte** : [Intégrations][9] sont identifiées par le fichier de configuration de l'Agent. + - **Conteneur** : Les intégrations sont automatiquement identifiées grâce à la fonctionnalité d'Autodécouverte de Datadog. Voir [Autodécouverte de l'Agent de base][11] pour en savoir plus. -Consultez l'[exemple de fichier `config_template.yaml`][21] pour découvrir toutes les options de configuration disponibles. +De plus, consultez le [Docker Agent][12] ou [Kubernetes][13] pour un guide sur l'exécution de l'Agent dans un environnement conteneurisé. +{{% /collapse-content %}} -Vous pouvez apporter des modifications aux fichiers de configuration d'Agent afin de bénéficier d'autres fonctionnalités Datadog, notamment les tags. -#### Définir des tags via le fichier de configuration de l'Agent +{{% collapse-content title="Définir des tags via le fichier de configuration de l'Agent" level="h4" expanded=false id="id-for-anchoring" %}} -Les tags fournissent une couche de métadonnées supplémentaire pour vos métriques et événements. Ils vous permettent de filtrer et de comparer vos données au sein de visualisations Datadog. Lorsque des données sont envoyées à Datadog à partir de plusieurs hosts, l'ajout de tags vous permet d'afficher uniquement les données les plus pertinentes. +Les tags ajoutent une couche supplémentaire de métadonnées à vos métriques et événements. Ils vous permettent de filtrer et de comparer vos données dans les visualisations de Datadog. Lorsque des données sont envoyées à Datadog depuis plusieurs hôtes, le marquage de ces informations vous permet de vous concentrer sur les données qui vous intéressent le plus à visualiser. -Par exemple, imaginons que vos données soient recueillies à partir de plusieurs équipes et que vous souhaitiez afficher uniquement celles de l'équipe alpha. Si vous ajoutez aux hosts pertinents les tags `team:alpha` ou `team:bravo`, vous pouvez appliquer à vos métriques un filtre basé sur le tag `team:alpha`, afin de n'afficher que les données de cette équipe. Consultez la section [Débuter avec les tags][22] pour en savoir plus sur l'ajout de tags à vos données. +Par exemple, supposons que vous collectiez des données provenant de différentes équipes et que vous souhaitiez uniquement visualiser les métriques de l'équipe alpha; en attribuant aux hôtes spécifiques le tag `team:alpha` ou `team:bravo`, vous pourrez filtrer les métriques comportant le tag `team:alpha`. Voir [Introduction aux tags][24] pour en savoir plus sur le marquage de vos données. -1. Accédez au [fichier de configuration principal][23] de votre Agent. Sous Ubuntu, il est situé à l'emplacement `/etc/datadog-agent/datadog.yaml`. +1. Localisez le [fichier de configuration principal][25] de votre Agent. Pour Ubuntu, l'emplacement du fichier est `/etc/datadog-agent/datadog.yaml`. -2. Dans le fichier `datadog.yaml`, repérez le paramètre `tags`. Les tags au niveau des hosts peuvent être définis dans le fichier de configuration `datadog.yaml`, afin d'appliquer des tags à l'ensemble des métriques, traces et logs transmis à partir de ce host. +2. Dans le fichier `datadog.yaml`, localisez le paramètre `tags`. Les balises au niveau de l'hôte peuvent être définies dans la configuration `datadog.yaml` pour appliquer des balises à toutes les métriques, traces et journaux transmis par cet hôte. ```yaml ## @param tags - list of key:value elements - optional @@ -201,7 +162,7 @@ Par exemple, imaginons que vos données soient recueillies à partir de plusieur # - : ``` -3. Supprimez la mise en commentaire du paramètre tags et de l'exemple de tag `team:infra` fourni. Vous pouvez également ajouter votre propre tag personnalisé, comme `test:agent_exemple`. +3. Décommentez le paramètre des tags et l'exemple de tag fourni `team:infra`. Vous pouvez également ajouter votre propre balise personnalisée, par exemple `test:agent_walkthrough`. ```yaml ## @param tags - list of key:value elements - optional ## @env DD_TAGS - space separated list of strings - optional @@ -218,64 +179,86 @@ Par exemple, imaginons que vos données soient recueillies à partir de plusieur - test:agent_walkthrough ``` -4. Exécutez la [commande restart][24] de l'Agent pour le redémarrer. Sous Ubuntu, il s'agit de la commande suivante : +4. Redémarrez l'Agent en exécutant la [commande de redémarrage de l'Agent][26]. La commande de redémarrage Ubuntu : ```shell sudo service datadog-agent restart ``` -5. Patientez quelques minutes, accédez à nouveau à **Metrics > Summary**, puis cliquez sur la métrique `datadog.agent.started`. En plus des tags `host` et `version` par défaut, le tag `team` ainsi que tous les tags personnalisés que vous avez ajoutés sont affichés. Vous pouvez également filtrer les métriques en fonction du champ `Tag` en haut de la page. +5. Après quelques minutes, retournez à la [page Résumé des métriques][22] et cliquez sur la métrique `datadog.agent.started`. En plus des balises par défaut `host` et `version`, vous pouvez également voir la balise `team` et toutes les balises personnelles que vous avez ajoutées. Vous pouvez également filtrer les métriques par le champ `Tag` en haut de la page. + +6. Accédez à la [page Events Explorer][20] et recherchez les tags personnalisés affichés dans le dernier événement de l'Agent. + +{{% /collapse-content %}} -6. Accédez à **Events > Explorer** et recherchez les tags personnalisés affichés dans le dernier événement de l'Agent. +{{% collapse-content title="Trouver des métriques dans l'interface utilisateur de Datadog" level="h4" expanded=false id="id-for-anchoring" %}} -#### Autres options de configuration +Vous pouvez confirmer que l'Agent fonctionne correctement en vérifiant ses métriques par défaut dans l'interface utilisateur de Datadog. Allez à la [page Résumé des métriques][22] et recherchez la métrique `datadog.agent.started` ou la métrique `datadog.agent.running`. Si ces métriques ne sont pas visibles immédiatement, il peut falloir quelques minutes à l'Agent pour envoyer les données à Datadog. -La collecte des données de [logs][25], [traces][26] et [processus][27] peut être activée dans le fichier de configuration de l'Agent. Ces fonctionnalités ne sont pas activées par défaut. Par exemple, dans le fichier de configuration, vous pouvez voir que le paramètre `logs_enabled` est défini sur false. +Cliquez sur l'une des métriques et un panneau de métrique s'ouvre. Ce panneau montre des métadonnées supplémentaires sur l'endroit où ces métriques sont collectées et toutes les balises associées. Si aucune balise n'est configurée sur un hôte, vous ne devriez voir que les balises par défaut que Datadog attribue aux métriques, y compris `version` et `host`. Consultez la section ci-dessus sur la configuration des balises via les fichiers de configuration de l'Agent pour en savoir plus sur la façon d'ajouter des balises. + +Explorez d'autres métriques par défaut telles que `ntp.offset` ou `system.cpu.idle`. +{{% /collapse-content %}} + + +{{% collapse-content title="Traitement de l'Agent" level="h4" expanded=false id="id-for-anchoring" %}} + +La quantité d'espace et de ressources que l'Agent utilise dépend de la configuration et des données que l'Agent envoie. Au départ, vous pouvez vous attendre à environ 0,08 % de CPU utilisé en moyenne avec un espace disque d'environ 880 Mo à 1,3 Go. + +Consultez la rubrique [Charge de l'Agent][2] pour en savoir plus sur ces benchmarks. +{{% /collapse-content %}} + +{{% collapse-content title="Options de configuration supplémentaires" level="h4" expanded=false id="id-for-anchoring" %}} + +La collecte de données [journaux][27], [traces][28] et [processus][29] peut être activée via le fichier de configuration de l'Agent. Ces fonctionnalités ne sont pas activées par défaut. Par exemple, dans le fichier de configuration, le paramètre `logs_enabled` est défini sur false. ```yaml ################################## -## Configuration de la collecte de logs ## +## Log collection Configuration ## ################################## -## @param logs_enabled - booléen, facultatif, valeur par défaut : false -## @env DD_LOGS_ENABLED - booléen, facultatif, valeur par défaut : false -## Pour activer la collecte de logs de l'Agent Datadog, définir logs_enabled sur true. +## @param logs_enabled - boolean - optional - default: false +## @env DD_LOGS_ENABLED - boolean - optional - default: false +## Enable Datadog Agent log collection by setting logs_enabled to true. # # logs_enabled: false ``` D'autres fonctionnalités Datadog peuvent être configurées par l'intermédiaire du fichier de configuration de l'Agent, notamment : -- L'[ingestion des traces OTLP][28] -- La [personnalisation de la collecte de logs][29], afin de filtrer ou de nettoyer les données sensibles -- La configuration de données personnalisées via [DogStatsD][30] +- Activation de [l'ingestion de traces OTLP][30] +- [Personnalisation de la collecte des journaux][31] pour filtrer ou nettoyer des données sensibles +- Configuration de données personnalisées via [DogStatsD][32] + +Tout au long de votre configuration, lorsque la documentation fait référence au fichier `datadog.yaml` ou au fichier de configuration de l'Agent, c'est ce fichier que vous devez configurer. + +{{% /collapse-content %}} -Tout au long de la configuration, si la documentation mentionne le fichier `datadog.yaml` ou le fichier de configuration de l'Agent, cela désigne le fichier que vous devez configurer. -## Commandes +## Commandes {#commands} -Consultez la section [Commandes de l'Agent][31] pour [démarrer][32], [arrêter][33] ou [redémarrer][24] votre Agent. +Consultez la section [Commandes de l'Agent][33] pour [démarrer][34], [arrêter][35] ou [redémarrer][26] votre Agent. -## Dépannage +## Dépannage {#troubleshooting} -Pour dépanner plus facilement l'Agent : +Pour obtenir de l'aide pour le dépannage de l'Agent : -- Consultez la section [Dépannage de l'Agent][34]. -- Accédez aux [fichiers de log de l'Agent][35]. -- Contactez l'[assistance Datadog][36]. +- Voir [le dépannage de l'Agent][36] +- Voir [les fichiers journaux de l'Agent][37] +- Contacter [le support Datadog][38] -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}}

    -## Étapes suivantes +## Prochaines étapes {#next-steps} -{{< whatsnext desc="Ressources utiles après avoir installé l'Agent :">}} +{{< whatsnext desc="Après l'installation de l'Agent :">}} {{< nextlink href="/getting_started/integrations" >}}En savoir plus sur les intégrations{{< /nextlink >}} -{{< nextlink href="/getting_started/application" >}}En savoir plus sur l'interface Datadog{{< /nextlink >}} -{{< nextlink href="/getting_started/logs" >}}Découvrir comment recueillir des logs avec l'Agent{{< /nextlink >}} -{{< nextlink href="/getting_started/tracing" >}}Découvrir comment recueillir des traces avec l'Agent{{< /nextlink >}} +{{< nextlink href="/getting_started/application" >}}En savoir plus sur l'interface utilisateur de Datadog{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}Apprendre à collecter des journaux via l'Agent{{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}Apprendre à collecter des traces via l'Agent{{< /nextlink >}} {{< /whatsnext >}} [1]: https://github.com/DataDog/datadog-agent @@ -294,23 +277,28 @@ Pour dépanner plus facilement l'Agent : [14]: /fr/getting_started/agent/#checks [15]: https://www.datadoghq.com [16]: https://app.datadoghq.com/organization-settings/api-keys -[17]: /fr/agent/basic_agent_usage/?tab=agentv6v7 +[17]: /fr/agent/supported_platforms [18]: https://app.datadoghq.com/account/settings/agent/latest -[19]: /fr/agent/guide/agent-commands/#agent-status-and-information -[20]: /fr/developers/service_checks/#visualize-your-service-check-in-datadog -[21]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml -[22]: /fr/getting_started/tagging/ -[23]: /fr/agent/guide/agent-configuration-files/#agent-main-configuration-file -[24]: /fr/agent/guide/agent-commands/#restart-the-agent -[25]: /fr/logs/ -[26]: /fr/tracing/ -[27]: /fr/infrastructure/process/?tab=linuxwindows#introduction -[28]: /fr/opentelemetry/otlp_ingest_in_the_agent/?tab=host -[29]: /fr/agent/logs/advanced_log_collection/ -[30]: /fr/developers/dogstatsd/?tab=hostagent -[31]: /fr/agent/guide/agent-commands/ -[32]: /fr/agent/guide/agent-commands/#start-the-agent -[33]: /fr/agent/guide/agent-commands/#stop-the-agent -[34]: /fr/agent/troubleshooting/ -[35]: /fr/agent/guide/agent-log-files/ -[36]: /fr/help/ \ No newline at end of file +[19]: /fr/agent/configuration/agent-commands/#agent-status-and-information +[20]: https://app.datadoghq.com/event/explorer +[21]: /fr/extend/service_checks/#visualize-your-service-check-in-datadog +[22]: https://app.datadoghq.com/metric/summary +[23]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml +[24]: /fr/getting_started/tagging/ +[25]: /fr/agent/configuration/agent-configuration-files/#agent-main-configuration-file +[26]: /fr/agent/configuration/agent-commands/#restart-the-agent +[27]: /fr/logs/ +[28]: /fr/tracing/ +[29]: /fr/infrastructure/process/?tab=linuxwindows#introduction +[30]: /fr/opentelemetry/otlp_ingest_in_the_agent/?tab=host +[31]: /fr/agent/logs/advanced_log_collection/ +[32]: /fr/extend/dogstatsd/?tab=hostagent +[33]: /fr/agent/configuration/agent-commands/ +[34]: /fr/agent/configuration/agent-commands/#start-the-agent +[35]: /fr/agent/configuration/agent-commands/#stop-the-agent +[36]: /fr/agent/troubleshooting/ +[37]: /fr/agent/configuration/agent-log-files/ +[38]: /fr/help/ +[39]: /fr/agent/fleet_automation/ +[40]: /fr/agent/?tab=Host-based +[41]: /fr/getting_started/site/ \ No newline at end of file diff --git a/content/fr/getting_started/tagging/_index.md b/content/fr/getting_started/tagging/_index.md index ee20066f62a..3006d3db77e 100644 --- a/content/fr/getting_started/tagging/_index.md +++ b/content/fr/getting_started/tagging/_index.md @@ -23,109 +23,136 @@ further_reading: - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive sur le tagging efficace avec Datadog +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: GitHub + text: Concevez des tableaux de bord exécutifs efficaces avec Datadog +- link: https://learn.datadoghq.com/courses/tagging-best-practices + tag: Centre d'apprentissage + text: Meilleures pratiques de balisage title: Débuter avec les tags --- +## Aperçu {#overview} -## Section Overview +Les balises sont un moyen d'ajouter des dimensions aux télémetries de Datadog afin qu'elles puissent être filtrées, agrégées et comparées dans les visualisations de Datadog. [L'utilisation de balises][1] vous permet d'observer la performance agrégée sur plusieurs hôtes et (optionnellement) de restreindre davantage l'ensemble en fonction d'éléments spécifiques. En résumé, le balisage est une méthode pour observer des points de données agrégés. -Les tags sont conçus pour ajouter des caractéristiques aux données de télémétrie Datadog, afin de pouvoir les filtrer, les agréger et les comparer au sein de visualisations Datadog. Lorsque vous [utilisez des tags][1], vous pouvez observer les performances globales de plusieurs hosts et même affiner davantage les résultats selon des éléments spécifiques. En somme, les tags constituent un moyen d'observer des points de données agrégées. +Une balise peut être formatée comme `:` ou ``. Datadog recommande d'utiliser le format `:`, car il est souvent sémantiquement plus clair et permet des capacités de requête plus riches (par exemple, le regroupement par clé). Lors de l'utilisation d'une paire `:` : -Les tags sont des paires `key:value` contenant deux parties : +- La balise **clé** est l'identifiant. Les clés de balise couramment utilisées sont `env`, `instance` et `name`. +- La balise **valeur** représente la donnée spécifique ou l'information associée à la clé. Les valeurs de balise ne sont pas uniques par ressource et peuvent être utilisées sur de nombreuses ressources dans une paire `:`. -- La clé de tag est l’identifiant. Elle ne peut exister qu’une seule fois par ressource et est sensible à la casse. -- La valeur de tag correspond aux données ou informations associées à la clé. Les valeurs de tag ne sont pas uniques par ressource et peuvent être utilisées sur de nombreuses ressources dans une paire `key-value`. +Le balisage lie différents types de données dans Datadog, permettant la corrélation et les appels à l'action entre les métriques, les traces et les journaux. Cela est réalisé avec des clés de balise **réservées** : +| Clé de balise | Permet de | +|-----------|------------------------------------------------------------------------| +| `host` | Corrélation entre les métriques, les traces, les processus et les journaux. | +| `device` | Ségrégation des métriques, des traces, des processus et des journaux par appareil ou disque. | +| `source` | Filtrage des spans et création automatisée de pipelines pour la gestion des journaux. | +| `service` | Définition des données spécifiques à l'application à travers les métriques, les traces et les journaux. | +| `env` | Définition des données spécifiques à l'application à travers les métriques, les traces et les journaux. | +| `version` | Définition des données spécifiques à l'application à travers les métriques, les traces et les journaux. | +| `team` | Attribution de la propriété à toutes les ressources. | -Les tags relient différents types de données dans Datadog. Grâce à certaines clés de tag **réservées**, vous pouvez corréler différent(e)s métriques, traces et logs et déclencher des actions : - -| Clé de tag | Fonctionnalité | -| --------- | --------------------------------------------------------------------- | -| `host` | Corrélation entre des métriques, des traces, des processus et des logs. | -| `device` | Séparation de métriques, traces, processus et logs selon un appareil ou un disque. | -| `source` | Filtrage de spans et création automatisée de pipelines pour la solution Log Management | -| `service` | Définition du contexte des données spécifiques à l'application pour l'ensemble des métriques, traces et logs. | -| `env` | Définition du contexte des données spécifiques à l'application pour l'ensemble des métriques, traces et logs. | -| `version` | Définition du contexte des données spécifiques à l'application pour l'ensemble des métriques, traces et logs. | -| `team` | Attribuer une responsabilité aux ressources | - -Datadog vous conseille d'étudier les données des conteneurs, machines virtuelles et de l'infrastructure cloud dans leur ensemble, au niveau des services. Par exemple, consultez l'utilisation du processeur d'un ensemble de hosts qui représentent un service, plutôt que d'analyser l'utilisation distincte d'un serveur A ou d'un serveur B. +Datadog recommande d'examiner les conteneurs, les machines virtuelles et l'infrastructure cloud au niveau `service` dans son ensemble. Par exemple, examinez l'utilisation du CPU à travers un ensemble d'hôtes représentant un service, plutôt que l'utilisation du CPU pour le serveur A ou le serveur B séparément. Puisque les conteneurs et les environnements cloud changent régulièrement de hosts, il est important d'utiliser des tags pour agréger vos métriques. -## Définir des tags - -Voici quelques exigences en ce qui concerne l'utilisation de tags dans Datadog : - -1. Les noms des tags doivent **commencer par une lettre**. Ils peuvent ensuite contenir les caractères suivants : - - - Des caractères alphanumériques - - Des underscores - - Des moins - - Des virgules - - Des points - - Des barres obliques - - Les autres caractères spéciaux sont remplacés par des underscores. - -2. Les tags peuvent comporter **jusqu'à 200 caractères** et prennent en charge les lettres Unicode (qui incluent la plupart des jeux de caractères, y compris les langues comme le japonais). -3. Les tags sont convertis en minuscules. Ainsi, les tags `CamelCase` ne sont pas recommandés. Les intégrations reposant sur une authentification (crawler) convertissent les tags au format camel case en ajoutant des underscores. Par exemple, `TestTag` --> `test_tag`. -4. Un tag peut être au format `valeur` ou `:`. Les clés de tag `env`, `instance` et `name` sont couramment utilisées. La clé précède toujours le caractère « : » de la définition globale du tag. Exemple : - - | Tag | Clé | Valeur | +## Définir des balises {#define-tags} + +Les chaînes d'étiquettes (c'est-à-dire, le contenu entier de `:` ou ``) doivent répondre aux exigences suivantes : + +- Les chaînes d'étiquettes doivent **commencer par une lettre** (cela s'applique indépendamment du fait que l'étiquette utilise le format `:` ou ``). Après la lettre initiale, la chaîne d'étiquette peut contenir les caractères énumérés ci-dessous : + + - Lettres (toutes les lettres Unicode sont prises en charge—par exemple, a, ó, 気, 녕, ك, et ดี) + - Chiffres + - Underscores (les underscores en début et en fin sont supprimés, et les underscores contigus sont réduits à un seul) + - Tirets + - Deux-points + - Points + - Barres obliques + - (Uniquement pour les étiquettes sur les journaux [ingérées via HTTP][28]) le signe @ (`@`) + + Tous les autres caractères (y compris les virgules, les emoji, les barres obliques inverses et les espaces) sont convertis en underscores. + + **Notes** : + - Une balise qui commence par un chiffre peut être acceptée dans certains contextes, tels que `env` les balises définies au niveau de l'Agent. Cependant, les balises qui ne respectent pas les règles de nommage standard peuvent ne pas fonctionner de manière cohérente dans tous les produits Datadog et peuvent augmenter la cardinalité des balises. Commencez les balises par une lettre, sauf si un produit spécifique le prend en charge explicitement. + - La variable d'environnement `DD_TAGS` utilise des espaces comme séparateur entre les balises. Les espaces dans les valeurs `DD_TAGS` ne sont **pas** convertis en underscores. Par exemple, `DD_TAGS="test:this is a test"` produit quatre balises distinctes : `test:this`, `is`, `a` et `test`. Pour définir une valeur de balise contenant des espaces, utilisez un fichier de configuration YAML ou des annotations d'intégration, où les espaces sont convertis en underscores. + +- Les balises peuvent faire **jusqu'à 200 caractères** de long. Si la balise a le format `:`, la clé, `:`, et la valeur comptent toutes vers la limite de caractères. +- [Les balises de span][26] et les balises de métriques sont normalisées en minuscules, donc évitez d'utiliser le camel case dans les clés de balises. Les fournisseurs de cloud normalisent le camel case de manière incohérente. Par exemple, AWS convertit `TestTag` en `testtag`, tandis qu'Alibaba Cloud convertit `TestTag` en `test_tag`. + - Contrairement aux balises, [les attributs de span][27] et les attributs de log sont sensibles à la casse et ne sont pas normalisés. +- Lors de l'utilisation du format `:`, la clé précède toujours le premier deux-points de la définition de balise globale. Exemple : + + | Balise | Clé | Valeur | | ------------------ | ------------- | -------------- | | `env:staging:east` | `env` | `staging:east` | | `env_staging:east` | `env_staging` | `east` | -5. Les tags ne doivent pas provenir de sources illimitées, telles que des horodatages epoch, des ID d'utilisateur ou des ID de requête. Cela pourrait [accroître de façon significative le nombre de métriques][2] de votre organisation et augmenter vos frais. -6. Les limites (comme les minuscules) s'appliquent uniquement aux tags de métrique, et non aux attributs de logs ou aux tags de span. +- Les balises ne doivent pas provenir de sources illimitées, telles que des horodatages d'époque, des identifiants d'utilisateur ou des identifiants de requête. Cela peut entraîner une croissance illimitée de votre nombre de [métriques][2]. -## Assignation de tags -### Méthodes de tagging +## Attribuer des balises {#assign-tags} + +### Méthodes de balisage {#tagging-methods} Vous pouvez utiliser l'une (ou l'ensemble) des méthodes suivantes pour assigner des tags. -| Méthode | Assignation de tags | +| Méthode | Attribuer des balises | | ------------------------ | --------------------------------------------------------------- | -| [Fichiers de configuration][3] | Assignation manuelle dans les principaux fichiers de configuration de votre Agent ou des intégrations | -| [Interface][4] | Sur le site Datadog | -| [API][5] | Lors de l'utilisation de l'API Datadog | -| [DogStatsD][6] | Lors de l'envoi de métriques avec DogStatsD | +| [Fichiers de configuration][3] | Manuellement dans vos fichiers de configuration principaux de l'Agent ou d'intégration. | +| [UI][4] | Sur le site de Datadog. | +| [API][5] | Lors de l'utilisation de l'API de Datadog. | +| [DogStatsD][6] | Lors de la soumission de métriques avec DogStatsD. | Pour en savoir plus, consultez la section [Assigner des tags][7]. -#### Tagging de service unifié +#### Tagging de service unifié {#unified-service-tagging} + +En tant que meilleure pratique, Datadog recommande d'utiliser le tagging de service unifié lors de l'attribution des tags. Le tagging de service unifié relie la télémétrie de Datadog grâce à l'utilisation de trois tags standards : `env`, `service` et `version`. Pour apprendre à configurer votre environnement avec le tagging de service unifié, consultez [Tagging de service unifié][8]. + +### Héritage des tags {#tag-inheritance} + +Toutes les métriques, journaux, traces et intégrations passent par un processus d'`host-tag` héritage lors de l'ingestion des données dans Datadog. Puisque les données sont associées à un nom d'hôte donné, ces composants héritent de tous les `host-level` tags associés à cet hôte. Ces tags sont visibles dans la [liste d'infrastructure][12] pour un hôte donné, provenant soit du fournisseur de cloud, soit de l'Agent Datadog. Consultez [tags `host-level` manquants sur de nouveaux hôtes ou nœuds][25] pour plus d'informations. + +Parce que les tags peuvent être hérités de plusieurs sources, choisissez des noms de clés uniques et spécifiques pour éviter de les dupliquer entre les sources. Par exemple, si vous avez défini une clé `service` sur un hôte (`service:my-host`) et une clé `service` sur un pod s'exécutant sur cet hôte (`service:my-service`), vos données héritent des deux tags. Optez pour des noms de clés plus différenciés (comme `infra_service`) pour éviter les clés de tags en double. + +### Priorité des tags {#tag-precedence} + +L'Agent Datadog ne **pas** impose un ordre de priorité pour les tags définis à partir de différentes sources. Au lieu de cela, l'Agent collecte tous les tags de chaque source disponible, stocke chaque valeur unique pour une clé de tag donnée et les émet toutes avec la télémétrie. -Datadog vous conseille d'utiliser le tagging de service unifié lorsque vous assignez des tags. Cette fonctionnalité permet de lier les données de télémétrie Datadog entre elles via trois tags standard : `env`, `service` et `version`. Pour découvrir comment configurer le tagging unifié pour votre environnement, consultez la section [Tagging de service unifié][8]. +Cela signifie qu'une seule clé de tag peut avoir plusieurs valeurs si elle est configurée différemment entre les sources. Par exemple, si le tag `service` est défini sur `payments` dans une variable d'environnement, `checkout` dans le YAML de l'Agent, et `orders` dans une configuration de client de traçage, la télémétrie pour ce service pourrait inclure : -### Héritage des tags +``` +service:payments +service:checkout +service:orders +``` -Toutes les métriques, tous les logs, toutes les traces et toutes les intégrations suivent un processus d’héritage des `host-tag` lors de l’ingestion des données dans Datadog. Étant donné que les données sont associées à un host donné, ces composants héritent de tous les tags `host-level` associés à ce host. Ces tags sont visibles dans la [liste d’infrastructure][12] pour un host donné, et proviennent soit du fournisseur cloud, soit de l’Agent Datadog. Consultez la section sur les [tags `host-level` manquants sur les nouveaux hosts ou nœuds][25] pour plus d’informations. +Les filtres ou tableaux de bord en aval doivent explicitement filtrer sur la valeur souhaitée si vous n'en attendez qu'une seule. -## Utilisation +## Utilisation {#usage} -[Assignez des tags][7] au niveau des hosts et des [intégrations][9] pour pouvoir filtrer et regrouper vos métriques, traces et logs. Les tags peuvent être utilisés dans les sections suivantes de votre plateforme Datadog. +Après avoir [attribué des tags][7] au niveau de l'hôte et de l'[intégration][9], commencez à les utiliser pour filtrer et regrouper vos métriques, traces et journaux. Les tags sont utilisés dans les domaines suivants de votre plateforme Datadog. -| Section | Utilité des tags | +| Domaine | Utiliser des tags pour | | -------------------- | ------------------------------------------------------------------------------------------------ | -| [Événements][10] | Filtrer le flux d'événements | -| [Dashboards][11] | Filtrer et regrouper des métriques dans des graphiques | -| [Infrastructure][12] | Filtrer et regrouper des données sur les vues de la hostmap, de la liste d'infrastructures, des live containers et des live processes. | -| [Monitors][13] | Créer et gérer des monitors ou gérer des downtimes. | -| [Métriques][14] | Filtrer et regrouper des données avec le Metrics Explorer | -| [Intégrations][15] | Définir des limites facultatives pour AWS, Google Cloud et Azure. | -| [APM][16] | Filtrer des services, traces et profils ou accéder à d'autres sections avec la Service Map | -| [RUM et Session Replay][17] | Filtrer des recherches d'événements, des analyses, des patterns, des replays et des problèmes avec le RUM Explorer | -| [Surveillance Synthetic et tests en continu][18] | Filtrer et regrouper des tests Synthetic ou des tests s'exécutant dans des pipelines CI avec la surveillance Synthetic et les tests en continu | -| [Notebooks][19] | Filtrer et regrouper des métriques dans des graphiques | -| [Logs][20] | Filtrer la recherche de logs, les analyses, les patterns, le live tailing et les pipelines. | -| [SLO][21] | Rechercher des SLO ainsi que des SLO groupés basés sur des métriques ou sur des monitors | -| [Outils de développement][22] | Récupérer des informations ou configurer différentes sections dans l'interface avec l'API. | -| [Facturation][23] | Obtenir des informations sur votre utilisation de Datadog en choisissant jusqu'à trois tags, tels que `env`, `team`, et `account_id`. | -| [CI Visibility][24] | Filtrez et regroupez les exécutions de tests ou de pipelines avec l'explorer CI Visibility. | +| [Événements][10] | Filtrer le flux d'événements. | +| [Tableaux de bord][11] | Filtrer et regrouper les métriques sur les graphiques. | +| [Infrastructure][12] | Filtrer et regrouper sur la carte des hôtes, la liste des infrastructures, les conteneurs en direct et les vues des processus en direct. | +| [Moniteurs][13] | Gérer les moniteurs, créer des moniteurs ou gérer les temps d'arrêt. | +| [Métriques][14] | Filtrer et regrouper avec l'Explorateur de métriques. | +| [Intégrations][15] | Limiter éventuellement les métriques pour AWS, Google Cloud et Azure. | +| [APM][16] | Filtrer les services, traces et profils, ou naviguer vers d'autres domaines avec le Service Map. | +| [RUM & Session Replay][17] | Filtrer la recherche d'événements, les analyses, les modèles, les replays et les problèmes avec l'Explorateur RUM. | +| [Synthetic Monitoring & Continuous Testing][18] | Filtrer et regrouper les tests synthétiques ou les tests exécutés dans les pipelines CI avec le Synthetic Monitoring & Testing Results Explorer. | +| [Notebooks][19] | Filtrer et regrouper les métriques sur les graphiques. | +| [Logs][20] | Filtrer la recherche de logs, les analyses, les modèles, le live tail et les pipelines. | +| [SLOs][21] | Rechercher des SLOs, des SLOs basés sur des métriques regroupées et des SLOs basés sur des moniteurs regroupés. | +| [Developers][22] | Extraire des informations ou configurer différentes zones dans l'interface utilisateur avec l'API. | +| [Billing][23] | Faire un rapport sur l'utilisation de Datadog en choisissant jusqu'à trois tags, par exemple : `env`, `team` et `account_id`. | +| [CI Visibility][24] | Filtrer et regrouper les exécutions de tests ou les exécutions de pipelines avec le CI Visibility Explorer. | Pour en savoir plus, consultez la section [Utiliser les tags][1]. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -153,4 +180,7 @@ Pour en savoir plus, consultez la section [Utiliser les tags][1]. [22]: /fr/getting_started/tagging/using_tags/#developers [23]: /fr/account_management/billing/usage_attribution/ [24]: /fr/getting_started/tagging/using_tags/#ci-visibility -[25]: /fr/containers/kubernetes/log/?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes \ No newline at end of file +[25]: /fr/containers/troubleshooting/log-collection?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes +[26]: /fr/tracing/trace_collection/tracing_naming_convention/#span-tags +[27]: /fr/tracing/trace_collection/tracing_naming_convention/#span-attributes +[28]: /fr/api/latest/logs/#send-logs \ No newline at end of file diff --git a/content/fr/getting_started/tagging/unified_service_tagging.md b/content/fr/getting_started/tagging/unified_service_tagging.md index 138a0d075e6..f5f23966d61 100644 --- a/content/fr/getting_started/tagging/unified_service_tagging.md +++ b/content/fr/getting_started/tagging/unified_service_tagging.md @@ -1,4 +1,13 @@ --- +algolia: + tags: + - unified service tags + - unified + - unified service + - service tags +description: Connectez la télémétrie à travers les traces, les métriques et les journaux + en utilisant des balises d'environnement, de service et de version standardisées + pour un suivi cohérent. further_reading: - link: /getting_started/tagging/using_tags tag: Documentation @@ -7,36 +16,39 @@ further_reading: tag: Documentation text: Utiliser des tags version dans l'APM Datadog pour surveiller les déploiements - link: https://www.datadoghq.com/blog/autodiscovery-docker-monitoring/ - tag: Blog + tag: GitHub text: En savoir plus sur Autodiscovery -title: Tagging de service unifié +title: Tagging de serice unifié --- +## Aperçu {#overview} -## Présentation - -Le tagging de service unifié permet de lier les données de télémétrie Datadog entre elles via trois [tags réservés][1] : `env`, `service` et `version`. +Le balisage de service unifié relie la télémétrie Datadog en utilisant trois [balises réservées][1] : `env`, `service` et `version`. Avec ces trois tags, vous pouvez : -- Déterminer l'impact d'un déploiement grâce à des métriques de trace et de conteneur filtrées par version -- Explorer facilement vos traces, métriques et logs à l'aide de tags cohérents -- Consulter les données de service en fonction de l'environnement ou de la version de manière unifiée +- Identifiez l'impact du déploiement avec des métriques de trace et de conteneur filtrées par version +- Naviguez sans effort à travers les traces, les métriques et les journaux avec des balises cohérentes +- Affichez les données de service en fonction de l'environnement ou de la version de manière unifiée + +{{< img src="tagging/unified_service_tagging/overview.mp4" alt="Tagging de serice unifié" video=true >}} -{{< img src="tagging/unified_service_tagging/overview.mp4" alt="Tagging de service unifié" video=true >}} +**Notes** : -**Remarque** : à défaut de configuration de log Autodiscovery, le service officiel d'un log est défini sur le nom raccourci du conteneur. Pour remplacer le service officiel d'un log, ajoutez des [annotations de pod ou étiquettes Docker][2] Autodiscovery. Exemple : `"com.datadoghq.ad.logs"='[{"service": "service-name"}]'`. +- La balise `version` est censée changer à chaque nouveau déploiement d'application. Deux versions différentes du code de votre application doivent avoir des balises `version` distinctes. +- Le service officiel d'un journal par défaut est l'image courte du conteneur si aucune configuration de journaux d'Autodécouverte n'est présente. Pour remplacer le service officiel d'un journal, ajoutez des [étiquettes Docker/annotations de pod][2] d'Autodécouverte. Par exemple : `"com.datadoghq.ad.logs"='[{"service": "service-name"}]'` +- Les informations sur l'hôte sont exclues pour les spans de base de données et de cache, car l'hôte associé à chaque span n'est pas celui de la base de données ou du cache. -### Prérequis +### Exigences {#requirements} -- Vous devez configurer la version 6.19.x/7.19.x ou une version ultérieure de l'[Agent Datadog][3] pour pouvoir utiliser le tagging de service unifié. +- Le balisage de service unifié nécessite la configuration d'un [Agent Datadog][3] qui est 6.19.x/7.19.x ou supérieur. -- Le tagging de service unifié nécessite une version du traceur qui prend en charge les nouvelles configurations des [tags réservés][1]. Vous trouverez davantage d'informations pour chaque langage dans les [instructions de configuration][4]. +- Le balisage de service unifié nécessite une version de SDK qui prend en charge les nouvelles configurations des [balises réservées][1]. Des informations supplémentaires peuvent être trouvées par langue dans les [instructions d'installation][4]. -| Langage | Version minimale du traceur | +| Langue | Version minimale du SDK | |--------------|------------| | .NET | 1.17.0+ | -| C++ | 1.1.4+ | +| C++ | 0.1.0+ | | Go | 1.24.0+ | | Java | 0.50.0+ | | Node | 0.20.3+ | @@ -44,35 +56,37 @@ Avec ces trois tags, vous pouvez : | Python | 0.38.0+ | | Ruby | 0.34.0+ | -- Vous devez maîtriser la configuration de tags pour pouvoir utiliser le tagging de service unifié. En cas de doute, consultez les sections [Débuter avec les tags][1] et [Assigner des tags][5] avant de procéder à la configuration. +- Le marquage de service unifié nécessite des connaissances sur la configuration des balises. Si vous n'êtes pas sûr de la manière de configurer les balises, lisez la documentation [Commencer avec le marquage][1] et [Attribution des balises][5] avant de procéder à la configuration. -## Configuration +## Configuration {#configuration} Pour commencer la configuration du tagging de service unifié, choisissez votre environnement : -- [Environnement conteneurisé](#environnement-conteneurise) -- [Environnement non conteneurisé](#environnement-non-conteneurise) +- [Conteneurisé](#containerized-environment) +- [ Non conteneurisé ](#non-containerized-environment) +- [Sans serveur](#serverless-environment) +- [OpenTelemetry](#opentelemetry) -### Environnement conteneurisé +### Environnement conteneurisé {#containerized-environment} -Dans les environnements conteneurisés, les tags `env`, `service` et `version` sont définis via les variables d'environnement du service ou à l'aide d'étiquettes (par exemple, les étiquettes de pod et de déploiement Kubernetes ou encore les étiquettes des conteneurs Docker). L'Agent Datadog détecte cette configuration de tagging et l'applique aux données recueillies à partir des conteneurs. +Dans les environnements conteneurisés, `env`, `service` et `version` sont définis par les variables d'environnement ou les étiquettes du service (par exemple, les étiquettes de déploiement et de pod Kubernetes, les étiquettes de conteneur Docker). L'Agent Datadog détecte cette configuration de balisage et l'applique aux données qu'il collecte à partir des conteneurs. Pour configurer le tagging de service unifié dans un environnement conteneurisé : -1. Activez [Autodiscovery][6] pour permettre à l'Agent Datadog d'identifier automatiquement les services qui s'exécutent sur un conteneur donné et de recueillir des données à partir de ces services afin de mapper les variables d'environnement avec les tags `env`, `service` et `version`. +1. Activer [Autodécouverte][6]. Cela permet à l'Agent Datadog d'identifier automatiquement les services s'exécutant sur un conteneur spécifique et de collecter des données à partir de ces services pour mapper les variables d'environnement aux balises `env`, `service,` et `version`. -2. Si vous utilisez [Docker][2], assurez-vous que l'Agent peut accéder au [socket Docker][7] de votre conteneur. Cela permet à l'Agent de détecter les variables d'environnement et de les mapper avec les tags standard. +2. Si vous utilisez [Docker][2], assurez-vous que l'Agent peut accéder à la [socket Docker][7] de votre conteneur. Cela permet à l'Agent de détecter les variables d'environnement et de les mapper aux balises standard. 3. Configurez votre environnement en fonction de votre service d'orchestration de conteneurs en suivant la procédure de configuration complète ou partielle détaillée ci-dessous. -#### Configuration +#### Configuration {#configuration-1} {{< tabs >}} {{% tab "Kubernetes" %}} -Si vous avez déployé l'Agent de cluster Datadog avec le [contrôleur d'admission][1] activé, le contrôleur d'admission modifie les manifestes de pod et injecte l'ensemble des variables d'environnement requises (en fonction des conditions configurées). Dans ce cas, vous n'avez pas besoin de configurer manuellement les variables d'environnement `DD_` dans les manifestes de pod. Pour en savoir plus, consultez la [documentation dédiée au contrôleur d'admission][1]. +Si vous avez déployé le Datadog Cluster Agent avec le [Contrôleur d'Admission][1] activé, le Contrôleur d'Admission modifie les manifestes de pod et injecte toutes les variables d'environnement requises (en fonction des conditions de mutation configurées). Dans ce cas, la configuration manuelle des `DD_` variables d'environnement dans les manifestes de pod n'est pas nécessaire. Pour plus d'informations, consultez la [documentation du Contrôleur d'Admission][1]. -##### Configuration complète +##### Configuration complète {#full-configuration} Pour exploiter tout le potentiel du tagging de service unifié lorsque vous utilisez Kubernetes, ajoutez les variables d'environnement au niveau de l'objet de déploiement et au niveau des spécifications du modèle de pod : @@ -83,14 +97,14 @@ metadata: labels: tags.datadoghq.com/env: "" tags.datadoghq.com/service: "" - tags.datadoghq.com/version: "" + tags.datadoghq.com/version: "" ... template: metadata: labels: tags.datadoghq.com/env: "" tags.datadoghq.com/service: "" - tags.datadoghq.com/version: "" + tags.datadoghq.com/version: "" containers: - ... env: @@ -102,17 +116,30 @@ template: valueFrom: fieldRef: fieldPath: metadata.labels['tags.datadoghq.com/service'] - - name: DD_VERSION - valueFrom: - fieldRef: + - name: DD_VERSION + valueFrom: + fieldRef: fieldPath: metadata.labels['tags.datadoghq.com/version'] ``` -##### Configuration partielle +Vous pouvez également utiliser les variables d'environnement des Attributs de Ressource OpenTelemetry pour définir les tags `env`, `service` et `version` : + +```yaml + containers: + - ... + env: + - name: OTEL_RESOURCE_ATTRIBUTES + value: "service.name=,service.version=,deployment.environment=" + - name: OTEL_SERVICE_NAME + value: "" +``` +

    La variable d'environnement OTEL_SERVICE_NAME a la priorité sur l'attribut service.name dans la variable d'environnement OTEL_RESOURCE_ATTRIBUTES.
    -###### Métriques au niveau du pod +##### Configuration partielle {#partial-configuration} -Pour configurer les métriques au niveau du pod, ajoutez les étiquettes standard suivantes (`tags.datadoghq.com`) aux spécifications de pod d'un déploiement, d'un StatefulSet ou d'une tâche : +###### Métriques au niveau du pod {#pod-level-metrics} + +Pour configurer les métriques au niveau du pod, ajoutez les étiquettes standard suivantes (`tags.datadoghq.com`) à la spécification du pod d'un Déploiement, d'un StatefulSet ou d'un Job : ```yaml template: @@ -120,25 +147,25 @@ template: labels: tags.datadoghq.com/env: "" tags.datadoghq.com/service: "" - tags.datadoghq.com/version: "" + tags.datadoghq.com/version: "" ``` -Ces étiquettes couvrent les métriques de processeur, de mémoire, de réseau et de disque de Kubernetes au niveau du pod, et peuvent être utilisées pour injecter `DD_ENV`, `DD_SERVICE` et `DD_VERSION` dans le conteneur de votre service via l'[API Downward de Kubernetes][2]. +Ces étiquettes couvrent les métriques de CPU, de mémoire, de réseau et de disque au niveau du pod Kubernetes, et peuvent être utilisées pour injecter `DD_ENV`, `DD_SERVICE` et `DD_VERSION` dans le conteneur de votre service via l'[API descendante de Kubernetes][2]. Si vous avez plusieurs conteneurs par pod, vous pouvez spécifier des étiquettes standard par conteneur : ```yaml -tags.datadoghq.com/.env -tags.datadoghq.com/.service -tags.datadoghq.com/.version +tags.datadoghq.com/.env +tags.datadoghq.com/.service +tags.datadoghq.com/.version ``` -###### Métriques State +###### Métriques d'état {#state-metrics} Pour configurer des [métriques Kubernetes State][3], procédez comme suit : -1. Définissez `join_standard_tags` sur `true` dans votre fichier de configuration. Consultez cet [exemple de fichier de configuration][4] pour connaître l'emplacement de la ligne. +1. Définissez `join_standard_tags` sur `true` dans votre fichier de configuration. Consultez cet [exemple de fichier de configuration][4] pour l'emplacement de réglage. -2. Ajoutez les mêmes étiquettes standard à l'ensemble d'étiquettes pour la ressource parent, par exemple `Deployment`. +2. Ajoutez les mêmes étiquettes standard à la collection d'étiquettes pour la ressource parente, par exemple : `Deployment`. ```yaml apiVersion: apps/v1 @@ -147,19 +174,19 @@ Pour configurer des [métriques Kubernetes State][3], procédez comme suit : labels: tags.datadoghq.com/env: "" tags.datadoghq.com/service: "" - tags.datadoghq.com/version: "" + tags.datadoghq.com/version: "" spec: template: metadata: labels: tags.datadoghq.com/env: "" tags.datadoghq.com/service: "" - tags.datadoghq.com/version: "" + tags.datadoghq.com/version: "" ``` -###### Traceur de l'APM et client StatsD +###### SDK Datadog et client StatsD {#datadog-sdk-and-statsd-client} -Pour configurer les variables d'environnement du [traceur APM][5] et du [client StatsD][6], utilisez l'[API Downward de Kubernetes][2] en suivant le format ci-dessous : +Pour configurer les variables d'environnement du [SDK Datadog][5] et du [client StatsD][6], utilisez l'[API descendante de Kubernetes][2] dans le format ci-dessous : ```yaml containers: @@ -173,12 +200,31 @@ containers: valueFrom: fieldRef: fieldPath: metadata.labels['tags.datadoghq.com/service'] - - name: DD_VERSION - valueFrom: - fieldRef: - fieldPath: metadata.labels['tags.datadoghq.com/version'] + - name: DD_VERSION + valueFrom: + fieldRef: + fieldPath: metadata.labels['tags.datadoghq.com/version'] ``` +##### Le balisage automatique de version pour les données APM dans des environnements conteneurisés {#automatic-version-tagging-for-apm-data-in-containerized-environments} + +
    Cette fonctionnalité est uniquement activée pour les données Surveillance de la Performance des Applications (APM).
    + +Vous pouvez utiliser le tag `version` dans APM pour [surveiller les déploiements][7] et identifier les déploiements de code défectueux grâce à la [Détection Automatique des Déploiements Défectueux][8]. + +Pour les données APM, Datadog définit le tag `version` pour vous dans l'ordre de priorité suivant. Si vous définissez manuellement `version`, Datadog ne remplace pas votre valeur `version`. + +| Priorité | Version Valeur | +|--------------|------------| +| 1 | {votre valeur de version} | +| 2 | {image_tag}_{premiers_7_caractères_du_git_commit_sha} | +| 3 | {image_tag} ou {premiers_7_caractères_du_git_commit_sha} si un seul est disponible | + +Exigences : +- Version de l'Agent Datadog 7.52.0 ou supérieure +- Si vos services s'exécutent dans un environnement conteneurisé et que `image_tag` est suffisant pour suivre les déploiements de nouvelles versions, aucune configuration supplémentaire n'est nécessaire. +- Si vos services ne s'exécutent pas dans un environnement conteneurisé, ou si vous souhaitez également inclure le Git SHA, [intégrez les informations Git dans vos artefacts de construction][9]. + [1]: /fr/agent/cluster_agent/admission_controller/ [2]: https://kubernetes.io/docs/tasks/inject-data-application/downward-api-volume-expose-pod-information/#capabilities-of-the-downward-api @@ -186,59 +232,92 @@ containers: [4]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_state/datadog_checks/kubernetes_state/data/conf.yaml.example [5]: /fr/tracing/send_traces/ [6]: /fr/integrations/statsd/ +[7]: /fr/tracing/services/deployment_tracking/ +[8]: /fr/watchdog/faulty_deployment_detection/ +[9]: /fr/integrations/guide/source-code-integration/?tab=go#embed-git-information-in-your-build-artifacts + {{% /tab %}} {{% tab "Docker" %}} -##### Configuration complète +##### Configuration complète {#full-configuration-1} -Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` ainsi que les étiquettes Docker correspondantes pour votre conteneur afin d'exploiter tout le potentiel du tagging de service unifié. +Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` ainsi que les étiquettes Docker correspondantes pour votre conteneur afin d'obtenir l'ensemble complet de l'étiquetage de service unifié. -Les valeurs pour `service` et `version` peuvent être spécifiées dans le Dockerfile : +Les valeurs pour `service` et `version` peuvent être fournies dans le Dockerfile : ```yaml ENV DD_SERVICE -ENV DD_VERSION +ENV DD_VERSION LABEL com.datadoghq.tags.service="" -LABEL com.datadoghq.tags.version="" +LABEL com.datadoghq.tags.version="" ``` -Comme `env` est probablement déterminé au moment du déploiement, vous pouvez injecter la variable d'environnement et l'étiquette ultérieurement : +Puisque `env` est probablement déterminé au moment du déploiement, vous pouvez injecter la variable d'environnement et l'étiquette plus tard : ```shell docker run -e DD_ENV= -l com.datadoghq.tags.env= ... ``` -Si vous préférez, vous pouvez également définir tous les éléments au moment du déploiement : +Vous pouvez également préférer définir tous les éléments au moment du déploiement : ```shell docker run -e DD_ENV="" \ -e DD_SERVICE="" \ - -e DD_VERSION="" \ + -e DD_VERSION="" \ -l com.datadoghq.tags.env="" \ -l com.datadoghq.tags.service="" \ - -l com.datadoghq.tags.version="" \ + -l com.datadoghq.tags.version="" \ ... ``` -##### Configuration partielle +##### Configuration partielle {#partial-configuration-1} -Si votre service n'a pas besoin des variables d'environnement Datadog (par exemple, les logiciels tiers comme Redis, PostgreSQL, NGINX et les applications non tracées par l'APM), vous pouvez simplement utiliser les étiquettes Docker : +Si votre service n'a pas besoin des variables d'environnement Datadog (par exemple, les logiciels tiers comme Redis, PostgreSQL, NGINX et les applications non tracées par l'APM), vous pouvez utiliser les étiquettes Docker : ```yaml com.datadoghq.tags.env com.datadoghq.tags.service -com.datadoghq.tags.version +com.datadoghq.tags.version ``` Comme expliqué pour la configuration complète, ces étiquettes peuvent être définies dans un Dockerfile ou comme arguments pour lancer le conteneur. +##### Le balisage automatique de version pour les données APM dans des environnements conteneurisés {#automatic-version-tagging-for-apm-data-in-containerized-environments-1} + +
    Cette fonctionnalité est uniquement activée pour les données Surveillance de la Performance des Applications (APM).
    + +Vous pouvez utiliser le tag `version` dans APM pour [surveiller les déploiements][1] et pour identifier les déploiements de code défectueux grâce à [la détection automatique des déploiements défectueux][2]. + +Pour les données APM, Datadog définit le tag `version` pour vous dans l'ordre de priorité suivant. Si vous définissez manuellement `version`, Datadog ne remplace pas votre valeur `version`. + +| Priorité | Version Valeur | +|--------------|------------| +| 1 | {votre valeur de version} | +| 2 | {image_tag}_{premiers_7_caractères_du_git_commit_sha} | +| 3 | {image_tag} ou {premiers_7_caractères_du_git_commit_sha} si un seul est disponible | + +Exigences : +- Version de l'Agent Datadog 7.52.0 ou supérieure +- Si vos services s'exécutent dans un environnement conteneurisé et que `image_tag` est suffisant pour suivre les déploiements de nouvelles versions, aucune configuration supplémentaire n'est nécessaire. +- Si vos services ne s'exécutent pas dans un environnement conteneurisé, ou si vous souhaitez également inclure le Git SHA, [intégrez les informations Git dans vos artefacts de construction][3]. + + +[1]: /fr/tracing/services/deployment_tracking/ +[2]: /fr/watchdog/faulty_deployment_detection/ +[3]: /fr/integrations/guide/source-code-integration/?tab=go#embed-git-information-in-your-build-artifacts + {{% /tab %}} {{% tab "ECS" %}} -##### Configuration complète -Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` ainsi que les étiquettes Docker correspondantes dans l'environnement runtime du conteneur de chaque service pour exploiter tout le potentiel du tagging de service unifié. Par exemple, vous pouvez définir tous ces éléments au même endroit via la définition de votre tâche ECS : +
    +Sur ECS Fargate utilisant Fluent Bit ou FireLens, le balisage de service unifié n'est disponible que pour les métriques et les traces, et non pour la collecte de journaux. +
    + +##### Configuration complète {#full-configuration-2} + +Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` (optionnel avec l'étiquetage automatique des versions) et les étiquettes Docker correspondantes dans l'environnement d'exécution de chaque conteneur de service pour obtenir l'ensemble complet de l'étiquetage de service unifié. Par exemple, vous pouvez définir toute cette configuration en un seul endroit via la définition de votre tâche ECS : ``` "environment": [ @@ -254,6 +333,7 @@ Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` "name": "DD_VERSION", "value": "" } + ], "dockerLabels": { "com.datadoghq.tags.env": "", @@ -261,10 +341,13 @@ Définissez les variables d'environnement `DD_ENV`, `DD_SERVICE` et `DD_VERSION` "com.datadoghq.tags.version": "" } ``` +
    +Sur ECS Fargate, vous devez ajouter ces tags à votre conteneur d'application, pas au conteneur de l'Agent Datadog. +
    -##### Configuration partielle +##### Configuration partielle {#partial-configuration-2} -Si votre service n'a pas besoin des variables d'environnement Datadog (par exemple, les logiciels tiers comme Redis, PostgreSQL, NGINX et les applications non tracées par l'APM), vous pouvez simplement utiliser les étiquettes Docker dans la définition de votre tâche ECS : +Si votre service n'utilise pas les variables d'environnement Datadog (par exemple, des logiciels tiers comme Redis, PostgreSQL, NGINX, ou des applications non tracées par la solution APM), vous pouvez utiliser les étiquettes Docker dans votre définition de tâche ECS : ``` "dockerLabels": { @@ -274,88 +357,109 @@ Si votre service n'a pas besoin des variables d'environnement Datadog (par exemp } ``` +##### Étiquetage automatique des versions pour les données APM dans des environnements conteneurisés {#automatic-version-tagging-for-apm-data-in-containerized-environments-2} + +
    Cette fonctionnalité est uniquement activée pour les données Application Performance Monitoring (APM).
    + +Vous pouvez utiliser le tag `version` dans APM pour [surveiller les déploiements][1] et pour identifier les déploiements de code défectueux grâce à [la détection automatique des déploiements défectueux][2]. + +Pour les données APM, Datadog définit le tag `version` pour vous dans l'ordre de priorité suivant. Si vous définissez manuellement `version`, Datadog ne remplace pas votre valeur `version`. + +| Priorité | Valeur de version | +|--------------|------------| +| 1 | {votre valeur de version} | +| 2 | {image_tag}_{premiers_7_chiffres_du_git_commit_sha} | +| 3 | {image_tag} ou {premiers_7_chiffres_du_git_commit_sha} si un seul est disponible | + +Exigences : +- Version de l'Agent Datadog 7.52.0 ou supérieure +- Si vos services s'exécutent dans un environnement conteneurisé et que `image_tag` est suffisant pour suivre les déploiements de nouvelles versions, aucune configuration supplémentaire n'est nécessaire. +- Si vos services ne s'exécutent pas dans un environnement conteneurisé, ou si vous souhaitez également inclure le Git SHA, [intégrez les informations Git dans vos artefacts de construction][3]. + +[1]: /fr/tracing/services/deployment_tracking/ +[2]: /fr/watchdog/faulty_deployment_detection/ +[3]: /fr/integrations/guide/source-code-integration/?tab=go#embed-git-information-in-your-build-artifacts + {{% /tab %}} -{{< /tabs >}} +{{% /tabs %}} -### Environnement non conteneurisé +### Environnement non conteneurisé {#non-containerized-environment} -Selon la façon dont vous créez et déployez les binaires ou les exécutables de vos services, plusieurs options peuvent s'offrir à vous pour définir les variables d'environnement. Étant donné que vous pouvez exécuter un ou plusieurs services par host, Datadog vous conseille de limiter ces variables d'environnement à un seul processus. +Selon la manière dont vous construisez et déployez les binaires ou exécutables de vos services, vous pouvez avoir plusieurs options disponibles pour définir des variables d'environnement. Puisque vous pouvez exécuter un ou plusieurs services par hôte, Datadog recommande de limiter ces variables d'environnement à un seul processus. Afin de former un point de configuration unique pour l'ensemble des données de télémétrie émises directement depuis le runtime de vos services pour les [traces][8], les [logs][9], les [ressources RUM][10], les [tests Synthetic][11], les [métriques StatsD][12] ou les métriques système, vous pouvez : -1. Exporter les variables d'environnement dans la commande de votre exécutable : +1. Exportez les variables d'environnement dans la commande pour votre exécutable : ``` DD_ENV= DD_SERVICE= DD_VERSION= /bin/my-service ``` -2. Ou utiliser [Chef][13], [Ansible][14] ou un autre outil d'orchestration pour ajouter les variables d'environnement `DD` au fichier de configuration systemd ou initd d'un service. Le processus du service aura accès à ces variables une fois lancé. +2. Ou utilisez [Chef][13], [Ansible][14] ou un autre outil d'orchestration pour remplir le fichier de configuration systemd ou initd d'un service avec les variables d'environnement `DD`. Lorsque le processus de service démarre, il a accès à ces variables. {{< tabs >}} {{% tab "Traces" %}} Lors de la configuration de vos traces pour le tagging de service unifié : - 1. Configurez le [Traceur de l'APM][1] avec `DD_ENV` pour que la définition de `env` soit plus proche de l'application qui génère les traces. Cette méthode permet au tag `env` de provenir automatiquement d'un tag dans les métadonnées de span. + 1. Configurez le [SDK Datadog][1] avec `DD_ENV` pour garder la définition de `env` plus proche de l'application qui génère les traces. Cette méthode permet de récupérer automatiquement la balise `env` à partir d'une balise dans les métadonnées du span. - 2. Configurez des spans avec `DD_VERSION` pour ajouter un tag version à toutes les spans relevant du service qui appartient au traceur (généralement `DD_SERVICE`). Ainsi, si votre service crée des spans avec le nom d'un service externe, ces spans ne reçoivent pas de tag `version`. + 2. Configurez les spans avec `DD_VERSION` pour ajouter la version à tous les spans qui relèvent du service appartenant au SDK (généralement `DD_SERVICE`). Cela signifie que si votre service crée des spans avec le nom d'un service externe, ces spans ne reçoivent pas `version` en tant que balise. - Tant que le tag version figure dans les spans, il est ajouté aux métriques de trace générées à partir de ces spans. Le tag version peut être ajouté manuellement dans le code ou automatiquement par le traceur APM. Une fois les spans configurées, elles sont utilisées par APM et les [clients DogStatsd][2] pour appliquer les tags `env`, `service` et `version` aux données de trace et aux métriques StatsD. S'il est activé, le traceur APM injecte également les valeurs de ces variables dans vos logs. + Tant que la version est présente dans les spans, elle est ajoutée aux métriques de trace générées à partir de ces spans. La version peut être ajoutée manuellement dans le code ou automatiquement par le SDK Datadog. Lorsqu'elles sont configurées, celles-ci sont utilisées par l'APM et les [clients DogStatsD][2] pour baliser les données de trace et les métriques StatsD avec `env`, `service` et `version`. Si activé, le SDK Datadog injecte également les valeurs de ces variables dans vos journaux. - **Remarque** : il ne peut y avoir qu'**un seul service par span**. Les métriques de trace sont généralement associées à un seul service également. Toutefois, si un service différent est défini dans les tags de vos hosts, ce tag service configuré apparaît dans toutes les métriques de trace émises par ce host. + **Remarque** : Il ne peut y avoir qu'un **service par span**. Les métriques de trace ont généralement également un seul service. Cependant, si vous avez un service différent défini dans les balises de vos hôtes, cette balise de service configurée apparaît sur toutes les métriques de trace émises par cet hôte. [1]: /fr/tracing/setup/ -[2]: /fr/developers/dogstatsd/ +[2]: /fr/extend/dogstatsd/ {{% /tab %}} {{% tab "Logs" %}} - Si vous [associez vos logs à vos traces][1], activez l'injection automatique dans les logs si cette fonctionnalité est prise en charge par votre traceur d'APM. Le traceur d'APM injecte alors automatiquement les tags `env`, `service` et `version` dans vos logs, éliminant ainsi le besoin de configurer manuellement ces champs ailleurs. - - **Remarque** : le traceur PHP ne prend pas actuellement en charge la configuration du tagging de service unifié pour les logs. + Si vous utilisez [journaux et traces connectés][1], activez l'injection automatique des journaux si cela est pris en charge par votre SDK Datadog. Ensuite, le SDK Datadog injecte automatiquement `env`, `service` et `version` dans vos journaux, éliminant ainsi la configuration manuelle pour ces champs ailleurs. [1]: /fr/tracing/other_telemetry/connect_logs_and_traces/ {{% /tab %}} - {{% tab "RUM et Session Replay" %}} + {{% tab "RUM et Session Replay" %}} - Si vous [associez vos données RUM à vos traces][1], spécifiez l'application Browser dans le champ `service`, définissez l'environnement dans le champ `env` et énumérez les versions dans le champ `version` de votre fichier d'initialisation. + Si vous utilisez [RUM et traces connectés][1], spécifiez l'application du navigateur dans le champ `service`, définissez l'environnement dans le champ `env` et listez les versions dans le champ `version` de votre fichier d'initialisation. Lorsque vous [créez une application RUM][2], confirmez les noms `env` et `service`. -[1]: /fr/real_user_monitoring/connect_rum_and_traces/ -[2]: /fr/real_user_monitoring/browser/#setup +[1]: /fr/real_user_monitoring/correlate_with_other_telemetry/apm/ +[2]: /fr/real_user_monitoring/application_monitoring/browser/setup/ {{% /tab %}} - {{% tab "Synthetics" %}} + {{% tab "Modifier une variable globale" %}} - Si vous [associez vos tests Browser Synthetic à vos traces][1], spécifiez l'URL à laquelle envoyer les en-têtes dans la section **APM Integration for Browser Tests** de la [page Integration Settings][2]. + Si vous utilisez [des tests de navigateur synthétiques connectés et des traces][1], spécifiez une URL pour envoyer des en-têtes dans la section **Intégration APM pour les tests de navigateur** de la [page des paramètres d'intégration][2]. - Vous pouvez utiliser le caractère `*` comme wildcard, par exemple : `https://*.datadoghq.com`. + Vous pouvez utiliser `*` pour des caractères génériques, par exemple : `https://*.datadoghq.com`. [1]: /fr/synthetics/apm/ [2]: https://app.datadoghq.com/synthetics/settings/integrations {{% /tab %}} - {{% tab "Métriques custom" %}} + {{% tab "Collecte de traces" %}} - Les tags sont ajoutés en mode append-only pour les [métriques custom StatsD][1]. Par exemple, si vous avez deux valeurs différentes pour `env`, les métriques sont taguées avec les deux environnements. L'ordre dans lequel un tag remplace un autre du même nom est aléatoire. + Les balises sont ajoutées de manière append-only pour [les métriques StatsD personnalisées][1]. Par exemple, si vous avez deux valeurs différentes pour `env`, les métriques sont étiquetées avec les deux environnements. Il n'y a pas d'ordre dans lequel une balise remplace une autre du même nom. - Si votre service a accès à `DD_ENV`, `DD_SERVICE` et `DD_VERSION`, alors le client DogStatsD ajoute automatiquement les tags correspondants à vos métriques custom. + Si votre service a accès à `DD_ENV`, `DD_SERVICE` et `DD_VERSION`, alors le client DogStatsD ajoute automatiquement les balises correspondantes à vos métriques personnalisées. - **Remarque** : les clients Datadog DogStatsD pour .NET et PHP ne prennent pas en charge cette fonctionnalité. + **Remarque** : Les clients DogStatsD de Datadog pour .NET et PHP ne prennent pas en charge cette fonctionnalité. [1]: /fr/metrics/ {{% /tab %}} {{% tab "Métriques système" %}} - Vous pouvez ajouter les tags `env` et `service` à vos métriques d'infrastructure. Dans les environnements non conteneurisés, la configuration du tagging des métriques de service se fait au niveau de l'Agent. + Vous pouvez ajouter des balises `env` et `service` à vos métriques d'infrastructure. Dans des contextes non conteneurisés, l'étiquetage des métriques de service est configuré au niveau de l'Agent. - Étant donné que cette configuration ne change pas à chaque invocation du processus d'un service, l'ajout du tag `version` n'est pas recommandé. + Étant donné que cette configuration ne change pas pour chaque invocation du processus d'un service, il n'est pas recommandé d'ajouter `version`. -#### Service unique par host +#### Un seul service par hôte {#single-service-per-host} Définissez la configuration suivante dans le [fichier de configuration principal][1] de l'Agent : @@ -365,9 +469,9 @@ tags: - service: ``` -Avec cette configuration, les tags `env` et `service` resteront cohérents pour toutes les données émises par l'Agent. +Cette configuration garantit un étiquetage cohérent de `env` et `service` pour toutes les données émises par l'Agent. -#### Plusieurs services par host +#### Plusieurs services par hôte {#multiple-services-per-host} Définissez la configuration suivante dans le [fichier de configuration principal][1] de l'Agent : @@ -375,7 +479,7 @@ Définissez la configuration suivante dans le [fichier de configuration principa env: ``` -Pour obtenir des tags `service` uniques sur les métriques de processeur, de mémoire et d'E/S disque au niveau du processus, configurez un [check de processus][2] dans le dossier de configuration de l'Agent (par exemple, dans le fichier `process.d/conf.yaml` du dossier `conf.d`) : +Pour obtenir des balises `service` uniques sur les métriques CPU, mémoire et I/O disque au niveau du processus, configurez un [contrôle de processus][2] dans le dossier de configuration de l'Agent (par exemple, dans le dossier `conf.d` sous `process.d/conf.yaml`) : ```yaml init_config: @@ -390,17 +494,86 @@ instances: service: nginx-web-app ``` -**Remarque** : si vous avez déjà un tag `service` défini globalement dans le fichier de configuration principal de votre Agent, les métriques de processus sont taguées avec deux services. Puisque cela peut nuire à l'interprétation des métriques, il est conseillé de configurer le tag `service` uniquement dans la configuration du check de processus. +**Remarque** : Si vous avez déjà une balise `service` définie globalement dans le fichier de configuration principal de votre Agent, les métriques de processus sont étiquetées avec deux services. Puisque cela peut causer de la confusion dans l'interprétation des métriques, il est recommandé de configurer la balise `service` uniquement dans la configuration du contrôle de processus. -[1]: /fr/agent/guide/agent-configuration-files +[1]: /fr/agent/configuration/agent-configuration-files [2]: /fr/integrations/process {{% /tab %}} {{< /tabs >}} -### Environnement sans serveur +### Environnement sans serveur {#serverless-environment} Pour en savoir plus sur les fonctions AWS Lambda, découvrez comment [associer vos données de télémétrie Lambda à l'aide de tags][15]. -## Pour aller plus loin + +### OpenTelemetry {#opentelemetry} + +Lorsque vous utilisez OpenTelemetry, mappez les [attributs de ressource][16] suivants à leurs conventions correspondantes dans Datadog : + +| Convention OpenTelemetry | Convention Datadog | +| --- | --- | +| `deployment.environment` 1 | `env` | +| `deployment.environment.name` 2 | `env` | +| `service.name` | `service` | +| `service.version` | `version` | + +1 : `deployment.environment` est obsolète au profit de `deployment.environment.name` dans [les conventions sémantiques OpenTelemetry v1.27.0][17]. +2 : `deployment.environment.name` est pris en charge dans Datadog Agent 7.58.0+ et Datadog Exporter v0.110.0+. + +
    Les variables d'environnement spécifiques à Datadog comme DD_SERVICE, DD_ENV ou DD_VERSION ne sont pas prises en charge par défaut dans votre configuration OpenTelemetry.
    + +{{< tabs >}} +{{% tab "Avec des variables d'environnement" %}} + +Pour définir des attributs de ressource à l'aide de variables d'environnement, définissez `OTEL_RESOURCE_ATTRIBUTES` avec les valeurs appropriées : + +```shell +export OTEL_RESOURCE_ATTRIBUTES="service.name=my-service,deployment.environment=production,service.version=1.2.3" +``` + +{{% /tab %}} + +{{% tab "SDK" %}} + +Pour définir des attributs de ressource dans le code de votre application, créez un `Resource` avec les attributs souhaités et associez-le à votre `TracerProvider`. + +Voici un exemple en Python : + +```python +from opentelemetry.sdk.resources import Resource +from opentelemetry.sdk.trace import TracerProvider + +resource = Resource(attributes={ + "service.name": "", + "deployment.environment": "", + "service.version": "" +}) +tracer_provider = TracerProvider(resource=resource) +``` + +{{% /tab %}} + +{{% tab "Collecteur" %}} + +Pour définir des attributs de ressource à partir du Collecteur OpenTelemetry, utilisez le [processeur de transformation][100] dans votre fichier de configuration du Collecteur. Le processeur de transformation vous permet de modifier les attributs des données de télémétrie collectées avant de les envoyer à l'exportateur Datadog : + +```yaml +processors: + transform: + trace_statements: + - context: resource + statements: + - set(attributes["service.name"], "my-service") + - set(attributes["deployment.environment"], "production") + - set(attributes["service.version"], "1.2.3") +... +``` + +[100]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/processor/transformprocessor + +{{% /tab %}} +{{< /tabs >}} + +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -413,9 +586,11 @@ Pour en savoir plus sur les fonctions AWS Lambda, découvrez comment [associer v [7]: /fr/agent/docker/?tab=standard#optional-collection-agents [8]: /fr/getting_started/tracing/ [9]: /fr/getting_started/logs/ -[10]: /fr/real_user_monitoring/connect_rum_and_traces/ +[10]: /fr/real_user_monitoring/correlate_with_other_telemetry/apm/ [11]: /fr/getting_started/synthetics/ [12]: /fr/integrations/statsd/ [13]: https://www.chef.io/ [14]: https://www.ansible.com/ -[15]: /fr/serverless/configuration/#connect-telemetry-using-tags \ No newline at end of file +[15]: /fr/serverless/configuration/#connect-telemetry-using-tags +[16]: https://opentelemetry.io/docs/languages/js/resources/ +[17]: https://github.com/open-telemetry/semantic-conventions/releases/tag/v1.27.0 \ No newline at end of file diff --git a/content/fr/glossary/_index.md b/content/fr/glossary/_index.md index 60fb88650b3..bb52e0c1c2b 100644 --- a/content/fr/glossary/_index.md +++ b/content/fr/glossary/_index.md @@ -1,13 +1,14 @@ --- +aliases: +- /fr/glossary/terms/wall_time/ cascade: disable_toc: true -filter_all: Toutes +filter_all: All scrollspy: offset: 5 target: '#glossary-nav' title: Glossaire --- - {{< jqmath-vanilla >}} -
    Bienvenue sur notre glossaire ! Nous travaillons activement à compiler une liste complète des termes utilisés, ce qui peut prendre du temps. Si vous souhaitez nous faire part de votre avis sur le fonctionnement de ce glossaire ou demander l'ajout d'un terme, merci de cliquer sur le lien Feedback.
    \ No newline at end of file +
    Bienvenue dans notre Glossaire ! Ceci est un travail en cours et nous construisons activement une liste complète de termes, ce qui prendra du temps. Si vous avez des retours sur le fonctionnement de ce glossaire, ou des termes que vous aimeriez voir définis, veuillez cliquer sur Feedback et faites-le nous savoir.
    \ No newline at end of file diff --git a/content/fr/infrastructure/_index.md b/content/fr/infrastructure/_index.md index d9aa6a1b74d..57c2ec36c59 100644 --- a/content/fr/infrastructure/_index.md +++ b/content/fr/infrastructure/_index.md @@ -3,43 +3,50 @@ aliases: - /fr/graphing/infrastructure/ cascade: - _target: + lang: en path: /infrastructure/resource_catalog/aws_iam_user - lang: fr aliases: - - /fr/security/cspm/custom_rules/aws_iam_user/ + - /security/cspm/custom_rules/aws_iam_user/ - _target: + lang: en path: /infrastructure/**/* - lang: fr algolia: rank: 70 further_reading: - link: https://app.datadoghq.com/release-notes?category=Infrastructure%20Monitoring tag: Notes de version - text: Découvrez les dernières versions de la surveillance d'infrastructure Datadog - (connexion à l'application requise). + text: Découvrez les dernières versions de la surveillance de l'infrastructure Datadog + ! (Connexion à l'application requise). - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive pour booster la surveillance de votre infrastructure +- link: https://learn.datadoghq.com/courses/getting-started-infra-cnm + tag: Centre d'apprentissage + text: Premiers pas avec la surveillance de l'infrastructure et du réseau cloud (CNM) title: Infrastructure --- +{{< learning-center-callout header="Participez à une session de webinaire de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Infrastructure+Monitoring">}} + Découvrez et inscrivez-vous aux Foundation Enablement sessions. Découvrez comment la surveillance de l'infrastructure basée sur SaaS de Datadog fournit des métriques, des visualisations et des alertes pour garantir que vos équipes d'ingénierie peuvent maintenir et optimiser vos environnements cloud ou hybrides. +{{< /learning-center-callout >}} -{{< img src="infrastructure/Hostmap-compressed.mp4" alt="Vidéo d'une hostmap filtrée pour garder uniquement les hosts Nginx" video="true">}} -## Présentation +## Aperçu {#overview} + +{{< img src="infrastructure/Hostmap-compressed.mp4" alt="Vidéo de la carte des hôtes filtrée pour les hôtes Nginx" video="true">}} La surveillance d'infrastructure comprend des fonctionnalités Datadog essentielles qui permettent de visualiser, de surveiller et de mesurer les performances de vos hosts, conteneurs et processus. -## Composants +## Composants {#components} -{{< whatsnext desc="Cette section aborde les sujets suivants :">}} - {{< nextlink href="/infrastructure/list" >}}Liste des infrastructures : consultez la liste de tous vos hosts surveillés par Datadog.{{< /nextlink >}} - {{< nextlink href="/infrastructure/hostmap" >}}Hostmap et Container Map : visualisez tous vos hosts au sein d'une vue grâce à des regroupements personnalisés, des filtres et des métriques identifiées par des couleurs et formes pour faciliter leur compréhension.{{< /nextlink >}} - {{< nextlink href="/infrastructure/containers" >}}Vue des conteneurs : surveillez les conteneurs de votre environnement en les consultant en temps réel.{{< /nextlink >}} - {{< nextlink href="/infrastructure/process" >}}Vue des processeurs : surveillez vos processus en consultant en temps réel les éléments les plus granulaires de votre déploiement.{{< /nextlink >}} +{{< whatsnext desc="Cette section comprend les sujets suivants :">}} + {{< nextlink href="/infrastructure/list" >}}Infrastructure List - Voir la liste de tous vos hôtes surveillés par Datadog.{{< /nextlink >}} + {{< nextlink href="/infrastructure/hostmap" >}}Host and Container Maps - Visualisez vos hôtes ensemble sur un seul écran avec des regroupements, des filtres et des métriques personnalisés rendus compréhensibles par la couleur et la forme.{{< /nextlink >}} + {{< nextlink href="/infrastructure/containers" >}}Containers View - Surveillez les conteneurs dans votre environnement avec une visibilité en temps réel.{{< /nextlink >}} + {{< nextlink href="/infrastructure/process" >}}Processes View - Surveillez vos processus avec une visibilité en temps réel des éléments les plus granulaires d'un déploiement.{{< /nextlink >}} {{< /whatsnext >}} -## Pour aller plus loin +##Further Reading{#further-reading} {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/fr/infrastructure/hostmap.md b/content/fr/infrastructure/hostmap.md index d2b77ae3828..41215b60e38 100644 --- a/content/fr/infrastructure/hostmap.md +++ b/content/fr/infrastructure/hostmap.md @@ -4,128 +4,60 @@ aliases: - /fr/infrastructure/containermap/ - /fr/guides/hostmap further_reading: +- link: https://www.datadoghq.com/blog/datadog-host-map + tag: GitHub + text: Une nouvelle carte des hôtes pour une infrastructure moderne - link: /infrastructure/livecontainers/ - tag: Graphiques + tag: Documentation text: Consulter en temps réel tous les conteneurs de votre environnement - link: /infrastructure/process/ - tag: Graphiques + tag: Documentation text: Découvrir ce qui se passe à tous les niveaux de votre système -title: Hostmap et Container map +title: La Hostmap --- +La [carte des hôtes][1] de Datadog visualise vos hôtes, pods, conteneurs et clusters, vous aidant à comprendre et à diagnostiquer votre infrastructure. -## Présentation +{{< img src="infrastructure/hostmap/new-host-map.png" alt="La carte des hôtes montrant les hôtes regroupés par zone de disponibilité et colorés par utilisation du CPU. Les cellules hexagonales vont du vert (faible utilisation) à l'orange-rouge (forte utilisation). Les groupes comprennent une catégorie pour les hôtes sans zone de disponibilité (395 hôtes), eastus (183), eastus-1 (153), ainsi que de nombreuses autres régions." style="width:100%;" >}} -Les Maps dʼinfrastructure ([Hostmaps][4] et [Container Maps][5]) affichent une vue d’ensemble de plusieurs hosts sur un seul écran, en utilisant des formes et des couleurs pour faciliter la compréhension des métriques. +## Utilisation {#usage} -{{< img src="infrastructure/containermap/containermap.png" alt="Une Container Map, affichant des conteneurs sous forme de rectangles regroupés par zone de disponibilité AWS." style="width:80%;">}} +{{< img src="infrastructure/hostmap/query-selector.png" alt="Le menu déroulant du sélecteur de requêtes affiche une liste de requêtes suggérées, telle que « Quelle est l'utilisation du CPU sur mes hôtes ? » et « Combien d'erreurs sont consignées dans mon infrastructure ? », ainsi que les requêtes personnalisées enregistrées. Un bouton Créer et un champ de recherche pour filtrer les vues se trouvent en haut." style="width:60%;" >}} -Utilisez le sélecteur déroulant en haut à gauche pour basculer entre les hosts et les conteneurs. +Utilisez le menu déroulant en haut à gauche pour voir les requêtes suggérées, ou les requêtes personnalisées enregistrées par vous ou quelqu'un d'autre dans votre organisation. Pour écrire une requête personnalisée, cliquez sur {{< ui >}}Create{{< /ui >}}. -## Installation +{{< img src="infrastructure/hostmap/draft-query.png" alt="L'éditeur de requête brouillon avec deux niveaux. L'objet parent est défini sur Hôte avec Remplir par utilisation du CPU. L'objet enfant est défini sur Pod avec Fill by Readiness." style="width:100%;" >}} -Une fois l'[Agent][6] déployé, aucune autre configuration n'est requise. Pour recueillir des informations sur les conteneurs Docker avec l'installation standard plutôt qu'avec l'[Agent Docker][7], l'utilisateur `dd-agent` doit être autorisé à accéder à `docker.sock`. Pour attribuer cette autorisation, vous pouvez ajouter `dd-agent` au groupe `docker`. +- {{< ui >}}Parent/Child Object{{< /ui >}} : Sélectionnez des ressources ({{< ui >}}Host{{< /ui >}}, {{< ui >}}Pod{{< /ui >}}, {{< ui >}}Container{{< /ui >}}, {{< ui >}}Cluster{{< /ui >}}) à afficher. Les objets Parent et Enfant ont des relations hiérarchiques. +- {{< ui >}}Fill by{{< /ui >}} : Par défaut, la couleur de chaque objet représente l'utilisation du CPU, où la couleur varie du vert (0 % utilisé) à l'orange (100 % utilisé). Utilisez le menu déroulant {{< ui >}}Fill by{{< /ui >}} pour colorer vos objets selon divers indicateurs ou signaux, tels que la mémoire ou les journaux d'erreurs. +- {{< ui >}}Size by{{< /ui >}} : Si vous ne spécifiez pas d'objet Enfant, vous pouvez utiliser le sélecteur {{< ui >}}Size by{{< /ui >}} pour dimensionner chaque objet selon un indicateur ou un signal. + {{< img src="infrastructure/hostmap/size-by.png" alt="L'éditeur de requête de la carte des hôtes avec l'objet Parent défini sur Hôte, Remplir par défini sur utilisation du CPU, et Taille par définie sur journaux d'erreurs. La carte ci-dessous montre 1,61k hôtes sous forme d'hexagones de tailles et de couleurs variées, avec une info-bulle sur un hôte affichant une utilisation moyenne du CPU de 88 %." style="width:85%;" >}} +- {{< ui >}}Group by{{< /ui >}} : Disposez spatialement vos objets en groupes. Vous pouvez utiliser plusieurs regroupements. Par exemple, si vous regroupez par `tags.availability-zone` `tags.instance-type`, vos objets sont d'abord organisés par zone de disponibilité, puis subdivisés par type d'instance. -## Utilisation + {{< img src="infrastructure/hostmap/group-by.png" alt="La carte des hôtes regroupée par les tags.availability-zone et tags.instance-type. Les hôtes sont d'abord organisés en sections de zones de disponibilité telles que us-east-1a et us-east-1b, puis subdivisés par type d'instance, tels que m5a.2xlarge et t2.micro. Les cellules sont colorées en fonction de l'utilisation du CPU, allant du vert à l'orange-rouge." style="width:85%;" >}} +- {{< ui >}}Filter{{< /ui >}} : Limitez la carte des hôtes à un sous-ensemble spécifique de votre infrastructure. Par exemple, vous pouvez filtrer par `production` pour ne voir que vos ressources de production. L'entrée {{< ui >}}Filter{{< /ui >}} prend en charge les opérateurs logiques (`AND`, `NOT`, `OR`) et les caractères génériques (`*`). Par exemple : `(tags.availability-zone:ap* OR tags.availability-zone:eu*) NOT tags.agent_version:5.3*`. -### Filtrer +## Cas d'utilisation {#use-cases} -Utilisez le champ de saisie **Filter** pour limiter une Map dʼinfrastructure à un sous-ensemble précis d'une infrastructure. La barre d'entrée de filtres en haut à gauche permet de filtrer la Map dʼinfrastructure en saisissant des tags ou encore des attributs fournis par Datadog. +### Résoudre les problèmes de performance des serveurs dégradés {#troubleshoot-degraded-server-performance} -Si la barre d'entrée de filtres est vide, la carte affiche tous les hosts/conteneurs qui transmettent la métrique sélectionnée à Datadog. +Identifiez si les problèmes de performance proviennent d'hôtes surchargés, de pods non sains, de redémarrages de conteneurs ou de goulets d'étranglement au niveau du cluster. Vérifiez les `kubernetes_state.pod.status:unready` ou `system.cpu.user > 80` et utilisez des vues hiérarchiques pour isoler la cause profonde. -Par exemple, si vous ajoutez un tag à vos hosts précisant leur environnement, vous pouvez appliquer le filtre 'production' pour exclure de la carte les hosts de vos environnements staging et autres. Si vous souhaitez retirer tous les rôles de host à l'exception d'un rôle en production, ajoutez ce rôle au filtre. Les filtres sont liés par la logique `AND`. +### Identifiez les points chauds de coût {#identify-cost-hotspots} +Identifiez les clusters, nœuds ou charges de travail contribuant de manière disproportionnée aux dépenses cloud en interrogeant des tags comme `tags.kube_node_instance_type`, `tags.cloud_provider` ou des tags d'allocation personnalisés. Combinez cela avec les signaux CPU et mémoire des conteneurs/hôtes pour détecter un provisionnement insuffisant ou excessif. -**Remarque** : les filtres `tag:value` et `"tag:value"` n'ont pas le même effet. Le filtre `tag:value` recherche précisément ce tag, tandis que le filtre `"tag:value"` effectue une recherche à partir de ce texte. +### Gestion de l'Agent Datadog à l'échelle de la flotte {#fleet-wide-datadog-agent-management} -### Regrouper des événements +Trouvez des hôtes ou des conteneurs exécutant des versions obsolètes de l'Agent Datadog à l'aide de requêtes comme `tags.agent_version < 7.50`. Ensuite, regroupez par zone de disponibilité, cluster ou service pour planifier le déploiement. -Utilisez le champ de saisie **Group** pour organiser spatialement vos hosts/conteneurs en groupes. Tous les hosts/conteneurs d'un groupe partagent le ou les tags que vous avez regroupés. +### Surveillez les déploiements Kubernetes ou les migrations d'infrastructure {#monitor-kubernetes-rollouts-or-infrastructure-migrations} -Par exemple, vous pouvez regrouper vos hosts en fonction de leur zone de disponibilité d'AWS. Si vous ajoutez un deuxième tag de regroupement, comme un type d'instance, alors les hosts sont à nouveau sous-divisés en groupes, d'abord par zone de disponibilité, puis par type d'instance, comme indiqué ci-dessous. +Visualisez la distribution et la santé des pods, des nœuds et des clusters pendant un déploiement ou une migration. Visualisez vos clusters, imbriqués avec des pods, et observez les changements en temps réel pour détecter les régressions. -{{< img src="infrastructure/hostmap/hostmappart2image2.png" alt="Une hostmap dans laquelle les hosts (représentés par des hexagones) sont scindés en deux groupes, par zone de disponibilité. Au sein de chaque regroupement de zone de disponibilité, les hosts sont ensuite sous-divisés en types dʼinstance." >}} +### Vérifiez l'étiquetage et l'hygiène des métadonnées {#verify-tagging-and-metadata-hygiene} -### Remplir et adapter +Utilisez des opérateurs logiques pour valider si vos hôtes et pods sont correctement étiquetés pour la propriété, l'environnement, la région ou l'allocation des coûts. Par exemple, `tags.env:prod AND NOT (tags.team:*)` pour mettre en évidence les ressources non attribuées ou mal étiquetées. -Par défaut, la couleur de chaque host est définie de façon à représenter le pourcentage d'utilisation du CPU sur ce host/conteneur. Elle varie du vert (0 % d'utilisation) au orange (100 % d'utilisation). Vous pouvez sélectionner différentes métriques à partir du sélecteur **Fill**. - -Les maps dʼinfrastrucure peuvent également communiquer d'autres métriques facultatives avec la taille de l'hexagone ou du rectangle. Vous pouvez sélectionner cette métrique dans le sélecteur **Size**. - -**Remarque** : la métrique « CPU Utilization » utilise la mesure la plus fiable et récente de l'utilisation du processeur, qu'elle soit évaluée par l'Agent Datadog ou directement par AWS ou vSphere. - -### Tags - -Vous pouvez appliquer des [tags][1] manuellement ou utiliser des [intégrations][2] pour les appliquer automatiquement. Vous pouvez ensuite utiliser ces tags pour filtrer vos hosts ou vos conteneurs. - -Par exemple, si certains de vos hosts s'exécutent sur AWS, vous pouvez utiliser les tags suivants spécifiques à AWS : - -* `availability-zone` -* `region` -* `image` -* `instance-type` -* `security-group` -* n'importe quel tag EC2 pertinent, comme `name` - -L'Agent Datadog recueille également des métadonnées sur le host et des informations sur les applications, dont certaines peuvent être utilisées comme filtre ou pour regrouper des termes. Ces champs comprennent : - -- `field:metadata_agent_version` -- `field:metadata_platform` -- `field:metadata_processor` -- `field:metadata_machine` -- `field:apps` - -### Zoom - -Lorsque vous avez identifié un host ou conteneur que vous souhaitez étudier, cliquez dessus pour obtenir des détails. Datadog zoome alors sur celui-ci et affiche jusqu'à six intégrations qui transmettent des métriques de ce host. S'il y a plus de six intégrations, elles figurent toutes sous l'en-tête **Apps** du panneau de détails du host, comme illustré sur la capture d'écran ci-dessous. - -Cliquez sur le nom d'une intégration pour afficher un dashboard condensé des métriques de cette intégration. Sur la capture d'écran ci-dessous, nous avons cliqué sur « system » pour obtenir des métriques système, comme l'utilisation du processeur et de la mémoire, la latence du disque, etc. - -{{< img src="infrastructure/hostmap/blog-host-maps-01.png" alt="Une vue de ce qui sʼaffiche lorsquʼun utilisateur clique sur un host spécifique. Un volet dʼinformations est affiché en bas et répertorie plusieurs apps, ainsi que des sections pour les métriques et les checks dʼétat." style="width:75%;" >}} - -### Afficher les hosts qui n'ont pas installé d'Agent sur la hostmap - -Par défaut, la hostmap ne présente que les hosts qui transmettent la métrique sélectionnée. Ces données peuvent alors être utilisées pour définir une couleur ou une taille pour un seul hexagone de la grille. - -### Pertinence et signification des données - -Les données de la hostmap sont actualisées toutes les minutes environ, sauf si vous interagissez en continu avec la hostmap. La date de la dernière mise à jour des données figure en bas à gauche de l'écran. - -## Cas d'utilisation - -### Optimisation des ressources - -Si vous êtes un utilisateur dʼAWS, vous utilisez probablement différents types d'instances. Certaines instances sont optimisées pour la mémoire, d'autres pour le calcul, certaines sont petites, d'autres grandes. - -Si vous souhaitez réduire vos dépenses AWS, vous pouvez commencer par déterminer à quoi servent les instances les plus coûteuses. Commencez par les regrouper par `instance-type`, puis par `role` ou par `name`. Observez les types d'instances coûteuses, comme **c3.8xlarge**. Certains rôles de host affichent-ils une utilisation insuffisante de leur processeur ? Si c'est le cas, zoomez sur les hosts individuels pour voir si toute cette puissance informatique s'est avérée nécessaire au cours des derniers mois, ou si ce groupe de hosts pourrait être migré vers un type d'instance moins onéreux. - -Vous trouverez ci-dessous un sous-ensemble de l'infrastructure de Datadog. Comme vous pouvez le constater, les instances **c3.2xlarge** présentent une charge particulièrement élevée. - -{{< img src="infrastructure/hostmap/hostmappart1image2.png" alt="Une vue montrant le nombre de hosts, représentés par des hexagones, ayant été regroupés par type dʼinstance : m3.large, c3.2xlarge et m1.xlarge. La plupart des hosts m3.large et m1.xlarge sont en vert pour signaler une faible utilisation du processeur, mais les hosts c3.2xlarge sont orange, ce qui indique une grande utilisation du processeur." style="width:80%;">}} - -Si vous cliquez sur le groupe c3.2xlarge et que vous créez des sous-groupes par rôle, vous pouvez remarquer que seulement certains rôles sont chargés, tandis que d'autres sont presque inactifs. Si vous rétrogradez ces 7 nœuds verts sur c3.xlarge, vous pouvez économiser quasiment 13 000 $ par an (0,21 $ d'économie par heure et par host x 24 h/jour * 365 jours/an * 7 hosts = 12 877,20 $/an). - -{{< img src="infrastructure/hostmap/hostmappart1image3.png" alt="Le groupe c3.2xlarge affiché précédemment, désormais scindé en sous-groupe par rôles. Certains groupes sont orange uni, mais certains autres sont verts." style="width:80%;">}} - -### Placement des zones de disponibilité - -Les hostmaps vous permettent de visualiser les distributions de machines dans chacune de vos zones de disponibilité. Filtrez les hosts pour afficher ceux qui vous intéressent et regroupez-les par zone de disponibilité pour découvrir immédiatement si les ressources doivent être rééquilibrées. - -Dans l'exemple ci-dessous, la distribution des hosts est inégale avec `role:daniels` sur l'ensemble des zones de disponibilité (Daniels est le nom d'une application interne). - -{{< img src="infrastructure/hostmap/hostmappart1image4.png" alt="Des hostmaps filtrées par role:daniels et regroupées en zones de disponibilité Trois groupes de hosts sont affichés." style="width:80%;" >}} - -### Résolution de problèmes - -Imaginez que vous rencontrez un problème en production. Par exemple, les processeurs de certains de vos hosts sont encombrés, résultat : les temps de réponse sont longs. Les hostmaps peuvent vous aider à visualiser rapidement s'il y a une différence entre les hosts chargés et non chargés. Vous pouvez les regrouper par dimension que vous souhaitez étudier et déterminer visuellement si les serveurs posant problème appartiennent à un certain groupe. -Ainsi, vous pouvez procéder à un regroupement selon une zone de disponibilité, une région, un type d'instance, une image ou n'importe quel tag utilisé au sein de votre système. - -Dans la capture d'écran ci-dessous, certains hosts disposent de beaucoup moins de mémoire utilisable que d'autres, bien qu'ils fassent partie du même cluster. Le regroupement par image de machine nous montre que deux images différentes ont été utilisées, et que l'une d'entre elles est surchargée. - -{{< img src="infrastructure/hostmap/hostmappart1image5.png" alt="Deux bandes d'utilisation de la mémoire - hostmaps Datadog" style="width:80%;" >}} - -{{< img src="infrastructure/hostmap/hostmappart1image6.png" alt="Deux groupes d'images - hostmaps Datadog" style="width:80%;">}} - -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/logs/explorer/search_syntax.md b/content/fr/logs/explorer/search_syntax.md index 34c2725bef3..2ba0df24fba 100644 --- a/content/fr/logs/explorer/search_syntax.md +++ b/content/fr/logs/explorer/search_syntax.md @@ -4,139 +4,152 @@ aliases: - /fr/logs/search_syntax/ description: Effectuez des recherches dans l'ensemble de vos logs. further_reading: -- link: /logs/explorer/#visualiser-les-donnees +- link: /getting_started/search/ tag: Documentation - text: Découvrir comment visualiser des logs + text: Commencer avec la recherche dans Datadog +- link: /logs/explorer/#visualize + tag: Documentation + text: Apprenez à visualiser les journaux - link: /logs/explorer/#patterns tag: Documentation - text: Détecter les patterns dans vos logs + text: Détecter les modèles dans vos logs - link: /logs/log_configuration/processors tag: Documentation text: Apprendre à traiter vos logs - link: /logs/explorer/saved_views/ tag: Documentation text: En savoir plus sur les vues enregistrées -- link: /logs/explorer/calculated_fields/expression_language +- link: /logs/explorer/calculated_fields/formulas tag: Documentation - text: En savoir plus sur le langage d'expression des champs calculés + text: En savoir plus sur les formules des champs calculés +- link: https://learn.datadoghq.com/courses/log-explorer + tag: Centre d'apprentissage + text: Commencer avec l'explorateur de journaux title: Syntaxe de recherche de logs --- +## Aperçu {#overview} -## Section Overview - -Un filtre de requête est composé de termes et d'opérateurs. +Une requête de filtre est composée de termes et d'opérateurs. Il existe deux types de termes : -* Un **terme unique** est un mot unique comme `test` ou `hello`. +* Un **terme unique** est un mot unique tel que `test` ou `hello`. -* Une **séquence** est un groupe de mots entre guillemets, comme `hello dolly`. +* Une **séquence** est un groupe de mots entourés de guillemets, tel que `"hello dolly"`. Pour combiner plusieurs termes dans une requête complexe, vous pouvez utiliser l'un des opérateurs booléens suivants (sensibles à la casse) : | | | | |--------------|--------------------------------------------------------------------------------------------------------|------------------------------| | **Opérateur** | **Description** | **Exemple** | -| `AND` | **Intersection** : les deux termes figurent dans les événements sélectionnés (si aucun opérateur n'est ajouté, AND est utilisé par défaut). | authentication AND failure | -| `OR` | **Union** : un des deux termes figure dans les événements sélectionnés. | authentication OR password | -| `-` | **Exclusion** : le terme suivant l'opérateur ne figure PAS dans l'événement (s'applique à chaque recherche de texte brute). | authentication AND -password | +| `AND` | **Intersection** : les deux termes sont dans les événements sélectionnés (si rien n'est ajouté, AND est pris par défaut) | authentification ET échec | +| `OR` | **Union** : soit le terme est contenu dans les événements sélectionnés | authentification OU mot de passe | +| `-` | **Exclusion** : le terme suivant n'est PAS dans l'événement (s'applique à chaque recherche de texte brut individuelle) | authentification ET -mot de passe | -## Recherche en texte intégral +## Recherche en texte intégral {#full-text-search} -
    La fonction de recherche en texte intégral est uniquement disponible dans Log Management et fonctionne dans les requêtes de monitor, de dashboard et de notebook. La syntaxe de recherche en texte intégral ne peut pas être utilisée pour définir des filtres d'index, d'archivage, de pipeline de logs, de réhydratation, ni dans Live Tail (suivi en direct).
    +
    La fonction de recherche en texte intégral est uniquement disponible dans la gestion des journaux et fonctionne dans les requêtes de moniteur, de tableau de bord et de carnet. La syntaxe de recherche en texte intégral ne peut pas être utilisée pour définir des filtres d'index, des filtres d'archive, des filtres de pipeline de journaux, des filtres de réhydratation, ou dans Live Tail.
    -Utilisez la syntaxe `*:search_term` pour effectuer une recherche en texte intégral sur tous les attributs de logs, y compris le message de log. +Utilisez la syntaxe `*:search_term` pour effectuer une recherche en texte intégral sur tous les attributs de journal, y compris le message du journal. -### Exemple de terme unique +### Exemple de terme unique {#single-term-example} -| Syntaxe de recherche | Type de recherche | Rôle | +| Syntaxe de recherche | Type de recherche | Description | | ------------- | ----------- | --------------------------------------------------------- | -| `*:hello` | Texte intégral | Recherche dans tous les attributs de logs la chaîne exacte `hello`. | -| `hello` | Texte libre | Recherche uniquement dans le message de log la chaîne exacte `hello`. | +| `*:hello` | Texte intégral | Recherche tous les attributs de journal pour la chaîne exacte `hello`. | +| `hello` | Texte libre | Recherche uniquement les `message`, `@title`, `@error.message` et `@error.stack` attributs pour la chaîne exacte `hello`. | -### Exemple de terme de recherche avec caractère générique +### Exemple de terme de recherche avec un caractère générique {#search-term-with-wildcard-example} -| Syntaxe de recherche | Type de recherche | Rôle | +| Syntaxe de recherche | Type de recherche | Description | | ------------- | ----------- | ------------------------------------------------------------------------------------------- | -| `*:hello` | Texte intégral | Recherche dans tous les attributs de logs la chaîne exacte `hello`. | -| `*:hello*` | Texte intégral | Recherche dans tous les attributs de logs les chaînes commençant par `hello`. Par exemple : `hello_world`. | +| `*:hello` | Texte intégral | Recherche tous les attributs de journal pour la chaîne exacte `hello`. | +| `*:hello*` | Texte intégral | Recherche tous les attributs de journal pour les chaînes commençant par `hello`. Par exemple, `hello_world`. | -### Exemple de termes multiples avec correspondance exacte +### Exemple de plusieurs termes avec correspondance exacte {#multiple-terms-with-exact-match-example} -| Syntaxe de recherche | Type de recherche | Rôle | +| Syntaxe de recherche | Type de recherche | Description | | ------------------- | ----------- |--------------------------------------------------------------------------------------------------- | -| `*:"hello world"` | Texte intégral | Recherche dans tous les attributs de logs la chaîne exacte `hello world`. | -| `hello world` | Texte libre | Recherche uniquement dans le message de log les mots `hello` et `world`. Par exemple `hello beautiful world`. | +| `*:"hello world"` | Texte intégral | Recherche tous les attributs de journal pour la chaîne exacte `hello world`. | +| `hello world` | Texte libre | Recherche uniquement le message du journal pour `hello` et `world` mots. Par exemple `hello beautiful world`. | -## Échapper les caractères spéciaux et les espaces +## Échapper les caractères spéciaux et les espaces {#escape-special-characters-and-spaces} -Les caractères suivants, considérés comme spéciaux : `+` `-` `=` `&&` `||` `>` `<` `!` `(` `)` `{` `}` `[` `]` `^` `"` `“` `”` `~` `*` `?` `:` `\` `#`, ainsi que les espaces, doivent être échappés à l'aide du caractère `\`. +Les caractères suivants sont considérés comme spéciaux et nécessitent d'être échappés avec le caractère `\` : `=` `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#`, et les espaces. - `/` n'est pas considéré comme un caractère spécial et n'a pas besoin d'être échappé. -- `@` ne peut pas être utilisé dans les requêtes de recherche dans Logs Explorer, car il est réservé à la [recherche d'attributs](#attributes-search). +- `@` ne peut pas être utilisé dans les requêtes de recherche dans Logs Explorer car il est réservé pour [Recherche d'attributs](#attributes-search). -Il n'est pas possible de rechercher des caractères spéciaux dans un message de log. Il est possible de rechercher des caractères spéciaux lorsqu'ils se trouvent dans un attribut. +Vous ne pouvez pas rechercher des caractères spéciaux dans un message de journal. Vous pouvez rechercher des caractères spéciaux lorsqu'ils se trouvent à l'intérieur d'un attribut. Pour rechercher des caractères spéciaux, extrayez-les dans un attribut à l'aide du [parser Grok][1], puis effectuez une recherche sur les logs contenant cet attribut. +## Recherche d'attributs {#attributes-search} -## Recherche d'attributs +Pour rechercher sur un attribut spécifique, ajoutez `@` pour spécifier que vous recherchez sur un attribut. -Pour effectuer une recherche sur un attribut spécifique, ajoutez `@` pour indiquer qu'il s'agit d'une recherche sur un attribut. - -Par exemple, si le nom de votre attribut est **url** et que vous souhaitez filtrer les résultats en fonction de la valeur de **url** `www.datadoghq.com`, saisissez : +Par exemple, si le nom de votre attribut est **url** et que vous souhaitez filtrer sur la valeur **url** `www.datadoghq.com`, entrez : ``` @url:www.datadoghq.com ``` +### Attributs réservés {#reserved-attributes} + +[Attributs réservés][8] tels que `host`, `source`, `status`, `service`, `trace_id`, et `message` ne nécessitent pas le préfixe `@`. Vous pouvez rechercher ces attributs directement : -**Remarques** : +``` +service:web-app +status:error +host:i-1234567890abcdef0 +``` -1. Vous n'avez **pas** besoin de définir une facette pour rechercher des attributs et des tags. +**Notes** : -2. Les recherches d'attributs sont sensibles à la casse. Utilisez la [recherche en texte intégral](#full-text-search) pour obtenir des résultats insensibles à la casse. Une autre option consiste à utiliser le filtre `lowercase` avec votre parser Grok lors de l'analyse pour obtenir des résultats insensibles à la casse pendant la recherche. +1. Il n'est **pas** nécessaire de définir une facette pour rechercher des attributs et des balises. + +2. Les recherches d'attributs sont sensibles à la casse. Utilisez [la recherche en texte intégral](#full-text-search) pour obtenir des résultats insensibles à la casse. Une autre option est d'utiliser le `lowercase` filtre avec votre parseur Grok lors de l'analyse pour obtenir des résultats insensibles à la casse pendant la recherche. 3. Lorsque vous recherchez une valeur d'attribut qui contient des caractères spéciaux, vous devez utiliser des caractères d'échappement ou des guillemets. - - Par exemple, pour un attribut `my_attribute` ayant pour valeur `hello:world`, recherchez `@my_attribute:hello\:world` ou `@my_attribute:"hello:world"`. - - Pour rechercher un caractère spécial ou une espace unique, utilisez le wildcard `?`. Par exemple, pour un attribut `my_attribute` ayant pour valeur `hello world`, recherchez `@my_attribute:hello?world`. + - Par exemple, pour un attribut `my_attribute` avec la valeur `hello:world`, recherchez en utilisant : `@my_attribute:hello\:world` ou `@my_attribute:"hello:world"`. + - Pour correspondre à un seul caractère spécial ou à un espace, utilisez le `?` caractère générique. Par exemple, pour un attribut `my_attribute` avec la valeur `hello world`, recherchez en utilisant : `@my_attribute:hello?world`. Exemples : -| Requête de recherche | Rôle | +| Requête de recherche | Description | |----------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `@http.url_details.path:"/api/v1/test"` | Recherche tous les logs correspondants à `/api/v1/test` dans l'attribut `http.url_details.path`. | -| `@http.url:/api\-v1/*` | Recherche dans tous les logs une valeur de l'attribut `http.url` commençant par `/api-v1/` | -| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | Recherche tous les logs contenant une valeur `http.status_code` comprise entre 200 et 299, et une valeur dans l'attribut `http.url_details.path` qui commence par `/api-v1/` | -| `-@http.status_code:*` | Recherche tous les logs ne contenant pas l'attribut `http.status_code` | +| `@http.url_details.path:"/api/v1/test"` | Recherche tous les journaux correspondant à `/api/v1/test` dans l'attribut `http.url_details.path`. | +| `@http.url:/api\-v1/*` | Recherche tous les journaux contenant une valeur dans l'attribut `http.url` qui commence par `/api-v1/` | +| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | Recherche tous les journaux contenant une valeur `http.status_code` entre 200 et 299, et contenant une valeur dans l'attribut `http.url_details.path` qui commence par `/api-v1/` | +| `-@http.status_code:*` | Recherche tous les journaux ne contenant pas l'attribut `http.status_code` | -### Recherche avec la notation CIDR -CIDR (Classless Inter Domain Routing) est une notation qui permet de définir de manière concise une plage d'adresses IP (également appelée bloc CIDR). Elle est le plus souvent utilisée pour définir un réseau (comme un VPC) ou un sous-réseau (comme un sous-réseau public/privé au sein d'un VPC). +### Recherchez en utilisant la notation CIDR {#search-using-cidr-notation} +Le routage inter-domaines sans classe (CIDR) est une notation qui permet aux utilisateurs de définir succinctement une plage d'adresses IP (également appelées blocs CIDR). Le CIDR est le plus souvent utilisé pour définir un réseau (tel qu'un VPC) ou un sous-réseau (tel qu'un sous-réseau public/privé au sein d'un VPC). -Les utilisateurs peuvent utiliser la fonction `CIDR()` pour interroger des attributs dans les logs en utilisant la notation CIDR. La fonction `CIDR()` prend en paramètre un attribut de log à filtrer, suivi d'un ou plusieurs blocs CIDR. +Les utilisateurs peuvent utiliser la fonction `CIDR()` pour interroger des attributs dans les journaux en utilisant la notation CIDR. La fonction `CIDR()` doit être passée dans un attribut de journal en tant que paramètre à filtrer, suivie d'un ou plusieurs blocs CIDR. -#### Exemples -- `CIDR(@network.client.ip,13.0.0.0/8)` correspond aux logs dont l'adresse IP dans le champ `network.client.ip` appartient au bloc CIDR 13.0.0.0/8. -- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` correspond aux logs contenant au moins une adresse IP dans l'attribut tableau `network.ip.list` appartenant aux blocs CIDR 13.0.0.0/8 ou 15.0.0.0/8. -- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` filtre les événements de type *reject* provenant d'un pare-feu Palo Alto situés dans le sous-réseau 13.0.0.0/8. -- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` affiche tous les logs VPC qui ne proviennent pas du sous-réseau 13.0.0.0/8 mais sont destinés au sous-réseau 15.0.0.0/8, utile pour analyser le trafic réseau entre sous-réseaux dans votre environnement. +#### Exemples {#examples} +- `CIDR(@network.client.ip,13.0.0.0/8)` correspond et filtre les journaux qui contiennent des adresses IP dans le champ `network.client.ip` qui relèvent du bloc CIDR 13.0.0.0/8. +- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` correspond et filtre les journaux qui contiennent n'importe quelle adresse IP dans un attribut de tableau `network.ip.list` qui relèvent des blocs CIDR 13.0.0.0/8 ou 15.0.0.0/8. +- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` correspondrait et filtrerait les événements de rejet du pare-feu Palo Alto qui proviennent du sous-réseau 13.0.0.0/8. +- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` affichera tous les journaux VPC qui ne proviennent pas du sous-réseau 13.0.0.0/8 mais qui sont destinés au sous-réseau de destination 15.0.0.0/8 car vous souhaitez analyser le trafic réseau dans vos environnements entre sous-réseaux. -La fonction `CIDR()` prend en charge les notations CIDR IPv4 et IPv6, et fonctionne dans Log Explorer, Live Tail, les widgets de logs dans les dashboards, les monitors de logs et les configurations de logs. +La fonction `CIDR()` prend en charge à la fois les notations CIDR IPv4 et IPv6 et fonctionne dans Log Explorer, Live Tail, les widgets de journaux dans les tableaux de bord, les moniteurs de journaux et les configurations de journaux. -## Les wildcards +## Caractères génériques {#wildcards} -Vous pouvez utiliser des caractères génériques dans la recherche en texte libre. Toutefois, cela ne recherche que les termes présents dans le message de log, c'est-à-dire le texte de la colonne `content` dans Log Explorer. Référez-vous à la rubrique [Recherche en texte intégral](#full-text-search) si vous souhaitez rechercher une valeur dans un attribut de log. +Vous pouvez utiliser des caractères génériques avec la recherche de texte libre. Cependant, elle ne recherche que des termes dans le message du journal, le texte dans la colonne `content` dans Log Explorer. Voir [Recherche en texte intégral](#full-text-search) si vous souhaitez rechercher une valeur dans un attribut de journal. -### Wildcard pour plusieurs caractères +### Caractère générique à plusieurs caractères {#multi-character-wildcard} -Pour effectuer une recherche avec un caractère générique multi-caractères dans le message de log (colonne `content` dans Log Explorer), utilisez le symbole `*` comme suit : +Pour effectuer une recherche avec un caractère générique à plusieurs caractères dans le message du journal (la colonne `content` dans Log Explorer), utilisez le symbole `*` comme suit : -* `service:web*` renvoie tous les messages de log dont le service commence par `web`. -* `web*` renvoie tous les messages de log commençant par `web`. -* `*web` renvoie tous les messages de log finissant par `web`. +* `service:web*` correspond à chaque message de journal qui a un service commençant par `web`. +* `web*` correspond à tous les messages de journal commençant par `web`. +* `*web` correspond à tous les messages de journal se terminant par `web`. -**Remarque** : Les caractères génériques ne sont interprétés comme tels que lorsqu’ils sont utilisés en dehors des guillemets doubles. Par exemple, `"*test*"` correspond à un log contenant littéralement la chaîne `*test*` dans son message. En revanche, `*test*` correspond à un log contenant la chaîne `test` n’importe où dans son message. +**Remarque** : Les caractères génériques ne fonctionnent comme des caractères génériques qu'en dehors des guillemets doubles. Par exemple, `"*test*"` correspond à un journal qui contient la chaîne `*test*` dans son message. `*test*` correspond à un journal qui contient la chaîne test n'importe où dans son message. -Les wildcards peuvent être utilisés au sein de tags et d'attributs (avec ou sans facettes) avec cette syntaxe. La requête suivante renvoie tous les services se terminant par le texte `mongo` : +Les recherches avec des caractères génériques fonctionnent au sein des balises et des attributs (facettés ou non) avec cette syntaxe. Cette requête renvoie tous les services qui se terminent par la chaîne `mongo` :

    @@ -144,73 +157,86 @@ Les wildcards peuvent être utilisés au sein de tags et d'attributs (avec ou sa service:*mongo ``` -Les recherches avec caractères génériques peuvent aussi être utilisées pour chercher dans le texte brut d’un log, c’est-à-dire en dehors des attributs. Par exemple, la requête suivante renvoie tous les logs dont le contenu (message) contient la chaîne `NETWORK` : +Les recherches avec des caractères génériques peuvent également être utilisées pour rechercher dans le texte brut d'un journal qui ne fait pas partie d'un attribut de journal. Par exemple, cette requête renvoie tous les journaux avec un contenu (message) qui contient la chaîne `NETWORK` : ``` *NETWORK* ``` -Cependant, ce terme de recherche ne renverra pas de logs contenant la chaîne `NETWORK` si celle-ci se trouve dans un attribut de log et non dans le message. +Cependant, ce terme de recherche ne renvoie pas les journaux qui contiennent la chaîne `NETWORK` s'il se trouve dans un attribut de journal et non dans le message du journal. -### Wildcard de recherche +### Caractère générique de recherche {#search-wildcard} -Lorsque vous recherchez une valeur d'attribut ou de tag qui contient des caractères spéciaux ou qui nécessite des caractères d'échappement ou des guillemets, utilisez le wildcard `?` pour renvoyer un caractère spécial ou une espace unique. Par exemple, pour rechercher un attribut `my_attribute` avec la valeur `hello world`, utilisez `@my_attribute:hello?world`. +Lors de la recherche d'un attribut ou d'une valeur de balise contenant des caractères spéciaux ou nécessitant des échappements ou des guillemets doubles, utilisez le caractère générique `?` pour correspondre à un seul caractère spécial ou espace. Par exemple, pour rechercher un attribut `my_attribute` avec la valeur `hello world` : `@my_attribute:hello?world`.

    -## Valeurs numériques +## Valeurs numériques {#numerical-values} -Pour effectuer une recherche sur un attribut numérique, commencez par [l'ajouter comme facette][2]. Vous pourrez ensuite utiliser des opérateurs numériques (`<`, `>`, `<=` ou `>=`) pour effectuer une recherche sur ces facettes numériques. -Par exemple, récupérez tous les logs dont le temps de réponse dépasse 100 ms avec : +Pour rechercher un attribut numérique, commencez par l'ajouter en tant que facette [add it as a facet][2]. Vous pouvez ensuite utiliser des opérateurs numériques (`<`, `>`, `<=` ou `>=`) pour effectuer une recherche sur des facettes numériques. +Par exemple, récupérez tous les journaux ayant un temps de réponse supérieur à 100 ms avec :

    ``` @http.response_time:>100 ``` -Vous pouvez effectuer une recherche d'attribut numérique dans une plage spécifique. Par exemple, pour récupérer toutes les erreurs 4xx : +Vous pouvez rechercher un attribut numérique dans une plage spécifique de valeurs. Par exemple, récupérez toutes vos erreurs 4xx avec : ``` @http.status_code:[400 TO 499] ``` -## Tags +## Balises {#tags} -Vos logs héritent des tags des [hosts][3] et des [intégrations][4] qui les génèrent. Ils peuvent être utilisés dans une recherche ainsi que comme facettes : +Vos journaux héritent des balises des [hôtes][3] et des [intégrations][4] qui les génèrent. Elles peuvent également être utilisées dans la recherche et comme facettes : -* `test` recherche la chaîne « test ». -* `env:(prod OR test)` renvoie tous les logs avec le tag `env:prod` ou le tag `env:test`. -* `(env:prod AND -version:beta)` renvoie tous les logs avec le tag `env:prod` et sans le tag `version:beta`. +* `test` recherche la chaîne "test". +* `env:(prod OR test)` correspond à tous les journaux avec la balise `env:prod` ou la balise `env:test` +* `(env:prod AND -version:beta)` correspond à tous les journaux qui contiennent la balise `env:prod` et qui ne contiennent pas la balise `version:beta` -Si vos tags ne respectent pas les [recommandations relatives aux tags][5] et n'utilisent pas la syntaxe `key:value`, utilisez cette requête de recherche : +Si vos balises ne suivent pas les [meilleures pratiques en matière de balises][5] et n'utilisent pas la syntaxe `key:value`, utilisez cette requête de recherche : -* `tags:` +* `tags:` -## Tableaux +## Tableaux {#arrays} -Dans l'exemple ci-dessous, cliquer sur la valeur `Peter` dans la facette renvoie tous les logs contenant un attribut `users.names` dont la valeur est soit `Peter`, soit un tableau qui contient `Peter` : +Dans l'exemple suivant, cliquer sur la valeur `Peter` dans la facette renvoie tous les journaux qui contiennent un attribut `users.names`, dont la valeur est soit `Peter` soit un tableau contenant `Peter` : -{{< img src="logs/explorer/search/array_search.png" alt="Tableau et facettes" style="width:80%;">}} +{{< img src="logs/explorer/search/array_search.png" alt="Tableaux et Facettes" style="width:80%;">}} -**Remarque** : il est également possible de rechercher des attributs de tableau sans facette à l'aide d'une syntaxe similaire. +**Remarque** : La recherche peut également être utilisée sur des attributs de tableau non facettés en utilisant une syntaxe équivalente. -Dans l'exemple suivant, les logs CloudWatch pour Windows contiennent un tableau d'objets JSON sous `@Event.EventData.Data`. Même s'il est impossible de créer une facette sur un tableau d'objets JSON, vous pouvez effectuer une recherche à l'aide de la syntaxe suivante. +Dans l'exemple suivant, les journaux CloudWatch pour Windows contiennent un tableau d'objets JSON sous `@Event.EventData.Data`. Vous ne pouvez pas créer de facette sur un tableau d'objets JSON, mais vous pouvez rechercher en utilisant la syntaxe suivante. -* `@Event.EventData.Data.Name:ObjectServer` renvoie tous les logs ayant pour clé `Name` et pour valeur `ObjectServer`. +* `@Event.EventData.Data.Name:ObjectServer` correspond à tous les journaux avec la clé `Name` et la valeur `ObjectServer`. {{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="Requête sans facette sur un tableau d'objets JSON" style="width:80%;">}} -

    -## Champs calculés +### Recherche de tableau imbriqué {#nested-array-search} + +Pour rechercher un champ imbriqué dans un attribut de tableau, utilisez le préfixe `@` avec le chemin complet de l'attribut. L'Explorateur de journaux correspond à tout élément dans le tableau : + +* `@network.ip.attributes.ip:2a02\:1810*` correspond à tous les journaux où au moins un élément dans le tableau `network.ip.attributes` a un champ `ip` commençant par `2a02:1810`. + +Pour faire correspondre les journaux dans lesquels un tableau contient plusieurs valeurs spécifiques, listez les valeurs entre parenthèses : + +* `@user_perms:(4 6)` correspond à tous les journaux où le tableau `user_perms` contient à la fois `4` et `6`. + +Pour faire correspondre les journaux dans lesquels un tableau contient n'importe quelle valeur dans une plage, utilisez une requête de plage : + +* `@user_perms:[2 TO 6]` correspond à tous les journaux où le tableau `user_perms` contient au moins une valeur entre `2` et `6`. + +## Champs calculés {#calculated-fields} -Les champs calculés fonctionnent comme des attributs de log et peuvent être utilisés pour la recherche, l’agrégation, la visualisation et la définition d’autres champs calculés. Utilisez le préfixe `#` pour faire référence aux noms de champs calculés. +Les champs calculés fonctionnent comme des attributs de journal et peuvent être utilisés pour la recherche, l'agrégation, la visualisation et la définition d'autres champs calculés. Utilisez le préfixe `#` pour référencer les noms de champs calculés. -{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un champ calculé nommé request_duration utilisé pour filtrer les résultats dans le Log Explorer" style="width:100%;" >}} +{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un champ calculé nommé request_duration, utilisé pour filtrer les résultats dans l'Explorateur de journaux" style="width:100%;" >}} -## Recherches enregistrées +## Recherches enregistrées {#saved-searches} Les [vues enregistrées][6] contiennent votre requête de recherche, les colonnes, l'horizon temporel et la facette. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -220,4 +246,5 @@ Les [vues enregistrées][6] contiennent votre requête de recherche, les colonne [4]: /fr/integrations/#cat-log-collection [5]: /fr/getting_started/tagging/#tags-best-practices [6]: /fr/logs/explorer/saved_views/ -[7]: /fr/logs/explorer/facets/#facet-panel \ No newline at end of file +[7]: /fr/logs/explorer/facets/#facet-panel +[8]: /fr/logs/log_configuration/attributes_naming_convention/#reserved-attributes \ No newline at end of file diff --git a/content/fr/logs/log_collection/_index.md b/content/fr/logs/log_collection/_index.md index ae11c0825e3..ad1f8cf130a 100644 --- a/content/fr/logs/log_collection/_index.md +++ b/content/fr/logs/log_collection/_index.md @@ -15,7 +15,7 @@ description: Configurez votre environnement afin de collecter les logs depuis vo host, vos conteneurs et vos services. further_reading: - link: https://www.datadoghq.com/blog/log-file-control-with-logrotate/ - tag: Blog + tag: GitHub text: Comment gérer les fichiers de logs avec Logrotate - link: /agent/logs/advanced_log_collection tag: Documentation @@ -35,23 +35,29 @@ further_reading: - link: /logs/logging_without_limits/ tag: Documentation text: Logging Without Limits* +- link: https://learn.datadoghq.com/courses/advanced-log-configuration + tag: Centre d'apprentissage + text: Configuration avancée des journaux +- link: https://learn.datadoghq.com/courses/log-config-docker + tag: Centre d'apprentissage + text: Configurer la collecte des journaux pour une application conteneurisée title: Collecte de logs et intégrations --- ## Aperçu {#overview} Choisissez une option de configuration ci-dessous pour commencer à ingérer vos journaux. Si vous utilisez déjà un démon de transfert de journaux, consultez la documentation dédiée pour [Rsyslog][1], [Syslog-ng][2], [NXlog][3], [FluentD][4] ou [Logstash][5]. -Consultez la [liste des points de collecte de journaux disponibles de Datadog](#logging-endpoints) si vous souhaitez envoyer vos journaux directement à Datadog. +Consultez la [liste des points de terminaison de collecte de journaux Datadog disponibles](#logging-endpoints) si vous souhaitez envoyer vos journaux directement à Datadog. -**Remarque** : Lors de l'envoi de journaux au format JSON à Datadog, il existe un ensemble d'attributs réservés qui ont une signification spécifique au sein de Datadog. Consultez la [section des Attributs Réservés](#attributes-and-tags) pour en savoir plus. +**Remarque** : Lors de l'envoi de journaux au format JSON à Datadog, il existe un ensemble d'attributs réservés qui ont une signification spécifique au sein de Datadog. Consultez la [section des Attributs Réservés](#attributes-and-tags) pour en savoir plus. -## Implémentation {#setup} +## Configuration {#setup} {{< tabs >}} {{% tab "Host" %}} -1. Installez l'[Agent Datadog][1]. -2. Pour activer la collecte de journaux, changez `logs_enabled: false` en `logs_enabled: true` dans le fichier de configuration principal de votre Agent (`datadog.yaml`). Consultez la [documentation de collecte de journaux de l'Agent Hôte][5] pour plus d'informations et d'exemples. +1. Installez le Datadog Agent [1]. +2. Pour activer la collecte des journaux, changez `logs_enabled: false` en `logs_enabled: true` dans le fichier de configuration principal de votre Agent (`datadog.yaml`). Consultez la [documentation de collecte des journaux de l'Agent Hôte][5] pour plus d'informations et d'exemples. 3. Une fois la collecte activée, vous pouvez configurer l'Agent Datadog afin de [suivre les fichiers de log ou de détecter les logs envoyés via UDP/TCP][2], de [filtrer les logs ou de nettoyer les données sensibles][3] et d'[agréger les logs multiligne][4]. [1]: https://app.datadoghq.com/account/settings/agent/latest @@ -63,8 +69,8 @@ Consultez la [liste des points de collecte de journaux disponibles de Datadog](# {{% tab "Application" %}} -1. Installez l'[Agent Datadog][1]. -2. Pour activer la collecte de journaux, changez `logs_enabled: false` en `logs_enabled: true` dans le fichier de configuration principal de votre Agent (`datadog.yaml`). Consultez la [documentation de collecte de journaux de l'Agent Hôte][2] pour plus d'informations et d'exemples. +1. Installez le Datadog Agent [1]. +2. Pour activer la collecte des journaux, changez `logs_enabled: false` en `logs_enabled: true` dans le fichier de configuration principal de votre Agent (`datadog.yaml`). Consultez la [documentation de collecte des journaux de l'Agent Hôte][2] pour plus d'informations et d'exemples. 3. Suivez les instructions d'installation correspondant au langage de votre application pour configurer un logger et commencer à générer des logs : {{< partial name="logs/logs-languages.html" >}} @@ -79,9 +85,9 @@ Choisissez un fournisseur de conteneurs ou d'orchestrateurs et suivez les instru {{< partial name="logs/logs-containers.html" >}} -**Remarques** : +**Remarques** : -- L'Agent Datadog peut [collecter des journaux directement à partir de stdout/stderr de conteneur][1] sans utiliser de pilote de journalisation. Lorsque la vérification Docker de l'Agent est activée, les métadonnées des conteneurs et des orchestrateurs sont automatiquement ajoutées en tant que balises à vos journaux. +- Le Datadog Agent peut [collecter des journaux directement depuis stdout/stderr d’un conteneur][1] sans utiliser de pilote de journalisation. Lorsque le contrôle Docker du Datadog Agent est activé, les métadonnées du conteneur et de l'orchestrateur sont automatiquement ajoutées en tant que tags à vos journaux. - Il est possible de recueillir les logs pour l'ensemble de vos conteneurs ou [uniquement ceux d'un sous-ensemble filtré par image, étiquette ou nom de conteneur][2]. @@ -97,7 +103,7 @@ Choisissez un fournisseur de conteneurs ou d'orchestrateurs et suivez les instru {{% tab "Environnement sans serveur" %}} -Utilisez le Datadog Forwarder, une fonction AWS Lambda qui expédie les journaux de votre environnement vers Datadog. Pour activer la collecte de journaux dans votre environnement sans serveur AWS, consultez la [documentation du Datadog Forwarder][1]. +Utilisez le Datadog Forwarder, une fonction AWS Lambda qui expédie les journaux de votre environnement vers Datadog. Pour activer la collecte des journaux dans votre environnement sans serveur AWS, consultez la [documentation du Datadog Forwarder][1]. [1]: /fr/serverless/forwarder {{% /tab %}} @@ -108,14 +114,14 @@ Sélectionnez votre fournisseur de Cloud ci-dessous pour savoir comment recueill {{< partial name="logs/logs-cloud.html" >}} -Les intégrations Datadog et la collecte de journaux sont liées. Vous pouvez utiliser le fichier de configuration par défaut d'une intégration pour activer des [processeurs][1], [analyses][2] et [facettes][3] dédiés dans Datadog. Pour commencer la collecte de journaux avec une intégration : +Les intégrations Datadog et la collecte de journaux sont liées. Vous pouvez utiliser le fichier de configuration par défaut d'une intégration pour activer des [processeurs][1], [analyses][2] et [facettes][3] dans Datadog. Pour commencer la collecte de journaux avec une intégration : -1. Sélectionnez une intégration depuis la [page des intégrations][6] et suivez les instructions de configuration. -2. Suivez les instructions de collecte des journaux de l'intégration. Cette section explique comment décommenter la section des journaux dans le fichier `conf.yaml` de cette intégration et le configurer pour votre environnement. +1. Sélectionnez une intégration sur la [page des intégrations][6] et suivez les instructions de configuration. +2. Suivez les instructions de collecte de journaux de l'intégration. Cette section explique comment décommenter la section des journaux dans le fichier `conf.yaml` de cette intégration et le configurer pour votre environnement. -## Réduire les frais de transfert de données {#reduce-data-transfer-fees} +## Réduisez les frais de transfert de données {#reduce-data-transfer-fees} -Utilisez le [Monitoring Réseau Cloud][7] de Datadog pour identifier les applications à plus haut débit de votre organisation. Connectez-vous à Datadog via des connexions privées prises en charge et envoyez des données sur un réseau privé pour éviter Internet public et réduire vos frais de transfert de données. Après avoir basculé vers des liens privés, utilisez les outils de [Gestion des Coûts Cloud][8] de Datadog pour vérifier l'impact et surveiller la réduction de vos coûts cloud. +Utilisez le [Cloud Network Monitoring][7] de Datadog pour identifier les applications à plus fort débit de votre organisation. Connectez-vous à Datadog via des connexions privées prises en charge et envoyez des données sur un réseau privé pour éviter l'internet public et réduire vos frais de transfert de données. Après être passé aux liens privés, utilisez les outils de [Cloud Cost Management][8] de Datadog pour vérifier l'impact et surveiller la réduction de vos coûts cloud. Pour plus d'informations, consultez [Comment envoyer des logs à Datadog tout en réduisant les frais de transfert de données][9] (en anglais). @@ -136,7 +142,7 @@ Pour plus d'informations, consultez [Comment envoyer des logs à Datadog tout en Si vous développez une intégration d'Agent personnalisée, vous pouvez soumettre des journaux de manière programmatique depuis votre vérification d'Agent en utilisant la méthode `send_log`. Cela permet à votre intégration personnalisée d'émettre des journaux aux côtés des métriques, des événements et des vérifications de service. -Pour apprendre comment soumettre des journaux depuis votre vérification d'Agent personnalisée, consultez [Collecte des Journaux d'Intégration d'Agent][15]. +Pour apprendre comment soumettre des journaux depuis votre vérification d'Agent personnalisée, consultez [Agent Integration Log Collection][15]. [15]: /fr/logs/log_collection/agent_checks/ {{% /tab %}} @@ -146,39 +152,39 @@ Pour apprendre comment soumettre des journaux depuis votre vérification d'Agent ### Points de terminaison de journalisation {#logging-endpoints} -Datadog fournit des points de terminaison de journalisation pour les connexions SSL chiffrées et non chiffrées. Utilisez le point de terminaison chiffré lorsque cela est possible. L'Agent Datadog utilise le point de terminaison chiffré pour envoyer des journaux à Datadog. Plus d'informations sont disponibles dans la [documentation de sécurité de Datadog][6]. +Datadog fournit des points de terminaison de journalisation pour les connexions SSL chiffrées et non chiffrées. Utilisez le point de terminaison chiffré lorsque cela est possible. Le Datadog Agent utilise le point de terminaison chiffré pour envoyer des journaux à Datadog. Plus d'informations sont disponibles dans la [documentation de sécurité de Datadog][6]. -#### Endpoints pris en charge {#supported-endpoints} +#### Points de terminaison pris en charge {#supported-endpoints} Utilisez le menu déroulant situé à droite de la page pour sélectionner votre [site][13] Datadog et afficher les endpoints qu'il prend en charge. | Site | Type | Point de terminaison | Port | Description | |------|-------|----------|------|-------------| | {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=http_endpoint >}} | 443 | Utilisé par le forwarder personnalisé pour envoyer des journaux au format JSON ou texte brut via HTTPS. Consultez la [documentation de l'API HTTP des journaux][16]. | -| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=agent_http_endpoint >}} | 443 | Utilisé par l'Agent pour envoyer des journaux au format JSON via HTTPS. Consultez la [documentation de collecte des journaux de l'Agent Hôte][17]. | +| {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=agent_http_endpoint >}} | 443 | Utilisé par l'Agent pour envoyer des journaux au format JSON via HTTPS. Consultez la [documentation de la collecte des journaux de l'Agent hôte][17]. | | {{< region-param key=dd_datacenter >}} | HTTPS | {{< region-param key=lambda_http_endpoint >}} | 443 | Utilisé par les fonctions Lambda pour envoyer des journaux au format brut, Syslog ou JSON via HTTPS. | -| {{< region-param key=dd_datacenter >}} | HTTPS | logs.{{< region-param key=browser_sdk_endpoint_domain >}} | 443 | Utilisé par le SDK du Navigateur pour envoyer des journaux au format JSON via HTTPS. | +| {{< region-param key=dd_datacenter >}} | HTTPS | logs.{{< region-param key=browser_sdk_endpoint_domain >}} | 443 | Utilisé par le SDK du navigateur pour envoyer des journaux au format JSON via HTTPS. | ### Transfert de journaux personnalisé {#custom-log-forwarding} -Tout processus ou bibliothèque de journalisation personnalisée capable de transférer des journaux via **HTTP** peut être utilisé en conjonction avec Datadog Logs. +Tout processus personnalisé ou bibliothèque de journalisation capable de transférer des journaux via **HTTP** peut être utilisé en conjonction avec Datadog Logs. Vous pouvez envoyer des journaux à la plateforme Datadog via HTTP. Référez-vous à la [documentation de l'API HTTP des journaux Datadog][15] pour commencer. -**Notes** : +**Notes** : -* L'API HTTPS prend en charge des journaux d'une taille allant jusqu'à 1 Mo. Cependant, pour des performances optimales, il est recommandé qu'un journal individuel ne dépasse pas 25 Ko. Si vous utilisez l'Agent Datadog pour la journalisation, il est configuré pour diviser un journal à 900 Ko (900000 octets). +* L'API HTTPS prend en charge des journaux d'une taille allant jusqu'à 1 Mo. Cependant, pour des performances optimales, il est recommandé qu'un journal individuel ne dépasse pas 25 Ko. Si vous utilisez le Datadog Agent pour la journalisation, il est configuré pour diviser un journal à 900 Ko (900000 octets). * Un événement de log ne doit pas avoir plus de 100 tags, et chaque tag ne doit pas dépasser 256 caractères pour un maximum de 10 millions de tags uniques par jour. -* Un événement de journal converti au format JSON doit contenir moins de 256 attributs. Chacune des clés de ces attributs doit comporter moins de 50 caractères, être imbriquée en moins de 20 niveaux successifs, et leur valeur respective doit comporter moins de 1024 caractères si promue en facette. +* Un événement de journal converti au format JSON doit contenir moins de 256 attributs. Chacune des clés de ces attributs doit comporter moins de 50 caractères, être imbriquée en moins de 20 niveaux successifs, et leur valeur respective doit comporter moins de 1024 caractères si promue en tant que facette. * Les événements de log peuvent être envoyés avec un [timestamp][14] jusqu'à 18 h dans le passé.
    -Aperçu disponible : Vous pouvez soumettre des journaux des 7 derniers jours, au lieu de la limite actuelle de 18 heures. Inscrivez-vous pour l'Aperçu. +Aperçu disponible : Vous pouvez soumettre des journaux des 7 derniers jours, au lieu de la limite actuelle de 18 heures. Inscrivez-vous pour l'aperçu.
    -Les événements de journal qui ne respectent pas ces limites peuvent être transformés ou tronqués par le système ou non indexés s'ils sont en dehors de la plage horaire fournie. Cependant, Datadog essaie de préserver autant de données utilisateur que possible. +Les événements de journal qui ne respectent pas ces limites peuvent être transformés ou tronqués par le système ou non indexés s'ils se situent en dehors de la plage horaire fournie. Cependant, Datadog essaie de préserver autant de données utilisateur que possible. -Il existe une troncature supplémentaire dans les champs qui s'applique uniquement aux journaux indexés : la valeur est tronquée à 75 Ko pour le champ message et 25 Ko pour les champs non-message. Datadog stocke toujours le texte complet, et il reste visible dans les requêtes de liste régulières dans l'Explorateur de journaux. Cependant, la version tronquée sera affichée lors de l'exécution d'une requête groupée, comme lors du regroupement des journaux par ce champ tronqué ou lors de l'exécution d'opérations similaires qui affichent ce champ spécifique. +Il existe une troncature supplémentaire dans les champs qui s'applique uniquement aux journaux indexés : la valeur est tronquée à 75 Kio pour le champ message et 25 Kio pour les champs non-message. Datadog stocke toujours le texte complet, et il reste visible dans les requêtes de liste régulières dans le Logs Explorer. Cependant, la version tronquée sera affichée lors de l'exécution d'une requête groupée, comme lors du regroupement des journaux par ce champ tronqué ou lors de l'exécution d'opérations similaires qui affichent ce champ spécifique. {{% collapse-content title="TCP" level="h3" expanded=false %}} @@ -187,22 +193,22 @@ Il existe une troncature supplémentaire dans les champs qui s'applique uniqueme | Site | Type | Point de terminaison | Port | Description | |------|-------------|---------------------------------------------------------------------------|--------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| US | TCP | `agent-intake.logs.datadoghq.com` | 10514 | Utilisé par l'Agent pour envoyer des journaux sans TLS. -| US | TCP et TLS | `agent-intake.logs.datadoghq.com` | 10516 | Utilisé par l'Agent pour envoyer des journaux avec TLS. -| US | TCP et TLS | `intake.logs.datadoghq.com` | 443 | Utilisé par des transmetteurs personnalisés pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | -| US | TCP et TLS | `functions-intake.logs.datadoghq.com` | 443 | Utilisé par les fonctions Azure pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. **Note**: Ce point de terminaison peut être utile avec d'autres fournisseurs de cloud. | -| US | TCP et TLS | `lambda-intake.logs.datadoghq.com` | 443 | Utilisé par les fonctions Lambda pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | -| EU | TCP et TLS | `agent-intake.logs.datadoghq.eu` | 443 | Utilisé par l'Agent pour envoyer des journaux au format protobuf via une connexion TCP chiffrée SSL. | -| EU | TCP et TLS | `functions-intake.logs.datadoghq.eu` | 443 | Utilisé par les fonctions Azure pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. **Note**: Ce point de terminaison peut être utile avec d'autres fournisseurs de cloud. | -| EU | TCP et TLS | `lambda-intake.logs.datadoghq.eu` | 443 | Utilisé par les fonctions Lambda pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | +| US | TCP | `agent-intake.logs.datadoghq.com` | 10514 | Utilisé par le Datadog Agent pour envoyer des journaux sans TLS. +| US | TCP et TLS | `agent-intake.logs.datadoghq.com` | 10516 | Utilisé par le Datadog Agent pour envoyer des journaux avec TLS. +| US | TCP et TLS | `intake.logs.datadoghq.com` | 443 | Utilisé par des forwarders personnalisés pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | +| US | TCP et TLS | `functions-intake.logs.datadoghq.com` | 443 | Utilisé par Azure Functions pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. **Remarque** : Ce point de terminaison peut être utile avec d'autres fournisseurs de cloud. | +| US | TCP et TLS | `lambda-intake.logs.datadoghq.com` | 443 | Utilisé par Lambda Functions pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | +| EU | TCP et TLS | `agent-intake.logs.datadoghq.eu` | 443 | Utilisé par le Datadog Agent pour envoyer des journaux au format protobuf via une connexion TCP chiffrée SSL. | +| EU | TCP et TLS | `functions-intake.logs.datadoghq.eu` | 443 | Utilisé par Azure Functions pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. **Remarque** : Ce point de terminaison peut être utile avec d'autres fournisseurs de cloud. | +| EU | TCP et TLS | `lambda-intake.logs.datadoghq.eu` | 443 | Utilisé par Lambda Functions pour envoyer des journaux au format brut, Syslog ou JSON via une connexion TCP chiffrée SSL. | {{% /collapse-content %}} ### Attributs et étiquettes {#attributes-and-tags} -Les attributs prescrivent [les facettes des journaux][9], qui sont utilisés pour le filtrage et la recherche dans l'Explorateur de journaux. Consultez la documentation dédiée [aux attributs et à l'aliasing][10] pour une liste des attributs réservés et standard et pour apprendre à soutenir une convention de nommage avec les attributs de journaux et l'aliasing. +Les attributs prescrivent [les facettes des journaux][9], qui sont utilisés pour le filtrage et la recherche dans le Log Explorer. Consultez la documentation dédiée [aux attributs et à l'aliasing][10] pour une liste des attributs réservés et standard et pour apprendre à soutenir une convention de nommage avec les attributs de journaux et l'aliasing. -#### Attributs pour les stack traces {#attributes-for-stack-traces} +#### Attributs pour les traces de pile {#attributes-for-stack-traces} Lorsque vous enregistrez des traces de pile, des attributs spécifiques disposent d'un affichage de l'interface utilisateur dédié au sein de votre application Datadog, comme le nom du logger, le thread actuel, le type d'erreur et la trace de pile. @@ -216,17 +222,17 @@ Pour activer ces fonctionnalités, utilisez les noms d'attribut suivants : | `logger.thread_name` | Nom du thread actuel | | `error.stack` | Trace de pile actuelle | | `error.message` | Message d'erreur contenu dans la trace de pile | -| `error.kind` | Le type ou le "genre" d'une erreur (par exemple, "Exception" ou "OSError") | +| `error.kind` | Le type ou "genre" d'une erreur (par exemple, "Exception" ou "OSError") | -**Note** : Par défaut, les pipelines d'intégration tentent de remapper les paramètres de la bibliothèque de journalisation par défaut à ces attributs spécifiques et d'analyser les traces de pile ou les retours en arrière pour extraire automatiquement le `error.message` et le `error.kind`. +**Note** : Par défaut, les pipelines d'intégration tentent de remapper les paramètres de la bibliothèque de logging par défaut sur ces attributs spécifiques et d'analyser les stack traces ou traceback pour extraire automatiquement le `error.message` et `error.kind`. Pour en savoir plus, consultez la [documentation relative aux attributs de code source][11]. -## Étapes suivantes {#next-steps} +## Prochaines étapes {#next-steps} -Une fois les journaux collectés et ingérés, ils sont disponibles dans **Log Explorer**. Log Explorer est l'endroit où vous pouvez rechercher, enrichir et visualiser des alertes sur vos journaux. Consultez la documentation de [Log Explorer][12] pour commencer à analyser vos données de journal, ou consultez la documentation supplémentaire sur la gestion des journaux ci-dessous. +Une fois les journaux collectés et ingérés, ils sont disponibles dans **Log Explorer**. Log Explorer est l'endroit où vous pouvez rechercher, enrichir et visualiser des alertes sur vos journaux. Consultez la documentation de [Log Explorer][12] pour commencer à analyser vos données de journaux, ou consultez la documentation supplémentaire sur la gestion des journaux ci-dessous. -{{< img src="logs/explore.png" alt="Journaux apparaissant dans le Log Explorer" style="width:100%" >}} +{{< img src="logs/explore.png" alt="Journaux apparaissant dans Log Explorer" style="width:100%" >}} ## Lectures supplémentaires {#further-reading} diff --git a/content/fr/logs/log_configuration/parsing.md b/content/fr/logs/log_configuration/parsing.md index d48780852f2..1d413437d41 100644 --- a/content/fr/logs/log_configuration/parsing.md +++ b/content/fr/logs/log_configuration/parsing.md @@ -19,8 +19,8 @@ further_reading: tag: Documentation text: Apprendre à traiter vos logs - link: https://www.youtube.com/watch?v=AwW70AUmaaQ&list=PLdh-RwQzDsaM9Sq_fi-yXuzhmE7nOlqLE&index=3 - tag: Video - text: 'Conseils et astuces Datadog : Utilisez l''analyse Grok pour extraire des + tag: Vidéo + text: 'Conseils et astuces Datadog : Utilisez le parsing Grok pour extraire des champs des journaux' - link: /logs/faq/how-to-investigate-a-log-parsing-issue/ tag: FAQ @@ -31,22 +31,25 @@ further_reading: - link: /logs/logging_without_limits/ tag: Documentation text: Contrôler le volume de logs indexés par Datadog +- link: https://learn.datadoghq.com/courses/debugging-log-pipelines + tag: Centre d'apprentissage + text: Débogage des pipelines de journaux title: Parsing --- -{{< learning-center-callout header="Essayez l'analyse Grok dans le Centre d'apprentissage" btn_title="Enroll Now" btn_url="https://learn.datadoghq.com/courses/log-pipelines">}} - Apprenez à construire et à modifier des pipelines de journaux, à les gérer avec le Scanner de pipelines, et à standardiser les noms d'attributs dans les journaux traités pour garantir la cohérence. +{{< learning-center-callout header="Essayez le parsing Grok dans le Centre d'apprentissage :" btn_title="Inscrivez-vous maintenant" btn_url="https://learn.datadoghq.com/courses/log-pipelines">}} + Apprenez à construire et modifier des pipelines de journaux, à les gérer avec le Pipeline Scanner, et à standardiser les noms d'attributs à travers les journaux traités pour garantir la cohérence. {{< /learning-center-callout >}} ## Aperçu {#overview} -Datadog analyse automatiquement les journaux au format JSON. Pour d'autres formats, Datadog vous permet d'enrichir vos journaux avec l'aide du Parseur Grok. -La syntaxe Grok offre un moyen plus simple d'analyser les journaux que les expressions régulières pures. Le Parseur Grok vous permet d'extraire des attributs de messages texte semi-structurés. +Datadog analyse automatiquement les journaux au format JSON. Pour d'autres formats, Datadog vous permet d'enrichir vos journaux avec l'aide du Parser Grok. +La syntaxe Grok offre un moyen plus simple de parser les journaux que les expressions régulières pures. Le Parser Grok vous permet d'extraire des attributs de messages texte semi-structurés. Grok inclut des modèles réutilisables pour parser des entiers, des adresses IP, des noms de hosts, etc. Ces valeurs doivent être transmises au parser Grok sous forme de chaînes. -Vous pouvez écrire des règles d'analyse avec la syntaxe `%{MATCHER:EXTRACT:FILTER}` : +Vous pouvez écrire des règles de parsing avec la syntaxe `%{MATCHER:EXTRACT:FILTER}` : -* **Matcher** : Une règle (éventuellement une référence à une autre règle de token) qui décrit ce à quoi s'attendre (nombre, mot, nonEspace, etc.). +* **Matcher** : Une règle (éventuellement une référence à une autre règle de token) qui décrit ce à quoi s'attendre (nombre, mot, notSpace, etc.). * **Extraire** (optionnel) : Un identifiant représentant la destination de capture pour le morceau de texte correspondant au *Matcher*. @@ -75,42 +78,59 @@ Une fois le traitement terminé, le log structuré suivant est généré : **Remarque** : -* Si vous avez plusieurs règles d'analyse dans un seul parseur Grok : - * Une seule peut correspondre à un journal donné. La première qui correspond, de haut en bas, est celle qui effectue l'analyse. - * Chaque règle peut référencer des règles d'analyse définies au-dessus d'elle dans la liste. +* Si vous avez plusieurs règles de parsing dans un seul parser Grok : + * Une seule peut correspondre à un journal donné. La première qui correspond, de haut en bas, est celle qui effectue le parsing. + * Chaque règle peut référencer des règles de parsing définies au-dessus d'elle dans la liste. * Les noms des règles au sein d'un même parser Grok doivent être uniques. * Le nom de la règle ne doit contenir que : des caractères alphanumériques, `_`, et `.`. Il doit commencer par un caractère alphanumérique. * Les propriétés avec des valeurs nulles ou vides ne sont pas affichées. * Vous devez définir votre règle de parsing de manière à ce qu'elle corresponde à l'entrée de log dans son intégralité, car chaque règle s'applique du début à la fin du log. -* Certains journaux peuvent produire de grands espaces vides. Utilisez `\n` et `\s+` pour tenir compte des sauts de ligne et des espaces. +* Certains journaux peuvent produire de grands espaces vides. Utilisez `\n` et `\s+` pour tenir compte des nouvelles lignes et des espaces vides. -### Matcher et filtre {#matcher-and-filter} +### Correspondant et filtre {#matcher-and-filter}
    Les fonctionnalités de parsing Grok disponibles au moment de la requête (dans le Log Explorer) prennent en charge un sous-ensemble limité de matchers (données, entier, notSpace, nombre et mot) et de filtres (nombre et entier).

    -L'ensemble complet suivant de matchers et de filtres est spécifique à l'ingestion des fonctionnalités du Grok Parser.
    +L'ensemble complet suivant de correspondants et de filtres est spécifique à l'ingestion de la fonctionnalité du parseur Grok.
    Voici la liste de tous les matchers et de tous les filtres implémentés en natif par Datadog : {{< tabs >}} -{{% tab "Matchers" %}} +{{% tab "Correspondants" %}} -`date("pattern"[, "timezoneId"[, "localeId"]])` -: Correspond à une date avec le modèle spécifié et analyse pour produire un horodatage Unix. [Voir les exemples de matchers de date](#parsing-dates). +**Correspondants de temps de requête et d'ingestion :** -`regex("pattern")` -: Correspond à une expression régulière. [Vérifiez les exemples de matchers regex](#regex). +Les correspondants suivants sont disponibles pour le parsing de temps de requête (Log Explorer) et le parsing de temps d'ingestion (Grok Parser) : + +`word` +: Correspond à un _mot_, qui commence par une frontière de mot ; contient des caractères de a-z, A-Z, 0-9, y compris le `_` (caractère de soulignement) ; et se termine par une frontière de mot. Équivalent à `\b\w+\b` en regex. `notSpace` : Correspond à toute chaîne jusqu'à l'espace suivant. +`number` +: Correspond à un nombre décimal à virgule flottante et l'analyse en tant que nombre à double précision. + +`integer` +: Correspond à un nombre entier et l'analyse en tant que nombre entier. + +`data` +: Correspond à toute chaîne y compris les espaces et les nouvelles lignes. Équivalent à `.*` en regex. Utilisez lorsque aucun des modèles ci-dessus n'est approprié. + +**Correspondants uniquement pour l'ingestion :** + +Les matchers suivants ne sont disponibles que pour le parsing au moment de l'ingestion avec le processeur Grok Parser et ne peuvent pas être utilisés dans le Log Explorer : + +`date("pattern"[, "timezoneId"[, "localeId"]])` +: Correspond à une date avec le motif spécifié et l'analyse pour produire un horodatage Unix. [Voir les exemples de matchers de date](#parsing-dates). + +`regex("pattern")` +: Correspond à une expression régulière. [Consultez les exemples de matchers regex](#regex). + `boolean("truePattern", "falsePattern")` -: Correspond et analyse un booléen, définissant éventuellement les modèles vrai et faux (par défaut `true` et `false`, en ignorant la casse). +: Correspond et analyse un booléen, définissant éventuellement les motifs vrai et faux (par défaut `true` et `false`, en ignorant la casse). `numberStr` -: Correspond à un nombre à virgule flottante décimal et l'analyse en tant que chaîne. - -`number` -: Correspond à un nombre à virgule flottante décimal et l'analyse en tant que nombre à double précision. +: Correspond à un nombre décimal à virgule flottante et l'analyse en tant que chaîne. `numberExtStr` : Correspond à un nombre à virgule flottante (avec prise en charge de la notation scientifique) et l'analyse en tant que chaîne. @@ -121,26 +141,20 @@ Voici la liste de tous les matchers et de tous les filtres implémentés en nati `integerStr` : Correspond à un nombre entier et l'analyse en tant que chaîne. -`integer` -: Correspond à un nombre entier et l'analyse en tant que nombre entier. - `integerExtStr` : Correspond à un nombre entier (avec prise en charge de la notation scientifique) et l'analyse en tant que chaîne. `integerExt` : Correspond à un nombre entier (avec prise en charge de la notation scientifique) et l'analyse en tant que nombre entier. -`word` -: Correspond à un _mot_, qui commence par une frontière de mot ; contient des caractères de a-z, A-Z, 0-9, y compris le `_` (caractère de soulignement) ; et se termine par une frontière de mot. Équivalent à `\b\w+\b` en regex. - `doubleQuotedString` -: Correspond à une chaîne de caractères entre guillemets doubles. +: Correspond à une chaîne entre guillemets doubles. `singleQuotedString` -: Correspond à une chaîne de caractères entre guillemets simples. +: Correspond à une chaîne entre guillemets simples. `quotedString` -: Correspond à une chaîne de caractères entre guillemets doubles ou simples. +: Correspond à une chaîne entre guillemets doubles ou simples. `uuid` : Correspond à un UUID. @@ -155,7 +169,7 @@ Voici la liste de tous les matchers et de tous les filtres implémentés en nati : Correspond à un IPV6. `ip` -: Correspond à une adresse IP (v4 ou v6). +: Correspond à une IP (v4 ou v6). `hostname` : Correspond à un nom d'hôte. @@ -166,18 +180,23 @@ Voici la liste de tous les matchers et de tous les filtres implémentés en nati `port` : Correspond à un numéro de port. -`data` -: Correspond à toute chaîne y compris les espaces et les nouvelles lignes. Équivalent à `.*` en regex. À utiliser lorsque aucun des modèles ci-dessus n'est approprié. - {{% /tab %}} {{% tab "Filtres" %}} +**Filtres de temps de requête et de temps d'ingestion :** + +Les filtres suivants sont disponibles pour le parsing au moment de la requête (Log Explorer) et le parsing au moment de l'ingestion (Grok Parser) : + `number` -: Analyse une correspondance en tant que nombre à double précision. +: Analyse une correspondance en tant que nombre à virgule flottante double précision. `integer` : Analyse une correspondance en tant que nombre entier. +**Filtres uniquement pour le temps d'ingestion :** + +Les filtres suivants ne sont disponibles que pour le parsing au moment de l'ingestion avec le processeur Grok Parser et ne peuvent pas être utilisés dans le Log Explorer : + `boolean` : Analyse les chaînes 'true' et 'false' en tant que booléens en ignorant la casse. @@ -191,7 +210,7 @@ Voici la liste de tous les matchers et de tous les filtres implémentés en nati : Analyse un hash Ruby correctement formaté tel que `{name => "John", "job" => {"company" => "Big Company", "title" => "CTO"}}` `useragent([decodeuricomponent:true/false])` -: Analyse un agent utilisateur et renvoie un objet JSON contenant l'appareil, le système d'exploitation et le navigateur représentés par l'agent. [Vérifiez le processeur d'agent utilisateur][1]. +: Analyse un user-agent et renvoie un objet JSON contenant l'appareil, le système d'exploitation et le navigateur représenté par l'Agent. [Vérifiez le processeur User Agent][1]. `querystring` : Extrait toutes les paires clé-valeur dans une chaîne de requête d'URL correspondante (par exemple, `?productId=superproduct&promotionCode=superpromo`). @@ -206,33 +225,33 @@ Voici la liste de tous les matchers et de tous les filtres implémentés en nati : Renvoie la chaîne en majuscules. `keyvalue([separatorStr[, characterAllowList[, quotingStr[, delimiter]]]])` -: Extrait le motif de valeur clé et renvoie un objet JSON. Voir les [exemples de filtre clé-valeur](#key-value-or-logfmt). +: Extrait le motif clé-valeur et renvoie un objet JSON. Voir les [exemples de filtres clé-valeur](#key-value-or-logfmt). `xml` -: Analyse un XML correctement formaté. Voir les [exemples de filtre XML](#parsing-xml). +: Analyse un XML correctement formaté. Voir les [exemples de filtres XML](#parsing-xml). `csv(headers[, separator[, quotingcharacter]])` -: Analyse des lignes CSV ou TSV correctement formatées. Voir les [exemples de filtre CSV](#parsing-csv). +: Analyse correctement les lignes CSV ou TSV formatées. Voir les [exemples de filtres CSV](#parsing-csv). `scale(factor)` : Multiplie la valeur numérique attendue par le facteur fourni. `array([[openCloseStr, ] separator][, subRuleOrFilter)` -: Analyse une séquence de chaînes de jetons et la renvoie sous forme de tableau. Voir l'exemple [liste à tableau](#list-to-array). +: Analyse une séquence de chaînes de caractères et la renvoie sous forme de tableau. Voir l'exemple de [liste à tableau](#list-to-array). `url` : Analyse une URL et renvoie tous les membres tokenisés (domaine, paramètres de requête, port, etc.) dans un objet JSON. [Plus d'infos sur la façon d'analyser les URL][2]. -[1]: /fr/logs/log_configuration/processors/#user-agent-parser -[2]: /fr/logs/log_configuration/processors/#url-parser +[1]: /fr/logs/log_configuration/processors/user_agent_parser/ +[2]: /fr/logs/log_configuration/processors/url_parser/ {{% /tab %}} {{< /tabs >}} ## Paramètres avancés {#advanced-settings} -Utilisez la section **Paramètres avancés** en bas de votre processeur Grok pour analyser un attribut spécifique au lieu de l'attribut par défaut `message`, ou pour définir des règles d'aide qui réutilisent des motifs communs à travers plusieurs règles d'analyse. +Utilisez la section **Paramètres avancés** en bas de votre processeur Grok pour analyser un attribut spécifique au lieu de l'attribut par défaut `message`, ou pour définir des règles d'aide qui réutilisent des modèles communs à travers plusieurs règles d'analyse. -### Parsing d'un attribut spécifique {#parsing-a-specific-text-attribute} +### Analyse d'un attribut de texte spécifique {#parsing-a-specific-text-attribute} Utilisez le champ **Extraire de** pour appliquer votre processeur Grok sur un attribut de texte donné au lieu de l'attribut par défaut `message`. @@ -242,7 +261,7 @@ Par exemple, considérez un journal contenant un attribut `command.line` qui doi ### Utilisation de règles d'aide pour réutiliser des modèles communs {#using-helper-rules-to-reuse-common-patterns} -Utilisez le champ **Règles d'aide** pour définir des jetons pour vos règles d'analyse. Les règles d'aide vous permettent de réutiliser des modèles Grok communs dans vos règles d'analyse. Ceci est utile lorsque vous avez plusieurs règles dans le même analyseur Grok qui utilisent les mêmes jetons. +Utilisez le champ **Règles d'aide** pour définir des tokens pour vos règles d'analyse. Les règles d'aide vous permettent de réutiliser des modèles Grok communs à travers vos règles d'analyse. Ceci est utile lorsque vous avez plusieurs règles dans le même analyseur Grok qui utilisent les mêmes tokens. Exemple d'un log non structuré standard : @@ -275,7 +294,7 @@ Voici des exemples d'utilisation des parsers : * [JSON imbriqué](#nested-json) * [Regex](#regex) * [Listes et tableaux](#list-to-array) -* [Format Glog](#glog-format) +* [ Format Glog](#glog-format) * [XML](#parsing-xml) * [CSV](#parsing-csv) @@ -283,12 +302,12 @@ Voici des exemples d'utilisation des parsers : Ceci est le filtre de base clé-valeur : `keyvalue([separatorStr[, characterAllowList[, quotingStr[, delimiter]]]])` où : -* `separatorStr` : définit le séparateur entre les clés et les valeurs. Par défaut, c'est `=`. -* `characterAllowList` : définit des caractères de valeur supplémentaires non échappés en plus de la valeur par défaut `\\w.\\-_@`. Utilisé uniquement pour les valeurs non citées (par exemple, `key=@valueStr`). -* `quotingStr` : définit les guillemets, remplaçant la détection par défaut des guillemets : `<>`, `""`, `''`. -* `delimiter` : définit le séparateur entre les différentes paires de valeurs clés (par exemple, `|` est le délimiteur dans `key1=value1|key2=value2`). Par défaut, c'est ` ` (espace normal), `,` et `;`. +: définit le séparateur entre les clés et les valeurs. Par défaut, c'est `=`. +: définit des caractères de valeur supplémentaires non échappés en plus de la valeur par défaut `\\w.\\-_@`. Utilisé uniquement pour les valeurs non citées (par exemple, `key=@valueStr`). +* `quotingStr`: définit les guillemets, remplaçant la détection par défaut des guillemets : `<>`, `""`, `''`. +* `delimiter`: définit le séparateur entre les différentes paires clé-valeur (par exemple, `|` est le délimiteur dans `key1=value1|key2=value2`). Par défaut, c'est ` ` (espace normal), `,` et `;`. -Utilisez des filtres tels que **keyvalue** pour mapper plus facilement des chaînes à des attributs pour les formats keyvalue ou logfmt : +Utilisez des filtres tels que **keyvalue** pour mapper plus facilement des chaînes à des attributs pour les formats clé-valeur ou logfmt : **Journal :** @@ -303,7 +322,7 @@ rule %{data::keyvalue} ``` Vous n'avez pas besoin de spécifier le nom de vos paramètres car ils sont déjà contenus dans le journal. -Si vous ajoutez un attribut **extract** `my_attribute` dans votre modèle de règle, vous verrez : +Si vous ajoutez un attribut **extrait** `my_attribute` dans votre modèle de règle, vous verrez : ```json { @@ -315,7 +334,7 @@ Si vous ajoutez un attribut **extract** `my_attribute` dans votre modèle de rè } ``` -Si `=` n'est pas le séparateur par défaut entre vos clés et vos valeurs, ajoutez un paramètre dans votre règle d'analyse avec un séparateur. +Si `=` n'est pas le séparateur par défaut entre vos clés et valeurs, ajoutez un paramètre dans votre règle d'analyse avec un séparateur. **Journal :** @@ -329,7 +348,7 @@ user: john connect_date: 11/08/2017 id: 123 action: click rule %{data::keyvalue(": ")} ``` -Si les journaux contiennent des caractères spéciaux dans une valeur d'attribut, comme `/` dans une URL par exemple, ajoutez-le à la liste blanche dans la règle d'analyse : +Si les journaux contiennent des caractères spéciaux dans une valeur d'attribut, comme `/` dans une URL par exemple, ajoutez-le à la allowlist dans la règle d'analyse : **Journal :** @@ -347,20 +366,20 @@ Autres exemples : | **Chaîne brute** | **Règle d'analyse** | **Résultat** | |:-----------------------------|:------------------------------------------------------|:--------------------------------------| -| key=valueStr | `%{data::keyvalue}` | {"key": "valueStr"} | -| key=\ | `%{data::keyvalue}` | {"key": "valueStr"} | +| clé=valueStr | `%{data::keyvalue}` | {"key": "valueStr"} | +| clé=\ | `%{data::keyvalue}` | {"key": "valueStr"} | | "key"="valueStr" | `%{data::keyvalue}` | {"key": "valueStr"} | -| key:valueStr | `%{data::keyvalue(":")}` | {"key": "valueStr"} | -| key:"/valueStr" | `%{data::keyvalue(":", "/")}` | {"key": "/valueStr"} | -| /key:/valueStr | `%{data::keyvalue(":", "/")}` | {"/key": "/valueStr"} | -| key:={valueStr} | `%{data::keyvalue(":=", "", "{}")}` | {"key": "valueStr"} | -| key1=value1\|key2=value2 | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | -| key1="value1"\|key2="value2" | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | - -**Exemple de chaîne de citation multiple**: Lorsque plusieurs chaînes de citation sont définies, le comportement par défaut est remplacé par un caractère de citation défini. +| clé:valueStr | `%{data::keyvalue(":")}` | {"key": "valueStr"} | +| clé:"/valueStr" | `%{data::keyvalue(":", "/")}` | {"key": "/valueStr"} | +| /clé:/valueStr | `%{data::keyvalue(":", "/")}` | {"/key": "/valueStr"} | +| clé:={valueStr} | `%{data::keyvalue(":=", "", "{}")}` | {"key": "valueStr"} | +| clé1=value1\|clé2=value2 | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | +| clé1="value1"\|clé2="value2" | %{data::keyvalue("=", "", "", "|")} | {"key1": "value1", "key2": "value2"} | + +**Exemple de chaîne de citation multiple** : Lorsque plusieurs chaînes de citation sont définies, le comportement par défaut est remplacé par un caractère de citation défini. La clé-valeur correspond toujours aux entrées sans aucun caractère de citation, peu importe ce qui est spécifié dans `quotingStr`. Lorsque des caractères de citation sont utilisés, le `characterAllowList` est ignoré car tout ce qui se trouve entre les caractères de citation est extrait. -**Journal:** +**Journal :** ```text key1:=valueStr key2:= key3:="valueStr3" @@ -372,7 +391,7 @@ La clé-valeur correspond toujours aux entrées sans aucun caractère de citatio rule %{data::keyvalue(":=","","<>")} ``` -**Résultat:** +**Résultat :** ```json {"key1": "valueStr", "key2": "/valueStr2"} @@ -381,42 +400,42 @@ La clé-valeur correspond toujours aux entrées sans aucun caractère de citatio **Remarque** : * Les valeurs vides (`key=`) ou `null` valeurs (`key=null`) ne sont pas affichées dans le JSON de sortie. -* Si vous définissez un filtre *clévaleur* sur un `data` objet, et que ce filtre n'est pas respecté, alors un JSON vide `{}` est retourné (par exemple, entrée : `key:=valueStr`, règle d'analyse : `rule_test %{data::keyvalue("=")}`, sortie : `{}`). +* Si vous définissez un filtre *keyvalue* sur un objet `data`, et que ce filtre n'est pas satisfait, alors un JSON vide `{}` est retourné (par exemple, entrée : `key:=valueStr`, règle d'analyse : `rule_test %{data::keyvalue("=")}`, sortie : `{}`). * Définir `""` comme `quotingStr` conserve la configuration par défaut pour la citation. -### Parsing de dates {#parsing-dates} +### Analyse des dates {#parsing-dates} -Le correspondance de date transforme votre horodatage au format EPOCH (unité de mesure **milliseconde**). +Le comparateur de dates transforme votre horodatage au format EPOCH (unité de mesure **millisecondes**). | **Chaîne brute** | **Règle d'analyse** | **Résultat** | |:-------------------------------------|:----------------------------------------------------------|:------------------------| | 14:20:15 | `%{date("HH:mm:ss"):date}` | {"date": 51615000} | | 02:20:15 PM | `%{date("hh:mm:ss a"):date}` | {"date": 51615000} | | 11/10/2014 | `%{date("dd/MM/yyyy"):date}` | {"date": 1412978400000} | -| Jeu Jun 16 08:29:03 2016 | `%{date("EEE MMM dd HH:mm:ss yyyy"):date}` | {"date": 1466065743000} | -| Mar Nov 1 08:29:03 2016 | `%{date("EEE MMM d HH:mm:ss yyyy"):date}` | {"date": 1466065743000} | +| Jeu 16 Juin 08:29:03 2016 | `%{date("EEE MMM dd HH:mm:ss yyyy"):date}` | {"date": 1466065743000} | +| Mar 1 novembre 08:29:03 2016 | `%{date("EEE MMM d HH:mm:ss yyyy"):date}` | {"date": 1466065743000} | | 06/Mar/2013:01:36:30 +0900 | `%{date("dd/MMM/yyyy:HH:mm:ss Z"):date}` | {"date": 1362501390000} | | 2016-11-29T16:21:36.431+0000 | `%{date("yyyy-MM-dd'T'HH:mm:ss.SSSZ"):date}` | {"date": 1480436496431} | | 2016-11-29T16:21:36.431+00:00 | `%{date("yyyy-MM-dd'T'HH:mm:ss.SSSZZ"):date}` | {"date": 1480436496431} | -| 06/Fév/2009:12:14:14.655 | `%{date("dd/MMM/yyyy:HH:mm:ss.SSS"):date}` | {"date": 1233922454655} | +| 06/Feb/2009:12:14:14.655 | `%{date("dd/MMM/yyyy:HH:mm:ss.SSS"):date}` | {"date": 1233922454655} | | 2007-08-31 19:22:22.427 ADT | `%{date("yyyy-MM-dd HH:mm:ss.SSS z"):date}` | {"date": 1188598942427} | -| Jeu Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","Europe/Paris"):date}` | {"date": 1466058543000} | -| Jeu Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","UTC+5"):date}` | {"date": 1466047743000} | -| Jeu Jun 16 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","+3"):date}` | {"date": 1466054943000} | +| Jeu 16 Juin 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","Europe/Paris"):date}` | {"date": 1466058543000} | +| Jeu 16 Juin 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","UTC+5"):date}` | {"date": 1466047743000} | +| Jeu 16 Juin 08:29:03 20161 | `%{date("EEE MMM dd HH:mm:ss yyyy","+3"):date}` | {"date": 1466054943000} | -1 Utilisez le `timezone` paramètre si vous effectuez vos propres localisations et que vos horodatages ne sont _pas_ en UTC. -Le format pris en charge pour les fuseaux horaires est : +1 Utilisez le paramètre `timezone` si vous effectuez vos propres localisations et que vos horodatages ne sont _pas_ en UTC. +Les formats pris en charge pour les fuseaux horaires sont : * `GMT`, `UTC`, `UT` ou `Z` -* `+hh:mm`, `-hh:mm`, `+hhmm`, `-hhmm`. La plage maximale prise en charge est de +18:00 à -18:00 inclusivement. -* Les fuseaux horaires commençant par `UTC+`, `UTC-`, `GMT+`, `GMT-`, `UT+` ou `UT-`. La plage maximale prise en charge est de +18:00 à -18:00 inclusivement. -* Les identifiants de fuseaux horaires extraits de la base de données TZ. Pour plus d'informations, voir [noms de la base de données TZ][2]. +* `+hh:mm`, `-hh:mm`, `+hhmm`, `-hhmm`. La plage maximale prise en charge est de +18:00 à -18:00 inclus. +* Les fuseaux horaires commençant par `UTC+`, `UTC-`, `GMT+`, `GMT-`, `UT+` ou `UT-`. La plage maximale prise en charge est de +18:00 à -18:00 inclus. +* Identifiants de fuseaux horaires extraits de la base de données TZ. Pour plus d'informations, voir [noms de la base de données TZ][2]. **Remarque** : L'analyse d'une date **ne** définit pas sa valeur comme la date officielle du journal. Pour cela, utilisez le [Remappeur de date de journal][3] dans un processeur ultérieur. -### Modèle avec alternative {#alternating-pattern} +### Modèle alternatif {#alternating-pattern} -Si vous avez des journaux avec deux formats possibles qui diffèrent par un seul attribut, définissez une règle unique en alternant avec `(|)`. Cette règle est équivalente à un OU booléen. +Si vous avez des journaux avec deux formats possibles qui diffèrent par un seul attribut, définissez une règle unique en utilisant l'alternance avec `(|)`. Cette règle est équivalente à un OU booléen. **Journal** : @@ -426,7 +445,7 @@ john connected on 11/08/2017 ``` **Règle** : -Notez que "id" est un entier et non une chaîne de caractères. +Notez que "id" est un entier et non une chaîne. ```text MyParsingRule (%{integer:user.id}|%{word:user.firstname}) connected on %{date("MM/dd/yyyy"):connect_date} @@ -456,7 +475,7 @@ MyParsingRule (%{integer:user.id}|%{word:user.firstname}) connected on %{date("M ### Attribut optionnel {#optional-attribute} -Certains journaux contiennent des valeurs qui n'apparaissent qu'une partie du temps. Dans ce cas, rendez l'extraction d'attributs optionnelle avec `()?`. +Certains journaux contiennent des valeurs qui n'apparaissent qu'occasionnellement. Dans ce cas, rendez l'extraction d'attributs optionnelle avec `()?`. **Journal** : @@ -471,7 +490,7 @@ john connected on 11/08/2017 MyParsingRule %{word:user.firstname} (%{integer:user.id} )?connected on %{date("MM/dd/yyyy"):connect_date} ``` -**Note** : Une règle ne correspondra pas si vous incluez un espace après le premier mot dans la section optionnelle. +**Remarque** : Une règle ne correspondra pas si vous incluez un espace après le premier mot dans la section optionnelle. **Résultat** :
    `(%{integer:user.id} )?` @@ -600,7 +619,7 @@ myParsingRule Users %{data:users:array("{}","-", uppercase)} have been added to ### Format Glog {#glog-format} -Les composants Kubernetes enregistrent parfois au format `glog` ; cet exemple provient de l'élément Kube Scheduler dans la bibliothèque Pipeline. +Les composants Kubernetes enregistrent parfois dans le format `glog` ; cet exemple provient de l'élément Kube Scheduler dans la Pipeline Library. Exemple de ligne de log : @@ -649,7 +668,7 @@ Le parser de XML permet de transformer des messages au format XML en JSON. rule %{data::xml} ``` -**Résultat:** +**Résultat :** ```json { @@ -665,25 +684,25 @@ rule %{data::xml} } ``` -**Notes** : +**Remarques** : -* Si le XML contient des balises ayant à la fois un attribut et une valeur de chaîne entre les deux balises, un attribut `value` est généré. Par exemple : `Harry Potter` est converti en `{"title": {"lang": "en", "value": "Harry Potter" } }` +* Si le XML contient des balises qui ont à la fois un attribut et une valeur de chaîne entre les deux balises, un attribut `value` est généré. Par exemple : `Harry Potter` est converti en `{"title": {"lang": "en", "value": "Harry Potter" } }` * Les balises répétées sont automatiquement converties en tableaux. Par exemple : `Harry PotterEveryday Italian` est converti en `{ "bookstore": { "book": [ "Harry Potter", "Everyday Italian" ] } }` -### Analyse CSV {#parsing-csv} +### Analyse de CSV {#parsing-csv} Utilisez le filtre **CSV** pour mapper plus facilement les chaînes aux attributs lorsqu'elles sont séparées par un caractère donné (`,` par défaut). Le filtre CSV est défini comme `csv(headers[, separator[, quotingcharacter]])` où : -* `headers` : Définit les noms des clés séparés par `,`. Les noms des clés doivent commencer par un caractère alphabétique et peuvent contenir tout caractère alphanumérique en plus de `_`. -* `separator` : Définit les séparateurs utilisés pour séparer les différentes valeurs. Un seul caractère est accepté. Par défaut : `,`. **Note** : Utilisez `tab` pour le `separator` afin de représenter le caractère de tabulation pour les TSV. -* `quotingcharacter` : Définit le caractère de citation. Un seul caractère est accepté. Par défaut : `"` +* `headers` : Définit les noms des clés séparés par `,`. Les noms des clés doivent commencer par un caractère alphabétique et peuvent contenir tout caractère alphanumérique en plus de `_`. +* `separator` : Définit les séparateurs utilisés pour séparer les différentes valeurs. Un seul caractère est accepté. Par défaut : `,`. **Remarque** : Utilisez `tab` pour le `separator` afin de représenter le caractère de tabulation pour les TSV. +* `quotingcharacter` : Définit le caractère de citation. Un seul caractère est accepté. Par défaut : `"` -**Note** : +**Remarque** : -* Les valeurs contenant un caractère séparateur doivent être citées. -* Les valeurs citées contenant un caractère de citation doivent être échappées avec des caractères de citation. Par exemple, `""` dans une valeur citée représente `"`. +* Les valeurs contenant un caractère séparateur doivent être encadrées de guillemets. +* Les valeurs entre guillemets contenant un caractère de citation doivent être échappées avec un caractère de citation. Par exemple, `""` dans une valeur entre guillemets représente `"`. * Si le log ne contient pas le même nombre de valeurs que le nombre de clés dans l'en-tête, le parser CSV se limitera aux premières. * Les entiers et les doubles sont automatiquement convertis si possible. @@ -699,7 +718,7 @@ John,Doe,120,Jefferson St.,Riverside myParsingRule %{data:user:csv("first_name,name,st_nb,st_name,city")} {{< /code-block >}} -**Résultat:** +**Résultat :** {{< code-block lang="json" >}} { @@ -717,20 +736,20 @@ Autres exemples : | **Chaîne brute** | **Règle d'analyse** | **Résultat** | |:-----------------------------|:-------------------------------------------------------------------------|:------------------------------------------------| -| `John,Doe` | `%{data::csv("firstname,name")}` | {"prenom": "John", "nom":"Doe"} | -| `"John ""Da Man""",Doe` | `%{data::csv("firstname,name")}` | {"prenom": "John \"Da Man\"", "nom":"Doe"} | -| `'John ''Da Man''',Doe` | `%{data::csv("firstname,name",",","'")}` | {"prenom": "John 'Da Man'", "nom":"Doe"} | -| John|Doe | %{data::csv("prenom,nom","|")} | {"prenom": "John", "nom":"Doe"} | -| `value1,value2,value3` | `%{data::csv("key1,key2")}` | {"cle1": "valeur1", "cle2":"valeur2"} | -| `value1,value2` | `%{data::csv("key1,key2,key3")}` | {"cle1": "valeur1", "cle2":"valeur2"} | -| `value1,,value3` | `%{data::csv("key1,key2,key3")}` | {"cle1": "valeur1", "cle3":"valeur3"} | -| Valeur1    Valeur2    Valeur3 (TSV) | `%{data::csv("key1,key2,key3","tab")}` | {"cle1": "valeur1", "cle2": "valeur2", "cle3":"valeur3"} | +| `John,Doe` | `%{data::csv("firstname,name")}` | {"firstname": "John", "name":"Doe"} | +| `"John ""Da Man""",Doe` | `%{data::csv("firstname,name")}` | {"firstname": "John \"Da Man\"", "name":"Doe"} | +| `'John ''Da Man''',Doe` | `%{data::csv("firstname,name",",","'")}` | {"firstname": "John 'Da Man'", "name":"Doe"} | +| John|Doe | %{data::csv("firstname,name","|")} | {"firstname": "John", "name":"Doe"} | +| `value1,value2,value3` | `%{data::csv("key1,key2")}` | {"key1": "value1", "key2":"value2"} | +| `value1,value2` | `%{data::csv("key1,key2,key3")}` | {"key1": "value1", "key2":"value2"} | +| `value1,,value3` | `%{data::csv("key1,key2,key3")}` | {"key1": "value1", "key3":"value3"} | +| Valeur1    Valeur2    Valeur3 (TSV) | `%{data::csv("key1,key2,key3","tab")}` | {"key1": "value1", "key2": "value2", "key3":"value3"} | -### Utilisez le filtre de données pour éliminer le texte inutile {#use-data-matcher-to-discard-unneeded-text} +### Utilisez le data matcher pour éliminer le texte inutile {#use-data-matcher-to-discard-unneeded-text} -Si vous avez un journal où, après avoir analysé ce qui est nécessaire et que vous savez que le texte après ce point peut être éliminé, vous pouvez utiliser le filtre de données pour le faire. Pour l'exemple de journal suivant, vous pouvez utiliser le `data` filtre pour éliminer le `%` à la fin. +Si vous avez un journal dans lequel, après avoir extrait l'essentiel, vous savez que le texte suivant peut être supprimé, vous pouvez utiliser le data matcher pour ce faire. Pour l'exemple de journal suivant, vous pouvez utiliser le `data` matcher pour éliminer le `%` à la fin. -**Journal** : +**Journal**: ``` Usage: 24.3% @@ -755,11 +774,11 @@ MyParsingRule Usage\:\s+%{number:usage}%{data:ignore} Si vos journaux contiennent des caractères de contrôle ASCII, ils sont sérialisés lors de l'ingestion. Ceci peut être géré en échappant explicitement la valeur sérialisée dans votre analyseur grok. -## Pour aller plus loin {#further-reading} +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} [1]: https://github.com/google/re2/wiki/Syntax [2]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones -[3]: /fr/logs/log_configuration/processors/#log-date-remapper +[3]: /fr/logs/log_configuration/processors/log_date_remapper/ [4]: /fr/logs/log_configuration/parsing/?tab=filters&tabs=filters#matcher-and-filter \ No newline at end of file diff --git a/content/fr/metrics/advanced-filtering.md b/content/fr/metrics/advanced-filtering.md index 4c7f0f0ce26..be243f3489d 100644 --- a/content/fr/metrics/advanced-filtering.md +++ b/content/fr/metrics/advanced-filtering.md @@ -1,6 +1,9 @@ --- description: Filtrez vos données afin de restreindre le contexte des métriques renvoyées. further_reading: +- link: /getting_started/search/ + tag: Documentation + text: Prise en main de la recherche dans Datadog - link: /metrics/explorer/ tag: Documentation text: Metrics Explorer @@ -18,16 +21,15 @@ further_reading: text: Fonctions d'exclusion title: Filtrage avancé --- +## Aperçu {#overview} -## Présentation - -Lorsque vous utilisez des monitors, des dashboards ou le Metrics Explorer pour interroger les données de vos métriques, vous pouvez filtrer les données afin d'affiner le contexte des séries temporelles renvoyées. Il est possible de filtrer toutes les métriques en fonction d'un ou de plusieurs tags. Pour ce faire, utilisez le champ **from** situé à droite de la métrique. +Lorsque vous utilisez l'Explorateur de métriques, les moniteurs ou les tableaux de bord pour interroger les données de métriques, vous pouvez filtrer les données pour restreindre la portée des séries temporelles retournées. Toute métrique peut être filtrée par tag(s) en utilisant le champ **de** à droite de la métrique. -Vous pouvez également appliquer un filtrage avancé à l'aide de filtres de valeur de tag basés sur des booléens ou des wildcards. Pour les requêtes qui ne s'appliquent pas aux données de métriques, telles que les requêtes de logs, de traces, Network Monitoring, Real User Monitoring, Synthetics ou Security, consultez la documentation dédiée à la [syntaxe de recherche de logs][1]. +Vous pouvez également appliquer un filtrage avancé à l'aide de filtres de valeur de tag basés sur des booléens ou des wildcards. Pour les requêtes en dehors des données de métriques telles que les journaux, les traces, la surveillance réseau, la surveillance des utilisateurs réels, les synthétiques ou la sécurité, consultez la documentation [Syntaxe de recherche de journaux][1] pour la configuration. -## Requêtes avec des filtres basés sur des booléens +## Requêtes filtrées booléennes {#boolean-filtered-queries} -Vous pouvez utiliser la syntaxe suivante pour générer des requêtes de métrique avec des filtres basés sur des booléens : +Vous pouvez utiliser la syntaxe suivante pour générer des requêtes de métrique avec des filtres basés sur des booléens : - `!` - `,` @@ -38,66 +40,73 @@ Vous pouvez utiliser la syntaxe suivante pour générer des requêtes de métriq - `NOT IN`, `not in` Lorsque vous souhaitez inclure ou exclure plusieurs tags : -* la fonction Include utilise la logique `AND` ; -* la fonction Exclude utilise la logique `OR`. +* Include utilise la logique `AND` +* Exclude utilise la logique `OR` Pour en savoir plus sur les tags, consultez le guide [Débuter avec les tags][2]. -**Remarque :** il n'est pas possible de combiner des symboles booléens (`!`, `,`) avec des opérateurs fonctionnels (`NOT`, `AND`, `OR`, `IN`, `NOT IN`). La requête suivante est considérée comme _non valide_ : +**Remarque:** La syntaxe booléenne symbolique (`!`, `,`) ne peut pas être utilisée avec les opérateurs de syntaxe fonctionnelle (`NOT`, `AND`, `OR`, `IN`, `NOT IN`). La requête suivante est considérée comme _invalide_ : `avg:mymetric{env:prod AND !region:us-east}` -### Exemples de requête avec un filtre basé sur des booléens +### Exemples de requêtes filtrées booléennes {#boolean-filtered-query-examples} -Pour utiliser les exemples ci-dessous, cliquez sur l'icône de code `` pour afficher l'éditeur de requête dans l'interface utilisateur, puis copiez et collez l'exemple de requête dans l'éditeur de requête. +Pour utiliser les exemples ci-dessous, cliquez sur l'icône de code `` pour voir l'éditeur de requêtes dans l'interface utilisateur, puis copiez et collez l'exemple de requête dans l'éditeur de requêtes. ``` avg:system.cpu.user{env:staging AND (availability-zone:us-east-1a OR availability-zone:us-east-1c)} by {availability-zone} ``` -{{< img src="metrics/advanced-filtering/graph_editor_code_option.mp4" alt="Cliquez sur l'icône de code pour visualiser la requête brute" video=true >}} +{{< img src="metrics/advanced-filtering/graph_editor_code_option.mp4" alt="Cliquez sur l'icône de code pour voir la requête brute" video=true >}} ``` avg:system.cpu.user{env:shop.ist AND availability-zone IN (us-east-1a, us-east-1b, us-east4-b)} by {availability-zone} ``` -{{< img src="metrics/advanced-filtering/boolean_and_in.png" alt="Exemple de booléen AND IN" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/boolean_and_in.png" alt="Exemple booléen ET DANS" style="width:100%;" >}} + ``` avg:system.cpu.user{env:prod AND location NOT IN (atlanta,seattle,las-vegas)} ``` -{{< img src="metrics/advanced-filtering/boolean_not_in.png" alt="Exemple de booléen NOT IN" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/boolean_not_in.png" alt="Exemple booléen PAS DANS" style="width:100%;" >}} -## Requêtes avec des filtres basés sur des wildcards +## Requêtes filtrées par joker {#wildcard-filtered-queries} -Vous pouvez utiliser un wildcard afin d'inclure plusieurs valeurs de préfixe et de suffixe pour vos tags : +Les tags peuvent être filtrés en utilisant un wildcard comme préfixe, suffixe ou sous-chaîne : - `pod_name: web-*` - `cluster:*-trace` +- `node:*-prod-*` -**Remarque** : il n'est pas possible d'utiliser un wildcard afin d'inclure plusieurs valeurs de préfixe et de suffixe. - -### Exemple de requêtes avec un filtre basé sur un wildcard +### Exemples de requêtes filtrées par joker {#wildcard-filtered-query-examples} ``` avg:system.disk.in_use{!device:/dev/loop*} by {device} ``` -{{< img src="metrics/advanced-filtering/wildcard_suffix.png" alt="Wildcard utilisé comme suffixe" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/wildcard_suffix_example.png" alt="Joker utilisé comme suffixe" style="width:100%;" >}} + ``` sum:kubernetes.pods.running{service:*-canary} by {service} ``` -{{< img src="metrics/advanced-filtering/wildcard_prefix.png" alt="Wildcard utilisé comme préfixe" style="width:100%;" >}} +{{< img src="metrics/advanced-filtering/wildcard_prefix_example.png" alt="Joker utilisé comme préfixe" style="width:100%;" >}} + +``` +avg:system.disk.utilized{region:*east*} by {region} +``` + +{{< img src="metrics/advanced-filtering/wildcard_infix.png" alt="Joker utilisé comme infixe" style="width:100%;" >}} -## Fonctions d'exclusion +## Fonctions d'exclusion {#exclusion-functions} -Ajoutez une [fonction d'exclusion][3] à votre requête pour : -- Exclure les valeurs N/A (sans objet). +Ajoutez une [fonction d'exclusion][3] à votre requête pour : +- Exclude les valeurs N/A. - Appliquer une valeur minimale ou maximale aux métriques qui atteignent le seuil. - Exclure les valeurs supérieures ou inférieures aux valeurs seuils. Les fonctions suppriment les points de données de vos visualisations, mais pas de Datadog. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/metrics/types.md b/content/fr/metrics/types.md index 929cde1480d..550c0fbf5f7 100644 --- a/content/fr/metrics/types.md +++ b/content/fr/metrics/types.md @@ -13,32 +13,31 @@ aliases: - /fr/developers/metrics/metrics_type/ - /fr/developers/metrics/types/ further_reading: -- link: developers/dogstatsd +- link: extend/dogstatsd tag: Documentation text: En savoir plus sur DogStatsD - link: /metrics/units tag: Documentation - text: Unités de métriques -- link: developers/libraries + text: Unités des métriques +- link: extend/libraries tag: Documentation text: Bibliothèques client de Datadog et sa communauté pour DogStatsD et les API title: Types de métriques --- +## Aperçu {#overview} -## Section Overview +Chaque métrique soumise à Datadog doit avoir un type. Le type d'une métrique influe sur l'affichage des valeurs lorsqu'elles sont interrogées, ainsi que sur les possibilités de représentation graphique associées dans Datadog en utilisant des [modificateurs][1] et des [fonctions][2]. Le type d'une métrique est affiché dans le panneau latéral des détails pour la métrique donnée sur la [page Résumé des métriques][3]. -Chaque métrique envoyée à Datadog doit posséder un type. Le type d'une métrique définit l'affichage des valeurs de la métrique renvoyées, ainsi que les fonctionnalités graphiques associées reposant sur des [modificateurs][1] et des [fonctions][2] supplémentaires dans Datadog. Le type d'une métrique figure dans le volet latéral des détails de votre métrique sur la page [Metrics Summary][3]. +**Remarque** : Changer le type de métrique dans ce panneau latéral peut modifier le comportement de la métrique dans toutes les visualisations et moniteurs existants, rendant potentiellement les données historiques incompréhensibles. -**Remarque** : si vous modifiez le type de votre métrique dans le volet latéral, il est possible que cela ait une incidence sur le comportement de la métrique dans toutes les visualisations et tous les monitors existants et que les données historiques deviennent incompréhensibles. +Les types d'envoi de métrique suivants sont acceptés : -Les métriques envoyées peuvent être des types suivants : - -- [COUNT](?tab=count#types-de-metriques) -- [RATE](?tab=rate#types-de-metriques) -- [GAUGE](?tab=gauge#types-de-metriques) +- [COUNT](?tab=count#metric-types) +- [RATE](?tab=rate#metric-types) +- [GAUGE](?tab=gauge#metric-types) - [SET][4] -- [HISTOGRAM](?tab=histogram#types-de-metriques) -- [DISTRIBUTION](?tab=distribution#types-de-metriques) +- [HISTOGRAM](?tab=histogram#metric-types) +- [DISTRIBUTION](?tab=distribution#metric-types) Ces différents types de métriques envoyés correspondent à quatre types de métriques stockés dans l'application Web Datadog : @@ -47,76 +46,76 @@ Ces différents types de métriques envoyés correspondent à quatre types de m - GAUGE - DISTRIBUTION -**Remarque** : si vous envoyez une métrique sans aucun type à Datadog, celle-ci figurera sous le type `Not Assigned` dans Datadog. Pour remplacer ce type par une autre valeur, vous devez envoyer un type de métrique initial. +**Remarque** : Si vous soumettez une métrique à Datadog sans type, le type de métrique apparaît comme `Not Assigned` dans Datadog. Le type de métrique `Not Assigned` ne peut pas être modifié en un autre type dans l'application tant qu'un type de métrique initial n'est pas soumis. -## Type envoyé et type stocké +## Soumission vs. type dans l'application {#submission-vs-in-app-type} -Les métriques sont envoyées à Datadog à l'aide des trois ressources suivantes : +Les métriques sont envoyées à Datadog de trois façons différentes : -- [Check de l'Agent][5] +- [Vérification de l'agent][5] - [DogStatsD][6] -- [API HTTP de Datadog][7] +- [Datadog's HTTP API][7] -La plupart des données transmises à Datadog sont envoyées par l'Agent, que ce soit via un check d'Agent ou via DogStatsD. Pour ces méthodes d'envoi, le type d'une métrique détermine la méthode d'agrégation des différentes valeurs recueillies par l'Agent lors de [l'intervalle de transmission][8]. L'Agent combine ces valeurs au sein d'une unique valeur représentative de la métrique pour cet intervalle. Un timestamp est ajouté à la valeur combinée avant de la stocker dans Datadog. +La majorité des données reçues par Datadog est soumise par l'Agent, soit via un [Agent check], soit par DogStatsD. Pour ces méthodes de soumission, le type d'une métrique détermine comment plusieurs valeurs collectées sur un Agent dans [un intervalle de temps de vidage][8] sont agrégées. L'Agent combine ces valeurs en une seule valeur métrique représentative pour cet intervalle. Cette valeur combinée est stockée avec un seul horodatage dans Datadog. -À l'exception des métriques de distribution, les données envoyées directement à l'API Datadog ne sont pas agrégées par Datadog. Les valeurs brutes transmises sont stockées telles quelles. +Les données soumises directement à l'API Datadog ne sont pas agrégées par Datadog, à l'exception des métriques de distribution. Les valeurs brutes envoyées à Datadog sont stockées telles quelles. -Lisez la rubrique [Types envoyés et types stockés dans Datadog](#types-envoyes-et-types-stockes-dans-Datadog) pour découvrir comment les types de métriques envoyés sont associés aux types stockés correspondants. +Lisez la section [Types de soumission et types d'application Datadog](#submission-types-and-datadog-in-app-types) pour en savoir plus sur la façon dont différents types de soumission de métriques sont mappés à leurs types d'application correspondants. -## Types de métriques +## Types de métriques {#metric-types} -### Définition +### Définition {#definition} {{< tabs >}} -{{% tab "COUNT" %}} +{{% tab "NOMBRE" %}} -Le type de métrique envoyé COUNT représente le nombre d'événements survenus lors d'un intervalle. Une métrique COUNT peut servir à surveiller le nombre total de connexions vers une base de données ou de requêtes transmises à un endpoint. Ce nombre d'événements peut augmenter ou diminuer au fil du temps : il n'est pas strictement croissant. +Le type de soumission de métrique COUNT représente le nombre total d'occurrences d'événements dans un intervalle de temps. Un COUNT peut être utilisé pour suivre le nombre total de connexions établies à une base de données ou le nombre total de requêtes à un point de terminaison. Ce nombre d'événements peut s'accumuler ou diminuer au fil du temps—il n'est pas monotoniquement croissant. -**Remarque** : les métriques COUNT diffèrent des métriques RATE. En effet, ces dernières représentent le nombre d'événements normalisé par seconde pour la période donnée. +**Remarque** : Un COUNT est différent du type de métrique RATE, qui représente le nombre d'occurrences d'événements normalisées par seconde compte tenu de l'intervalle de temps défini. {{% /tab %}} {{% tab "RATE" %}} -Le type de métrique envoyé RATE représente le nombre total d'événements survenus par seconde lors d'un intervalle. Une métrique RATE peut servir à surveiller la répétitivité d'un événement, telle que la fréquence des connexions vers une base de données ou le flux de requêtes transmises à un endpoint. +Le type de soumission de métrique RATE représente le nombre total d'occurrences d'événements par seconde dans un intervalle de temps. Un RATE peut être utilisé pour suivre la fréquence à laquelle quelque chose se produit—comme la fréquence des connexions établies à une base de données ou le flux de requêtes envoyées à un point de terminaison. -**Remarque** : les métriques RATE diffèrent des métriques COUNT. En effet, ces dernières représentent le nombre total d'événements pour la période donnée. +**Remarque** : Un RATE est différent du type de soumission de métrique COUNT, qui représente le nombre total d'occurrences d'événements dans l'intervalle de temps donné. {{% /tab %}} {{% tab "GAUGE" %}} -Le type de métrique envoyé GAUGE représente un snapshot des événements survenus durant un intervalle. La valeur de ce snapshot représentatif correspond à la dernière valeur envoyée à l'Agent lors de l'intervalle. Une métrique GAUGE peut servir à mesurer des données sans cesse transmises, telles que l'espace disque disponible ou la mémoire utilisée. +Le type de soumission de métrique GAUGE représente un instantané d'événements dans un intervalle de temps. Cette valeur d'instantané représentative est la dernière valeur soumise à l'Agent pendant un intervalle de temps. Un GAUGE peut être utilisé pour mesurer quelque chose qui rapporte en continu—comme l'espace disque disponible ou la mémoire utilisée. {{% /tab %}} {{% tab "HISTOGRAM" %}} -Le type de métrique envoyé HISTOGRAM représente la distribution statistique d'un ensemble de valeurs calculées côté Agent sur un intervalle unique. Le type de métrique HISTOGRAM de Datadog est une extension du type de métrique de durée (timing) de StatsD. L'Agent agrège les valeurs envoyées durant un intervalle donné et génère différentes métriques représentant l'ensemble de valeurs. +Le type de soumission de métrique HISTOGRAM représente la distribution statistique d'un ensemble de valeurs calculées côté Agent dans un intervalle de temps donné. Le type de métrique HISTOGRAM de Datadog est une extension du type de métrique de timing StatsD. L'Agent agrège les valeurs qui sont envoyées dans un intervalle de temps défini et produit différentes métriques qui représentent l'ensemble des valeurs. -Si vous envoyez `X` valeurs pour la métrique HISTOGRAM `` durant un intervalle donné, l'Agent génère par défaut les métriques suivantes : +Si vous envoyez `X` valeurs pour une métrique HISTOGRAM `` dans un intervalle de temps donné, les métriques suivantes sont produites par défaut par l'Agent : -`.avg` -: Représente la moyenne des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`.avg` +: Représente la moyenne de ces `X` valeurs dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`.count` -: Représente le nombre de valeurs envoyées lors de l'intervalle. Ce nombre `X` est envoyé par l'Agent en tant que RATE, ce qui signifie que la valeur affichée dans Datadog correspond à `X / intervalle`.
    -**Type stocké dans Datadog** : RATE +`.count` +: Représente le nombre de valeurs soumises pendant l'intervalle, `X`. L'Agent soumet ce nombre en tant que RATE afin qu'il affiche dans l'application la valeur de `X/interval`.
    +**Type In-App Datadog** : RATE -`.median` -: Représente la médiane des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`.median` +: Représente la médiane de ces `X` valeurs dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`.95percentile` -: Représente le 95 centile des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`.95percentile` +: Représente le 95ème percentile de ces `X` valeurs dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`.max` -: Représente la valeur maximale des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`.max` +: Représente la valeur maximale de ces `X` valeurs envoyées pendant l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -**Remarques** : +**Notes** : -- Configurez les agrégations que vous souhaitez envoyer à Datadog à l'aide du paramètre `histogram_aggregates` dans votre [fichier de configuration `datadog.yaml`][1]. Par défaut, seules les agrégations `max`, `median`, `avg` et `count` sont envoyées à Datadog. Les agrégations `sum` et `min` sont également disponibles. -- Configurez les agrégations par centile que vous souhaitez envoyer à Datadog à l'aide du paramètre `histogram_percentiles` dans votre [fichier de configuration `datadog.yaml`][2]. Par défaut, seul le centile `95percentile` est envoyé à Datadog. +- Configurez les agrégations que vous souhaitez envoyer à Datadog avec le paramètre `histogram_aggregates` dans votre [`datadog.yaml` fichier de configuration][1]. Par défaut, seules les agrégations `max`, `median`, `avg` et `count` sont envoyées à Datadog. `sum` et `min` sont également disponibles. +- Configurez l'agrégation de percentile que vous souhaitez envoyer à Datadog avec le paramètre `histogram_percentiles` dans votre [`datadog.yaml` fichier de configuration][2]. Par défaut, seul le `95percentile` est envoyé à Datadog. [1]: https://github.com/DataDog/datadog-agent/blob/04d8ae9dd4bc6c7a64a8777e8a38127455ae3886/pkg/config/config_template.yaml#L106-L114 @@ -124,67 +123,69 @@ Si vous envoyez `X` valeurs pour la métrique HISTOGRAM `` duran {{% /tab %}} {{% tab "DISTRIBUTION" %}} -Le type de métrique envoyé DISTRIBUTION représente la distribution statistique globale d'un ensemble de valeurs calculées lors d'un intervalle unique sur l'intégralité de votre infrastructure distribuée. Une métrique DISTRIBUTION peut servir à instrumenter des objets logiques, tels que des services, indépendamment des hosts sous-jacents. +Le type de soumission de métrique DISTRIBUTION représente la distribution statistique globale d'un ensemble de valeurs calculées sur l'ensemble de votre infrastructure distribuée dans un intervalle de temps. Une DISTRIBUTION peut être utilisée pour instrumenter des objets logiques, comme des services, indépendamment des hôtes sous-jacents. + +Contrairement au type de métrique HISTOGRAM, qui agrège sur l'Agent pendant un intervalle de temps donné, une métrique DISTRIBUTION envoie toutes les données brutes collectées pendant un intervalle de temps à Datadog. Les agrégations se produisent côté serveur. Parce que la structure de données sous-jacente représente des données brutes, non agrégées, les distributions offrent deux fonctionnalités majeures : -Contrairement aux métriques HISTOGRAM, qui effectuent l'agrégation au niveau de l'Agent durant un intervalle donné, les métriques DISTRIBUTION envoient l'intégralité des données brutes recueillies lors d'un intervalle à Datadog. Les agrégations se font alors côté serveur. Puisque la structure sous-jacente représente des données brutes et non agrégées, les distributions offrent deux fonctionnalités importantes : +- Calcul des agrégations de percentile +- Personnalisation des balises -- Calcul des agrégations par centile -- Personnalisation du tagging +Si vous envoyez `X` valeurs pour une métrique DISTRIBUTION `` dans un intervalle de temps donné, les agrégations suivantes sont disponibles par défaut pour la requête : -Si vous envoyez `X` valeurs pour la métrique DISTRIBUTION `` durant un intervalle donné, par défaut, vos requêtes peuvent porter sur les agrégations suivantes : +`avg:` +: Représente la moyenne de ces `X` valeurs dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`avg:` -: Représente la moyenne des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`count:` +: Représente le nombre de points soumis dans l'intervalle de temps, `X`. L'Agent l'envoie ensuite en tant que COUNT.
    +**Type In-App Datadog** : COUNT -`count:` -: Représente le nombre de points envoyés durant l'intervalle. Ce nombre `X` est ensuite envoyé par l'Agent en tant que COUNT.
    -**Type stocké dans Datadog** : COUNT +`max:` +: Représente la valeur maximale de ces `X` valeurs envoyées dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`max:` -: Représente la valeur maximale des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`min:` +: Représente la valeur minimale de ces `X` envoyées dans l'intervalle de temps.
    +**Type In-App Datadog** : GAUGE -`min:` -: Représente la valeur minimale des `X` valeurs transmises lors de l'intervalle.
    -**Type stocké dans Datadog** : GAUGE +`sum:` +: Représente la somme de toutes les `X` valeurs envoyées dans l'intervalle de temps.
    +**Type In-App Datadog** : COUNT -`sum:` -: Représente la somme des `X` valeurs envoyées lors de l'intervalle.
    -**Type stocké dans Datadog** : COUNT +**Remarque** : Bien que les différentes agrégations des valeurs des métriques de distribution soient _représentées_ sous forme de GAUGE ou de COUNT dans l'application, la métrique elle-même conserve le type `DISTRIBUTION`. {{% /tab %}} {{< /tabs >}} -### Exemple +### Exemple {#example} {{< tabs >}} -{{% tab "COUNT" %}} +{{% tab "NOMBRE" %}} -Imaginons que vous envoyiez la métrique COUNT `notifications.sent` depuis un seul host sur lequel l'Agent Datadog s'exécute. Ce host génère les valeurs suivantes lors de l'intervalle de transmission : `[1,1,1,2,2,2,3,3]`. +Supposons que vous soumettiez une métrique COUNT, `notifications.sent`, depuis un seul hôte exécutant l'Agent Datadog. Cet hôte émet les valeurs suivantes dans un intervalle de temps de vidage : `[1,1,1,2,2,2,3,3]`. -L'Agent ajoute toutes les valeurs reçues durant cet intervalle. Il envoie ensuite le total, ici `15`, en tant que valeur de la métrique COUNT. +L'Agent additionne toutes les valeurs reçues dans un intervalle de temps. Ensuite, il soumet le nombre total, dans ce cas `15`, comme valeur de la métrique COUNT. {{% /tab %}} {{% tab "RATE" %}} -Imaginons que vous envoyiez la métrique RATE `queue_messages.rate` depuis un seul host sur lequel l'Agent Datadog s'exécute. Ce host génère les valeurs suivantes lors de l'intervalle de transmission : `[1,1,1,2,2,2,3,3]`. +Supposons que vous soumettiez une métrique RATE, `queue_messages.rate`, depuis un seul hôte exécutant l'Agent Datadog. Cet hôte émet les valeurs suivantes dans un intervalle de temps de vidage : `[1,1,1,2,2,2,3,3]`. -L'Agent ajoute toutes les valeurs reçues durant cet intervalle. Il envoie ensuite le total divisé par le nombre de secondes de l'intervalle. Ici, avec un intervalle de transmission de 10 secondes, la valeur `1.5` est envoyée pour la métrique RATE. +L'Agent additionne toutes les valeurs reçues dans un intervalle de temps. Ensuite, il soumet le nombre total divisé par le nombre total de secondes dans cet intervalle de temps. Dans ce cas, si l'intervalle de vidage est de 10 secondes, la valeur soumise serait `1.5` comme valeur de la métrique RATE. {{% /tab %}} {{% tab "GAUGE" %}} -Imaginons que vous envoyiez la métrique GAUGE `temperature` depuis un seul host sur lequel l'Agent Datadog s'exécute. Ce host génère les valeurs suivantes lors de l'intervalle de transmission : `[71,71,71,71,71,71,71.5]`. +Supposons que vous soumettiez une métrique GAUGE, `temperature`, depuis un seul hôte exécutant l'Agent Datadog. Cet hôte émet les valeurs suivantes dans un intervalle de temps de vidage : `[71,71,71,71,71,71,71.5]`. -L'Agent envoie la dernière valeur transmise, ici `71.5`, pour la métrique GAUGE. +L'Agent soumet le dernier nombre rapporté, dans ce cas `71.5`, comme valeur de la métrique GAUGE. {{% /tab %}} {{% tab "HISTOGRAM" %}} -Imaginons que vous envoyez la métrique HISTOGRAM `request.response_time.histogram` à partir d'un serveur Web. Celle-ci envoie les valeurs `[1,1,1,2,2,2,3,3]` lors de l'intervalle de transmission de 10 secondes. Par défaut, l'Agent transmet les métriques suivantes à Datadog afin de représenter la distribution statistique des valeurs lors de l'intervalle : +Par exemple, supposons que vous soumettiez une métrique HISTOGRAM, `request.response_time.histogram`, depuis un serveur web qui rapporte les valeurs `[1,1,1,2,2,2,3,3]` dans un intervalle de vidage de 10 secondes. Par défaut, l'Agent soumet les métriques suivantes à Datadog qui représentent la distribution statistique de ces valeurs dans cet intervalle de temps : -| Nom de la métrique | Valeur | Type stocké dans Datadog | +| Nom de la métrique | Valeur | Type dans l'application Datadog | | ---------------------------------------------- | ------ | ------------------- | | `request.response_time.histogram.avg` | `1.88` | GAUGE | | `request.response_time.histogram.count` | `0.8` | RATE | @@ -195,9 +196,9 @@ Imaginons que vous envoyez la métrique HISTOGRAM `request.response_time.histogr {{% /tab %}} {{% tab "DISTRIBUTION" %}} -Imaginons que vous envoyiez la métrique DISTRIBUTION `request.response_time.distribution` à partir de deux serveurs Web : `webserver:web_1` et `webserver:web_2`. Lors de l'intervalle de transmission donné, `webserver:web_1` renvoie les valeurs `[1,1,1,2,2,2,3,3]` pour la métrique, tandis que `webserver:web_2` renvoie les valeurs `[1,1,2]`. Durant cet intervalle, les cinq agrégations suivantes représentent la distribution statistique globale de l'ensemble des valeurs recueillies à partir des deux serveurs Web : +Supposons que vous soumettiez une métrique de type DISTRIBUTION, `request.response_time.distribution`, depuis deux serveurs web : `webserver:web_1` et `webserver:web_2`. Supposons que dans un intervalle de temps de flush donné, `webserver:web_1` rapporte la métrique avec les valeurs `[1,1,1,2,2,2,3,3]`, et `webserver:web_2` rapporte la même métrique avec les valeurs `[1,1,2]`. Au cours de cet intervalle de temps, les cinq agrégations suivantes représenteront la distribution statistique globale de toutes les valeurs collectées des deux serveurs web : -| Nom de la métrique | Valeur | Type stocké dans Datadog | +| Nom de la métrique | Valeur | Type dans l'application Datadog | | ------------------------------------------ | ------ | ------------------- | | `avg:request.response_time.distribution` | `1.73` | GAUGE | | `count:request.response_time.distribution` | `11` | COUNT | @@ -205,13 +206,13 @@ Imaginons que vous envoyiez la métrique DISTRIBUTION `request.response_time.dis | `min:request.response_time.distribution` | `1` | GAUGE | | `sum:request.response_time.distribution` | `19` | COUNT | -#### Calcul des agrégations par centile +#### Calcul des agrégations de percentile {#calculation-of-percentile-aggregations} -Comme d'autres types de métriques, tels que GAUGE ou HISTOGRAM, le type DISTRIBUTION dispose des agrégations suivantes : `count`, `min`, `max`, `sum` et `avg`. Les métriques Distribution sont initialement taguées de la même manière que les autres métriques (avec des tags personnalisés définis dans le code). +Comme d'autres types de métriques, tels que GAUGE ou HISTOGRAM, le type de métrique DISTRIBUTION dispose des agrégations suivantes : `count`, `min`, `max`, `sum`, et `avg`. Les métriques de distribution sont initialement étiquetées de la même manière que les autres métriques (avec des étiquettes personnalisées définies dans le code). -Des agrégations par centile supplémentaires (`p50`, `p75`, `p90`, `p95` et `p99`) peuvent être ajoutées aux métriques Distribution. Si vous ajoutez des agrégations par centile à une métrique Distribution stockée dans Datadog, vos requêtes peuvent porter sur les cinq agrégations supplémentaires suivantes : +Des agrégations de percentile supplémentaires (`p50`, `p75`, `p90`, `p95`, `p99`) peuvent être ajoutées aux métriques de distribution depuis le [panneau latéral des détails][2] de la métrique. Si vous deviez ajouter des agrégations de percentile à votre métrique de distribution dans l'application, les cinq agrégations supplémentaires suivantes sont disponibles pour la requête : -| Nom de la métrique | Valeur | Type stocké dans Datadog | +| Nom de la métrique | Valeur | Type dans l'application Datadog | | ---------------------------------------- | ----- | ------------------- | | `p50:request.response_time.distribution` | `2` | GAUGE | | `p75:request.response_time.distribution` | `2` | GAUGE | @@ -219,82 +220,85 @@ Des agrégations par centile supplémentaires (`p50`, `p75`, `p90`, `p95` et `p9 | `p95:request.response_time.distribution` | `3` | GAUGE | | `p99:request.response_time.distribution` | `3` | GAUGE | -Si vous ajoutez des agrégations par centile supplémentaires à une métrique Distribution durant un intervalle donné, vous pouvez utiliser les 10 agrégations suivantes : `count`, `sum`, `min`, `max`, `avg`, `p50`, `p75`, `p90`, `p95` et `p99`. +C'est-à-dire, pour une métrique de distribution avec des agrégations de percentile ajoutées pendant un intervalle de temps donné, les 10 agrégations suivantes sont disponibles : `count`, `sum`, `min`, `max`, `avg`, `p50`, `p75`, `p90`, `p95`, et `p99`. + +**Remarque** : Bien que les différentes agrégations des valeurs métriques de distribution soient _représentées_ sous forme de jauges ou de comptes dans l'application, la métrique elle-même conserve le type `DISTRIBUTION`. -#### Personnalisation du tagging +#### Personnalisation de l'étiquetage {#customization-of-tagging} -Cette fonctionnalité vous permet de contrôler le tagging pour les métriques pour lesquelles une granularité au niveau des hosts n'est pas nécessaire. Consultez la section [Metrics without Limits™][1] pour en savoir plus. +Cette fonctionnalité vous permet de contrôler l'étiquetage pour les métriques où la granularité au niveau de l'hôte n'est pas nécessaire. En savoir plus sur [Metrics without Limits™][1]. -**Remarque** : la personnalisation de tags via cette liste ne permet pas d'exclure de tags. L'ajout de tags débutant par `!` n'est pas accepté. +**Remarque** : L'exclusion des étiquettes n'est pas prise en charge dans la personnalisation des étiquettes basée sur la liste autorisée. L'ajout d'étiquettes commençant par `!` n'est pas accepté. [1]: /fr/metrics/metrics-without-limits/ +[2]: /fr/metrics/summary/#metric-details-sidepanel {{% /tab %}} {{< /tabs >}} -### Envoi +### Soumission {#submission} {{< tabs >}} -{{% tab "COUNT" %}} +{{% tab "NOMBRE" %}} Envoyez vos métriques de type COUNT depuis l'une des sources suivantes : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Type stocké dans Datadog | +| Source de Soumission | Méthode de Soumission (python) | Type de Soumission | Type dans l'application Datadog | | ----------------- | ------------------------------------ | --------------- | ------------------- | -| [Check de l'Agent][1] | `self.count(...)` | COUNT | COUNT | -| [Check de l'Agent][2] | `self.monotonic_count(...)` | COUNT | COUNT | +| [Vérification de l'Agent][1] | `self.count(...)` | COUNT | COUNT | +| [Vérification de l'Agent][2] | `self.monotonic_count(...)` | COUNT | COUNT | | [API][3] | `api.Metric.send(type="count", ...)` | COUNT | COUNT | | [DogStatsD][4] | `dog.count(...)` | COUNT | RATE | | [DogStatsD][4] | `dog.increment(...)` | COUNT | RATE | | [DogStatsD][4] | `dog.decrement(...)` | COUNT | RATE | -**Remarque** : lorsque vous envoyez une métrique de type COUNT via DogStatsD, la métrique stockée dans Datadog possède le type RATE, afin de garantir la pertinence des comparaisons entre les différents Agents. Par conséquent, les nombres totaux StatsD peuvent comporter des décimales dans Datadog (puisqu'ils sont normalisés sur un intervalle dans le but de transmettre des unités par seconde). +**Remarque** : Lors de la soumission d'un type de métrique COUNT via DogStatsD, la métrique apparaît comme un RATE dans l'application pour garantir une comparaison pertinente entre différents Agents. Par conséquent, les valeurs COUNT StatsD peuvent apparaître avec une valeur décimale dans Datadog (puisqu'elles sont normalisées sur un intervalle de temps pour rapporter des unités par seconde). [1]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=count#count [2]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic-count -[3]: /fr/api/v1/metrics/#submit-metrics +[3]: /fr/api/latest/metrics/#submit-metrics [4]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#count {{% /tab %}} {{% tab "RATE" %}} Envoyez vos métriques de type RATE depuis l'une des sources suivantes : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Type stocké dans Datadog | +| Source de Soumission | Méthode de Soumission (python) | Type de Soumission | Type dans l'application Datadog | | ----------------- | ----------------------------------- | --------------- | ------------------- | -| [Check de l'Agent][1] | `self.rate(...)` | RATE | GAUGE | +| [Vérification de l'Agent][1] | `self.rate(...)` | RATE | GAUGE | | [API][2] | `api.Metric.send(type="rate", ...)` | RATE | RATE | -**Remarque** : lorsque vous envoyez une métrique de type RATE via DogStatsD, la métrique stockée dans Datadog possède le type GAUGE, afin de garantir la pertinence des comparaisons entre les différents Agents. +**Remarque** : Pour obtenir des métriques de RATE via DogStatsD, soumettez soit une métrique [COUNT][16] soit une métrique [HISTOGRAM][18]. Les valeurs des métriques de type COUNT ainsi que `.count` correspondent à des deltas normalisés dans le temps de la valeur de la métrique pendant la période de flush de StatsD. [1]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=rate -[2]: /fr/api/v1/metrics/#submit-metrics +[2]: /fr/api/latest/metrics/#submit-metrics {{% /tab %}} {{% tab "GAUGE" %}} Envoyez vos métriques de type GAUGE depuis l'une des sources suivantes : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Type stocké dans Datadog | +| Source de Soumission | Méthode de Soumission (Python) | Type de Soumission | Type dans l'application Datadog | | ----------------- | ------------------------------------ | --------------- | ------------------- | -| [Check de l'Agent][1] | `self.gauge(...)` | GAUGE | GAUGE | -| [API][2] | `api.Metric.send(type="gauge", ...)` | GAUGE | GAUGE | -| [DogStatsD][3] | `dog.gauge(...)` | GAUGE | GAUGE | +| [Vérification de l'Agent][1] | `self.gauge(...)` | GAUGE | GAUGE | +| [API][2] | `api.Metric.send(type="gauge", ...)` | GAUGE | GAUGE | +| [DogStatsD][3] | `dog.gauge(...)` | GAUGE | GAUGE | [1]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=gauge -[2]: /fr/api/v1/metrics/#submit-metrics +[2]: /fr/api/latest/metrics/#submit-metrics [3]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#gauge {{% /tab %}} {{% tab "HISTOGRAM" %}} Envoyez vos métriques de type HISTOGRAM depuis l'une des sources suivantes : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Types stockés dans Datadog | +| Source de Soumission | Méthode de Soumission (Python) | Type de Soumission | Types dans l'application Datadog | | ----------------- | -------------------------- | --------------- | -------------------- | -| [Check de l'Agent][1] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | -| [DogStatsD][2] | `dog.histogram(...)` | HISTOGRAM | GAUGE, RATE | +| [Vérification de l'agent][1] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | +| [DogStatsD][2] | `dog.histogram(...)` | HISTOGRAM | GAUGE, RATE | -L'envoi d'une métrique TIMER à l'Agent Datadog correspond à l'envoi d'une métrique HISTOGRAM dans DogStatsD. Ne confondez pas les métriques TIMER avec les timers StatsD standard. Les [`TIMER` DogStatsD][3] représentent uniquement les données caractérisées par une durée, par exemple le temps d'exécution d'une section de code ou le temps d'affichage d'une page entière. +Soumettre une métrique TIMER à l'Agent Datadog équivaut à soumettre un type de métrique HISTOGRAM dans DogStatsD (à ne pas confondre avec les temporisateurs dans le StatsD standard). [DogStatsD `TIMER`][3] représente uniquement des données de durée. Par exemple, le temps qu'une section de code met à s'exécuter ou combien de temps il faut pour rendre complètement une page. [1]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=histogram @@ -305,37 +309,43 @@ L'envoi d'une métrique TIMER à l'Agent Datadog correspond à l'envoi d'une mé Envoyez vos métriques de type DISTRIBUTION depuis la source suivante : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Types stockés dans Datadog | +| Source de soumission | Méthode de soumission (Python) | Type de soumission | Types dans l'application Datadog | | ----------------- | -------------------------- | --------------- | -------------------- | -| [DogStatsD][1] | `dog.distribution(...)` | DISTRIBUTION | GAUGE, COUNT | +| [DogStatsD][1] | `dog.distribution(...)` | DISTRIBUTION | GAUGE, COUNT | +| [API][2] | `api_instance.submit_distribution_points(...)` | DISTRIBUTION | GAUGE, COUNT | +**Note** : Bien que les différentes agrégations des valeurs de la métrique de type DISTRIBUTION soient représentées comme GAUGE ou COUNT dans l'application, la métrique elle-même conserve le type `DISTRIBUTION`. [1]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#distribution +[2]: /fr/api/latest/metrics/#submit-distribution-points {{% /tab %}} {{< /tabs >}} -## Types envoyés et types stockés dans Datadog +## Types de Soumission et types dans l'application Datadog {#submission-types-and-datadog-in-app-types} -Vous trouverez ci-dessous une synthèse de l'ensemble des sources et des méthodes d'envoi de métriques. Ce tableau présente la correspondance entre les types de métriques envoyés et les types stockés : +Ci-dessous se trouve un résumé de toutes les sources et méthodes de soumission de métriques disponibles. Ce tableau montre la correspondance entre le type de soumission de métrique correspondant et les types dans l'application : -| Source de l'envoi | Méthode d'envoi (python) | Type envoyé | Types stockés dans Datadog | +| Source de Soumission | Méthode de Soumission (Python) | Type de Soumission | Types dans l'application Datadog | | ----------------- | ------------------------------------ | --------------- | -------------------- | -| [Check de l'Agent][9] | `self.count(...)` | COUNT | COUNT | -| [Check de l'Agent][10] | `self.monotonic_count(...)` | COUNT | COUNT | -| [Check de l'Agent][11] | `self.gauge(...)` | GAUGE | GAUGE | -| [Check de l'Agent][12] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | -| [Check de l'Agent][13] | `self.rate(...)` | RATE | GAUGE | +| [Vérification de l'Agent][9] | `self.count(...)` | COUNT | COUNT | +| [Vérification de l'Agent][10] | `self.monotonic_count(...)` | COUNT | COUNT | +| [Vérification de l'Agent][11] | `self.gauge(...)` | GAUGE | GAUGE | +| [Vérification de l'Agent][12] | `self.histogram(...)` | HISTOGRAM | GAUGE, RATE | +| [Vérification de l'Agent][13] | `self.rate(...)` | RATE | GAUGE | | [API][7] | `api.Metric.send(type="count", ...)` | COUNT | COUNT | | [API][7] | `api.Metric.send(type="gauge", ...)` | GAUGE | GAUGE | -| [API][7] | `api.Metric.send(type="rate", ...)` | RATE | RATE | +| [API][7] | `api.Metric.send(type="rate", ...)` | TAUX | TAUX | | [DogStatsD][14] | `dog.gauge(...)` | GAUGE | GAUGE | -| [DogStatsD][15] | `dog.distribution(...)` | DISTRIBUTION | GAUGE, COUNT | +| [DogStatsD][15] | `dog.distribution(...)` | DISTRIBUTION | DISTRIBUTION | | [DogStatsD][16] | `dog.count(...)` | COUNT | RATE | | [DogStatsD][16] | `dog.increment(...)` | COUNT | RATE | | [DogStatsD][16] | `dog.decrement(...)` | COUNT | RATE | | [DogStatsD][17] | `dog.set(...)` | SET | GAUGE | -| [DogStatsD][18] | `dog.histogram(...)` | HISTOGRAM | GAUGE, RATE | -## Pour aller plus loin +| [DogStatsD][18] | `dog.histogram(...)` | HISTOGRAMME | JAUGE, TAUX | + +**Note**: Bien que les différentes agrégations des valeurs de métriques de distribution soient _représentées_ sous forme de jauges ou de comptes dans l'application, la métrique elle-même conserve le type `DISTRIBUTION`. Voir la section [Définitions][19] de cette page pour plus d'informations. + +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -345,8 +355,8 @@ Vous trouverez ci-dessous une synthèse de l'ensemble des sources et des méthod [4]: https://statsd.readthedocs.io/en/v3.3/types.html#sets [5]: /fr/metrics/custom_metrics/agent_metrics_submission/ [6]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/ -[7]: /fr/api/v1/metrics/#submit-metrics -[8]: /fr/developers/dogstatsd/#how-it-works +[7]: /fr/api/latest/metrics/#submit-metrics +[8]: /fr/extend/dogstatsd/#how-it-works [9]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=count#count [10]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=count#monotonic-count [11]: /fr/metrics/custom_metrics/agent_metrics_submission/?tab=gauge @@ -356,4 +366,5 @@ Vous trouverez ci-dessous une synthèse de l'ensemble des sources et des méthod [15]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#distribution [16]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#count [17]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#set -[18]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#histogram \ No newline at end of file +[18]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/#histogram +[19]: /fr/metrics/types/?tab=distribution#definition \ No newline at end of file diff --git a/content/fr/monitors/notify/_index.md b/content/fr/monitors/notify/_index.md index 00f9d4be554..4be7aa83fb8 100644 --- a/content/fr/monitors/notify/_index.md +++ b/content/fr/monitors/notify/_index.md @@ -13,189 +13,205 @@ further_reading: - link: /monitors/manage/ tag: Documentation text: Gérer les monitors +- link: https://learn.datadoghq.com/courses/alert-monitor-notifications + tag: Centre d'apprentissage + text: Suivez une formation pour apprendre à personnaliser les notifications de vos + monitors d'alerte. +- link: https://www.datadoghq.com/blog/monitor-notification-rules/ + tag: GitHub + text: Dirigez vos alertes de monitor avec les règles de notification des monitors + Datadog title: Notifications --- +## Aperçu {#overview} -## Présentation - -Les notifications constituent un outil clé des monitors. Elles vous permettent de tenir votre équipe informée des problèmes et de faciliter leur résolution. Lorsque vous [créez un monitor][1], prenez le temps de remplir la section **Configurer des notifications et des automatisations**. - -## Configurer des notifications et des automatisations - -Utilisez la section **Configurer des notifications et des automatisations** pour : -- Envoyer des notifications à votre équipe via e-mail, Slack, PagerDuty et dʼautres intégrations. +Les notifications sont un élément clé des moniteurs qui tiennent votre équipe informée des problèmes et aident à résoudre les incidents. Lors de la [création de votre moniteur][1], configurez votre réponse pour : +- Rédigez un message actionnable. - Déclencher un workflow ou créer un workflow à partir d'un monitor. -- Ajouter un cas à votre monitor. +- [Créez automatiquement un cas][2]. +- Créez automatiquement un incident. -### Titre +## Créer des titres et des messages efficaces {#constructing-effective-titles-and-messages} -Vous devez ajouter un titre unique à votre monitor. Pour les monitors à alertes multiples, certains tags permettant d'identifier votre contexte de déclenchement sont automatiquement ajoutés. Vous pouvez également utiliser des [variables de tags][2]. +Cette approche aide à garantir que vos titres et messages de moniteur sont clairs, actionnables et adaptés aux besoins de votre public. +- **Titres uniques** : Ajoutez un titre unique à votre moniteur (c'est requis). Pour les moniteurs à alertes multiples, certains tags identifiant votre portée de déclenchement sont insérés automatiquement. Vous pouvez utiliser [des variables de tag][3] pour améliorer la spécificité. +- **Champ de message** : Le champ de message prend en charge le [formatage Markdown standard][4] et [les variables][5]. Utilisez [des variables conditionnelles][6] pour moduler le texte de notification envoyé à différents contacts avec [@notifications](#notifications). Utilisez [des variables de modèle synthétiques][23] pour enrichir le message d'alerte avec le contexte d'échec des synthétiques. -### Message - -Le champ de message prend en charge le [format Markdown][3] standard ainsi que des [variables][4]. Utilisez des [variables conditionnelles][5] pour ajuster le texte de la notification envoyé aux différents contacts avec la [syntaxe @notifications](#notifications). +
    Le support du formatage Markdown varie selon la méthode de notification. Certains canaux ne prennent en charge qu'un sous-ensemble de la syntaxe Markdown. +
      +##
    • Notifications Slack : Prennent en charge le formatage de base (gras, italique, code en ligne, liens). Les en-têtes Markdown (par exemple, #, ) et les tableaux ne sont pas rendus ; ils apparaissent comme du texte brut. +
    • Notifications par e-mail : Prennent en charge le formatage de base (gras, italique, code en ligne, liens). Les tableaux ne sont pas rendus en tant que tableaux Markdown et apparaissent comme du texte brut dans le corps du message. +
    +
    +{{% collapse-content title="Message d'exemple du moniteur" level="h4" expanded=false %}} Le message du monitor inclut généralement des étapes détaillées permettant de résoudre le problème. Exemple : ```text -Étapes à suivre pour libérer de l'espace disque : -1. Supprimer les packages non utilisés -2. Vider le cache APT -3. Désinstaller les applications superflues -4. Supprimer les fichiers en double -``` +{{#is_alert}} <-- conditional variable -### Notifications +Steps to free up disk space on {{host.name}}: <-- tag variable -Utilisez une `@notification` pour ajouter un membre de l'équipe, une intégration, un workflow ou un cas à votre notification. Au fil de votre saisie, Datadog vous propose des options dans un menu déroulant. Cliquez sur une option pour l'ajouter à votre notification. Vous pouvez également cliquer sur **@ Add Mention**, **Add Workflow** ou **Add Case**. +1. Remove unused packages +2. Clear APT cache +3. Uninstall unnecessary applications +4. Remove duplicate files -**Remarque** : vous devez inclure une espace entre le dernier caractère de la ligne et la `@notification`. Exemple : +@slack-incident-response <-- channel to send notification + +{{/is_alert}} -```text -Espace disque faible @ops-team@company.com ``` -Vous pouvez envoyer des `@notifications` de différentes façons : -#### E-mail +{{% /collapse-content %}} -{{% notifications-email %}} -#### Équipes +## Destinataires de notification {#notification-recipients} +Datadog recommande d'utiliser [règles de notification de moniteur][22] pour gérer les notifications de moniteur. Avec les règles de notification, vous pouvez automatiser l'ajout des destinataires de notification à un moniteur en fonction de jeux de conditions prédéfinis. Créez différentes règles pour acheminer les alertes de moniteur en fonction des tags de la notification de moniteur afin de ne pas avoir à configurer manuellement les destinataires ni la logique d'acheminement des notifications pour chaque moniteur individuel. + +Dans les règles de notification et les moniteurs individuels, vous pouvez utiliser un `@notification` pour ajouter un membre de l'équipe, une intégration, un flux de travail ou un cas à votre notification. Au fur et à mesure que vous tapez, Datadog recommande automatiquement des options existantes dans un menu déroulant. Cliquez sur une option pour l'ajouter à votre notification. Alternativement, cliquez sur **@ Ajouter Mention**, **Ajouter Flux de travail**, ou **Ajouter Cas**. -Si un canal de notification est défini, vous pouvez acheminer les notifications vers une équipe spécifique. Les alertes de monitor ciblant @team-handle sont redirigées vers le canal de communication sélectionné. Pour en savoir plus sur la configuration d'un canal de notification pour votre équipe, consultez la documentation relative aux [équipes][6]. +Une @notification doit avoir un espace entre elle et le dernier caractère de ligne : -#### Intégrations +| Format correct | Format incorrect | +|------------------|-------------------| +| `Disk space is low @ops-team@company.com` | `Disk space is low@ops-team@company.com` | +{{% collapse-content title="Les intégrations" level="h4" expanded=false %}} {{% notifications-integrations %}} +{{% /collapse-content %}} -### Workflows -Vous pouvez déclencher une [automatisation de workflow][7] ou créer un nouveau workflow à partir d'un monitor. +{{% collapse-content title="Équipes" level="h4" expanded=false %}} +{{% notifications-teams %}} +{{% /collapse-content %}} -**Pour ajouter un workflow existant à un monitor** : -1. Dans la section du message, ajoutez le nom complet de la mention du workflow : - - Le nom de la mention doit commencer par `@workflow-`. Par exemple, `@workflow-my-workflow` - - Pour transmettre des variables de déclenchement dans le workflow, utilisez une liste séparée par des virgules avec la syntaxe `@workflow-name(key=value, key=value)`. Vous pouvez utiliser des variables de modèles de messages comme variables de déclenchement. Par exemple, `@workflow-my-workflow(hostname=host.name)` +{{% collapse-content title="Cas" level="h4" expanded=false %}} +{{% notifications-cases %}} +{{% /collapse-content %}} -1. Vous pouvez également cliquer sur **Add Workflow** et rechercher lʼélément dans le menu déroulant. +{{% collapse-content title="Par e-mail" level="h4" expanded=false %}} +{{% notifications-email %}} +{{% /collapse-content %}} -Pour en savoir plus sur le déclenchement dʼun workflow, consultez la section [Déclencher un workflow][8]. +### Édition en masse des @-handles de moniteur {#bulk-editing-monitor-handles} +Datadog prend en charge l'édition des destinataires de message d'alerte sur plusieurs moniteurs à la fois. Utilisez cette fonctionnalité pour ajouter, supprimer ou remplacer efficacement `@-handles` dans le corps du message du moniteur. Exemples de cas d'utilisation : -**Pour créer un workflow** : -1. Cliquez sur **Add Workflow**. -1. Cliquez sur l'icône **+** et sélectionnez un modèle, ou sélectionnez **Start From Scratch**. - {{< img src="/monitors/notifications/create-workflow.png" alt="Cliquez sur le bouton + pour ajouter un nouveau workflow" style="width:90%;">}} +- **Échanger un handle** : Remplacez un handle par un autre sur plusieurs moniteurs. Par exemple, changez `@pagerduty-sre` en `@oncall-sre`. Vous pouvez également échanger un seul handle contre plusieurs handles, par exemple en remplaçant `@pagerduty-sre` par `@pagerduty-sre` et `@oncall-sre`, afin de prendre en charge le dual paging ou une couverture d'alerte élargie. +- **Ajouter un handle** : Ajoutez un nouveau destinataire sans supprimer les existants. Par exemple, ajoutez `@slack-infra-leads` à tous les moniteurs sélectionnés. +- **Supprimer un handle** : Supprimez un handle spécifique des messages du moniteur. Par exemple, supprimez `@webhook-my-legacy-event-intake`. -Pour en savoir plus sur la création d'un workflow, consultez la section [Build workflows][9] (en anglais). +## Flux de travail {#workflows} +Vous pouvez déclencher une [automatisation de flux de travail][8] ou créer un nouveau flux de travail à partir d'un moniteur. -### Priorité +Avant d'ajouter un flux de travail à un moniteur, [ajoutez un déclencheur de moniteur au flux de travail][9]. -Vous avez la possibilité d'ajouter une priorité à vos monitors. Les valeurs autorisées vont de P1 à P5 : P1 correspond à la plus haute priorité, et P5 à la plus faible. Pour ignorer la priorité du monitor dans le message de notification, utilisez `{{override_priority 'Pi'}}`, en remplaçant `Pi` par une priorité de P1 à P5. +Après avoir ajouté le déclencheur de moniteur, [ajoutez un flux de travail existant à votre moniteur][10] ou créez un nouveau flux de travail. Pour créer un nouveau flux de travail à partir de la page des moniteurs : -Par exemple, vous pouvez définir plusieurs priorités pour les notifications `alert` et `warning` : +1. Cliquez sur **Ajouter un flux de travail**. +1. Cliquez sur l'icône **+** et sélectionnez une Blueprint, ou sélectionnez **Start From Scratch**. + {{< img src="/monitors/notifications/create-workflow.png" alt="Cliquez sur le bouton + pour ajouter un nouveau flux de travail" style="width:90%;">}} -``` -{{#is_alert}} -{{override_priority 'P1'}} - ... -{{/is_alert}} -{{#is_warning}} -{{override_priority 'P4'}} -... -{{/is_warning}} -``` +Pour plus d'informations sur la création d'un flux de travail, consultez [Créer des flux de travail][11]. -### Choisir le contenu supplémentaire à afficher +## Incidents {#incidents} +Les incidents peuvent être créés automatiquement à partir d'un moniteur lorsque le moniteur passe à un statut `alert`, `warn` ou `no data`. Cliquez sur **Ajouter un incident** et sélectionnez une option `@incident-`. Les administrateurs peuvent créer des options `@incident-` dans [Paramètres des incidents][12]. -Les notifications de monitor incluent diverses informations telles que la requête du monitor, les mentions « @ » utilisées, les snapshots de métrique (pour les monitors de métrique) et les liens renvoyant aux pages pertinentes dans Datadog. Vous pouvez choisir le contenu que vous souhaitez inclure ou exclure des notifications pour un monitor donné. +Lorsqu'un incident est créé à partir d'un moniteur, les [valeurs de champ][13] de l'incident sont automatiquement remplies en fonction des balises du moniteur. Par exemple, si votre moniteur a une balise `service:payments`, le champ de service de l'incident sera défini sur "paiements". Pour recevoir des notifications pour ces incidents, assurez-vous que les balises du moniteur correspondent à vos règles de notification d'incidents. **Remarque** : Les règles de notification d'incidents sont configurées séparément des règles de notification de moniteur et doivent être mises en place indépendamment. Pour plus d'informations, consultez [Notification d'incidents][14]. -
    Les métriques de distribution avec des agrégateurs de percentiles (tels que `p50`, `p75`, `p95`, ou `p99`) ne génèrent pas de graphiques snapshot dans les notifications.
    +## Basculer le contenu supplémentaire {#toggle-additional-content} -{{< img src="monitors/notifications/monitor_notification_presets.png" alt="Définir un préréglage de monitor" style="width:70%;" >}} +Les notifications de moniteur incluent des contenus tels que la requête du moniteur, les mentions @ utilisées, les instantanés de métriques (pour les moniteurs de métriques) et des liens vers des pages pertinentes dans Datadog. Vous avez la possibilité de choisir quel contenu vous souhaitez inclure ou exclure des notifications pour des moniteurs individuels. -Les options disponibles sont : +
    Les métriques de distribution avec des agrégateurs de percentile (tels que `p50`, `p75`, `p95` ou `p99`) ne génèrent pas de graphique instantané dans les notifications.
    -- **Default** : aucun contenu n'est masqué. -- **Hide Query** : supprime la requête du monitor du message de notification. -- **Hide Handles** : supprime les mentions « @ » utilisées dans le message de notification. -- **Hide All** : le message de notification n'inclut pas la requête ni aucun handle, snapshot (pour les monitors de métrique) ou lien supplémentaire en bas. +{{< img src="monitors/notifications/monitor_notification_presets.png" alt="Définir un préréglage de moniteur" style="width:70%;" >}} -**Remarque** : selon l'intégration utilisée, une partie du contenu peut ne pas être affichée par défaut. - -### Métadonnées +Les options disponibles sont : -Ajoutez des métadonnées (priorité, tags, équipe Datadog) à votre monitor. La priorité vous permet de définir l'importance de votre monitor en fonction de niveaux P (P1 à P5). Les tags de monitors, qui sont différents des tags de métriques, sont utilisés dans l'interface utilisateur pour regrouper et rechercher des monitors. Si des stratégies de tags sont configurées, les tags requis et leurs valeurs doivent être ajoutés. Pour en savoir plus, consultez la section relative aux [stratégies de tags][10]. Les équipes Datadog vous permettent de définir un niveau de propriété pour ce monitor et d'afficher tous les monitors liés à votre équipe. Pour en savoir plus, consultez la section relative aux [équipes Datadog][11]. +- **Par défaut** : Aucun contenu n'est masqué. +- **Masquer la requête** : Supprimer la requête du moniteur du message de notification. +- **Masquer les mentions** : Supprimer les mentions @ utilisées dans le message de notification. +- **Tout masquer** : Le message de notification n'inclut pas la requête, les mentions, les instantanés (pour les moniteurs de métriques) ou des liens supplémentaires dans les pieds de page. -{{< img src="monitors/notifications/notifications_metadata.png" alt="Vue d'une configuration de politique de tagging. En dessous de 'Policy tags' se trouvent trois exemples de tag, cost_center, product_id et env, à côté d'un menu déroulant 'Select value'." style="width:100%;" >}} +**Remarque** : Selon l'intégration, certains contenus peuvent ne pas être affichés par défaut. -### Renvoi de notifications +## Renotifier {#renotify} Activez le renvoi de notifications (facultatif) pour rappeler à votre équipe qu'un problème n'a pas été résolu. - {{< img src="monitors/notifications/renotify_options.png" alt="Activer le renvoi de notifications" style="width:90%;" >}} + {{< img src="monitors/notifications/renotify_options.png" alt="Activer la renotification" style="width:90%;" >}} -Configurez l'intervalle de renvoi de notifications et les états à partir desquels le monitor renvoie des notifications (valeurs autorisées : `alert`, `no data` et `warn`). Vous avez également la possibilité de limiter le nombre de nouvelles notifications envoyées. +Configurer l'intervalle de renotification, les états du moniteur à partir desquels le moniteur renotifie (dans `alert`, `no data` et `warn`) et éventuellement définir une limite au nombre de messages de renotification envoyés. -Appliquez par exemple au monitor la configuration `stop renotifying after 1 occurrence` pour recevoir un seul message de réaffectation après l'alerte principale. -**Remarque :** les [variables d'attribut et de tag][12] dans la nouvelle notification sont automatiquement renseignées avec les données dont dispose le monitor durant la période de la nouvelle notification. +Par exemple, configurez le moniteur pour `stop renotifying after 1 occurrence` afin de recevoir un seul message d'escalade après l'alerte principale. +**Remarque :** [Les variables d'attribut et de tag][3] dans la renotification sont peuplées avec les données disponibles pour le moniteur pendant la période de temps de la renotification. Si le renvoi de notifications est activé, vous pouvez définir un message de réaffectation. Celui-ci est envoyé lorsque le monitor conserve l'un des états indiqués pendant la période de votre choix. - Le message de réaffectation peut être ajouté de plusieurs façons : -* Dans le bloc `{{#is_renotify}}` du message de la notification d'origine (recommandé) -* Dans le champ *Renotification message* de la section `Configure notifications and automations`. -* Avec l'attribut `escalation_message` dans l'API - -Si vous utilisez le bloc `{{#is_renotify}}`, sachez que le message de notification d'origine est également inclus dans la nouvelle notification. Pour cette raison : +* Dans le `{{#is_renotify}}` bloc dans le message de notification original (recommandé). +* Dans le champ *Message de renotification* dans la section `Configure notifications and automations`. +* Avec l'attribut `escalation_message` dans l'API. -1. Ne répétez pas le contenu du message d'origine : ajoutez uniquement des informations supplémentaires dans le bloc `{{#is_renotify}}`. -2. Envoyez le message de réaffectation à un sous-ensemble de groupes. +Si vous utilisez le `{{#is_renotify}}` bloc, le message de notification original est également inclus dans la renotification, donc : -Consultez la [section Exemples][13] pour découvrir comment configurer vos monitors pour ces scénarios. +1. Inclure uniquement des détails supplémentaires dans le `{{#is_renotify}}` bloc et ne pas répéter les détails du message original. +2. Envoyer le message d'escalade à un sous-ensemble de groupes. +Apprenez à configurer vos moniteurs pour ces cas d'utilisation dans la [section exemple][15]. -## Définir des autorisations et des notifications dʼaudit +## Métadonnées {#metadata} -### Modifications +Ajoutez des métadonnées (Priorité, Étiquettes, Équipe Datadog) à votre moniteur. La priorité du moniteur vous permet de définir l'importance de votre moniteur à travers le niveau P (P1 à P5). Les étiquettes de moniteur - qui sont différentes des étiquettes de métriques - sont utilisées dans l'interface utilisateur pour regrouper et rechercher des moniteurs. Si des politiques d'étiquettes sont configurées, les étiquettes requises et les valeurs d'étiquettes doivent être ajoutées. Pour en savoir plus, consultez [Politiques d'étiquettes][16]. Les équipes Datadog vous permettent de définir un niveau de propriété pour ce moniteur et de voir tous les moniteurs liés à votre équipe. Pour en savoir plus, consultez [Équipes Datadog][17]. -Chaque fois qu'un monitor est créé, modifié, désactivé ou supprimé, un [événement][14] est généré. Définissez l'option `Notify` pour envoyer des notifications aux membres de vos équipes, aux services de discussion et au créateur du monitor à propos de ces événements. +{{< img src="monitors/notifications/notifications_metadata.png" alt="Vue de la configuration des étiquettes de politique. Sous 'Étiquettes de politique', il y a trois étiquettes d'exemple : cost_center, product_id et env, à côté d'un menu déroulant 'Sélectionner une valeur'." style="width:100%;" >}} -### Autorisations +{{% collapse-content title="Priorité" level="h4" expanded=false %}} -Tous les utilisateurs peuvent lire l'ensemble des monitors, indépendamment du rôle auquel ils ont été associés. +Ajoutez une priorité (facultatif) associée à vos moniteurs. Les valeurs vont de P1 à P5, P1 étant la priorité la plus élevée et P5 la plus basse. +Pour remplacer la priorité du moniteur dans le message de notification, utilisez `{{override_priority 'Pi'}}` where `Pi` est entre P1 et P5. -Par défaut, seuls les utilisateurs associés à des rôles disposant de l'[autorisation monitor_write][15] peuvent modifier les monitors. Le [rôle Admin Datadog et le rôle Standard Datadog][16] disposent par défaut de cette autorisation. Si votre organisation utilise des [rôles personnalisés][17], vous pouvez attribuer cette autorisation aux rôles de votre choix. +Par exemple, vous pouvez définir différentes priorités pour les notifications `alert` et `warning` : -Vous pouvez restreindre encore davantage l'accès au monitor en spécifiant une liste de [rôles][18] autorisés à le modifier. Le créateur du monitor, quant à lui, peut toujours le modifier. +``` +{{#is_alert}} +{{override_priority 'P1'}} + ... +{{/is_alert}} +{{#is_warning}} +{{override_priority 'P4'}} +... +{{/is_warning}} +``` +{{% /collapse-content %}} - {{< img src="monitors/notifications/monitor_rbac_restricted.jpg" alt="Monitor avec une restriction RBAC" style="width:90%;" >}} -Il est notamment possible de modifier la configuration du monitor, de supprimer le monitor et de désactiver ses notifications pendant la durée souhaitée. +## Agrégation {#aggregation} -**Remarque** : les limites s'appliquent à la fois à l'IU et à l'API. +Si la requête du moniteur est regroupée, vous pouvez supprimer une ou plusieurs dimensions du regroupement de notification, ou les supprimer toutes et notifier comme une alerte simple. -Pour en savoir plus sur la configuration du RBAC pour les monitors et découvrir comment passer du paramètre locked aux restrictions de rôles pour vos monitors, consultez la section [Configuration du RBAC pour les monitors][19]. +{{< img src="monitors/notifications/notifications_aggregation.png" alt="Vue de la configuration d'agrégation définie sur multi-alerte." style="width:100%;" >}} -## Notifications de test +Trouvez plus d'informations sur cette fonctionnalité dans [Configurer les Moniteurs][18] -Les notifications de test sont prises en charge pour les [types de monitors][20] suivants : host, metric, anomaly, outlier, forecast, logs, rum, apm, integration (check uniquement), process (check uniquement), network (check uniquement), custom check, event et composite. +## Notifications de test {#test-notifications} -### Effectuer le test +Après avoir défini votre moniteur, testez les notifications avec le bouton **Tester les Notifications** en bas à droite de la page du moniteur. -1. Après avoir défini votre monitor, testez les notifications à l'aide du bouton **Test Notifications** situé en bas de la page du monitor. +Les notifications de test sont prises en charge pour les [types de moniteurs][19] : hôte, métrique, anomalie, valeur aberrante, prévision, journaux, rum, apm, intégration (vérification uniquement), processus (vérification uniquement), réseau (vérification uniquement), vérification personnalisée, événement et composite. -2. Dans la fenêtre contextuelle des notifications de test, choisissez le scénario de monitor à tester. Vous pouvez uniquement tester les états disponibles dans la configuration du monitor, pour les seuils indiqués dans les conditions d'alerte. Les [seuils de rétablissement][21] sont la seule exception. En effet, Datadog envoie une notification de rétablissement lorsque le monitor n'est plus en alerte ou lorsqu'il ne possède aucune condition d'avertissement. +1. Dans la fenêtre contextuelle des notifications de test, choisissez la transition du moniteur à tester et le groupe (disponible uniquement si la requête a [regroupement][20]). Vous ne pouvez tester que les états qui sont disponibles dans la configuration du moniteur pour les seuils spécifiés dans les conditions d'alerte. [Seuils de récupération][21] sont une exception, car Datadog envoie une notification de récupération une fois que le moniteur n'est plus en alerte, ou qu'il n'a plus de conditions d'avertissement. - {{< img src="monitors/notifications/test-notif-select.png" alt="Tester les notifications de ce monitor" style="width:70%;" >}} + {{< img src="/monitors/notifications/test_notification_modal.png" alt="Testez les notifications pour ce moniteur" style="width:70%;" >}} -3. Cliquez sur **Run Test** pour envoyer des notifications aux personnes et services répertoriés dans le monitor. +1. Cliquez sur **Exécuter le Test** pour envoyer des notifications aux personnes et services listés dans le moniteur. -### Événements +### Événements {#events} -Les notifications de test créent des événements qui peuvent faire l'objet de recherches dans l'Events Explorer. Ces notifications indiquent la personne à l'origine du test dans le corps du message. La mention `[TEST]` est ajoutée au titre de la notification. +Les notifications de test produisent des événements qui peuvent être recherchés dans l'explorateur d'événements. Ces notifications indiquent qui a initié le test dans le corps du message avec `[TEST]` dans le titre de la notification. -Les variables de tags sont uniquement insérées dans le texte des événements enfants de Datadog. L'événement parent affiche seulement un résumé des agrégations. +Les variables de balise ne sont peuplées que dans le texte des événements enfants de Datadog. L'événement parent n'affiche qu'un résumé d'agrégation. ### Variables {#notification-test-variables} @@ -203,31 +219,33 @@ Les variables de message se remplissent automatiquement à partir d'un groupe di ```text {{#is_alert}} -{{host.name}} <-- est fourni automatiquement +{{host.name}} <-- will populate {{/is_alert}} ``` -## Pour aller plus loin + +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} [1]: /fr/monitors/configuration -[2]: /fr/monitors/notify/variables/#tag-variables -[3]: http://daringfireball.net/projects/markdown/syntax -[4]: /fr/monitors/notify/variables/ -[5]: /fr/monitors/notify/variables/#conditional-variables -[6]: /fr/account_management/teams/#send-notifications-to-a-specific-communication-channel -[7]: /fr/service_management/workflows/ -[8]: /fr/service_management/workflows/trigger/#trigger-a-workflow-from-a-monitor -[9]: /fr/service_management/workflows/build/ -[10]: /fr/monitors/settings/#tag-policies -[11]: /fr/account_management/teams/ -[12]: /fr/monitors/notify/variables/?tabs=is_alert#attribute-and-tag-variables -[13]: /fr/monitors/notify/variables/?tab=is_renotify#examples -[14]: /fr/events/ -[15]: /fr/account_management/rbac/permissions/#monitors -[16]: /fr/account_management/rbac/?tab=datadogapplication#datadog-default-roles -[17]: /fr/account_management/rbac/?tab=datadogapplication#custom-roles -[18]: /fr/account_management/rbac/?tab=datadogapplication -[19]: /fr/monitors/guide/how-to-set-up-rbac-for-monitors/ -[20]: /fr/monitors/types -[21]: /fr/monitors/guide/recovery-thresholds/ \ No newline at end of file +[2]: /fr/incident_response/case_management/create_case/#automatic-case-creation +[3]: /fr/monitors/notify/variables/?tabs=is_alert#attribute-and-tag-variables +[4]: http://daringfireball.net/projects/markdown/syntax +[5]: /fr/monitors/notify/variables/ +[6]: /fr/monitors/notify/variables/#conditional-variables +[8]: /fr/service_management/workflows/ +[9]: /fr/service_management/workflows/trigger/#add-a-monitor-trigger-to-your-workflow +[10]: /fr/service_management/workflows/trigger/#add-the-workflow-to-your-monitor +[11]: /fr/service_management/workflows/build/ +[12]: https://app.datadoghq.com/incidents/settings?section=global-settings +[13]: /fr/incident_response/incident_management/setup_and_configuration/property_fields +[14]: /fr/incident_response/incident_management/notification +[15]: /fr/monitors/notify/variables/?tab=is_renotify#examples +[16]: /fr/monitors/settings/#tag-policies +[17]: /fr/account_management/teams/ +[18]: /fr/monitors/configuration/#set-alert-aggregation +[19]: /fr/monitors/types +[20]: /fr/monitors/configuration/ +[21]: /fr/monitors/guide/recovery-thresholds/ +[22]: /fr/monitors/notify/notification_rules +[23]: /fr/synthetics/notifications/template_variables/ \ No newline at end of file diff --git a/content/fr/monitors/notify/variables.md b/content/fr/monitors/notify/variables.md index 4e74487a29d..efacd53ec9e 100644 --- a/content/fr/monitors/notify/variables.md +++ b/content/fr/monitors/notify/variables.md @@ -3,8 +3,8 @@ description: Utiliser des variables pour personnaliser les notifications de vos further_reading: - link: /monitors/guide/template-variable-evaluation/ tag: Guide - text: Utiliser des opérations et des fonctions arithmétiques à l'aide d'évaluations - de template variables + text: Effectuer des opérations arithmétiques et des fonctions avec des évaluations + de variables de modèle - link: /monitors/ tag: Documentation text: Créer des monitors @@ -19,51 +19,50 @@ further_reading: text: Suivez une formation pour apprendre à personnaliser les notifications de vos monitors d'alerte. - link: https://www.datadoghq.com/blog/monitor-notification-rules/ - tag: Blog + tag: GitHub text: Dirigez vos alertes de monitor avec les règles de notification des monitors Datadog title: Variables --- +Utilisez des variables dans les messages de notification pour afficher des messages conditionnels et acheminer la notification vers différentes équipes en utilisant [des variables conditionnelles](#conditional-variables), ou pour enrichir son contenu en utilisant [des variables d'attribut et de balise](#attribute-and-tag-variables) et [des variables de modèle](#template-variables). -Utilisez des variables dans les messages de notification pour afficher un contenu conditionnel et router la notification vers différentes équipes grâce aux [variables conditionnelles](#variables-conditionnelles), ou pour enrichir le contenu en utilisant des [variables d'attributs et d'étiquettes](#variables-d-attributs-et-d-etiquettes) et des [variables de modèle](#variables-de-modèle). +## Variables conditionnelles {#conditional-variables} -## Variables conditionnelles - -Les variables conditionnelles reposent sur une logique `if-else` pour afficher un message personnalisé en fonction de l'état du monitor et des détails de son déclenchement. Ces variables peuvent être utilisées dans le sujet ou le corps du message de la notification. +Les variables conditionnelles utilisent `if-else` une logique pour afficher un message différent en fonction de l'état du moniteur et des détails de son déclenchement. Ces variables peuvent être utilisées dans le sujet ou le corps du message de notification. Voici la liste des variables conditionnelles disponibles : -| Variable conditionnelle | Condition d'affichage du texte | +| Variable conditionnelle | Le texte est affiché si | |----------------------------|--------------------------------------------------------------------| -| `{{#is_alert}}` | Le monitor génère une alerte. | -| `{{^is_alert}}` | Le monitor ne génère pas d'alerte. | -| `{{#is_match}}` | Le contexte correspond à la sous-chaîne fournie. Si une valeur numérique est utilisée, elle est convertie en chaîne.| -| `{{^is_match}}` | Le contexte ne correspond pas à la sous-chaîne indiquée. | -| `{{#is_exact_match}}` | Le contexte correspond exactement à la chaîne fournie.
    Si une valeur numérique est utilisée, sa valeur est prise en compte, quel que soit son type. Cela signifie que deux nombres de même valeur seront considérés comme égaux par la fonction. | -| `{{^is_exact_match}}` | Le contexte ne correspond pas exactement à la chaîne indiquée. | -| `{{#is_no_data}}` | Le monitor s'est déclenché en raison de données manquantes. | -| `{{^is_no_data}}` | Le monitor ne s'est pas déclenché en raison de données manquantes. | -| `{{#is_warning}}` | Le monitor génère un avertissement. | -| `{{^is_warning}}` | Le monitor ne génère pas d'avertissement. | -| `{{#is_recovery}}` | Le monitor est rétabli depuis un état `ALERT`, `WARNING`, `UNKNOWN` ou `NO DATA`. | -| `{{^is_recovery}}` | Le monitor n'est pas rétabli depuis un état `ALERT`, `WARNING`, `UNKNOWN` ou `NO DATA`. | -| `{{#is_warning_recovery}}` | Le monitor passe d'un état `WARNING` à un état `OK`. | -| `{{^is_warning_recovery}}` | Le monitor ne passe pas d'un état `WARNING` à un état `OK`. | -| `{{#is_alert_recovery}}` | Le monitor passe d'un état `ALERT` à un état `OK`. | -| `{{^is_alert_recovery}}` | Le monitor ne passe pas d'un état ALERT à un état OK. | -| `{{#is_alert_to_warning}}` | Le monitor passe d'un état `ALERT` à un état `WARNING`. | -| `{{^is_alert_to_warning}}` | Le monitor ne passe pas d'un état `ALERT` à un état `WARNING`. | -| `{{#is_no_data_recovery}}` | Le monitor est rétabli depuis un état `NO DATA`. | -| `{{^is_no_data_recovery}}` | Le monitor n'est pas rétabli depuis un état `NO DATA`. | -| `{{#is_priority 'valeur'}}` | Le monitor possède la priorité `valeur`, qui va de `P1` à `P5`. | -| `{{#is_unknown}}` | Le monitor possède un état inconnu. | -| `{{^is_unknown}}` | Le monitor ne possède pas un état inconnu. | -| `{{#is_renotify}}` | Le monitor renvoie des notifications. | -| `{{^is_renotify}}` | Le monitor ne renvoie pas de notification. | - -### Exemples - -La variable conditionnelle doit comporter un élément d'ouverture et un élément de fermeture entourant le texte et les **notifications « @ »**. +| `{{#is_alert}}` | The monitor alerts | +| `{{^is_alert}}` | The monitor does not alert | +| `{{#is_match}}` | The context matches the provided substring. If a numeric value is used, it is converted to a string.| +| `{{^is_match}}` | The context does not match the provided substring | +| `{{#is_exact_match}}` | The context exactly matches the provided string.
    If a number is used, the numeric value is considered, regardless of its type. This means that as long as two numbers have the same value, they are considered equal by the function. | +| `{{^is_exact_match}}` | The context does not exactly match the provided string | +| `{{#is_no_data}}` | The monitor is triggered for missing data | +| `{{^is_no_data}}` | The monitor is not triggered for missing data | +| `{{#is_warning}}` | The monitor warns | +| `{{^is_warning}}` | The monitor does not warn | +| `{{#is_recovery}}` | The monitor recovers from `ALERT`, `WARNING`, `UNKNOWN`, or `NO DATA` | +| `{{^is_recovery}}` | The monitor does not recover from `ALERT`, `WARNING`, `UNKNOWN`, or `NO DATA` | +| `{{#is_warning_recovery}}` | The monitor recovers from `WARNING` to `OK` | +| `{{^is_warning_recovery}}` | The monitor does not recover from `WARNING` to `OK` | +| `{{#is_alert_recovery}}` | The monitor recovers from `ALERT` to `OK` | +| `{{^is_alert_recovery}}` | The monitor does not recover from an ALERT to OK | +| `{{#is_alert_to_warning}}` | The monitor transitions from `ALERT` to `WARNING` | +| `{{^is_alert_to_warning}}` | The monitor does not transition from `ALERT` to `WARNING` | +| `{{#is_no_data_recovery}}` | The monitor recovers from `NO DATA` | +| `{{^is_no_data_recovery}}` | The monitor does not recover from `NO DATA` | +| `{{#is_priority 'value'}}` | The monitor has priority `value`. Value ranges from `P1` to `P5` | +| `{{#is_unknown}}` | The monitor is in the unknown state | +| `{{^is_unknown}}` | The monitor is not in the unknown state | +| `{{#is_renotify}}` | The monitor is renotifying | +| `{{^is_renotify}}` | Le moniteur ne renotifie pas. | + +### Exemples {#examples} + +Les variables conditionnelles doivent avoir une paire d'ouverture et de fermeture avec le texte et **@-notifications** entre les deux. Les variables basées sur l'état du moniteur (comme `is_alert` ou `is_warning`), doivent avoir leur propre bloc de message. Parce qu'un moniteur ne peut être dans qu'un seul état à la fois, vous ne pouvez pas les combiner. Cependant, vous pouvez imbriquer des conditionnels qui correspondent aux attributs, voir les `is_renotify` exemples. {{< tabs >}} {{% tab "is_alert" %}} @@ -72,7 +71,7 @@ Pour envoyer un message de notification lorsqu'un monitor génère une alerte, u ```text {{#is_alert}} - <@-NOTIFICATION> + <@-NOTIFICATION> {{/is_alert}} ``` @@ -83,7 +82,7 @@ Pour envoyer un message de notification lorsqu'un monitor génère un avertissem ```text {{#is_warning}} - <@-NOTIFICATION> + <@-NOTIFICATION> {{/is_warning}} ``` @@ -94,93 +93,95 @@ Pour envoyer un message de notification lorsqu'un monitor est rétabli, utilisez ```text {{#is_recovery}} - <@-NOTIFICATION> + <@-NOTIFICATION> {{/is_recovery}} ``` {{% /tab %}} {{% tab "is_match" %}} -Pour rechercher une sous-chaîne dans une [variable de tag](#variables-d-attribut-et-de-tag), utilisez le format suivant : +Recherchez une sous-chaîne dans une variable de [tag](#attribute-and-tag-variables) avec le format : ```text -{{#is_match ".name" ""}} - Cela s'affiche si fait partie de . +{{#is_match ".name" ""}} + This displays if is included in . {{/is_match}} ``` -Pour informer votre équipe DB qu'un host déclencheur dispose du tag `role:db_cassandra` ou `role:db_postgres`, utilisez le format suivant : +Pour notifier votre équipe DB si un hôte déclencheur a le tag `role:db_cassandra` ou `role:db_postgres`, utilisez ce qui suit : ```text -{{#is_match "role.name" "db"}} - Cela s'affiche si le nom du rôle du host qui a déclenché l'alerte contient `db`. @db-team@company.com +{{#is_match "host.role.name" "db"}} + This displays if the host triggering the alert contains `db` + in the role name. @db-team@company.com {{/is_match}} ``` -La condition `is_match` prend également en charge plusieurs chaînes : +La condition `is_match` prend également en charge la correspondance de plusieurs chaînes : ```text -{{#is_match "role.name" "db" "database"}} - Cela s'affiche si le nom du rôle du host qui a déclenché l'alerte contient `db` ou `database`. - @db-team@company.com +{{#is_match "host.role.name" "db" "database"}} + This displays if the host triggering the alert contains `db` or `database` + in the role name. @db-team@company.com {{/is_match}} ``` -Pour envoyer une autre notification lorsque le tag ne contient pas `db`, utilisez la négation de la condition tel que suit : +Pour envoyer une notification différente si le tag ne contient pas `db`, utilisez la négation de la condition comme suit : ```text -{{^is_match "role.name" "db"}} - Cela s'affiche si le tag du rôle ne contient pas `db`. +{{^is_match "host.role.name" "db"}} + This displays if the role tag doesn't contain `db`. @slack-example {{/is_match}} ``` -Vous pouvez également utiliser le paramètre `{{else}}` dans le premier exemple : +Ou utilisez le `{{else}}` paramètre dans le premier exemple : ```text -{{#is_match "role.name" "db"}} - Cela s'affiche si le nom du rôle du host qui a déclenché l'alerte contient `db`. - @db-team@company.com +{{#is_match "host.role.name" "db"}} + This displays if the host triggering the alert contains `db` + in the role name. @db-team@company.com {{else}} - Cela s'affiche si le tag du rôle ne contient pas `db`. + This displays if the role tag doesn't contain `db`. @slack-example {{/is_match}} ``` -**Remarque** : pour vérifier si une `` n'existe pas ou si elle est vide, utilisez `is_exact_match`. Voir l'onglet `is_exact_match` pour plus de détails. +**Remarque** : Pour vérifier si un `` n'existe pas ou s'il est vide, utilisez `is_exact_match`. Voir l'onglet `is_exact_match` pour plus de détails. {{% /tab %}} {{% tab "is_exact_match" %}} -Pour rechercher une chaîne exacte dans une [variable de tag](#variables-d-attribut-et-de-tag), utilisez le format suivant : +Recherchez une chaîne exacte dans une variable de [tag](#attribute-and-tag-variables) avec le format : ```text -{{#is_exact_match ".name" ""}} - Cela s'affiche si correspond exactement à . +{{#is_exact_match ".name" ""}} + This displays if is exactly . {{/is_exact_match}} ``` -Pour informer votre équipe de développement lorsqu'un host déclencheur dispose du nom `production`, utilisez le format suivant : +Pour notifier votre équipe de développement si un hôte déclencheur a le nom `production`, utilisez ce qui suit : ```text {{#is_exact_match "host.name" "production"}} - Cela s'affiche si le host qui a déclenché l'alerte s'intitule précisément « production ». @dev-team@company.com + This displays if the host that triggered the alert is exactly + named production. @dev-team@company.com {{/is_exact_match}} ``` -La condition `is_exact_match` prend également en charge la correspondance avec plusieurs chaînes : +La condition `is_exact_match` prend également en charge la correspondance de plusieurs chaînes : ```text {{#is_exact_match "host.name" "production" "staging"}} - Ce message s'affiche si le host qui a déclenché l'alerte s'appelle - exactement production ou staging. @dev-team@company.com + This displays if the host that triggered the alert is exactly + named production or staging. @dev-team@company.com {{/is_exact_match}} ``` -La variable conditionnelle `is_exact_match` prend également en charge les [variables de modèle `{{value}}`](#variables-de-modele) : +La variable conditionnelle `is_exact_match` prend également en charge [`{{value}}` template variables](#template-variables): ```text {{#is_exact_match "value" ""}} - Ceci s'affiche si la valeur ayant dépassé le seuil du monitor est exactement . + This displays if the value that breached the threshold of the monitor is exactly . {{/is_exact_match}} ``` @@ -188,45 +189,47 @@ Pour notifier votre équipe de développement si la valeur ayant dépassé le se ```text {{#is_exact_match "value" "5"}} - Ce message s'affiche si la valeur ayant dépassé le seuil du monitor est 5. @dev-team@company.com + This displays if the value that breached the threshold of the monitor is 5. @dev-team@company.com {{/is_exact_match}} ``` -La variable conditionnelle `is_exact_match` prend également en charge une chaîne vide pour le `` afin de vérifier si l’attribut ou le tag est vide ou n’existe pas. +La variable conditionnelle `is_exact_match` prend également en charge une chaîne vide pour le `` afin de vérifier si l'attribut ou le tag est vide ou n'existe pas. + ```text {{#is_exact_match "host.datacenter" ""}} - Ce message s'affiche si l'attribut ou le tag n'existe pas ou s'il est vide -{{/is_match}} + This displays if the attribute or tag does not exist or if it's empty +{{/is_exact_match}} ``` {{% /tab %}} {{% tab "is_renotify" %}} -Pour envoyer un message de réaffectation à une autre destination, seulement pour l'environnement `production` : +Pour envoyer un message d'escalade à une destination différente uniquement pour l'environnement `production` : ```text {{#is_renotify}} {{#is_match "env" "production"}} - Ceci est un message de réaffectation envoyé à @dev-team@company.com + This is an escalation message sent to @dev-team@company.com {{/is_match}} {{/is_renotify}} ``` -Pour envoyer un autre message de réaffectation qui ne contient pas les informations du message d'origine, utilisez à la fois les blocs `{{^is_renotify}}` et `{{#is_renotify}}` : +Pour envoyer un message d'escalade différent qui ne contient pas les détails du message original, utilisez une combinaison de `{{^is_renotify}}` and `{{#is_renotify}}` blocs : ```text {{^is_renotify}} -Ce monitor possède un état d'alerte et envoie un premier message à @dev-team@company.com +This monitor is alerting and sending a first message @dev-team@company.com -Pour rétablir l'état de ce monitor, suivez les étapes suivantes : -1. Allez ici -2. Faites ceci +To solve this monitor follow the steps: +1. Go there +2. Do this {{/is_renotify}} -Cette section est générique et est envoyée pour le premier déclenchement et le message de réaffectation. +This part is generic and sent both for the first trigger and the escalation message. + {{#is_renotify}} - Ceci est le message de réaffectation @dev-team@company.com + This is the escalation message @dev-team@company.com {{/is_renotify}} ``` @@ -234,54 +237,55 @@ Cette section est générique et est envoyée pour le premier déclenchement et Dans la nouvelle notification du monitor, les utilisateurs pourront lire le message de réaffectation suivant : ``` -Cette section est générique et est envoyée pour le premier déclenchement et le message de réaffectation. +This part is generic and sent both for the first trigger and the escalation message. -Ceci est le message de réaffectation @dev-team@company.com +This is the escalation message @dev-team@company.com ``` {{% /tab %}} + {{< /tabs >}} -Si vous configurez un bloc conditionnel pour une transition d'état vers les conditions `alert` ou `warning` avec une mention **@-notifications**, il est recommandé de configurer une condition `recovery` correspondante afin qu'une notification de rétablissement soit envoyée à cette même mention. +Si vous configurez un bloc conditionnel pour une transition d'état dans les conditions `alert` ou `warning` avec un gestionnaire de notifications **@-notifications**, Datadog recommande de configurer une condition `recovery` correspondante pour envoyer une notification de récupération au gestionnaire. -**Remarque** : tout texte ou handle de notification placé **en dehors** des variables conditionnelles configurées est invoqué à chaque changement d'état du monitor. À l'inverse, tout texte ou handle de notification placé **au sein** des variables conditionnelles configurées est invoqué uniquement si le changement d'état du monitor respecte la condition. +**Remarque** : Tout texte ou gestionnaire de notification placé **en dehors** des variables conditionnelles configurées est invoqué à chaque transition d'état du moniteur. Tout texte ou gestionnaire de notification placé **à l'intérieur** des variables conditionnelles configurées n'est invoqué que si la transition d'état du moniteur correspond à sa condition. -## Variables d'attribut et de tag +## Variables d'attribut et de tag {#attribute-and-tag-variables} -Utilisez des variables d'attributs et de tag pour créer des messages d'alerte personnalisés, informatifs et ciblés afin de mieux comprendre la nature de l'alerte. Voir les sections suivantes pour des exemples et cas d'usage : -- [Variables à alertes multiples](#variables-a-alertes-multiples) -- [Variables d'attributs et d'étiquettes correspondantes](#variables-d-attributs-et-d-etiquettes-correspondantes) +Utilisez des variables d'attribut et de tag pour rendre les messages d'alerte personnalisés, informatifs et spécifiques afin d'aider à comprendre la nature de l'alerte. Voir les sections suivantes pour des exemples et des cas d'utilisation : +- [Variables d'alerte multiples](#multi-alert-variables) +- [Variables d'attribut/tag correspondantes](#matching-attributetag-variables) -Tags -: automatiquement associés (comme le nom de host, le nom du conteneur, le nom du fichier de log ou le nom de la fonction serverless) ou ajoutés via des tags personnalisés (comme l'équipe responsable, l'environnement, l'application ou la version). +Les tags +: Attaché automatiquement (comme le nom d'hôte, le nom de conteneur, le nom de fichier journal et le nom de fonction sans serveur) ou ajouté par des tags personnalisés (comme l'équipe responsable, l'environnement, l'application ou la version). -Attributs -: basés sur le contenu du log et soit analysés, soit ajoutés à l'aide de recherches dans des tables de référence (par exemple, geoip). +Attributes +: Basé sur le contenu du journal et soit analysé soit ajouté par des recherches dans des tables de référence (par exemple, geoip). -**Remarque** : Si le monitor est configuré pour se rétablir en cas d'absence de données (par exemple, lorsqu'aucun événement ne correspond à la requête), le message de rétablissement ne contient aucune donnée. Pour conserver des informations dans le message de rétablissement, effectuez un groupement par des tags supplémentaires, accessibles via `{{tag.name}}`. +**Remarque** : Si le moniteur est configuré pour se rétablir dans des conditions sans données (par exemple, lorsqu'il n'y a aucun événement correspondant à la requête), le message de récupération ne contient aucune donnée. Pour persister des informations dans le message de récupération, regroupez par des tags supplémentaires, qui sont accessibles par `{{tag.name}}`. -### Variables à alertes multiples +### Variables d'alerte multiples {#multi-alert-variables} -Configurez des variables à alertes multiples dans des [monitors à alertes multiples][1] en fonction de la dimension sélectionnée dans la section du groupe à alertes multiples. Enrichissez le contenu de la notification en incluant de façon dynamique la valeur associée au groupe en fonction des dimensions de chaque alerte. +Configurez des variables d'alerte multiples dans [les moniteurs d'alerte multiples][1] en fonction de la dimension sélectionnée dans la boîte de groupe d'alerte multiples. Enrichissez les notifications en incluant dynamiquement la valeur associée à la dimension de regroupement dans chaque alerte. -**Remarque** : lorsque vous utilisez le champ `group_by` pour l'agrégation, des tags et des alertes supplémentaires issus du monitor peuvent être hérités automatiquement. Cela signifie que toute alerte ou configuration définie sur l'endpoint surveillé pourrait être appliquée à chaque groupe résultant de l'agrégation. +**Remarque** : Lorsque vous utilisez le champ `group_by` dans l'agrégation, des tags et alertes supplémentaires du moniteur peuvent être hérités automatiquement. Cela signifie que toutes les alertes ou configurations définies sur le point de terminaison surveillé pourraient être appliquées à chaque groupe résultant de l'agrégation. {{< tabs >}} {{% tab "Regrouper par tag" %}} -Lorsqu'une métrique possède un tag au format `key:value` et que la requête du monitor est regroupée en fonction de ce tag, utilisez la variable suivante : +Si une métrique est étiquetée avec un tag au format `key:value` et que la requête de surveillance est regroupée par ce tag, utilisez la variable : ``` {{ key.name }} ``` -Cette variable insère la `value` associée à la `key` dans chaque notification d’alerte. Par exemple, si votre monitor déclenche une alerte pour chaque `env`, alors la variable `{{env.name}}` est disponible dans votre message de notification. +Cette variable insère le `value` associé au `key` dans chaque notification d'alerte. Par exemple, si votre moniteur déclenche une alerte pour chaque `env`, alors la variable `{{env.name}}` est disponible dans votre message de notification. -Si un groupe possède plusieurs `values` associées à la même `key`, le message d'alerte affiche une chaîne contenant toutes les valeurs, séparées par des virgules, dans l'ordre lexicographique. +Si un groupe a plusieurs `values` associés au même `key`, le message d'alerte affiche une chaîne de valeurs séparées par des virgules, dans l'ordre lexicographique. -#### Clé de tag avec un point +#### Clé de tag avec un point {#tag-key-with-period} -Si la clé de votre tag contient un point, entourez l'intégralité de la clé avec des crochets lors de l'utilisation d'une variable de tag. Par exemple, si votre tag est `dot.key.test:five` et que votre monitor est groupé par `dot.key.test`, utilisez : +Si la clé de votre tag contient un point, incluez des crochets autour de la clé complète lors de l'utilisation d'une variable de tag. Par exemple, si votre tag est `dot.key.test:five` et que votre moniteur est regroupé par `dot.key.test`, utilisez : ```text {{[dot.key.test].name}} @@ -289,18 +293,18 @@ Si la clé de votre tag contient un point, entourez l'intégralité de la clé a {{% /tab %}} -{{% tab "Regrouper par facette" %}} +{{% tab "Grouper par facette" %}} -Les log monitors, monitors d'analyse de traces, monitors RUM et monitors d'événement peuvent utiliser des facettes en tant que variables lorsqu'ils sont regroupés par facette. Si un log monitor est regroupé en fonction de `@facet_key`, utilisez la variable suivante : +Les moniteurs de logs, les moniteurs d'analytique de traces, les moniteurs RUM et les moniteurs d'événements peuvent utiliser des facettes comme variables si le moniteur est regroupé par facette. Si un moniteur de logs est regroupé par `@facet_key`, utilisez la variable : ```text {{ @facet_key.name }} ``` -**Exemple** : pour inclure les informations spécifiques d'un groupe de monitors de logs à alertes multiples, effectuez un regroupement selon `@machine_id` : +**Exemple** : Pour inclure des informations spécifiques au groupe dans un groupe de moniteurs de logs multi alertes regroupé par `@machine_id` : ```text -Cette alerte a été déclenchée sur {{ @machine_id.name }} +This alert was triggered on {{ @machine_id.name }} ``` Si votre facette comporte des points, placez-la entre crochets. Par exemple : @@ -312,102 +316,94 @@ Si votre facette comporte des points, placez-la entre crochets. Par exemple : {{% /tab %}} {{< /tabs >}} -#### Personnaliser la notification en fonction du groupe +#### Personnalisez la notification en fonction du groupe {#customize-the-notification-based-on-the-group} -Lorsque votre requête est groupée par certaines dimensions, vous pouvez enrichir les notifications avec les métadonnées dynamiques associées au groupe. Pour voir la liste des variables de tag en fonction de votre sélection, cliquez sur **Use message template variables** (Utiliser des variables de modèle de message) dans la section **Configure notifications & automations** (Configurer les notifications et automatisations). Voici des exemples : +Lorsque votre requête est regroupée par des dimensions spécifiques, vous pouvez enrichir les notifications avec des métadonnées dynamiques associées au groupe. Pour voir une liste de variables de tag en fonction de votre sélection de tags, cliquez sur **Utiliser des variables de modèle de message** dans la section **Configurer les notifications et automatisations**. Voir les exemples suivants : -{{% collapse-content title="Requête avec group by host" level="h5" %}} +{{% collapse-content title="Regroupement de requêtes par host" level="h5" %}} -Si votre monitor déclenche une alerte pour chaque `host`, alors les variables de tag `{{host.name}}` et `{{host.ip}}` sont disponibles, ainsi que tout tag de host disponible sur ce host. +Si votre moniteur déclenche une alerte pour chaque `host`, alors les variables de tag `{{host.name}}` and `{{host.ip}}` sont disponibles ainsi que tout tag d'hôte qui est disponible sur cet hôte. Variables spécifiques aux métadonnées du host : -- Version de l'Agent : `{{host.metadata_agent_version}}` -- Machine : `{{host.metadata_machine}}` -- Plateforme : `{{host.metadata_platform}}` -- Processeur : `{{host.metadata_processor}}` +- Version de l'agent : `{{host.metadata_agent_version}}` +- Machine : `{{host.metadata_machine}}` +- Plateforme : `{{host.metadata_platform}}` +- Processeur : `{{host.metadata_processor}}` {{% /collapse-content %}} -{{% collapse-content title="Requête avec group by kube_namespace et kube_cluster_name" level="h5" %}} -Si votre monitor déclenche une alerte pour chaque `kube_namespace` et `kube_cluster_name`, vous pouvez alors accéder à n'importe quel attribut de l'espace de nommage. +{{% collapse-content title="Groupe de requêtes par kube_namespace et kube_cluster_name" level="h5" %}} +Si votre moniteur déclenche une alerte pour chaque `kube_namespace` et `kube_cluster_name`, alors vous pouvez accéder à n'importe quel attribut de l'espace de noms. Variables de métadonnées de l'espace de nommage : -- Nom du cluster : `{{kube_namespace.cluster_name}}` -- Nom de l'espace de nommage : `{{kube_namespace.display_name}}` -- Statut de l’espace de nommage : `{{kube_namespace.status}}` -- Étiquettes de l'espace de nommage : `{{kube_namespace.labels}}` +- Nom du cluster : `{{kube_namespace.cluster_name}}` +- Nom de l'espace de noms : `{{kube_namespace.display_name}}` +- Statut de l'espace de noms : `{{kube_namespace.status}}` +- Étiquettes de l'espace de noms : `{{kube_namespace.labels}}` Le tableau suivant contient tous les attributs disponibles : -| Syntaxe de la variable | Attributs de premier niveau | +| Syntaxe de variable | Attributs de premier niveau | |-------------------|------------------------| | `{{kube_namespace.key}}` | `k8s_namespace_key`, `tags`, `annotations`, `cluster_id`, `cluster_name`, `creation_timestamp`, `deletion_timestamp`, `display_name`, `external_id`, `finalizers`, `first_seen_at`, `group_size`, `labels`, `name`, `namespace`, `status`, `uid`| {{% /collapse-content %}} -{{% collapse-content title="Requête avec group by pod_name, kube_namespace et kube_cluster_name" level="h5" %}} -Si votre monitor déclenche une alerte pour chaque `pod_name`, `kube_namespace` et `kube_cluster_name`, vous pouvez alors accéder à n'importe quel attribut du pod. +{{% collapse-content title="Regroupez par pod_name, kube_namespace et kube_cluster_name" level="h5" %}} +Si votre moniteur déclenche une alerte pour chaque `pod_name` et `kube_namespace` et `kube_cluster_name`, alors vous pouvez accéder à n'importe quel attribut du pod. Variables de métadonnées du pod : -- Nom du cluster : `{{pod_name.cluster_name}}` -- Nom du pod : `{{pod_name.name}}` -- Phase du pod : `{{pod_name.phase}}` +- Nom du cluster : `{{pod_name.cluster_name}}` +- Nom du pod : `{{pod_name.name}}` +- Phase du pod : `{{pod_name.phase}}` Le tableau suivant contient tous les attributs disponibles : -| Syntaxe de la variable | Attributs de premier niveau | +| Syntaxe de variable | Attributs de premier niveau | |-------------------|------------------------| | `{{pod_name.key}}` | `k8s_pod_key`, `tags`, `annotations`, `cluster_id`, `cluster_name`, `conditions`, `container_statuses`, `creation_timestamp`, `deletion_timestamp`, `display_name`, `external_id`, `finalizers`, `first_seen_at`, `host_id`, `host_key`, `hostname`, `init_container_statuses`, `ip`, `labels`, `name`, `namespace`, `node_name`, `nominated_node_name`, `phase`, `pod_scheduled_timestamp`, `priority_class_name`, `qosclass`, `resource_requirements`, `uid`| {{% /collapse-content %}} -{{% collapse-content title="Requête avec group by service" level="h5" %}} +{{% collapse-content title="Regroupez par service" level="h5" %}} -Si votre monitor déclenche une alerte pour chaque `service`, alors vous pouvez accéder à certains attributs du service, tels que définis dans le [Software Catalog][10]. +Si votre moniteur déclenche une alerte pour chaque `service`, alors vous pouvez accéder à un attribut du service, tel que défini dans le [Catalogue de logiciels][10]. Variables de métadonnées de service : -- Nom du service : `{{service.name}}` -- Nom de l'équipe : `{{service.team}}` -- Docs : `{{service.docs}}` -- Liens : `{{service.links}}` +- Nom du service : `{{service.name}}` +- Nom de l'équipe : `{{service.team}}` +- Docs : `{{service.docs}}` +- Liens : `{{service.links}}` -Pour les documents et liens, vous pouvez également accéder à un élément spécifique avec la syntaxe suivante : `[]`. Par exemple, pour les services qui disposent d'un schéma de définition comme celui défini dans [cet exemple][11], vous pouvez accéder au lien « Runbook » en utilisant la syntaxe suivante : +Pour les Docs et Liens, vous pouvez également accéder à un élément spécifique avec la syntaxe suivante `[]`. Par exemple, pour les services qui ont un schéma de définition comme celui défini dans cet [exemple][11], vous pouvez accéder au lien "Runbook" en utilisant la syntaxe suivante -```texte +```text {{service.links[Runbook]}} ``` {{% /collapse-content %}} +### Correspondance des variables d'attribut/tag {#matching-attributetag-variables} +Vous pouvez inclure tout attribut ou tag d'un journal, d'un span de trace, d'un événement RUM, d'un pipeline CI ou d'un événement de test CI qui correspond à la requête de surveillance. Le tableau suivant montre des exemples d'attributs et de variables que vous pouvez ajouter à partir de différents types de surveillance. -### Correspondance des variables d'attribut et de tag - - - -Pour inclure **n’importe quel** attribut ou tag provenant d'un log, d'un span de trace, d'un événement RUM, d'un pipeline CI ou d'un événement de test CI correspondant à la requête du monitor, utilisez les variables suivantes : +
    Pour voir la liste complète des variables disponibles pour votre moniteur, en bas de votre configuration de notification, cliquez sur {{ Ajouter une variable et sélectionnez parmi les options du menu déroulant.
    -| Type de monitor | Syntaxe de la variable | -|-----------------|--------------------------------------------------| -| Log | `{{log.attributes.key}}` ou `{{log.tags.key}}` | -| Analyse de traces | `{{span.attributes.key}}` ou `{{span.tags.key}}` | -| Error Tracking | `{{issue.attributes.key}}` | -| RUM | `{{rum.attributes.key}}` ou `{{rum.tags.key}}` | -| Piste d'audit | `{{audit.attributes.key}}` ou `{{audit.message}}` | -| Pipeline CI | `{{cipipeline.attributes.key}}` | -| Test de CI | `{{citest.attributes.key}}` | -| Database Monitoring | `{{databasemonitoring.attributes.key}}` | +| Type de moniteur | Syntaxe de variable | +|--------------------------|--------------------------------------------------------| +| [Journal d'audit][16] | `{{audit.attributes.key}}` or `{{audit.message}}` | +| [CI Pipeline][17] | `{{cipipeline.attributes.key}}` | +| [CI Test][18] | `{{citest.attributes.key}}` | +| [Database Monitoring][19]| `{{databasemonitoring.attributes.key}}` | +| [Error Tracking][14] | `{{issue.attributes.key}}` | +| [Log][12] | `{{log.attributes.key}}` or `{{log.tags.key}}` | +| [RUM][15] | `{{rum.attributes.key}}` or `{{rum.tags.key}}` | +| [Synthetic Monitoring][20]| `{{synthetics.attributes.key}}` | +| [Trace Analytics][13] | `{{span.attributes.key}}` or `{{span.tags.key}}` | -{{% collapse-content title= "Exemple d'utilisation de la syntaxe" level="h4" %}} -- Pour n'importe quelle paire `key:value`, la variable `{{log.tags.key}}` affiche la `value` dans le message d'alerte. -- Le `@` qui précède tous les attributs n'est pas inclus. Par exemple, si un monitor de log est groupé par `@http.status_code`, vous pouvez inclure le message d'erreur ou les tags d'infrastructure dans le message de notification en utilisant les variables suivantes : +{{% collapse-content title="Exemple d'utilisation de la syntaxe" level="h4" %}} +- Pour toute paire `key:value`, la variable `{{log.tags.key}}` renders `valeur` dans le message d'alerte. +- Le `@` qui précède tous les attributs n'est pas inclus. Par exemple, si un moniteur de journal est regroupé par `@http.status_code`, vous pouvez inclure le message d'erreur ou les balises d'infrastructure dans le message de notification en utilisant les variables: ```text {{ log.attributes.[error.message] }} @@ -415,105 +411,123 @@ Pour inclure **n’importe quel** attribut ou tag provenant d'un log, d'un span ... ``` - {{< img src="monitors/notifications/tag_attribute_variables.png" alt="Syntaxe des variables d'attribut correspondantes"style="width:90%;">}} -- Le message affiche l'attribut `error.message` d'un log correspondant à la requête, **tant que l'attribut existe**. + {{< img src="monitors/notifications/tag_attribute_variables.png" alt="Syntaxe de variable d'attribut correspondante:" style="width:90%;">}} +- Le message rend l'attribut `error.message` d'un journal choisi correspondant à la requête, **si l'attribut existe**. - Si le tag est présent sur un événement, utilisez la syntaxe suivante : ```text {{ event.tags.[dot.key.test] }} ``` - {{% /collapse-content %}} +#### Notes importantes {#important-notes} -#### Remarques importantes - -- Si l'événement sélectionné n'inclut pas la clé d'attribut ou de tag, la variable apparaîtra vide dans le message de notification. Pour éviter les notifications manquantes, n'utilisez pas ces variables pour router les notifications avec des handles `{{#is_match}}`. +- Si l'événement sélectionné n'inclut pas l'attribut ou la clé de balise, la variable rend vide dans le message de notification. Pour éviter de manquer des notifications, évitez d'utiliser ces variables pour le routage des notifications avec `{{#is_match}}` gère. - Pour les monitors qui utilisent des formules et des fonctions dans leurs requêtes, les valeurs sont résolues à partir des événements extraits de la première requête. -#### Attributs réservés +#### Attributs réservés {#reserved-attributes} Les événements de logs, de gestion des événements, de spans, de RUM, de Pipeline CI et de tests CI disposent d'attributs réservés génériques, que vous pouvez utiliser dans les variables avec la syntaxe suivante : -| Type de monitor | Syntaxe de la variable | Attributs de premier niveau | +| Type de moniteur | Syntaxe de variable | Attributs de premier niveau | |-----------------|-------------------|------------------------| -| Log | `{{log.key}}` | `message`, `service`, `status`, `source`, `span_id`, `timestamp`, `trace_id`, `link`, `host` | -| Analyse de traces | `{{span.key}}` | `env`, `operation_name`, `resource_name`, `service`, `status`, `span_id`, `timestamp`, `trace_id`, `type`, `link` | -| RUM | `{{rum.key}}` | `service`, `status`, `timestamp`, `link` | -| Événement | `{{event.key}}` | `attributes`, `host.name`, `id`, `link`, `title`, `text`, `tags` | -| Pipeline CI | `{{cipipeline.key}}` | `service`, `env`, `resource_name`, `ci_level`, `trace_id`, `span_id`, `pipeline_fingerprint`, `operation_name`, `ci_partial_array`, `status`, `timestamp`, `link` | -| Test de CI | `{{citest.key}}` | `service`, `env`, `resource_name`, `trace_id`, `span_id`, `operation_name`, `status`, `timestamp`, `link` | +| Journal | `{{log.key}}` | `message`, `service`, `statut`, `source`, `span_id`, `timestamp`, `trace_id`, `lien`, `hôte` | +| Trace Analytics | `{{span.key}}` | `env`, `nom_de_l'opération`, `nom_de_ressource`, `service`, `statut`, `span_id`, `timestamp`, `trace_id`, `type`, `lien` | +| RUM | `{{rum.key}}` | `service`, `statut`, `horodatage`, `lien` | +| Event | `{{event.key}}` | `attributs`, `nom.hôte`, `id`, `lien`, `titre`, `texte`, `tags` | +| CI Pipeline | `{{cipipeline.key}}` | `service`, `env`, `nom_ressource`, `niveau_ci`, `id_trace`, `id_span`, `empreinte_pipeline`, `nom_opération`, `tableau_partiel_ci`, `statut`, `horodatage`, `lien` | +| CI Test | `{{citest.key}}` | `service`, `env`, `nom_ressource`, `id_trace`, `id_span`, `nom_opération`, `statut`, `horodatage`, `lien` | Si l'événement correspondant ne contient pas l'attribut dans sa définition, la variable n'affiche rien. -#### Lien Explorer +#### Explorer le lien {#explorer-link} -Utilisez `{{log.link}}`, `{{span.link}}`, `{{rum.link}}`, et `{{issue.link}}` pour enrichir la notification avec un lien vers le Log Explorer, le Trace Explorer, le RUM Explorer ou Error Tracking, ciblé sur les événements correspondant à la requête. +Utiliser `{{log.link}}`, `{{span.link}}`, `{{rum.link}}`, and `{{issue.link}}` pour enrichir la notification avec un lien vers l'Explorateur de Logs, l'Explorateur de Traces, l'Explorateur RUM ou le Suivi des Erreurs, en se basant sur les événements correspondant à la requête. -### Variables des monitors de check +### Variables du moniteur de vérification {#check-monitor-variables} -Pour les monitors de check (check custom et check d'intégration), vous pouvez utiliser la variable `{{check_message}}` afin d'afficher le message du check custom ou du check d'intégration. +Pour les variables du moniteur de vérification (moniteur de vérification personnalisé et moniteur de vérification d'intégration), la variable `{{check_message}}` est disponible et affiche le message de vérification spécifié dans le moniteur de vérification personnalisé ou le moniteur de vérification d'intégration. -### Variables des monitors composite +### Variables du moniteur composite {#composite-monitor-variables} Les monitors composite peuvent accéder à la valeur et à l'état associés aux sous-monitors au moment du déclenchement de l'alarme. -Par exemple, si votre monitor composite possède un sous-monitor `a`, vous pouvez inclure la valeur de `a` avec : +Par exemple, si votre moniteur composite a un sous-moniteur `a`, vous pouvez inclure la valeur de `a` avec : ```text {{ a.value }} ``` -Pour récupérer le statut du sous-monitor `a`, utilisez : +Pour récupérer le statut du sous-moniteur `a`, utilisez : ```text {{ a.status }} ``` -Les valeurs possibles pour l'état sont : `OK`, `Alert`, `Warn` et `No Data`. +Les valeurs possibles pour le statut sont : `OK`, `Alert`, `Warn` et `No Data`. -Les monitors composite prennent également en charge les variables de tag, tout comme leurs monitors sous-jacents. Ils reprennent le même format que les autres monitors, tant que les monitors sous-jacents sont regroupés en fonction du même tag ou de la même facette. +Les moniteurs composites prennent également en charge les variables de modèle de tag de la même manière que leurs moniteurs sous-jacents. Ils suivent le même format que les autres moniteurs, à condition que les moniteurs sous-jacents soient regroupés par le même tag ou facette. -Par exemple, supposons que votre monitor composite comporte un sous-monitor `a`, qui est un monitor de logs. Vous pouvez inclure la valeur de n'importe quel tag ou facette de `a` avec : +Par exemple, supposons que votre moniteur composite ait un sous-moniteur `a`, qui est un moniteur de Logs. Vous pouvez inclure la valeur de n'importe quelle balise ou facette de `a` avec : ```text -{{ a.log.message }} ou {{ a.log.my_facet }} +{{ a.log.message }} or {{ a.log.my_facet }} ``` -### Échappement de caractères +### Échappement de caractère {#character-escape} -Par défaut, le contenu des variables est échappé par défaut. Pour éviter que du contenu JSON ou du code soit échappé, utilisez trois accolades au lieu de deux. Exemple : `{{{event.text}}}`. +Le contenu variable est encodé en HTML par défaut. Pour afficher du contenu brut, non encodé, utilisez trois accolades au lieu de deux. -## Template variables +Par exemple, lorsque la valeur d'une variable contient une URL avec des paramètres de requête, le `&` est traité différemment selon que des doubles ou des triples accolades sont utilisées : -Utilisez des template variables pour personnaliser les notifications de votre monitor. Voici la liste des variables intégrées : +| Syntaxe | Exemple de sortie | +--------|----------------| +| `{{template_variable}}` (double braces) | `https://status.example.com/check?service=web&region=us-east` | +| `{{{template_variable}}}` (triple braces) | `https://status.example.com/check?service=web®ion=us-east` | -| Variable | Rôle | +| Syntaxe | Sortie | +|--------|--------| +| `{{variable}}` | HTML-encoded (default) | +| `{{{variable}}}` | Brut, non encodé | + +Par exemple, pour rendre le message de vérification sans encodage HTML : + +```text +{{{check_message}}} +``` + +Ceci est particulièrement pertinent lorsque `{{check_message}}` contains auto-generated URLs with query parameters (for example, on HTTP Check monitors). The `&` characters in those URLs are HTML-encoded by default, which can break clickable links in notifications. Use `{{{check_message}}}` pour préserver les URL telles quelles. + +## Variables de modèle {#template-variables} + +Utilisez des variables de modèle pour personnaliser vos notifications de surveillance. Les variables intégrées sont : + +| Variable | Description | |----------------------------------- |-------------------------------------------------------------------------------| -| `{{value}}` | La valeur qui a déclenché l'alerte pour les monitors de requête basés sur des métriques. | -| `{{threshold}}` | La valeur du seuil d'alerte défini dans les conditions d'alerte du monitor. | -| `{{warn_threshold}}` | La valeur du seuil d'avertissement défini dans les conditions d'alerte du monitor. | -| `{{alert_recovery_threshold}}` | La valeur qui a permis de sortir le monitor de l'état `ALERT`. | -| `{{warn_recovery_threshold}}` | La valeur qui a permis de sortir le monitor de l'état `WARN`. | -| `{{ok_threshold}}` | La valeur qui a permis de sortir le monitor de check de service. | -| `{{comparator}}` | La valeur relationnelle définie dans les conditions d'alerte du monitor. | -| `{{first_triggered_at}}`
    *Voir la section ci-dessous* | La date et l'heure UTC auxquelles le monitor a été déclenché pour la première fois. | -| `{{first_triggered_at_epoch}}`
    *Voir la section ci-dessous* | La date et l'heure UTC auxquelles le monitor a été déclenché pour la première fois, en millisecondes Unix. | -| `{{last_triggered_at}}`
    *Voir la section ci-dessous* | La date et l'heure UTC du dernier déclenchement du monitor. | -| `{{last_triggered_at_epoch}}`
    *Voir la section ci-dessous* | La date et l'heure UTC du dernier déclenchement du monitor, au format EPOCH en millisecondes. | -| `{{triggered_duration_sec}}` | Le nombre de secondes pendant lesquelles le monitor est resté dans un état déclenché. | +| `{{value}}` | The value that breached the alert for metric based query monitors. | +| `{{threshold}}` | The value of the alert threshold set in the monitor's alert conditions. | +| `{{warn_threshold}}` | The value of the warning threshold set in the monitor's alert conditions. | +| `{{alert_recovery_threshold}}` | The value that recovered the monitor from its `ALERT` state. | +| `{{warn_recovery_threshold}}` | The value that recovered the monitor from its `WARN` state. | +| `{{ok_threshold}}` | The value that recovered the Service Check monitor. | +| `{{comparator}}` | The relational value set in the monitor's alert conditions. | +| `{{first_triggered_at}}`
    *See section below* | The UTC date and time when the monitor first triggered. | +| `{{first_triggered_at_epoch}}`
    *See section below* | The UTC date and time when the monitor first triggered in epoch milliseconds. | +| `{{last_triggered_at}}`
    *See section below* | The UTC date and time when the monitor last triggered. | +| `{{last_triggered_at_epoch}}`
    *See section below* | The UTC date and time when the monitor last triggered in epoch milliseconds. | +| `{{triggered_duration_sec}}` | Le nombre de secondes pendant lesquelles le moniteur a été dans un état déclenché. | -### Variables déclenchées +### Variables déclenchées {#triggered-variables} - Les variables de modèle `{{first_triggered_at}}`, `{{first_triggered_at_epoch}}`, `{{last_triggered_at}}` et `{{last_triggered_at_epoch}}` reflètent les valeurs au moment d'un changement d'état du monitor, et **NON** à chaque nouvel événement du monitor. Les événements de renotification affichent la même variable si l'état du monitor n'a pas changé. Utilisez `{{triggered_duration_sec}}` pour afficher la durée au moment de l'événement. + Le `{{first_triggered_at}}`, `{{first_triggered_at_epoch}}`, `{{last_triggered_at}}`, and `{{last_triggered_at_epoch}}` monitor template variables reflect the values when a monitor changes state, **NOT** when a new monitor event occurs. Renotification events show the same template variable if the monitor state has not changed. Use `{{triggered_duration_sec}}` pour afficher la durée au moment de l'événement du moniteur. - `{{first_triggered_at}}` est défini lorsque le groupe de monitor passe de `OK` à un état différent de `OK`, ou lorsqu'un nouveau groupe apparaît dans un état non `OK`. `{{last_triggered_at}}` est défini quand le groupe de monitor passe à un état non `OK`, quel que soit l'état précédent (y compris `WARN` → `ALERT`, `ALERT` → `WARN`). `{{last_triggered_at}}` est également défini lorsqu'un nouveau groupe apparaît dans un état non `OK`. La différence est que `{{last_triggered_at}}` est indépendant de l'état précédent. + `{{first_triggered_at}}` is set when the monitor group goes from `OK` to a non-`OK` state or when a new group appears in a non-`OK` state. `{{last_triggered_at}}` gets set when the monitor group goes to a non-`OK` state independently from its previous state (including `WARN` → `ALERT`, `ALERT` → `WARN`). Additionally, `{{last_triggered_at}}` is set when a new group appears in a non-`OK` state. The difference is that `{{last_triggered_at}}` est indépendant de son état précédent. - {{< img src="monitors/notifications/triggered_variables.png" alt="Transitions montrant quatre horodatages A : 1419 OK vers WARN, B : 1427 WARN vers ALERT, C : 1445 ALERT vers NO DATA, D : 1449 NO DATA vers OK" style="width:90%;">}} + {{< img src="monitors/notifications/triggered_variables.png" alt="Affichage de quatre transitions avec des horodatages A : 1419 OK à WARN, B : 1427 WARN à ALERT, C : 1445 ALERT à NO DATA, D : 1449 NO DATA à OK" style="width:90%;">}} -**Exemple** : lorsque le monitor passe de `OK` à `WARN`, les variables `{{first_triggered_at}}` et `{{last_triggered_at}}` auront toutes deux la valeur de l'horodatage A. Le tableau ci-dessous affiche les valeurs jusqu'à la récupération du monitor. +**Exemple** : Lorsque le moniteur passe de `OK` → `WARN`, les valeurs de `{{first_triggered_at}}` and `{{last_triggered_at}}` ont tous deux l'horodatage A. Le tableau ci-dessous montre les valeurs jusqu'à ce que le moniteur se rétablisse. | Transition | first_triggered_at | last_triggered_at | triggered_duration_sec | |------------------ |-------------------------------- |-------------------------------- |-------------------------------- | @@ -522,70 +536,72 @@ Utilisez des template variables pour personnaliser les notifications de votre mo | `ALERT` → `NO DATA`| A | C | C - A | | `NO DATA` → `OK` | A | C | D - A | -### Évaluation +### Évaluation {#evaluation} -Les template variables qui renvoient des valeurs numériques prennent en charge les opérations et les fonctions. Vous pouvez ainsi effectuer des opérations mathématiques ou mettre en forme les valeurs. Pour en savoir plus, consultez la rubrique [Évaluer des template variables][7]. +Les variables de modèle qui renvoient des valeurs numériques prennent en charge des opérations et des fonctions, ce qui vous permet d'effectuer des opérations mathématiques ou des modifications de format sur la valeur. Pour plus de détails, voir [Évaluation des variables de modèle][7]. -### Heure locale +### Heure locale {#local-time} -La fonction `local_time` vous permet d'ajouter une autre date dans votre notification, avec le fuseau horaire de votre choix. Cette fonction transforme une date en une heure locale : `{{local_time 'time_variable' 'timezone'}}`. Par exemple, pour afficher l'heure du dernier déclenchement du monitor dans votre notification en fonction du fuseau horaire de Tokyo, ajoutez ce qui suit au message de notification : +Utilisez la fonction `local_time` pour ajouter une autre date dans votre notification dans le fuseau horaire de votre choix. Cette fonction transforme une date en son heure locale : `{{local_time 'time_variable' 'timezone'}}`. +Par exemple, pour ajouter l'heure du dernier déclenchement du moniteur dans le fuseau horaire de Tokyo dans votre notification, incluez ce qui suit dans le message de notification : ``` {{local_time 'last_triggered_at' 'Asia/Tokyo'}} ``` -Le résultat s'affiche au format ISO 8601 : `yyyy-MM-dd HH:mm:ss±HH:mm`, par exemple `2021-05-31 23:43:27+09:00`. Consultez la [liste des fuseaux horaires de la base de données TZ][8], notamment la colonne de nom, pour obtenir la liste des valeurs de fuseau horaire disponibles. +Le résultat est affiché au format ISO 8601 : `yyyy-MM-dd HH:mm:ss±HH:mm`, par exemple `2021-05-31 23:43:27+09:00`. +Voir la [liste des fuseaux horaires de la base de données tz][8], en particulier la colonne des noms de la base de données TZ, pour voir la liste des valeurs de fuseaux horaires disponibles. -## Réglages avancés +## Avancé {#advanced} -### Handles dynamiques +### Handles dynamiques {#dynamic-handles} -Utilisez des [variables de tag](#variables-d-attribut-et-de-tag) pour générer de façon dynamiques les handles des notifications et transmettre ces dernières à la bonne équipe ou au bon service, en fonction du type de problème détecté par le monitor. +Utilisez [des variables de balise](#attribute-and-tag-variables) pour construire dynamiquement des notification handles et acheminer les notifications vers la bonne équipe ou service en fonction du type de problème détecté par votre moniteur. -**Exemple** : si votre monitor interroge une métrique et la regroupe en fonction d'un tag `service`, vous pouvez transmettre vos notifications à différents canaux Slack, en fonction du service défaillant : +**Exemple** : Si votre moniteur interroge une métrique et la regroupe par une `service` balise, vous pouvez faire en sorte que vos notifications soient acheminées vers différents canaux Slack en fonction du service défaillant : ```text -@slack-{{service.name}} Un problème est en cours pour le service {{service.name}}. +@slack-{{service.name}} There is an ongoing issue with {{service.name}}. ``` -Si votre monitor commence à détecter des échecs pour le groupe `service:ad-server`, la notification est envoyée au canal Slack `#ad-server`, avec le contexte suivant : +Si votre moniteur commence à échouer sur le groupe `service:ad-server`, la notification est envoyée au canal Slack `#ad-server` avec le contenu suivant : ```text -@slack-ad-server Un problème est en cours pour le service ad-server. +@slack-ad-server There is an ongoing issue with ad-server. ``` -Lorsque vous créez des handles dynamiques avec des attributs qui peuvent être absents, cela peut poser des problèmes de livraison des notifications. Si un attribut est manquant, la variable sera vide dans le message de notification, ce qui rend le handle invalide. +Lors de la création de poignées dynamiques avec des attributs qui pourraient ne pas toujours être présents, vous pourriez rencontrer des problèmes de livraison de notifications. Si un attribut est manquant, la variable apparaît vide dans le message de notification, ce qui entraîne une poignée invalide. Pour éviter les notifications manquées avec ces variables, pensez à ajouter un handle de secours : ```text {{#is_exact_match "kube_namespace.owner" ""}} @slack-example - // Cela enverra une notification à @slack-example si la variable kube_namespace.owner est vide ou inexistante. -{{/is_match}} + // This will notify @slack-example if the kube_namespace.owner variable is empty or does not exist. +{{/is_exact_match}} ``` -### Liens dynamiques +### Liens dynamiques {#dynamic-links} -Utilisez des [variables de tag](#variables-d-attribut-et-de-tag) pour activer la création d'URL dynamiques. Celles-ci vous permettent de rediriger votre équipe vers la ressource adéquate. Par exemple, vous pouvez fournir des liens vers des pages de Datadog : dashboards, hostmap, monitors, etc. +Utilisez [des variables de balise](#attribute-and-tag-variables) pour activer la construction dynamique d'URL qui relie votre équipe à une ressource appropriée. Par exemple, vous pouvez fournir des liens vers des pages au sein de Datadog telles que des tableaux de bord, la carte des hôtes et des moniteurs. {{< tabs >}} {{% tab "Dashboards" %}} -Utilisez la [variable de tag](#variables-d-attribut-et-de-tag) `{{host.name}}` pour fournir un lien vers un dashboard système : +Utilisez le `{{host.name}}` [variable de balise](#attribute-and-tag-variables) pour fournir un lien vers un tableau de bord système : ```text https://app.datadoghq.com/dash/integration/system_overview?tpl_var_scope=host:{{host.name}} ``` -Utilisez la [variable de tag](#variables-d-attribut-et-de-tag) `{{host.name}}`, en prenant soin de remplacer `` par le nom d'une intégration, pour fournir un lien vers le dashboard de cette intégration : +Utilisez le `{{host.name}}` [tag variable](#attribute-and-tag-variables) and an `` pour fournir un lien vers un tableau de bord d'intégration : ```text -https://app.datadoghq.com/dash/integration/?tpl_var_scope=host:{{host.name}} +https://app.datadoghq.com/dash/integration/?tpl_var_scope=host:{{host.name}} ``` -Utilisez la [template variable](#template-variable) `{{last_triggered_at_epoch}}` ainsi qu’un `` et un `` pour créer un lien vers des dashboards avec une plage temporelle relative à l’alerte : +Utilisez le `{{last_triggered_at_epoch}}` [template variable](#template-variables) as well as a `` and `` pour lier des tableaux de bord avec des plages de temps relatives depuis le moment de l'alerte : ```text https://app.datadoghq.com/dashboard//?from_ts={{eval "last_triggered_at_epoch-10*60*1000"}}&to_ts={{eval "last_triggered_at_epoch+10*60*1000"}}&live=false @@ -594,36 +610,36 @@ https://app.datadoghq.com/dashboard//?from_ts={{ev {{% /tab %}} {{% tab "Hostmap" %}} -Utilisez une [variable de tag](#variables-d-attribut-et-de-tag) comme `{{service.name}}` pour fournir un lien vers la hostmap : +Utilisez une [variable de balise](#attribute-and-tag-variables) telle que `{{service.name}}` pour fournir un lien vers la carte des hôtes : ```text https://app.datadoghq.com/infrastructure/map?filter=service:{{service.name}} ``` -Vous pouvez personnaliser le lien vers la hostmap en définissant des paramètres supplémentaires. Voici les paramètres les plus utilisés : +Le lien vers la carte des hôtes est personnalisable avec des paramètres supplémentaires. Les plus courants sont : -| Paramètre | Défini par | Fonction | +| Paramètre | Défini avec | Détermine | |-----------|----------------------------|--------------------------------------| -| `fillby` | `fillby=avg:` | Détermine la couleur de remplissage des hexagones des hosts. | -| `groupby` | `groupby=` | Détermine les groupes d'hexagones des hosts. | -| `sizeby` | `sizeby=avg:` | Détermine la taille des hexagones des hosts. | +| `fillby` | `fillby=avg:` | La couleur de remplissage des hexagones d'hôtes. | +| `groupby` | `groupby=` | Les groupes pour les hexagones d'hôtes. | +| `sizeby` | `sizeby=avg:` | La taille des hexagones d'hôtes. | {{% /tab %}} -{{% tab "Monitors" %}} +{{% tab "Les monitors" %}} -Utilisez la [variable de tag](#variables-d-attribut-et-de-tag) `{{host.name}}` pour fournir un lien vers tous les monitors associés à un certain host : +Utilisez le `{{host.name}}` [variable de balise](#attribute-and-tag-variables) pour fournir un lien vers tous les moniteurs liés à un hôte spécifique : ```text https://app.datadoghq.com/monitors/manage?q=scope:host:{{host.name}} ``` -Vous pouvez personnaliser le lien vers les monitors en définissant des paramètres supplémentaires. Voici les paramètres les plus utilisés : +Le lien des moniteurs est personnalisable avec des paramètres supplémentaires. Les plus courants sont : -| Paramètre | Exemple | Contenu affiché | +| Paramètre | Exemple | Affiche | |-----------|----------------|---------------------------------------------------------------------------------| -| `status` | `status:Alert` | Les monitors avec un état d'alerte (statuts supplémentaires : `WARN`, `NO DATA` et `OK`) | -| `muted` | `muted: true` | Les monitors désactivés (indiquez `false` pour afficher les monitors qui ne sont pas désactivés) | -| `type` | `type:log` | Les log monitors (découvrez les autres [types de monitors][1]) | +| `status` | `status:Alert` | Moniteurs dans un état d'alerte (statuts supplémentaires : `WARN`, `NO DATA` et `OK`) | +| `muted` | `muted: true` | Moniteurs en sourdine (utilisez `false` pour les moniteurs non en sourdine) | +| `type` | `type:log` | Moniteurs de journal (voir d'autres [types de moniteurs][1]) | @@ -631,74 +647,74 @@ Vous pouvez personnaliser le lien vers les monitors en définissant des paramèt {{% /tab %}} {{% tab "Logs" %}} -Utilisez la [template variable](#template-variable) `{{last_triggered_at_epoch}}` pour fournir un lien vers tous les logs en cours au moment de l'alerte. +Utilisez le `{{last_triggered_at_epoch}}` [variable de modèle](#template-variables) pour fournir un lien vers tous les journaux se produisant au moment de l'alerte. ```text https://app.datadoghq.com/logs?from_ts={{eval "last_triggered_at_epoch-10*60*1000"}}&to_ts={{eval "last_triggered_at_epoch+10*60*1000"}}&live=false ``` -Le lien vers les logs est personnalisable avec des paramètres supplémentaires. Les plus courants sont : +Le lien des journaux est personnalisable avec des paramètres supplémentaires. Les plus courants sont : -| Paramètre | Défini par | Fonction | +| Paramètre | Défini avec | Détermine | |-----------|----------------------------|----------------------------------------| -| `service` | `service=` | Filtre sur les logs d'un service spécifique. | -| `host` | `host=` | Filtre sur les logs d'un host spécifique. | -| `status` | `status=` | Statut des logs : Error, Warn, Info, etc. | +| `service` | `service=` | Filtrer les journaux d'un service spécifique. | +| `host` | `host=` | Filtrer les journaux d'un hôte spécifique | +| `status` | `status=` | Statut des journaux : Error, Warn, Info, etc. | {{% /tab %}} {{< /tabs >}} -### Commentaires +### Commentaires {#comments} Pour ajouter un commentaire dans le message du monitor, utilisez la syntaxe suivante : ```text -{{!-- ceci est un commentaire --}} -{{!-- ceci est un commentaire }} +{{!-- this is a comment --}} +{{!-- this is a comment }} ``` -### Format brut +### Format brut {#raw-format} -Si votre message d'alerte doit envoyer deux accolades, par exemple `{{ }}`, utilisez le format `{{{{raw}}}}`. Exemple : +Si votre message d'alerte doit envoyer des accolades doubles, telles que `{{ }}`, use `{{{{raw}}}}` formatage. Par exemple, ce qui suit : ```text {{{{raw}}}} -{{ }} {{ }} +{{ }} {{ }} {{{{/raw}}}} ``` Résultat : ```text -{{ }} {{ }} +{{ }} {{ }} ``` -Les auxiliaires `^|#` utilisés dans les [variables conditionnelles](#variables-conditionnelles) ne peuvent pas être utilisés avec le format `{{{{raw}}}}` et doivent être supprimés. Par exemple, pour générer un texte brut de sortie avec la variable conditionnelle `{{is_match}}`, utilisez le modèle suivant : +Les `^|#` aides utilisées dans [variables conditionnelles](#conditional-variables) ne peuvent pas être utilisées avec `{{{{raw}}}}` formatting and must be removed. For instance, to output raw text with the `{{is_match}}` variable conditionnelle utilisez le modèle suivant : ```text -{{{{is_match "host.name" ""}}}} -{{ .matched }} le hostname +{{{{is_match "host.name" ""}}}} +{{ .matched }} the host name {{{{/is_match}}}} ``` -Si `host.name` correspond à ``, le modèle affiche : +Si `host.name` correspond à ``, le modèle produit : ```text -{{ .matched }} le hostname +{{ .matched }} the host name ``` -### Encodage URL +### Encoder l'URL {#url-encode} -Si votre message d'alerte contient des données à inclure dans une URL (par exemple pour une redirection), utilisez la syntaxe `{{ urlencode ""}}`. +Si votre message d'alerte contient des informations qui doivent être encodées dans une URL (par exemple, pour des redirections), utilisez le `{{ urlencode ""}}` syntaxe. -**Exemple** : si votre message de monitor inclut une URL vers le Software Catalog filtrée par service, utilisez la [variable de tag](#variables-d-attributs-et-de-tags) `service` et appliquez `{{ urlencode ""}}` dans l'URL. +**Exemple** : Si votre message de surveillance contient une URL vers le Catalogue de logiciels filtré pour un service spécifique, utilisez la variable de balise `service` [ et ajoutez le `{{ urlencode ""}}` syntaxe à l'URL : ``` https://app.datadoghq.com/services/{{urlencode "service.name"}} ``` -## Pour aller plus loin +## Lecture complémentaire {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -712,4 +728,13 @@ https://app.datadoghq.com/services/{{urlencode "service.name"}} [8]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones [9]: /fr/monitors/types/error_tracking/ [10]: /fr/software_catalog/service_definitions/ -[11]: https://docs.datadoghq.com/fr/software_catalog/service_definitions/v2-2/#example-yaml \ No newline at end of file +[11]: https://docs.datadoghq.com/fr/software_catalog/service_definitions/v2-2/#example-yaml +[12]: /fr/monitors/types/log/ +[13]: /fr/monitors/types/apm/?tab=analytics +[14]: /fr/monitors/types/error_tracking/ +[15]: /fr/monitors/types/real_user_monitoring/ +[16]: /fr/monitors/types/audit_trail/ +[17]: /fr/monitors/types/ci/?tab=tests +[18]: /fr/monitors/types/ci/?tab=pipelines +[19]: /fr/monitors/types/database_monitoring/ +[20]: /fr/synthetics/notifications/template_variables/ \ No newline at end of file diff --git a/content/fr/opentelemetry/_index.md b/content/fr/opentelemetry/_index.md index b766344328f..8bc26998ae6 100644 --- a/content/fr/opentelemetry/_index.md +++ b/content/fr/opentelemetry/_index.md @@ -25,123 +25,123 @@ further_reading: text: Partenariat de Datadog avec OpenTelemetry - link: https://www.datadoghq.com/blog/monitor-otel-with-w3c-trace-context/ tag: GitHub - text: Surveiller les applications instrumentées avec OpenTelemetry grâce à la prise - en charge du contexte des traces W3C + text: Surveiller les apps instrumentées avec OpenTelemetry grâce à la prise en charge + du contexte des traces W3C - link: https://www.datadoghq.com/blog/ingest-opentelemetry-traces-metrics-with-datadog-exporter/ - tag: Blog + tag: GitHub text: Envoyer des métriques et des traces depuis le Collector OpenTelemetry vers Datadog via l'exportateur Datadog - link: https://www.datadoghq.com/blog/opentelemetry-logs-datadog-exporter/ - tag: Blog + tag: GitHub text: Transmettre des logs depuis le Collector OpenTelemetry avec l'exportateur Datadog - link: https://www.datadoghq.com/about/latest-news/press-releases/datadog-announces-opentelemetry-protocol-support/ - tag: Blog + tag: GitHub text: Ingestion OTLP dans l'Agent - link: https://www.datadoghq.com/blog/aws-opentelemetry-lambda-layer-datadog/ - tag: Blog + tag: GitHub text: En savoir plus sur la couche Lambda gérée AWS pour OpenTelemetry - link: https://www.datadoghq.com/blog/correlate-traces-datadog-rum-otel/ - tag: Blog + tag: GitHub text: Mettre en corrélation les événements RUM Datadog avec les traces de vos applications instrumentées via OpenTelemetry - link: https://www.datadoghq.com/blog/opentelemetry-runtime-metrics-datadog/ - tag: Blog + tag: GitHub text: Surveillez les métriques d'exécution des applications instrumentées avec OTel via la solution APM de Datadog - link: https://www.datadoghq.com/blog/otel-deployments/ - tag: Blog + tag: GitHub text: Comment choisir votre déploiement OpenTelemetry - link: https://learn.datadoghq.com/courses/otel-with-datadog tag: Centre d'apprentissage text: Introduction à OpenTelemetry avec Datadog +- link: https://learn.datadoghq.com/courses/understanding-opentelemetry + tag: Centre d'apprentissage + text: Comprendre OpenTelemetry title: OpenTelemetry dans Datadog --- - -{{< learning-center-callout hide_image="true" header="Try \"Essayez l'Introduction à OTel avec Datadog dans le centre d'apprentissage" btn_title="Inscrivez-vous" btn_url="https://learn.datadoghq.com/courses/otel-with-datadog">}} - Découvrez comment configurer OpenTelemetry pour exporter des métriques, des traces et des logs vers Datadog, et explorez les données collectées sur la plateforme. +{{< learning-center-callout hide_image="true" header="Essayez "Introduction à OTel avec Datadog" dans le Centre d'apprentissageer" btn_title="Inscrivez-vous maintenant" btn_url="https://learn.datadoghq.com/courses/otel-with-datadog">}} + Apprenez à configurer OpenTelemetry pour exporter des métriques, des traces et des journaux vers Datadog, et explorez les données collectées sur la plateforme. {{< /learning-center-callout >}} -## Section Overview +## Aperçu {#overview} -[OpenTelemetry][1] (OTel) fournit des protocoles standardisés pour collecter et router les données de télémétrie. Datadog prend en charge plusieurs méthodes pour collecter et analyser les données de télémétrie issues d'applications instrumentées avec OpenTelemetry, que vous utilisiez l'infrastructure Datadog existante ou une configuration indépendante du fournisseur. +[OpenTelemetry][1] (OTel) fournit des protocoles standardisés pour la collecte et le routage des données de télémétrie. Datadog prend en charge plusieurs façons de collecter et d'analyser les données de télémétrie provenant d'applications instrumentées par OpenTelemetry, que vous utilisiez l'infrastructure Datadog existante ou que vous préfériez une configuration neutre vis-à-vis des fournisseurs. -### Pourquoi utiliser OpenTelemetry avec Datadog ? +### Pourquoi utiliser OpenTelemetry avec Datadog ? {#why-opentelemetry-with-datadog} -Datadog fournit une observabilité avancée pour toute votre télémétrie applicative, quelle qu'en soit la source. En prenant en charge OpenTelemetry, Datadog propose : +Datadog fournit une observabilité avancée pour l'ensemble de la télémétrie de vos applications, quelle que soit sa source. En soutenant OpenTelemetry, Datadog offre : -- **La souplesse et la liberté** : utilisez une instrumentation standardisée tout en conservant la flexibilité nécessaire à l'évolution de votre infrastructure. -- **La prise en charge complète des langages** : surveillez vos applications de façon cohérente sur l'ensemble de votre pile technologique. -- **Une instrumentation unifiée** : appliquez une approche unique à l'instrumentation de vos systèmes. -- **Des analyses puissantes** : associez la standardisation d'OpenTelemetry aux capacités d'analyse, de visualisation et d'alerte de Datadog. +- **Flexibilité et choix** : Utilisez une instrumentation standardisée tout en conservant la liberté de vous adapter à l'évolution de vos besoins technologiques. +- **Support complet des langages** : Surveillez de manière cohérente les applications sur l'ensemble de votre pile technologique. +- **Instrumentation unifiée** : Maintenez une approche unique de l'instrumentation à travers vos systèmes. +- **Analyses puissantes** : Combinez la standardisation d'OpenTelemetry avec les capacités d'analyse, de visualisation et d'alerte robustes de Datadog. Que vous utilisiez déjà OpenTelemetry ou que vous envisagiez de l'adopter, Datadog propose des options flexibles pour répondre à vos besoins. -### Décisions clés +### Décisions clés {#key-decisions} Deux décisions principales sont à prendre lorsque vous utilisez OpenTelemetry avec Datadog : -- [Comment instrumenter vos applications](#instrumenter-vos-applications)  -- [Comment envoyer vos données à Datadog](#envoyer-des-donnees-opentelemetry-a-datadog) +- [ Comment instrumenter vos applications ](#instrument-your-applications) +- [ Comment envoyer vos données à Datadog ](#send-opentelemetry-data-to-datadog) -Les fonctionnalités disponibles dépendent de ces choix. Par exemple, l'utilisation de l'API OpenTelemetry avec le SDK de Datadog donne accès à plus de fonctionnalités Datadog que l'utilisation du SDK OpenTelemetry seul. +Les fonctionnalités qui vous sont disponibles dépendent de ces choix. Par exemple, utiliser l'API OpenTelemetry avec le SDK Datadog donne accès à plus de fonctionnalités Datadog que d'utiliser uniquement le SDK OpenTelemetry. Pour en savoir plus, consultez la page relative à la [compatibilité des fonctionnalités][9]. -## Instrumenter vos applications +## Instrumentez vos applications {#instrument-your-applications} -Il existe plusieurs manières d'instrumenter vos applications avec OpenTelemetry et Datadog. Chaque approche propose des fonctionnalités et un niveau d'indépendance vis-à-vis des fournisseurs différents. +Il existe plusieurs façons d'instrumenter vos applications avec OpenTelemetry et Datadog. Chaque approche offre différentes fonctionnalités et niveaux de neutralité vis-à-vis des fournisseurs. -- **OpenTelemetry complet** : utilisez le SDK et l'API OpenTelemetry pour une configuration neutre vis-à-vis du fournisseur. -- **API OpenTelemetry** : utilisez l'API OpenTelemetry avec l'implémentation du SDK de Datadog. -- **Bibliothèques d'instrumentation OpenTelemetry** : étendez l'observabilité de Datadog à d'autres frameworks et technologies. +- **OpenTelemetry complet** : Utilisez le SDK et l'API OpenTelemetry pour une configuration neutre vis-à-vis des fournisseurs. +- **API OpenTelemetry** : Utilisez l'API OpenTelemetry avec l'implémentation du SDK de Datadog. +- **Bibliothèques d'instrumentation OpenTelemetry** : Étendez l'observabilité de Datadog à d'autres frameworks et technologies. Pour en savoir plus, consultez la section [Instrumenter vos applications][8]. -## Envoyer des données OpenTelemetry à Datadog +## Envoyez les données OpenTelemetry à Datadog {#send-opentelemetry-data-to-datadog} Si vos applications et services sont instrumentés avec des bibliothèques OpenTelemetry, vous pouvez choisir comment envoyer les données de traces, de métriques et de logs à Datadog. -
    Vous ne savez pas quelle configuration est la plus adaptée ?
    Consultez le tableau Compatibilité des fonctionnalités pour savoir quelles fonctionnalités Datadog sont prises en charge.
    +
    Vous n'êtes pas sûr de la configuration la mieux adaptée à vos besoins ?
    Consultez le tableau Compatibilité des fonctionnalités pour comprendre quelles fonctionnalités de Datadog sont prises en charge.
    -### Option 1 : utiliser le collector OpenTelemetry +### Option 1 : Utilisez l'Agent Datadog avec le Collecteur DDOT (Recommandé) {#option-1-use-the-datadog-agent-with-ddot-collector-recommended} -{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagramme : le SDK OpenTelemetry dans le code envoie des données via OTLP vers un host exécutant le collector OpenTelemetry avec le Datadog Exporter, qui les transmet à la plateforme d'observabilité de Datadog." style="width:100%;" >}} +{{< img src="/opentelemetry/setup/ddot-collector-2.png" alt="Aperçu de l'architecture pour le Collecteur DDOT, qui est intégré dans l'Agent Datadog." style="width:100%;" >}} -**Idéal pour** : les utilisateurs OTel (nouveaux ou existants) souhaitant une configuration totalement indépendante du fournisseur. +**Idéal pour** : Les utilisateurs cherchant à bénéficier à la fois de la neutralité vis-à-vis des fournisseurs OTel et des innovations de l'écosystème Datadog, telles que : -- Neutralité totale vis-à-vis du fournisseur pour l'envoi des données OpenTelemetry vers Datadog -- Options de configuration flexibles comme l'échantillonnage basé sur la fin des traces (tail-based sampling) et les transformations de données +- Automatisation de flotte +- Surveillance en temps réel des conteneurs +- Explorateur Kubernetes +- Surveillance en temps réel des processus +- Surveillance du réseau cloud +- Surveillance des services universels +- {{< translate key="integration_count" >}}+ Intégrations Datadog {{< whatsnext desc=" " >}} - {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}}En savoir plus sur l'utilisation du collector OTel{{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/ddot_collector/" >}}En savoir plus sur l'utilisation de l'Agent Datadog avec le Collecteur DDOT{{< /nextlink >}} {{< /whatsnext >}} -### Option 2 : Utiliser l'Agent Datadog avec le collector DDOT +### Option 2 : Utilisez le Collecteur OpenTelemetry {#option-2-use-the-opentelemetry-collector} -{{< img src="/opentelemetry/setup/ddot-collector-2.png" alt="Vue d'ensemble de l'architecture du collector DDOT, intégré à l'Agent Datadog." style="width:100%;" >}} +{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagramme : Le SDK OpenTelemetry dans le code envoie des données via OTLP à un hôte exécutant le Collecteur OpenTelemetry avec l'Exportateur Datadog, qui les transfère à la plateforme d'observabilité de Datadog." style="width:100%;" >}} -**Idéal pour** : les utilisateurs actuels de Datadog ou les équipes ayant besoin de fonctionnalités basées sur l'Agent, comme : +**Meilleur pour** : les utilisateurs OTel nouveaux ou existants souhaitant une configuration totalement neutre vis-à-vis des fournisseurs. -- Fleet Automation -- Container Monitoring en direct -- Kubernetes Explorer -- Live processes -- Surveillance du réseau cloud -- Universal Service Monitoring -- {{< translate key="integration_count" >}}+ intégrations Datadog - -
    Pour consulter la liste complète des fonctionnalités basées sur l'Agent, consultez la section OTel vers l'Agent Datadog (OTLP) dans la page relative à la compatibilité des fonctionnalités.
    +- Neutralité totale vis-à-vis du fournisseur pour l'envoi des données OpenTelemetry vers Datadog +- Options de configuration flexibles telles que le tail-based sampling et les transformations de données {{< whatsnext desc=" " >}} - {{< nextlink href="/opentelemetry/setup/ddot_collector/" >}}En savoir plus sur l'utilisation de l'Agent Datadog avec le collector DDOT{{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}}En savoir plus sur l'utilisation du Collecteur OTel{{< /nextlink >}} {{< /whatsnext >}} -### Autres options de configuration +###Options de configuration supplémentaires {#additional-setup-options} -Pour d'autres options de configuration, y compris un déploiement sans Agent, consultez la section [Envoyer des données à Datadog][7]. +Pour d'autres options de configuration, y compris l'ingestion directe d'OTLP, voir [Envoyer des données à Datadog][7]. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/real_user_monitoring/_index.md b/content/fr/real_user_monitoring/_index.md index 780e6ad9af1..fd2e0fa78fa 100644 --- a/content/fr/real_user_monitoring/_index.md +++ b/content/fr/real_user_monitoring/_index.md @@ -1,125 +1,282 @@ --- +algolia: + tags: + - rum + - real user monitoring aliases: - /fr/real_user_monitoring/installation +- /fr/real_user_monitoring/faq/ +cascade: + algolia: + rank: 70 description: Visualisez, observez et analysez les performances de vos applications frontend, telles qu'elles sont perçues par vos utilisateurs. disable_sidebar: true further_reading: -- link: https://app.datadoghq.com/release-notes?category=Real%20User%20Monitoring - tag: Notes de version - text: Découvrez les dernières versions de la solution RUM Datadog (connexion à l'application - requise). +- link: /real_user_monitoring/application_monitoring/browser/data_collected/ + tag: Documentation + text: Données RUM Browser recueillies +- link: https://dtdg.co/fe + tag: Validation des bases + text: Participer à une session interactive pour obtenir des informations exploitables + grâce à la solution Real User Monitoring - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ - tag: Blog + tag: GitHub text: Présentation du service Real User Monitoring (RUM) de Datadog - link: https://www.datadoghq.com/blog/datadog-mobile-rum/ - tag: Blog + tag: GitHub text: Améliorer l'expérience utilisateur sur mobile avec le service Mobile Real User Monitoring de Datadog - link: https://www.datadoghq.com/blog/mobile-monitoring-best-practices/ - tag: Blog + tag: GitHub text: Recommandations pour la surveillance des performances des applications mobiles - link: https://www.datadoghq.com/blog/error-tracking/ - tag: Blog + tag: GitHub text: Analyser les problèmes affectant vos applications avec le suivi des erreurs Datadog - link: https://www.datadoghq.com/blog/unify-apm-rum-datadog/ - tag: Blog + tag: GitHub text: Unifier les données RUM et APM pour optimiser votre visibilité sur l'ensemble de votre stack - link: https://www.datadoghq.com/blog/datadog-geomaps/ - tag: Blog - text: Utiliser les geomaps pour visualiser les données de votre application par - région + tag: GitHub + text: Utilisez des coordonnées Geomap pour visualiser les données de votre application + par localisation - link: https://www.datadoghq.com/blog/datadog-rum-react-components/#tune-up-your-react-data-collection - tag: Blog + tag: GitHub text: Bénéficier de données RUM plus utiles grâce à nos composants React personnalisés -- link: /real_user_monitoring/browser/data_collected/ - tag: Documentation - text: Données RUM recueillies (Browser) - link: https://www.datadoghq.com/blog/hybrid-app-monitoring/ - tag: Blog + tag: GitHub text: Surveiller vos applications mobiles hybrides avec Datadog +- link: https://www.datadoghq.com/blog/how-datadogs-tech-solutions-team-rum-session-replay/ + tag: GitHub + text: Comment l'équipe Technical Solutions de Datadog utilise les solutions RUM, + Session Replay et Error Tracking pour résoudre les problèmes rencontrés par les + clients +- link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ + tag: GitHub + text: Meilleures pratiques pour la surveillance des applications Web statiques +- link: https://www.datadoghq.com/blog/progressive-web-application-monitoring/ + tag: GitHub + text: Meilleures pratiques pour la surveillance des applications web progressives +- link: https://www.datadoghq.com/blog/datadog-executive-dashboards + tag: GitHub + text: Concevez des tableaux de bord exécutifs efficaces avec Datadog +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: GitHub + text: 'De la performance à l''impact : Relier les équipes frontend grâce à un contexte + partagé' +- link: https://app.datadoghq.com/release-notes?category=Real%20User%20Monitoring + tag: Notes de version + text: Découvrez les dernières versions de Datadog RUM ! (Connexion à l'application + requise) +- link: https://learn.datadoghq.com/courses/intro-to-rum + tag: Centre d'apprentissage + text: Introduction à la surveillance des utilisateurs réels (RUM) title: RUM et Session Replay --- +{{< learning-center-callout header="Participez à une session de webinaire de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=RUM">}} + Découvrez comment créer des actions utilisateur personnalisées adaptées à des besoins commerciaux spécifiques, permettant un suivi précis du comportement des utilisateurs. +{{< /learning-center-callout >}} + +## Qu'est-ce que la surveillance des utilisateurs réels ? {#what-is-real-user-monitoring} + +{{< img src="real_user_monitoring/performance-summary-browser.png" alt="Tableau de bord RUM" >}} + +La *surveillance des utilisateurs réels (RUM)* de Datadog vous offre une visibilité de bout en bout sur l'activité et l'expérience en temps réel des utilisateurs individuels. RUM résout quatre types de cas d'utilisation pour la surveillance des applications web et mobiles : + +* **Performance** : Suivez la performance des pages web, des écrans d'applications mobiles, des actions des utilisateurs, des requêtes réseau et de votre code frontend. +* **Gestion des erreurs** : Surveillez les bugs et problèmes en cours et suivez-les au fil du temps et des versions. +* **Analytique / Utilisation** : Comprenez qui utilise votre application (pays, appareil, OS), suivez les parcours des utilisateurs individuels et analysez comment les utilisateurs interagissent avec votre application (page la plus visitée, clics, interactions et utilisation des fonctionnalités). +* **Support** : Récupérez toutes les informations liées à une session utilisateur pour résoudre un problème (durée de la session, pages visitées, interactions, ressources chargées et erreurs). -{{< img src="real_user_monitoring/RUM-perf-dashboard.jpeg" alt="Dashboard RUM" >}} +### Définition de session {#session-definition} -## En quoi consiste la solution Real User Monitoring ? +Une session utilisateur est un parcours utilisateur sur votre application web ou mobile. Une session inclut tous les événements de navigation associés (Vues RUM), les actions des utilisateurs (Actions RUM), les requêtes réseau (Ressources RUM), les plantages et les erreurs (Erreurs RUM), ainsi que d'autres événements et signaux qui produisent collectivement une représentation fidèle de l'expérience utilisateur. -Le service *Real User Monitoring (RUM)* de Datadog vous offre une visibilité de bout en bout sur les activités et l'expérience en temps réel de chaque utilisateur. Cette solution de surveillance d'applications Web et mobiles répond à quatre besoins différents : +Une session RUM peut durer jusqu'à 4 heures et expire après 15 minutes d'inactivité. Si l'utilisateur interagit avec l'application après l'une des limites, une nouvelle session commence automatiquement. -* **Mesure des performances** : suivez les performances des pages Web, des écrans d'applications mobiles, des actions utilisateur, des requêtes réseau, ainsi que de votre code frontend. -* **Gestion des erreurs** : surveillez les bugs et problèmes en cours et suivez leur évolution et leurs versions. -* **Analyses/Utilisation** : analysez le profil des utilisateurs de votre application (pays, appareil, système d'exploitation), surveillez des parcours utilisateur individuels et examinez les interactions des utilisateurs avec votre application (pages couramment consultées, clics, interactions et utilisation des fonctionnalités). -* **Assistance** : récupérez toutes les informations associées à une session utilisateur (durée de session, pages consultées, interactions, ressources chargées et erreurs) afin de diagnostiquer un problème. +### Limitations techniques {#technical-limitations} -## En quoi consiste la solution Session Replay ? +| Propriété | Limitation | +| ------------------------------------------ | ------------------------ | +| Durée maximale d'une session | 4 heures | +| Délai d'une session | 15 minutes d'inactivité | +| Nombre maximum d'événements par session | 10 millions | +| Nombre maximum d'attributs par événement | 1 000 | +| Profondeur maximale des attributs par événement | 20 | +| Taille maximale d'un événement | 1 Mo | +| Taille maximale de la charge utile d'entrée | 5 Mo | +| Taille maximale des fichiers de cartes sources et de mappage | 500 Mo par fichier | +| Taille maximale des fichiers dSYM | 2 Go par fichier | +| Délai maximal à l'ingestion | 24 heures | -La solution *Session Replay* de Datadog vous permet d'enregistrer et de revoir l'expérience de navigation de vos utilisateurs. +Si un événement dépasse l'une des limitations techniques énumérées ci-dessus, il est rejeté par l'intake Datadog. -Conjointement aux données de performance RUM, Session Replay facilite l'identification, la reproduction et la résolution des erreurs et vous fournit de précieuses données sur les tendances d'utilisation et les défauts de conception de votre application Web. +## En quoi consiste la solution Session Replay ? {#what-is-session-replay} -## Prise en main +La *Session Replay* de Datadog vous permet de capturer et de rejouer visuellement l'expérience de navigation web de vos utilisateurs. -Sélectionnez votre type d'application pour commencer à recueillir des données RUM : +Conjointement aux données de performance RUM, Session Replay facilite l'identification, la reproduction et la résolution des erreurs, et vous fournit des informations utiles sur les tendances d'utilisation et les défauts de conception de votre application Web. + +## Commencez {#get-started} + +Sélectionnez un type d'application pour commencer à recueillir des données RUM : {{< partial name="rum/rum-getting-started.html" >}}
    -## Explorer le service RUM de Datadog +### Capacités et prise en charge de la plateforme {#capabilities-and-platform-support} + +**Remarque**: Le SDK Flutter de Datadog n'est pas pris en charge pour MacOS, Windows ou Linux. + +Le tableau suivant répertorie les fonctionnalités RUM qui sont prises en charge sur chaque plateforme : + +| Fonctionnalité | Navigateur | Android | iOS | Flutter | React Native | Roku | KMP | Unity | Remarques | +| ------------------------------------- | --------|---------|---------|---------|--------------|------|-----|-------|--------| +| Envoyer des journaux à Datadog | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Traçage distribué des requêtes réseau | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - **Roku** ne peut suivre que certains types de requêtes HTTP.
    - **Unity** utilise un wrapper autour de `UnityWebRequest` pour effectuer le suivi des requêtes. | +| Suivre les vues et les actions (RUM) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - Toutes les actions suivies dans **Flutter Web** sont enregistrées en tant que `custom`.
    - **Roku** et **Unity** ne prennent en charge que le suivi manuel des actions. | +| Suivi des drapeaux de fonctionnalités et suivi des versions | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Suivi des erreurs et mappage des sources | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Seulement partiellement pris en charge pour **React Native**. | +| Suivi des plantages, symbolisation et déobfuscation | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Arrêter les sessions (Kiosk Monitoring) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Suivre les événements dans les WebViews | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Surveiller les indicateurs spécifiques à la plateforme | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Suivi global du contexte et des attributs dans les journaux | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Traçage côté client | | {{< X >}} | {{< X >}}| | | | | | | | +| Session Replay | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | **Flutter** Session Replay est en préversion. | +| Signaux de frustration | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | Prise en charge partielle uniquement pour tous les **appareils mobiles** et **Roku**. | + +## Points de terminaison pris en charge pour les domaines SDK {#supported-endpoints-for-sdk-domains} + +Tout le trafic des SDK Datadog est transmis via SSL (par défaut, sur le port 443) aux domaines suivants : + +| Site | URL du site | +|------|-----------------------------------------------| +| US1 | `https://browser-intake-datadoghq.com` | +| US3 | `https://browser-intake-us3-datadoghq.com` | +| US5 | `https://browser-intake-us5-datadoghq.com` | +| EU1 | `https://browser-intake-datadoghq.eu` | +| US1-FED | `https://browser-intake-ddog-gov.com` | +| US2-FED | `https://browser-intake-us2-ddog-gov.com` | +| AP1 | `https://browser-intake-ap1-datadoghq.com` | +| AP2 | `https://browser-intake-ap2-datadoghq.com` | + +## Explorer Datadog RUM {#explore-datadog-rum} -### Dashboards prêts à l'emploi +Accédez à RUM en naviguant vers [**Expérience numérique > Résumé des performances**][1]. -Analysez des informations sur les parcours utilisateur, les performances, les requêtes réseau et les erreurs recueillies automatiquement à l'aide de [dashboards prêts à l'emploi][1]. +Sélectionnez une application dans la barre de navigation supérieure, ou suivez les instructions de configuration pour le [navigateur][15] ou le [mobile][16] afin d'ajouter votre première application. -{{< img src="real_user_monitoring/RUM-session-dashboard.jpeg" alt="Dashboard RUM" >}} +{{< img src="real_user_monitoring/rum-performance-application-selector.png" alt="Sélectionnez une application RUM" >}} -### RUM Explorer et visualisations +**Astuce** : Pour ouvrir RUM à partir de la recherche globale de Datadog, appuyez sur Cmd/Ctrl + K et recherchez `real user monitoring`. -Affichez les sessions utilisateur associées à des segments spécifiques. Utilisez par exemple des [visualisations][2] pour vérifier les niveaux de latence ayant un impact sur vos clients privilégiés. Explorez vos données, enregistrez des vues et créez des [monitors][3] basés sur vos recherches personnalisées. +## Résumé de la surveillance des performances {#performance-monitoring-summary} -{{< img src="real_user_monitoring/explorer/analytics/rum_analytics.mp4" alt="Analyses RUM" video=true >}} +| Résumé des performances du navigateur | Résumé des performances mobiles | +|---------|---------| +| {{< img src="real_user_monitoring/performance-summary-browser.png" alt="Page de résumé de la surveillance des performances RUM pour une application de navigateur" >}} | {{< img src="real_user_monitoring/performance-summary-mobile-2.png" alt="Page de résumé de la surveillance des performances RUM pour une application mobile" >}} | -### Intégration aux logs, à l'APM et au profileur +La page de résumé de la [surveillance des performances RUM][1] fournit des informations pertinentes et exploitables pour les applications web et mobiles. Vous bénéficiez d'une expérience personnalisée pour chaque plateforme qui vous aide à : -Affinez vos [métriques d'infrastructure, vos logs et vos traces backend][4] jusqu'à identifier la ligne de code précise qui nuit aux performances de votre application, en tenant compte des expériences des utilisateurs et des problèmes signalés. +- **Concentrez-vous sur les points de données clés** par plateforme, tels que la latence de l'interface utilisateur pour le web ou les plantages mobiles +- **Surveillez la santé de l'application** à l'aide d'indicateurs clés de performance familiers, tels que les Core Web Vitals pour les applications web ou le taux de blocage pour iOS, afin d'évaluer la fiabilité de l'application +- **Plongez directement dans les investigations** à partir de widgets interactifs sans quitter la page -{{< img src="real_user_monitoring/connect_rum_and_traces/rum_apm_logs.png" alt="RUM et APM" >}} +Pour **les applications web**, utilisez la barre de recherche pour filtrer les données, identifier les pages lentes et suivre l'interface utilisateur jusqu'à la page [RUM Optimization Inspect][17]. -### Suivi des erreurs et rapports de crash +Pour **les applications mobiles**, examinez les plantages récents en bas de la page et utilisez le panneau latéral [Error Tracking][6] pour le dépannage. -Recevez des alertes automatisées en cas d'anomalies, de groupes d'erreurs, de timeouts et de crashs pour réduire considérablement votre MTTR avec le [suivi des erreurs][5]. +### Tableaux de bord prêts à l'emploi {#out-of-the-box-dashboards} + +Consultez les [dashboards RUM prêts à l'emploi][2] pour analyser les informations recueillies automatiquement sur vos sessions utilisateur, performances, applications mobiles, signaux de frustration, ressources réseau et erreurs. + +{{< img src="real_user_monitoring/rum-out-of-the-box-dashboard.png" alt="Tableau de bord RUM" >}} + +### Explorateur RUM et visualisations {#rum-explorer-and-visualizations} + +Visualisez les sessions utilisateur en segments, par exemple en vérifiant quand la latence impacte vos clients premium, avec [visualisations][3]. Explorez les données, enregistrez des vues et créez des [moniteurs][4] sur vos recherches personnalisées. + +{{< img src="real_user_monitoring/explorer/analytics/rum_analytics.mp4" alt="RUM Analytics" video=true >}} + +### Intégration avec les journaux, APM et profileur {#integration-with-logs-apm-and-profiler} + +Plongez au cœur de vos [métriques d'infrastructure, logs et traces backend][5] jusqu'à identifier la ligne de code précise qui nuit aux performances de votre application, afin d'améliorer l'expérience de vos utilisateurs et résoudre les problèmes signalés. + +{{< img src="real_user_monitoring/connect_rum_and_traces/rum_apm_logs-2.png" alt="RUM et APM" >}} + +### Suivi des erreurs et rapports de plantage {#error-tracking-and-crash-reporting} + +Recevez des alertes automatisées en cas d'anomalies, de groupes d'erreurs, d'expirations et de crashs pour réduire considérablement votre MTTR avec le [suivi des erreurs][6]. {{< img src="real_user_monitoring/error_tracking/errors_rum.mp4" alt="Suivi des erreurs RUM" video=true >}} -### Suivi des vues Web +### Indicateurs vitaux web et mobiles {#web-and-mobile-vitals} + +Consultez les scores et données télémétriques de performance de vos [applications Browser][7], comme les signaux Web essentiels et signaux mobiles pour les applications [iOS et tvOS][8] ou [Android et Android TV][9]. + +### Suivi des vues web {#web-view-tracking} + +Recueillez des informations à propos de vos applications Web natives et consultez des vues hybrides grâce au suivi des vues Web pour [iOS et tvOS][10] ou [Android et Android TV][11]. + +{{< img src="real_user_monitoring/webview_tracking/webview_tracking_light.png" alt="Vues web capturées dans une session utilisateur dans l'Explorateur RUM" >}} + +## Explorer Datadog Session Replay {#explore-datadog-session-replay} + +### Replays de session {#session-replays} + +Visionnez des [enregistrements du navigateur][12] d'utilisateurs réels qui interagissent avec votre site Web et définissez des [options de confidentialité][13] pour votre organisation. + +### Outils de développement {#developer-tools} + +Les [outils de développement Browser][14] vous permettent de consulter les logs et les erreurs générés, ainsi que des données de performance, pendant que vous résolvez les problèmes de vos applications. -Recueillez des informations à propos de vos applications Web natives et consultez des vues hybrides grâce au suivi des vues Web pour [iOS][6] et [Android][7]. -{{< img src="real_user_monitoring/webview_tracking/webview_tracking_light.png" alt="Vues Web enregistrées lors une session utilisateur et affichées dans le RUM Explorer" >}} +## Permissions {#permissions} -## Explorer les enregistrements Session Replay Datadog +Par défaut, tous les utilisateurs peuvent modifier la configuration RUM d'une application. -### Session replays +Utilisez des contrôles d'accès granulaires pour limiter les [rôles][18] autorisés à modifier la configuration RUM d'une application donnée : +1. Lors de la visualisation de la configuration RUM d'une application, cliquez sur le **Edit application** en haut de l'écran. Un menu déroulant apparaît. +1. Sélectionnez **Gérer les permissions de l'application**. +1. Cliquez sur **Restreindre l'accès**. +1. La boîte de dialogue se met à jour pour montrer que les membres de votre organisation ont un accès **Lecteur** par défaut. +1. Depuis la liste déroulante, sélectionnez les rôles, équipes ou utilisateurs autorisés à modifier le notebook. +1. Cliquez sur **Ajouter**. +1. La boîte de dialogue se met à jour pour montrer que le rôle que vous avez sélectionné a la permission **Éditeur**. +1. Cliquez sur **Enregistrer**. -Visionnez des [enregistrements du navigateur][8] d'utilisateurs réels qui interagissent avec votre site Web et définissez des [options de confidentialité][9] pour votre organisation. +**Remarque:** Pour maintenir votre accès d'édition à l'application, le système exige que vous incluiez au moins un rôle dont vous êtes membre avant de sauvegarder. -### Outils de développement +Vous devez avoir un accès d'édition pour restaurer l'accès général à une application restreinte. Complétez les étapes suivantes : +1. Lors de la visualisation de la configuration RUM d'une application, cliquez sur le bouton **Modifier l'application** en haut de l'écran. Un menu déroulant apparaît. +1. Sélectionnez **Gérer les permissions de l'application**. +1. Cliquez sur **Restaurer l'accès complet**. +1. Cliquez sur **Enregistrer**. -Les [outils de développement Browser][6] vous permettent de consulter les logs et les erreurs générés, ainsi que des données de performance, pendant que vous résolvez les problèmes de vos applications. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} -[1]: /fr/real_user_monitoring/dashboards/ -[2]: /fr/real_user_monitoring/explorer/visualize/ -[3]: /fr/monitors/create/types/real_user_monitoring/ -[4]: /fr/real_user_monitoring/connect_rum_and_traces/ -[5]: /fr/real_user_monitoring/error_tracking/ -[6]: /fr/real_user_monitoring/ios/web_view_tracking/ -[7]: /fr/real_user_monitoring/android/web_view_tracking/ -[8]: /fr/real_user_monitoring/session_replay/ -[9]: /fr/real_user_monitoring/session_replay/privacy_options/ \ No newline at end of file +[1]: https://app.datadoghq.com/rum/performance-monitoring +[2]: /fr/real_user_monitoring/platform/dashboards/ +[3]: /fr/real_user_monitoring/explorer/visualize/ +[4]: /fr/monitors/types/real_user_monitoring/ +[5]: /fr/real_user_monitoring/correlate_with_other_telemetry/apm/ +[6]: /fr/real_user_monitoring/error_tracking/ +[7]: /fr/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#event-timings-and-core-web-vitals +[8]: /fr/real_user_monitoring/application_monitoring/ios/mobile_vitals/ +[9]: /fr/real_user_monitoring/application_monitoring/android/mobile_vitals/ +[10]: /fr/real_user_monitoring/application_monitoring/ios/web_view_tracking/ +[11]: /fr/real_user_monitoring/application_monitoring/android/web_view_tracking/ +[12]: /fr/session_replay/browser/ +[13]: /fr/session_replay/browser/privacy_options/ +[14]: /fr/session_replay/browser/dev_tools/ +[15]: /fr/real_user_monitoring/application_monitoring/browser/setup/ +[16]: /fr/real_user_monitoring/application_monitoring/ +[17]: https://app.datadoghq.com/rum/optimization/inspect +[18]: /fr/account_management/rbac/ \ No newline at end of file diff --git a/content/fr/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md b/content/fr/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md new file mode 100644 index 00000000000..4ea6894d40c --- /dev/null +++ b/content/fr/real_user_monitoring/application_monitoring/browser/advanced_configuration.mdoc.md @@ -0,0 +1,1895 @@ +--- +aliases: +- /fr/real_user_monitoring/installation/advanced_configuration/ +- /fr/real_user_monitoring/browser/modifying_data_and_context/ +- /fr/real_user_monitoring/browser/advanced_configuration/ +content_filters: +- option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_advanced_config_options + trait_id: rum_browser_sdk_version +description: Configurez le SDK RUM Browser pour modifier la collecte de données, remplacer + les noms de vues, gérer les sessions utilisateur et contrôler l'échantillonnage + selon les besoins de votre application. +further_reading: +- link: /real_user_monitoring/application_monitoring/browser/tracking_user_actions + tag: Documentation + text: Tracking User Actions +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: GitHub + text: Real User Monitoring +- link: /real_user_monitoring/application_monitoring/browser/data_collected/ + tag: Documentation + text: Données Browser RUM recueillies +- link: /real_user_monitoring/explorer/ + tag: Documentation + text: Explorez vos vues dans Datadog +- link: /real_user_monitoring/explorer/visualize/ + tag: Documentation + text: Appliquer des visualisations sur vos événements +- link: /logs/log_configuration/attributes_naming_convention + tag: Documentation + text: Attributs standard de Datadog +- link: https://learn.datadoghq.com/courses/configure-rum-javascript + tag: Centre d'apprentissage + text: Configurez la surveillance des utilisateurs réels (RUM) pour les applications + web JavaScript +title: Configuration avancée +--- +## Aperçu {% #overview %} + +Vous pouvez modifier les [données et le contexte collectés][1] par la fonctionnalité RUM de diverses façons afin de mieux répondre à vos besoins. Par exemple : + +- Protection des données sensibles telles que les informations personnellement identifiables. +- Connexion d'une session utilisateur à votre identification interne de cet utilisateur afin de faciliter l'assistance. +- Réduction de la quantité de données RUM recueillies, à l'aide d'un échantillonnage des données. +- Ajout de données de contexte en plus des attributs par défaut afin de mieux déterminer l'origine des données. + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} + +## Remplacez les noms de vues RUM par défaut {% #override-default-rum-view-names %} + +À partir de [version 2.17.0][3], vous pouvez ajouter des noms de vues et les attribuer à un service dédié appartenant à une équipe en suivant manuellement les événements de vue avec l'option `trackViewsManually`. + +Le SDK RUM Browser génère automatiquement un [événement de vue][2] pour chaque nouvelle page visitée par vos utilisateurs, ou lorsque l'URL de la page est modifiée (pour les applications à page unique). Un nom de vue est calculé à partir de l'URL de la page actuelle, où les identifiants de variable sont supprimés automatiquement. Un segment de chemin contenant au moins un nombre est considéré comme un identifiant de variable. Par exemple, `/dashboard/1234` et `/dashboard/9a` deviennent `/dashboard/?`. + +Pour remplacer les noms de vues RUM par défaut : + +1. Définissez `trackViewsManually` sur true lors de l'initialisation du SDK RUM Browser. + + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }) + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {% /if %} + +2. Vous devez démarrer des vues pour chaque nouvelle page ou changement de route (pour les applications à page unique). Les données RUM sont collectées lorsque la vue commence. +{% /if %} + + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "4.13.0") %} + +### Définissez le nom du service et la version {% #define-service-name-and-version %} + +À partir de [version 4.13.0][16], vous pouvez également définir optionnellement le nom du service associé et la version. + +- **Nom de la vue** : Par défaut, il correspond au chemin de l'URL de la page. +- **Service** : Par défaut, il correspond au service par défaut spécifié lors de la création de votre application RUM. +- **Version** : Par défaut, il correspond à la version par défaut spécifiée lors de la création de votre application RUM. +{% /if %} + + + + + +{% if includes($rum_browser_sdk_version, ["lt_2_13_0", "gte_2_13_0", "gte_2_17_0"]) %} + +## Suivez manuellement les vues de page {% #manually-track-pageviews %} + +L'exemple suivant suit manuellement les vues de page sur la page `checkout` dans une application RUM. Aucun service ou version ne peut être spécifié. + + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.startView('checkout') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.startView('checkout') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.startView('checkout') +``` +{% /if %} +{% /if %} + + + +{% if includes($rum_browser_sdk_version, ["gte_4_13_0", "gte_4_49_0", "gte_5_22_0"]) %} + +L'exemple suivant suit manuellement les vues de page sur la page `checkout` dans une application RUM. Il utilise `checkout` pour le nom de la vue et associe le service `purchase` à la version `1.2.3`. + + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' +}) +``` +{% /if %} +{% /if %} + + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "5.28.0") %} + +- **Contexte** : À partir de [version 5.28.0][19], vous pouvez ajouter un contexte aux vues et aux événements enfants des vues. + +L'exemple suivant suit manuellement les vues de page sur la page `checkout` dans une application RUM. Utilisez `checkout` pour le nom de la vue et associez le service `purchase` à la version `1.2.3`. + + + {% if equals($lib_src, "npm") %} + ```javascript + datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + }) + ``` + {% /if %} + + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3', + context: { + payment: 'Done' + }, + }) + ``` + {% /if %} + +{% /if %} + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} + +###Instrumentation du routeur React{% #react-router-instrumentation %} + +Si vous utilisez React, Angular, Vue ou tout autre framework frontend, Datadog recommande de mettre en œuvre la logique `startView` au niveau du routeur du framework. + +Pour remplacer les noms par défaut de la vue du RUM afin de les aligner avec leur définition dans votre application React, vous devez suivre les étapes ci-dessous. + +**Remarque** : Ces instructions sont spécifiques à la bibliothèque **React Router v6**. + +1. Définissez `trackViewsManually` sur `true` lors de l'initialisation du SDK RUM Browser comme décrit [ ci-dessus](#override-default-rum-view-names). + +2. Lancez des vues sur chaque changement de route. + + {% if equals($lib_src, "npm") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + import { datadogRum } from "@datadog/browser-rum"; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + datadogRum.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + DD_RUM.onReady(function() { + DD_RUM.startView({name: viewName}); + }); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + window.DD_RUM && + window.DD_RUM.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {% /if %} +{% /if %} + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.17.0") %} +### Définissez le nom de la vue {% #set-view-name %} + +Utilisez `setViewName(name: string)` pour mettre à jour le nom de la vue actuelle. Cela vous permet de changer le nom de la vue pendant la vue sans en commencer une nouvelle. + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.setViewName(''); + + // Code example + datadogRum.setViewName('Checkout'); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.setViewName(''); + }) + + // Code example + window.DD_RUM.onReady(function() { + window.DD_RUM.setViewName('Checkout'); + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && window.DD_RUM.setViewName(''); + + // Code example + window.DD_RUM && window.DD_RUM.setViewName('Checkout'); + ``` + {% /if %} + +**Remarque** : Changer le nom de la vue affecte la vue et ses événements enfants à partir du moment où la méthode est appelée. +{% /if %} + + +Pour en savoir plus, consultez la section [Surveillance Browser RUM][4]. + + +## Enrichir et contrôler les données RUM {% #enrich-and-control-rum-data %} + +Le SDK RUM Browser capture les événements RUM et remplit leurs principaux attributs. La fonction de rappel `beforeSend` vous donne accès à chaque événement collecté par le SDK RUM Browser avant son envoi à Datadog. + +L'interception d'événements RUM vous permet d'effectuer les opérations suivantes : + +-Enrichissez vos événements RUM avec des attributs de contexte supplémentaires +-Modifiez vos événements RUM pour altérer leur contenu ou masquer des séquences sensibles (voir [liste des propriétés modifiables](#modify-the-content-of-a-rum-event)) +-Éliminer les événements RUM sélectionnés + + +{% if semverIsAtLeast($rum_browser_sdk_version, "2.13.0") %} +À partir de [version 2.13.0][5], `beforeSend` prend deux arguments : le `event` généré par le SDK RUM Browser et le `context` qui a déclenché la création de l'événement RUM. + +```javascript +function beforeSend(event, context) +``` + +Les valeurs potentielles de `context` sont : + +| Type d'événement RUM | Contexte | +|------------------|---------------------------| +| Vue | [Emplacement][6] | +| Action | [Événement][7] et pile de gestion | +| Ressource (XHR) | [XMLHttpRequest][8], [PerformanceResourceTiming][9], et pile de gestion | +| Ressource (Fetch) | [Request][10], [Response][11], [PerformanceResourceTiming][9], et pile de gestion | +| Ressource (Autre) | [PerformanceResourceTiming][9] | +| Erreur | [Erreur][12] | +| Longue tâche | [PerformanceLongTaskTiming][13] | + +Pour en savoir plus, consultez le [guide pour enrichir et contrôler les données RUM][14]. +{% /if %} + + +### Enrichir les événements RUM {% #enrich-rum-events %} + +Avec les attributs ajoutés avec le [API de Contexte Global](#global-context) ou la [collecte de données des Drapeaux de Fonctionnalité](#enrich-rum-events-with-feature-flags), vous pouvez ajouter des attributs de contexte supplémentaires à l'événement. Par exemple, taguez vos événements de ressource RUM avec des données extraites d'un objet de réponse de fetch : + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }) + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); + ``` + {% /if %} + +Lorsqu'un utilisateur appartient à plusieurs équipes, ajoutez des paires key-value supplémentaires dans vos appels de l'API de contexte global. + +Le SDK RUM Browser ignore les attributs ajoutés en dehors de `event.context`. + +### Enrichir les événements RUM avec des drapeaux de fonctionnalité {% #enrich-rum-events-with-feature-flags %} + +Vous pouvez [enrichir vos données d'événements RUM avec des drapeaux de fonctionnalité][14] pour obtenir un contexte et une visibilité supplémentaires sur la surveillance des performances. Cela vous permet de déterminer quels utilisateurs se voient présenter une expérience utilisateur spécifique et si cela affecte négativement les performances de l'utilisateur. + +### Modifier le contenu d'un événement RUM {% #modify-the-content-of-a-rum-event %} + +Par exemple, pour censurer les adresses e-mail de vos URL d'applications Web : + + {% if equals($lib_src, "npm") %} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_async") %} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }) + }) + ``` + {% /if %} + + + {% if equals($lib_src, "cdn_sync") %} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // remove email from view url + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); + ``` + {% /if %} + +Vous pouvez modifier les propriétés d'événement suivantes : + +| Attribut | Type | Description | +| ------------------------------ | ------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `view.url` | Chaîne | L'URL de la page web active. | +| `view.referrer` | Chaîne | L'URL de la page web précédente à partir de laquelle un lien vers la page actuellement demandée a été suivi. | +| `view.name` | Chaîne | Le nom de la vue actuelle. | +| `view.performance.lcp.resource_url` | Chaîne | L'URL de la ressource pour le Largest Contentful Paint. | +| `service` | Chaîne | Le nom du service pour votre application. | +| `version` | Chaîne | La version de l'application. Par exemple : 1.2.3, 6c44da20, ou 2020.02.13. | +| `action.target.name` | Chaîne | L'élément avec lequel l'utilisateur a interagi. Uniquement pour les actions collectées automatiquement. | +| `error.message` | Chaîne | Un message concis, lisible par l'homme, en une ligne expliquant l'erreur. | +| `error.stack` | Chaîne | La trace de la pile ou des informations complémentaires sur l'erreur. | +| `error.resource.url` | Chaîne | L'URL de la ressource qui a déclenché l'erreur. | +| `resource.url` | Chaîne | L'URL de la ressource. | +| `long_task.scripts.source_url` | Chaîne | L'URL de la ressource du script | +| `long_task.scripts.invoker` | Chaîne | Un nom significatif indiquant comment le script a été appelé | +| `context` | Objet | Attributs ajoutés avec l'[API de Contexte Global](#global-context), l'[API de Contexte de Vue](#view-context), ou lors de la génération d'événements manuellement (par exemple, `addError` et **`addAction`**). | + +Le SDK RUM Browser ignore les modifications apportées aux propriétés des événements non listées ci-dessus. Pour plus d'informations sur les propriétés des événements, consultez le [dépôt GitHub du SDK RUM Browser][15]. + +**Remarque** : Contrairement à d'autres événements, les événements de vue sont envoyés plusieurs fois à Datadog pour refléter les mises à jour survenant pendant leur cycle de vie. Une mise à jour d'un événement de vue précédent peut encore être envoyée pendant qu'une nouvelle vue est active. Datadog recommande de faire attention à ce comportement lors de la modification du contenu d'un événement de vue. + +```javascript +beforeSend: (event) => { + // discouraged, as the current view name could be applied to both the active view and the previous views + event.view.name = getCurrentViewName() + + // recommended + event.view.name = getViewNameForUrl(event.view.url) +} +``` + +### Éliminer un événement RUM {% #discard-a-rum-event %} + +Avec l'API `beforeSend`, éliminez un événement RUM en retournant `false` : + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + }, + ... + }, + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... + }); +``` +{% /if %} + +**Remarque** : Les événements de vue ne peuvent pas être éliminés. + +## Session utilisateur {% #user-session %} + +L'ajout d’informations sur l’utilisateur à vos sessions RUM vous aide : + +- Suivez le parcours d'un utilisateur donné +- Sachez quels utilisateurs sont les plus impactés par les erreurs +- Surveillez la performance de vos utilisateurs les plus importants + +{% img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="API utilisateur dans l'interface RUM" /%} + + +{% if semverIsAtLeast($rum_browser_sdk_version, "6.4.0") %} +Dans les versions 6.4.0 et supérieures, les attributs suivants sont disponibles : + +| Attribut | Type | Requis | Description | +|------------|------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Chaîne | Oui | Identifiant unique de l'utilisateur. | +| `usr.name` | Chaîne | Non | Nom convivial de l'utilisateur, affiché par défaut dans l'interface RUM. | +| `usr.email` | Chaîne | Non | Email de l'utilisateur, affiché dans l'interface RUM si le nom de l'utilisateur n'est pas présent. Il est également utilisé pour récupérer des Gravatars. | +{% /if %} + + + +{% if not(semverIsAtLeast($rum_browser_sdk_version, "6.4.0")) %} +Les attributs ci-dessous sont optionnels dans les versions antérieures à 6.4.0, mais Datadog recommande fortement de fournir au moins l'un d'eux. Par exemple, vous devez définir l'ID utilisateur sur vos sessions pour voir des données pertinentes sur certains tableaux de bord RUM par défaut, qui s'appuient sur `usr.id` dans la requête. + +| Attribut | Type | Description | +|------------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Chaîne | Identifiant unique de l'utilisateur. | +| `usr.name` | Chaîne | Nom convivial de l'utilisateur, affiché par défaut dans l'interface RUM. | +| `usr.email` | Chaîne | Email de l'utilisateur, affiché dans l'interface RUM si le nom de l'utilisateur n'est pas présent. Il est également utilisé pour récupérer des Gravatars. | + +**Remarque** : 'Utilisateur public' est affiché dans l'interface RUM lorsque `usr.name` n'est pas défini, même si `usr.email` et `usr.id` sont définis. + +Augmentez vos capacités de filtrage en ajoutant des attributs supplémentaires en plus de ceux recommandés. Par exemple, ajoutez des informations sur le plan de l'utilisateur ou à quel groupe d'utilisateurs il appartient. + +Lorsque vous modifiez l'objet de la session utilisateur, tous les événements RUM recueillis après la modification contiennent les informations les plus récentes. + +**Remarque** : La suppression des informations de session de l'utilisateur, comme lors d'une déconnexion, conserve les informations de l'utilisateur sur la dernière vue avant la déconnexion, mais pas sur les vues ultérieures ou au niveau de la session, car les données de session utilisent les valeurs de la dernière vue. +{% /if %} + + +### Identifier la session de l'utilisateur {% #identify-user-session %} + +`datadogRum.setUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{% /if %} + +### Accéder à la session de l'utilisateur {% #access-user-session %} + +`datadogRum.getUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.getUser() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getUser() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getUser() +``` +{% /if %} + +### Ajouter/Remplacer la propriété de session de l'utilisateur {% #addoverride-user-session-property %} + +`datadogRum.setUserProperty('', )` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setUserProperty('name', 'John Doe') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUserProperty('name', 'John Doe') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') +``` +{% /if %} + +### Supprimer la propriété de session de l'utilisateur {% #remove-user-session-property %} + +`datadogRum.removeUserProperty('')` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.removeUserProperty('name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeUserProperty('name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.removeUserProperty('name') +``` +{% /if %} + +### Effacer la propriété de session de l'utilisateur {% #clear-user-session-property %} + +`datadogRum.clearUser()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.clearUser() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearUser() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearUser() +``` +{% /if %} + +## Compte {% #account %} + +Pour regrouper les utilisateurs en différents ensembles, utilisez le concept de compte. + +Les attributs suivants sont disponibles : + +| Attribut | Type | Requis | Description | +|----------------|--------|----------|------------------------------------------------------------| +| `account.id` | Chaîne | Oui | Identifiant de compte unique. | +| `account.name` | Chaîne | Non | Nom convivial du compte, affiché par défaut dans l'interface RUM. | + +### Identifier le compte {% #identify-account %} + +`datadogRum.setAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setAccount({ + id: '1234', + name: 'My Company Name', + ... +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccount({ + id: '1234', + name: 'My Company Name', + ... + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setAccount({ + id: '1234', + name: 'My Company Name', + ... +}) +``` +{% /if %} + +### Accéder au compte {% #access-account %} + +`datadogRum.getAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.getAccount() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getAccount() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getAccount() +``` +{% /if %} + +### Ajouter/Remplacer la propriété du compte {% #addoverride-account-property %} + +`datadogRum.setAccountProperty('', )` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.setAccountProperty('name', 'My Company Name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccountProperty('name', 'My Company Name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setAccountProperty('name', 'My Company Name') +``` +{% /if %} + +### Supprimer la propriété du compte {% #remove-account-property %} + +`datadogRum.removeAccountProperty('')` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.removeAccountProperty('name') +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeAccountProperty('name') +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.removeAccountProperty('name') +``` +{% /if %} + +### Effacer les propriétés du compte {% #clear-account-properties %} + +`datadogRum.clearAccount()` + +{% if equals($lib_src, "npm") %} + +```javascript +datadogRum.clearAccount() +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearAccount() +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearAccount() +``` +{% /if %} + +## Échantillonnage {% #sampling %} + +Par défaut, aucun échantillonnage n'est appliqué au nombre de sessions collectées. Pour appliquer un échantillonnage relatif (en pourcentage) au nombre de sessions collectées, utilisez le paramètre `sessionSampleRate` lors de l'initialisation de RUM. + +L'exemple suivant recueille seulement 90 % de toutes les sessions pour une application RUM donnée : + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '', + sessionSampleRate: 90, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + site: '', + sessionSampleRate: 90, + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + site: '', + sessionSampleRate: 90, + }); +``` +{% /if %} + +Lorsqu'une session est exclue en raison d'un échantillonnage, aucune vue de page ni aucune donnée de télémétrie associée à cette session ne sont recueillies. + +## Consentement au suivi des utilisateurs {% #user-tracking-consent %} + +Pour être conforme au RGPD, CCPA et à des réglementations similaires, le SDK RUM Browser vous permet de fournir la valeur de consentement au suivi lors de l'initialisation. Pour plus d'informations sur le consentement au suivi, voir [Sécurité des données][17]. + +Le paramètre d'initialisation `trackingConsent` peut être l'une des valeurs suivantes : + +1. `"granted"` (default) : Le SDK RUM Browser commence à collecter des données et les envoie à Datadog. +2. `"not-granted"` : Le SDK RUM Browser ne collecte aucune donnée. + +Pour changer la valeur de consentement au suivi après l'initialisation du SDK RUM Browser, utilisez l'appel API `setTrackingConsent()`. Le SDK RUM Browser change son comportement en fonction de la nouvelle valeur : + +- lorsqu'il est changé de `"granted"` à `"not-granted"`, la session RUM est arrêtée, les données ne sont plus envoyées à Datadog. +- lorsqu'il est changé de `"not-granted"` à `"granted"`, une nouvelle session RUM est créée si aucune session précédente n'est active, et la collecte de données reprend. + +Cet état n'est pas synchronisé entre les onglets et n'est pas conservé entre les navigations. Il est de votre responsabilité de fournir la décision de l'utilisateur lors de l'initialisation du SDK RUM Browser ou en utilisant `setTrackingConsent()`. + +Lorsque `setTrackingConsent()` est utilisé avant `init()`, la valeur fournie prend le pas sur le paramètre d'initialisation. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', function() { + datadogRum.setTrackingConsent('granted'); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' + }); +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM.onReady(function() { + window.DD_RUM.setTrackingConsent('granted'); + }); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); +}); +``` +{% /if %} + +## Contexte de vue {% #view-context %} + + +À partir de [version 5.28.0][20], le contexte des événements de vue est modifiable. Le contexte peut être ajouté uniquement à la vue actuelle et remplit ses événements enfants (tels que `action`, `error` et `timing`) avec les fonctions `startView`, `setViewContext` et `setViewContextProperty`. + +### Démarrer la vue avec le contexte {% #start-view-with-context %} + +Définissez éventuellement le contexte lors du démarrage d'une vue avec [`startView` options](#override-default-rum-view-names). + +### Ajoutez le contexte de la vue {% #add-view-context %} + +Enrichissez ou modifiez le contexte des événements de vue RUM et des événements enfants correspondants avec l'API `setViewContextProperty(key: string, value: any)`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setViewContextProperty('', ''); + +// Code example +datadogRum.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContextProperty('', ''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setViewContextProperty('', ''); + +// Code example +window.DD_RUM && window.DD_RUM.setViewContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + +### Remplacez le contexte de la vue {% #replace-view-context %} + +Remplacez le contexte de vos événements de vue RUM et des événements enfants correspondants avec l'API `setViewContext(context: Context)`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setViewContext({ '': '' }); + +// Code example +datadogRum.setViewContext({ + originalUrl: 'shopist.io/department/chairs', +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContext({ '': '' }); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setViewContext({ + originalUrl: 'shopist.io/department/chairs', + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.setViewContext({ '': '' }); + +// Code example +window.DD_RUM && + window.DD_RUM.setViewContext({ + originalUrl: 'shopist.io/department/chairs', + }); +``` +{% /if %} + +## Contexte d'erreur {% #error-context %} + +### Attachement du contexte d'erreur local avec dd_context {% #attaching-local-error-context-with-dd-context %} + +Lors de la capture des erreurs, un contexte supplémentaire peut être fourni au moment où une erreur est générée. Au lieu de passer des informations supplémentaires via l'API `addError()`, vous pouvez attacher une propriété `dd_context` directement à l'instance d'erreur. Le SDK RUM Browser détecte automatiquement cette propriété et l'intègre dans le contexte final de l'événement d'erreur. + +```javascript +const error = new Error('Something went wrong') +error.dd_context = { component: 'Menu', param: 123, } +throw error +``` + +## Contexte global {% #global-context %} + +### Ajoutez la propriété de contexte global {% #add-global-context-property %} + +Après l'initialisation de RUM, ajoutez un contexte supplémentaire à tous les événements RUM collectés depuis votre application avec l'API `setGlobalContextProperty(key: string, value: any)` : + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setGlobalContextProperty('', ); + +// Code example +datadogRum.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` + +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('', ''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('', ''); + +// Code example +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{% /if %} + +### Supprimez la propriété de contexte global {% #remove-global-context-property %} + +Vous pouvez supprimer une propriété de contexte global précédemment définie. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.removeGlobalContextProperty(''); + +// Code example +datadogRum.removeGlobalContextProperty('codeVersion'); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty(''); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty(''); + +// Code example +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +``` +{% /if %} + +### Remplacez le contexte global {% #replace-global-context %} + +Remplacez le contexte par défaut de tous vos événements RUM avec l'API `setGlobalContext(context: Context)`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setGlobalContext({ '': '' }); + +// Code example +datadogRum.setGlobalContext({ + codeVersion: 34, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ '': '' }); +}) + +// Code example +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }) +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.setGlobalContext({ '': '' }); + +// Code example +window.DD_RUM && + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }); +``` +{% /if %} + +### Effacez le contexte global {% #clear-global-context %} + +Vous pouvez effacer le contexte global en utilisant `clearGlobalContext`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.clearGlobalContext(); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearGlobalContext(); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.clearGlobalContext(); +``` +{% /if %} + +### Lisez le contexte global {% #read-global-context %} + +Une fois RUM initialisé, lisez le contexte global avec l'API `getGlobalContext()`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const context = datadogRum.getGlobalContext(); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + const context = window.DD_RUM.getGlobalContext(); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); +``` +{% /if %} + +## Cycles de vie des contextes {% #contexts-life-cycle %} + +Par défaut, le contexte global et le contexte utilisateur sont stockés dans la mémoire de la page actuelle, ce qui signifie qu'ils ne sont pas : + +- conservé après un rechargement complet de la page +- partagé entre différents onglets ou fenêtres de la même session + +Pour les ajouter à tous les événements de la session, ils doivent être joints à chaque page. + + +{% if semverIsAtLeast($rum_browser_sdk_version, "4.49.0") %} +Avec l'introduction de l'option de configuration `storeContextsAcrossPages` dans la version 4.49.0, ces contextes peuvent être stockés dans [`localStorage`][18], permettant les comportements suivants : + +- Les contextes sont préservés après un rechargement complet +- Les contextes sont synchronisés entre les onglets ouverts sur la même origine + +Cependant, cette fonctionnalité présente certaines **limitations** : + +- Il n'est pas recommandé de définir des informations personnellement identifiables (PII) dans ces contextes, car les données stockées dans `localStorage` survivent à la session utilisateur +- La fonctionnalité est incompatible avec les options `trackSessionAcrossSubdomains` car les données `localStorage` ne sont partagées qu'entre la même origine (login.site.com ≠ app.site.com) +- `localStorage` est limité à 5 MiB par origine, donc les données spécifiques à l'application, les contextes Datadog et d'autres données tierces stockées dans le stockage local doivent être dans cette limite pour éviter tout problème + +{% /if %} + + +## Contexte interne {% #internal-context %} + +Une fois le SDK Browser RUM Datadog initialisé, vous pouvez accéder au contexte interne du SDK. Cela fournit des identifiants principaux et des métadonnées que le SDK utilise en interne, tels que les identifiants de session et les détails de l'application. + +Vous pouvez analyser les attributs suivants : + +| Attribut | Description | +| -------------- | ----------------------------------------------------------------- | +| application_id | ID de l'application. | +| session_id | ID de la session. | +| user_action | Objet contenant l'ID de l'action (ou indéfini si aucune action n'est trouvée). | +| view | Objet contenant des détails sur l'événement de view actuel. | + +Pour en savoir plus, consultez la section [Données RUM recueillies (Browser)][2]. + +### Exemple {% #example %} + +```json +{ + application_id : "xxx", + session_id : "xxx", + user_action: { id: "xxx" }, + view : { + id : "xxx", + referrer : "", + url: "http://localhost:8080/", + name: "homepage" + } +} +``` + +Vous pouvez optionnellement utiliser le paramètre `startTime` pour obtenir le contexte d'un moment spécifique. Si le paramètre est omis, le contexte actuel est retourné. + +```typescript +getInternalContext (startTime?: 'number' | undefined) +``` + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum' + +datadogRum.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function () { + window.DD_RUM.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +}) +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && window.DD_RUM.getInternalContext() // { session_id: "xxxx", application_id: "xxxx" ... } +``` +{% /if %} + + +## Micro frontend {% #micro-frontend %} + +Le SDK RUM Browser prend en charge les architectures de micro frontend en attribuant des événements à des micro frontends spécifiques à l'aide des attributs `service` et `version`. Une seule instance du SDK RUM fonctionne au niveau du shell. Les événements sont segmentés par `service` et `version` afin que les équipes puissent filtrer les tableaux de bord, définir des alertes et suivre les performances par micro frontend. + +Datadog propose deux approches pour attribuer des événements RUM aux micro frontends : + +1. **Attribution automatique** : Utilise un plugin de construction qui injecte le contexte du code source, éliminant ainsi l'analyse manuelle des traces de pile. +2. **Attribution manuelle** : Utilise le callback `beforeSend` pour analyser les traces de pile et extraire les informations sur le service. + + +### Attribution automatique du service et de la version {% #automatic-service-and-version-attribution %} + +Cette approche utilise un plugin de construction pour injecter le contexte du code source dans vos bundles, que le SDK RUM lit automatiquement pour enrichir les événements avec les valeurs correctes pour `service` et `version`. + +#### Conditions préalables et configurations prises en charge {% #prerequisites-and-supported-setups %} + +- **Bundles séparés** : Chaque micro frontend a son propre bundle avec des chemins de fichiers distincts, par exemple, en utilisant [module federation][21]. +- **Bundler pris en charge** : Utilisez un bundler [pris en charge par les plugins de construction Datadog][22]. +- **SDK Browser** : Version du SDK Browser v6.30.1 ou supérieure. + +#### Guide d'installation {% #setup-guide %} + +**Étape 1 - Configurez le build plugin pour chaque micro frontend** + +Dans la configuration de build de chaque micro frontend, activez l'injection de contexte de code source : + +{% tabs %} +{% tab label="Webpack" %} + +```javascript +const { datadogWebpackPlugin } = require('@datadog/webpack-plugin'); + +module.exports = { + plugins: [ + new datadogWebpackPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="Vite" %} + +```javascript +import { datadogVitePlugin } from '@datadog/vite-plugin'; + +export default { + plugins: [ + datadogVitePlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="esbuild" %} + +```javascript +const { datadogEsbuildPlugin } = require('@datadog/esbuild-plugin'); + +require('esbuild').build({ + plugins: [ + datadogEsbuildPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}); +``` +{% /tab %} + +{% tab label="Rollup" %} + +```javascript +import { datadogRollupPlugin } from '@datadog/rollup-plugin'; + +export default { + plugins: [ + datadogRollupPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} + +{% tab label="Rspack" %} + +```javascript +const { datadogRspackPlugin } = require('@datadog/rspack-plugin'); + +module.exports = { + plugins: [ + new datadogRspackPlugin({ + rum: { + enable: true, + sourceCodeContext: { + service: 'foo-microfrontend', + version: process.env.APP_VERSION || '1.0.0' + } + } + }) + ] +}; +``` +{% /tab %} +{% /tabs %} + +**Étape 2 - Configurez le SDK du navigateur au niveau du shell** + +[Configurez la surveillance du navigateur][4] dans votre application shell (point d'entrée principal). Le SDK du navigateur enrichit automatiquement les événements RUM (erreurs, actions personnalisées, ressources XHR/Fetch, tâches longues, indicateurs) avec `service` et `version` provenant de la carte de contexte. + +{% alert level="warning" %} +Les événements qui ne correspondent à aucun micro frontend se rabattent sur le service et la version au niveau du shell. +{% /alert %} + +**Étape 3 - [Explorez les données des micro frontends dans Datadog](#explore-micro-frontend-data-in-datadog)** + + + +{% if semverIsAtLeast($rum_browser_sdk_version, "5.22") %} + +###Attribution manuelle de service et de version{% #manual-service-and-version-attribution %} + +Dans la propriété `beforeSend`, vous pouvez remplacer les propriétés de service et de version. Pour vous aider à identifier l'origine de l'événement, utilisez la propriété `context.handlingStack`. + +{% if equals($lib_src, "npm") %} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +datadogRum.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, + }); +}); +``` +{% /if %} + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +const SERVICE_REGEX = /some-pathname\/(?\w+)\/(?\w+)\//; + +window.DD_RUM && window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + const stack = context?.handlingStack || event?.error?.stack; + const { service, version } = stack?.match(SERVICE_REGEX)?.groups; + + if (service && version) { + event.service = service; + event.version = version; + } + + return true; + }, +}); +``` +{% /if %} + +L'expression régulière doit correspondre à la structure du chemin de fichier de votre application. Ajustez le modèle pour extraire le service et la version de vos URL de bundle. Toute requête dans l'explorateur RUM peut utiliser l'attribut de service pour filtrer les événements. + + +{% /if %} + +### Limitations {% #limitations %} + +#### Événements sans origine attribuée {% #events-without-an-attributed-origin %} + +Certains événements ne peuvent pas être attribués à une origine car ils ne possèdent pas de pile de gestion associée : + +- Événements d'action collectés automatiquement +- Événements de ressources autres que XHR et Fetch +- Événements de vue collectés automatiquement +- Violations CORS et CSP + +####Résolution des source maps pour les micro frontends{% #source-map-resolution-across-micro-frontends %} + +Lorsqu'une trace de pile contient des frames provenant de plusieurs micro frontends, l'événement reçoit un seul `service` et un `version` provenant de la frame la plus haute (où l'erreur a été lancée). Les cartes sources sont résolues pour l'événement sous ce service unique, donc les frames d'autres micro frontends restent minifiées, même lorsque leurs cartes sources ont été correctement téléchargées sous leur propre `service`. + +Pour contrôler quelles source maps de micro frontend sont utilisées, utilisez l'approche [attribution manuelle](#manual-service-and-version-attribution) avec `beforeSend` pour définir `event.service` et `event.version`. Seules les frames appartenant au micro frontend choisi sont déminifiées. + +### Explorez les données des micro frontends dans Datadog {% #explore-micro-frontend-data-in-datadog %} + +Après la configuration, le `service` et `version` sur les événements RUM identifient quel micro frontend a généré chaque événement. Utilisez ces attributs dans plusieurs endroits dans Datadog : + +- **Panneaux latéraux** : Les attributs `service` et `version` apparaissent dans les panneaux latéraux de la session, de la vue, de l'erreur, de la ressource, de l'action et des tâches longues dans l'Explorateur RUM. +- **RUM Summary dashboard** : Utilisez le `service` et `version` pour filtrer dans le RUM Summary dashboard afin de limiter les métriques de performance à un micro frontend spécifique. +- **Tableaux de bord personnalisés** : Créez des tableaux de bord en utilisant le `service` et `version` pour surveiller chaque micro frontend indépendamment. + +[1]: /fr/real_user_monitoring/application_monitoring/browser/data_collected/ +[2]: /fr/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 +[4]: /fr/real_user_monitoring/application_monitoring/browser/setup/ +[5]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2130 +[6]: https://developer.mozilla.org/en-US/docs/Web/API/Location +[7]: https://developer.mozilla.org/en-US/docs/Web/API/Event +[8]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest +[9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming +[10]: https://developer.mozilla.org/en-US/docs/Web/API/Request +[11]: https://developer.mozilla.org/en-US/docs/Web/API/Response +[12]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Error +[13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming +[14]: /fr/real_user_monitoring/guide/enrich-and-control-rum-data +[15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts +[16]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v4130 +[17]: /fr/data_security/real_user_monitoring/#browser-rum-use-of-cookies +[18]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage +[19]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v5280 +[20]: /fr/real_user_monitoring/application_monitoring/browser/advanced_configuration#override-default-rum-view-names +[21]: https://module-federation.io/ +[22]: https://github.com/DataDog/build-plugins?tab=readme-ov-file#usage +[23]: https://github.com/DataDog/build-plugins \ No newline at end of file diff --git a/content/fr/real_user_monitoring/guide/proxy-rum-data.mdoc.md b/content/fr/real_user_monitoring/guide/proxy-rum-data.mdoc.md new file mode 100644 index 00000000000..5ff0e6ff73d --- /dev/null +++ b/content/fr/real_user_monitoring/guide/proxy-rum-data.mdoc.md @@ -0,0 +1,234 @@ +--- +aliases: +- /fr/real_user_monitoring/faq/proxy_rum_data/ +content_filters: +- label: SDK source + option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_proxying_options + trait_id: rum_browser_sdk_version +description: Configurez le proxy de données RUM du navigateur avec les options de + source SDK et les paramètres spécifiques à la version pour un routage réseau personnalisé. +further_reading: +- link: /real_user_monitoring/ + tag: Documentation + text: En savoir plus sur le Real User Monitoring +title: Utilisez un proxy pour vos données RUM du navigateur +--- +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +{% alert level="danger" %} +Mettez à niveau vers le SDK du navigateur `4.34.0` ou une version ultérieure pour éviter les vulnérabilités de sécurité dans votre configuration de proxy. +{% /alert %} +{% /if %} + +## Aperçu {% #overview %} + +Le SDK RUM du navigateur peut être configuré pour envoyer des requêtes via un proxy. Lorsque vous définissez le `proxy` [paramètre d'initialisation][1] du SDK à une URL telle que `https://www.example-proxy.com/any-endpoint`, toutes les données RUM sont envoyées à cette URL en utilisant la méthode POST. Les données RUM doivent toujours être transférées à Datadog depuis le proxy. + +## Configuration préalable du proxy {% #prerequisite-proxy-setup %} + +Pour transférer avec succès une requête à Datadog, votre proxy doit + +1. [Construisez l'URL d'intégration de Datadog](#build-the-datadog-intake-url). +2. Ajoutez un en-tête `X-Forwarded-For` contenant l'adresse IP du client de la requête pour un geoIP précis. +3. Transférez la requête à l'URL d'intégration de Datadog en utilisant la méthode POST. +4. Laissez le corps de la requête inchangé. + +{% alert level="warning" %} +- Pour des raisons de sécurité, supprimez tous les en-têtes HTTP qui pourraient contenir des informations sensibles, comme l'en-tête `cookie`. +- Le corps de la requête peut contenir des données binaires et ne doit pas être converti en chaîne. Assurez-vous que votre implémentation de proxy transfère le corps brut sans conversion. +- Assurez-vous que votre implémentation de proxy ne permet pas à un acteur malveillant d'envoyer des requêtes à un autre serveur. Par exemple : `https://browser-intake-datadoghq.com.malicious.com`. +{% /alert %} + +### Construisez l'URL d'intégration de Datadog {% #build-the-datadog-intake-url %} + +Votre URL d'intégration Datadog doit avoir le format `/` (par exemple, `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser&...`). + +{% table %} +--- +* origine d'entrée +* + L'origine d'entrée de Datadog correspond à votre `site` [paramètre d'initialisation][1]. L'origine d'entrée de Datadog correspondant à votre paramètre de site doit être définie dans votre implémentation de proxy. + + {% site-region region="us" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-datadoghq.com`. + {% /site-region %} + + {% site-region region="us3" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-us3-datadoghq.com`. + {% /site-region %} + + {% site-region region="us5" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-us5-datadoghq.com`. + {% /site-region %} + + {% site-region region="eu" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-datadoghq.eu`. + {% /site-region %} + + {% site-region region="ap1" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-ap1-datadoghq.com`. + {% /site-region %} + + {% site-region region="ap2" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-ap2-datadoghq.com`. + {% /site-region %} + + {% site-region region="gov" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-ddog-gov.com`. + {% /site-region %} + + {% site-region region="gov2" %} + L'origine d'entrée pour votre site Datadog est `https://browser-intake-us2-ddog-gov.com`. + {% /site-region %} +--- +* chemin +* + Le chemin contient la version de l'API et le produit (par exemple, `/api/v2/rum` pour les données RUM ou `/api/v2/replay` pour les données de Session Replay). + + Le chemin pour chaque requête peut être consulté dans le paramètre `ddforward` de la requête (par exemple, `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). +--- +* paramètres +* + Les paramètres de la requête (par exemple, `ddsource=browser&...`) peuvent être consultés dans le paramètre `ddforward` de la requête (par exemple, `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). + +{% /table %} + +## configuration du SDK {% #sdk-setup %} + + +{% if includes($rum_browser_sdk_version, ["gte_5_4_0", "gte_4_34_0"]) %} + +Configurez l'URL du proxy dans le paramètre d'initialisation `proxy` : + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: '', +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '', + }); +}); +``` + +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '' + }); +``` +{% /if %} + + +Le SDK RUM du navigateur ajoute un paramètre de requête `ddforward` à toutes les requêtes vers votre proxy. Ce paramètre de requête contient le chemin URL et les paramètres vers lesquels toutes les données doivent être redirigées. + +Par exemple, avec un `site` défini sur `datadoghq.eu` et un `proxy` défini sur `https://example.org/datadog-intake-proxy`, le SDK RUM du navigateur envoie des requêtes à une URL comme ceci : `https://example.org/datadog-intake-proxy?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`. Le proxy transfère la requête à `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser`. + + +{% if equals($rum_browser_sdk_version, "gte_5_4_0") %} +### Passer une fonction au paramètre d'initialisation `proxy` {% #passing-a-function-to-the-proxy-initialization-parameter %} + +Le paramètre d'initialisation `proxy` prend également en charge une entrée de fonction. Cette fonction vous permet d'avoir plus de contrôle sur la manière dont le chemin et les paramètres sont ajoutés à l'URL du proxy. + +Cette fonction reçoit un objet avec les propriétés suivantes : + +- `path` : le chemin pour les requêtes Datadog (exemple : `/api/v2/rum`) +- `parameters` : les paramètres des requêtes Datadog (exemple : `ddsource=browser&...`) + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, + }) +}) +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}` + }); +``` +{% /if %} + + +**Remarque :** +- Certains bloqueurs de confidentialité ciblent déjà les [modèles d'URL][2] d'entrée, donc vous voudrez peut-être en tenir compte lors de la construction de votre URL de proxy. +- La fonction `proxy` est appelée pour chaque requête, donc elle doit éviter tout calcul lourd. +- **Les applications web JSP** doivent utiliser le caractère d'échappement `\` pour propager correctement ces paramètres au navigateur. Exemple : + ```javascript + proxy: (options) => 'http://proxyURL:proxyPort\${options.path}?\${options.parameters}', + ``` +{% /if %} + + +{% /if %} + + + +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +Avant la version 4.34.0 du SDK du navigateur, le paramètre d'initialisation `proxyUrl` était utilisé, et l'origine d'entrée Datadog était incluse dans l'attribut `ddforward`. L'implémentation du proxy était chargée de valider cet hôte, et le non-respect de cette validation entraînait diverses vulnérabilités. + +L'origine d'entrée Datadog doit être définie dans votre implémentation de proxy pour garantir la sécurité. + +**Pour éviter les vulnérabilités de sécurité, vous devez mettre à niveau vers le SDK du navigateur `4.34.0` ou une version ultérieure.** +{% /if %} + + +[1]: /fr/real_user_monitoring/application_monitoring/browser/setup/client/?tab=rum#initialization-parameters +[2]: https://github.com/easylist/easylist/blob/997fb6533c719a015c21723b34e0cedefcc0d83d/easyprivacy/easyprivacy_general.txt#L3840 \ No newline at end of file diff --git a/content/fr/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/fr/security/code_security/static_analysis/static_analysis_rules/_index.md index 67a48e5fe7a..5f8e61c456e 100644 --- a/content/fr/security/code_security/static_analysis/static_analysis_rules/_index.md +++ b/content/fr/security/code_security/static_analysis/static_analysis_rules/_index.md @@ -1,269 +1,384 @@ --- -title: Règles SAST -description: Afficher les règles pour plusieurs langages dans Static Code Analysis. aliases: -- /continuous_integration/static_analysis/rules -- /static_analysis/rules -- /code_analysis/static_analysis_rules -- /security/code_security/static_analysis_rules +- /fr/continuous_integration/static_analysis/rules +- /fr/static_analysis/rules +- /fr/code_analysis/static_analysis_rules +- /fr/security/code_security/static_analysis_rules +cascade: + banner: + link: + name: Datadog Code Security + url: https://www.datadoghq.com/product/code-security/ + title: Intégrations fluides. Essayez Datadog Code Security + modal: + bottom_boxes: + - cta_title: Télécharger l’extension + cta_url: https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode + icon: vscode + subtitle: Identifiez les vulnérabilités du code directement dans votre
    éditeur + VS Code + title: Extension VS Code + - cta_title: Télécharger le plugin + cta_url: https://plugins.jetbrains.com/plugin/19495-datadog + icon: jetbrains + subtitle: Identifiez les vulnérabilités du code directement dans
    les produits + JetBrains + title: Plugin JetBrains + footer: + link: + name: Sécurité du code Datadog + url: https://www.datadoghq.com/product/code-security/ + text: Utilisez Datadog Code Security pour détecter les problèmes de code à chaque + étape de votre processus de développement + title: Essayez cette règle et analysez votre code avec Datadog Code Security + top_box: + footer: Pour plus d'informations, veuillez lire la documentation + Datadog Code Security + steps: + - Créez un fichier static-analysis.datadog.yml avec le contenu ci-dessus à la + racine de votre dépôt + - Utilisez nos plugins IDE gratuits ou ajoutez des scans Datadog Code Security + à vos pipelines CI + - Obtenez des retours sur votre code + title: Comment utiliser cette règle +description: Consultez les règles pour plusieurs langages pour l'analyse statique + du code. +further_reading: +- link: /security/code_security/ + tag: Documentation + text: Découvrez Datadog Code Security is_beta: false -type: analyse-statique rulesets: + apex-code-style: + description: 'Règles Datadog Code Security pour écrire des règles Apex qui respectent + les normes de codage établies. + + ' + title: Règles pour imposer le style de code Apex et les meilleures pratiques. + apex-security: + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code Apex. + + ' + title: Règles de sécurité pour Apex + bash-code-quality: + description: 'Règles pour faire respecter la qualité du code pour les scripts + Bash. + + ' + title: Règles de qualité du code pour les scripts Bash. + bash-security: + description: 'Règles pour faire respecter les meilleures pratiques de sécurité + pour les scripts Bash. + + ' + title: Règles de sécurité pour les scripts Bash csharp-best-practices: - title: "Bonnes pratiques pour C#" - description: | - Règles pour appliquer les bonnes pratiques en C#. + description: 'Règles pour faire respecter les meilleures pratiques en C#. + + ' + title: Meilleures pratiques pour C# csharp-code-style: - title: "Suivre les conventions de style de code C#" - description: | - Règles pour appliquer le style de code C#. + description: 'Règles pour faire respecter le style de code C#. + + ' + title: Suivez les modèles de style de code C# csharp-inclusive: - title: "Utiliser un langage inclusif en C#" - description: | - Règles pour rendre votre code C# plus inclusif. + description: 'Règles pour rendre votre code C# plus inclusif. + + ' + title: Utilisez un langage inclusif en C# csharp-security: - title: "Écrire un code en C# sûr et sécurisé" - description: | - Règles conçues pour identifier les vulnérabilités dans votre code C#. + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code C#. + + ' + title: Écrivez un code C# sûr et sécurisé docker-best-practices: - title: Suivre les bonnes pratiques avec Docker - description: | - Bonnes pratiques pour l'utilisation de Docker. + description: 'Meilleures pratiques pour utiliser Docker. + + ' + title: Suivez les meilleures pratiques lors de l'utilisation de Docker github-actions: - title: Sécuriser vos GitHub Actions - description: | - Règles pour vérifier vos GitHub Actions et détecter des schémas non sécurisés, tels que les permissions ou le verrouillage de version. + description: 'Règles pour vérifier vos GitHub Actions et détecter des modèles + non sécurisés, tels que les autorisations ou le verrouillage de version. + + ' + title: Sécurisez vos GitHub Actions go-best-practices: - title: Bonnes pratiques pour Go - description: | - Règles destinées à faciliter et accélérer l'écriture de code Go. Allant des conventions de style à la prévention des bugs, ce jeu de règles aide les développeurs à produire du code Go performant, maintenable et optimisé. + description: 'Règles pour rendre l''écriture de code Go plus rapide et plus facile. + Des styles de code à la prévention des bogues, cet ensemble de règles aide les + développeurs à écrire un code Go performant, maintenable et efficace. + + ' + title: Meilleures pratiques pour Go go-inclusive: - title: Utiliser un langage inclusif en Go - description: | - Vérifiez que le code Go ne présente pas de problèmes de formulation. + description: 'Vérifiez le code Go pour des problèmes de formulation. + + ' + title: Utilisez un langage inclusif dans Go. go-security: - title: Veiller à ce que votre code Go soit sûr et sécurisé - description: | - Identifiez les vulnérabilités fréquentes (comme l'injection SQL, le XSS ou l'injection shell) dans votre code Go. + description: 'Détectez les problèmes de sécurité courants (tels que l''injection + SQL, XSS ou l''injection de shell) dans votre code Go. + + ' + title: Assurez-vous que votre code Go est sûr et sécurisé. java-best-practices: - title: Suivre les bonnes pratiques avec Java - description: | - Règles pour appliquer les bonnes pratiques en Java. + description: 'Règles pour appliquer les meilleures pratiques en Java. + + ' + title: Suivez les meilleures pratiques en Java. java-code-style: - title: Suivre les conventions de style de code Java - description: | - Règles pour appliquer le style de code Java. + description: 'Règles pour appliquer le style de code Java. + + ' + title: Suivez les modèles de style de code Java. java-inclusive: - title: Utiliser un langage inclusif en Java - description: | - Règles pour Java afin d'éviter des formulations inappropriées dans le code et les commentaires. + description: 'Règles pour Java afin d''éviter un langage inapproprié dans le code + et les commentaires. + + ' + title: Utilisez un langage inclusif en Java. java-security: - title: Veiller à ce que votre code Java soit sécurisé - description: | - Règles conçues pour identifier les vulnérabilités dans le code Java. + description: 'Règles axées sur la détection des problèmes de sécurité dans le + code Java. + + ' + title: Assurez-vous que votre code Java est sécurisé. javascript-best-practices: - title: Suivre les bonnes pratiques pour écrire du code en JavaScript - description: | - Règles pour appliquer les bonnes pratiques en JavaScript. + description: 'Règles pour appliquer les meilleures pratiques en JavaScript. + + ' + title: Suivez les meilleures pratiques pour écrire du code JavaScript. javascript-browser-security: - title: Règles de sécurité pour les applications web JavaScript - description: | - Règles conçues pour identifier les vulnérabilités au sein de vos applications web JavaScript. + description: 'Règles axées sur la détection des problèmes de sécurité dans vos + applications web JavaScript. + + ' + title: Règles de sécurité pour les applications web JavaScript. javascript-code-style: - title: Appliquer le style de code JavaScript - description: | - Règles pour appliquer le style de code JavaScript. + description: 'Règles pour appliquer le style de code JavaScript. + + ' + title: Appliquez le style de code JavaScript. javascript-common-security: - title: Règles de sécurité courantes pour JavaScript - description: | - Règles conçues pour identifier les vulnérabilités dans votre code JavaScript. + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code JavaScript. + + ' + title: Règles de sécurité courantes pour JavaScript. javascript-express: - title: Vérifier les bonnes pratiques et la sécurité pour Express.js - description: | - Règles spécifiques aux bonnes pratiques et à la sécurité pour Express.js. + description: 'Règles spécifiques pour les meilleures pratiques et la sécurité + d''Express.js. + + ' + title: Vérifiez les meilleures pratiques et la sécurité d'Express.js. javascript-inclusive: - title: Vérifier les problèmes de formulation dans le code JavaScript - description: | - Règles pour JavaScript afin d'éviter des formulations inappropriées dans le code et les commentaires. + description: 'Règles pour JavaScript afin d''éviter un langage inapproprié dans + le code et les commentaires. + + ' + title: Vérifiez le code JavaScript pour des problèmes de formulation. javascript-node-security: - title: Identifier les points sensibles de sécurité potentiels en Node - description: | - Règles pour identifier les points sensibles de sécurité potentiels en Node. Cela peut inclure de faux positifs nécessitant une analyse plus approfondie. + description: 'Règles pour identifier les points chauds de sécurité potentiels + dans Node. Cela peut inclure des faux positifs nécessitant un tri supplémentaire. + + ' + title: Identifiez les points chauds de sécurité potentiels dans Node. jsx-react: - title: Règles de linting spécifiques à React - description: | - Ce plugin fournit une configuration `recommended` destinée à faire respecter les bonnes pratiques en React. + description: 'Ce plugin exporte une configuration `recommandée` qui impose de + bonnes pratiques React. + + ' + title: Règles de linting spécifiques à React. kotlin-best-practices: - title: Suivre les bonnes pratiques pour écrire du code en Kotlin - description: | - Règles pour appliquer les bonnes pratiques en Kotlin. + description: 'Règles pour imposer les meilleures pratiques en Kotlin. + + ' + title: Suivez les meilleures pratiques pour écrire du code Kotlin. kotlin-code-style: - title: Appliquer le style de code Kotlin - description: | - Règles pour appliquer le style de code Kotlin. + description: 'Règles pour imposer le style de code Kotlin. + + ' + title: Imposez le style de code Kotlin. kotlin-security: - title: Appliquer des pratiques de codage sécurisées en Kotlin - description: | - Règles conçues pour identifier les vulnérabilités dans votre code Kotlin. + description: 'Règles axées sur la recherche de problèmes de sécurité dans votre + code Kotlin. + + ' + title: Imposez un codage Kotlin sécurisé. php-best-practices: - title: Suivre les bonnes pratiques pour écrire du code en PHP - description: | - Règles pour appliquer les bonnes pratiques en PHP, améliorer le style de code, prévenir les bugs et favoriser un code PHP performant, maintenable et efficace. + description: 'Règles pour imposer les meilleures pratiques en PHP, améliorer le + style de code, prévenir les bogues et promouvoir un code PHP performant, maintenable + et efficace. + + ' + title: Suivez les meilleures pratiques pour écrire du code PHP. php-code-style: - title: Appliquer le style de code PHP - description: | - Règles pour appliquer le style de code PHP. + description: 'Règles pour imposer le style de code PHP. + + ' + title: Imposez le style de code PHP. php-security: - title: Règles de sécurité pour PHP - description: | - Règles conçues pour identifier les vulnérabilités dans votre code PHP. + description: 'Règles axées sur la recherche de problèmes de sécurité dans votre + code PHP. + + ' + title: Règles de sécurité pour PHP. python-best-practices: - title: Suivre les bonnes pratiques pour écrire du code en Python - description: | - Bonnes pratiques pour Python afin d'écrire un code efficace et sans bug. + description: 'Meilleures pratiques pour Python afin d''écrire un code efficace + et sans bogues. + + ' + title: Suivez les meilleures pratiques pour écrire du code Python. python-code-style: - title: Appliquer le style de code Python - description: | - Règles pour appliquer le style de code Python. + description: 'Règles pour appliquer le style de code Python. + + ' + title: Appliquez le style de code Python python-design: - title: Vérifier la structure des programmes en Python - description: | - Règles pour vérifier la structure de vos programmes en Python, y compris des éléments comme les boucles imbriquées. + description: 'Règles pour vérifier la structure de votre programme Python, y compris + des éléments comme les boucles imbriquées. + + ' + title: Vérifiez la structure du programme Python. python-django: - title: Vérifier les bonnes pratiques et la sécurité pour Django - description: | - Règles spécifiques aux bonnes pratiques et à la sécurité pour Django. + description: 'Règles spécifiquement pour les meilleures pratiques et la sécurité + de Django. + + ' + title: Vérifiez les meilleures pratiques et la sécurité de Django. python-flask: - title: Vérifier les bonnes pratiques et la sécurité pour Flask - description: | - Règles spécifiques aux bonnes pratiques et à la sécurité pour Flask. + description: 'Règles spécifiquement pour les meilleures pratiques et la sécurité + de Flask. + + ' + title: Vérifiez les meilleures pratiques et la sécurité de Flask. python-inclusive: - title: Vérifier que le code Python ne présente pas de problèmes de formulation - description: | - Règles pour Python afin d'éviter des formulations inappropriées dans le code et les commentaires. + description: 'Règles pour Python afin d''éviter un langage inapproprié dans le + code et les commentaires. + + ' + title: Vérifiez le code Python pour des problèmes de formulation. python-pandas: - title: Bonnes pratiques pour la data science avec pandas - description: | - Un ensemble de règles pour vérifier que le code pandas est utilisé correctement. - - - Vérifie que les déclarations `import` respectent les directives de codage. - - Évite le code et les méthodes obsolètes. - - Évite le code inefficace autant que possible. + description: "Un ensemble de règles pour vérifier que le code pandas est utilisé\ + \ de manière appropriée.\n\n - Assure que les déclarations `import` respectent\ + \ les directives de codage.\n - Évitez le code et les méthodes obsolètes.\n\ + \ - Évitez le code inefficace autant que possible.\n" + title: Bonnes pratiques pour la science des données avec pandas python-security: - title: Veiller à ce que votre code Python soit sûr et sécurisé - description: | - Règles destinées à identifier les problèmes de sécurité et vulnérabilités dans votre code Python, y compris celles figurant dans l'OWASP10 et le SANS25. - - - Usage de protocoles de chiffrement ou de hachage faibles - - Manque de contrôle d'accès - - Mauvaise configuration de sécurité - - Injections SQL - - Informations d'identification codées en dur - - Injection shell - - Désérialisation non sécurisée + description: "Règles axées sur la détection des problèmes de sécurité et de vulnérabilité\ + \ dans votre code Python, y compris ceux trouvés dans l'OWASP10 et le SANS25.\n\ + \n - Utilisation de protocoles de chiffrement et de hachage inappropriés.\n\ + \ - Manque de contrôle d'accès\n - Mauvaise configuration de la sécurité\n -\ + \ Injections SQL\n - Identifiants codés en dur\n - Injection de shell\n - Désérialisation\ + \ non sécurisée\n" + title: Assurez-vous que votre code Python est sûr et sécurisé rails-best-practices: - title: Modèles largement adoptés par la communauté Ruby on Rails - description: | - Meilleures pratiques pour écrire du code en Ruby on Rails. + description: 'Meilleures pratiques pour écrire du code Ruby on Rails. + + ' + title: Modèles largement adoptés par la communauté Ruby on Rails. ruby-best-practices: - title: Suivre les bonnes pratiques avec Ruby - description: | - Règles pour appliquer les bonnes pratiques en Ruby. + description: 'Règles pour appliquer les meilleures pratiques Ruby. + + ' + title: Suivez les meilleures pratiques en Ruby ruby-code-style: + description: 'Règles Datadog Code Security pour écrire des règles Ruby qui respectent + les normes de codage établies. + + ' title: Règles pour appliquer le style de code Ruby. - description: | - Règles Code Security pour écrire des règles Ruby qui suivent les standards de codage établis. ruby-inclusive: - title: Règles pour un code en Ruby inclusif - description: | - Écrire du code en Ruby inclusif + description: 'Écrivez un code Ruby inclusif + + ' + title: Règles pour un code Ruby inclusif ruby-security: + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code Ruby. + + ' title: Règles de sécurité pour Ruby - description: | - Règles conçues pour identifier les vulnérabilités dans votre code Ruby. + swift-code-style: + description: 'Règles Datadog Code Security pour écrire des règles Swift qui respectent + les normes de codage établies. + + ' + title: Règles pour appliquer le style de code Swift et les meilleures pratiques. + swift-security: + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code Swift. + + ' + title: Règles de sécurité pour Swift terraform-aws: + description: 'Règles pour appliquer les meilleures pratiques Terraform pour AWS + : + + ' title: Terraform AWS - description: | - Règles pour appliquer les bonnes pratiques avec Terraform pour AWS. tsx-react: + description: 'Ce plugin exporte une configuration `recommandée` qui impose de + bonnes pratiques React. + + ' title: Qualité du code TypeScript React - description: | - Ce plugin exporte une configuration `recommended` qui applique les bonnes pratiques de React. typescript-best-practices: - title: Suivre les bonnes pratiques pour écrire du code en TypeScript - description: | - Règles pour appliquer les bonnes pratiques en TypeScript. + description: 'Règles pour appliquer les meilleures pratiques TypeScript. + + ' + title: Suivez les meilleures pratiques pour écrire du code TypeScript typescript-browser-security: + description: 'Règles axées sur la détection des problèmes de sécurité dans vos + applications web TypeScript. + + ' title: Règles de sécurité pour les applications web TypeScript - description: | - Règles conçues pour identifier les vulnérabilités au sein de vos applications web TypeScript. typescript-code-style: - title: Modèles de code TypeScript prescriptifs - description: | - Règles reconnues comme de bonnes pratiques pour les bases de code TypeScript actuelles, sans effet sur la logique des programmes. Elles sont en général prescriptives et orientées vers l'application de schémas de code plus clairs. + description: 'Règles considérées comme meilleures pratiques pour les bases de + code TypeScript modernes, mais qui n''impactent pas la logique du programme. + Ces règles sont généralement orientées vers l''application de modèles de code + plus simples. + + ' + title: Modèles de code orientés TypeScript typescript-common-security: + description: 'Règles axées sur la détection des problèmes de sécurité dans votre + code TypeScript. + + ' title: Règles de sécurité courantes pour TypeScript - description: | - Règles conçues pour identifier les vulnérabilités dans votre code TypeScript. typescript-express: - title: Vérifier les bonnes pratiques et la sécurité pour TypeScript - description: | - Règles spécifiques aux bonnes pratiques et à la sécurité en TypeScript avec Express.js. + description: 'Règles spécifiquement pour les meilleures pratiques et la sécurité + TypeScript d''Express.js. + + ' + title: Vérifiez les meilleures pratiques et la sécurité TypeScript d'Express.js typescript-inclusive: - title: Vérifier les problèmes de formulation dans le code TypeScript - description: | - Règles pour TypeScript afin d'éviter des formulations inappropriées dans le code et les commentaires. - typescript-node-security: - title: Identifier les points sensibles de sécurité potentiels en Node - description: | - Règles pour identifier les points sensibles de sécurité potentiels en Node. Cela peut inclure de faux positifs nécessitant une analyse plus approfondie. - cascade: - modal: - title: Tester cette règle et utiliser Datadog Code Security pour analyser votre code - top_box: - title: Comment utiliser cette règle - steps: - - Créez un fichier static-analysis.datadog.yml avec le contenu ci-dessus à la racine de votre référentiel. - - Utilisez nos plugins IDE gratuits ou ajoutez des analyses Code Security à vos pipelines CI. - - Obtenir des retours sur votre code - footer: Pour plus d'informations, consultez la documentation de Code Security. - bottom_boxes: - - title: Extension VS Code - icon: vscode - subtitle: Identifier les vulnérabilités de code directement dans votre éditeur VS Code
    - cta_title: Télécharger l'extension - cta_url: "https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode" - - title: Plugin JetBrains - icon: jetbrains - subtitle: Identifier les vulnérabilités de code directement dans
    les produits JetBrains - cta_title: Télécharger le plugin - cta_url: "https://plugins.jetbrains.com/plugin/19495-datadog" - footer: - text: Utiliser Datadog Code Security pour détecter les problèmes de code à chaque étape de votre processus de développement - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + description: 'Règles pour TypeScript afin d''éviter un langage inapproprié dans + le code et les commentaires. - banner: - title: Intégrations fluides. Essayer Datadog Code Security - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + ' + title: Vérifiez le code TypeScript pour des problèmes de formulation + typescript-node-security: + description: 'Règles pour identifier les points chauds de sécurité potentiels + dans Node. Cela peut inclure des faux positifs nécessitant un tri supplémentaire. -further_reading: - - link: /security/code_security/ - tag: Documentation - text: En savoir plus sur Datadog Code Security + ' + title: Identifiez les points chauds de sécurité potentiels dans Node. +title: Règles SAST +type: static-analysis --- - -{{% site-region region="gov" %}} +{{% site-region region="gov,gov2" %}}
    - Code Security n'est pas disponible pour le site {{< region-param key="dd_site_name" >}} site. + Datadog Code Security n'est pas disponible pour le {{< region-param key="dd_site_name" >}} site.
    {{% /site-region %}} -## Section Overview +## Aperçu {#overview} -La fonctionnalité Static Code Analysis de Datadog propose des règles intégrées permettant d'identifier les vulnérabilités, les bugs et les problèmes de maintenabilité dans votre code. Pour en savoir plus, consultez la [documentation relative à la configuration][1]. +Datadog Static Code Analysis fournit des règles prêtes à l'emploi pour aider à détecter les vulnérabilités de sécurité, les bogues et les problèmes de maintenabilité dans votre code. Pour plus d'informations, consultez la [documentation d'installation][1]. -[1]: /security/code_security/static_analysis/setup/ +[1]: /fr/security/code_security/static_analysis/setup/ \ No newline at end of file diff --git a/content/fr/standard-attributes/_index.md b/content/fr/standard-attributes/_index.md new file mode 100644 index 00000000000..e3234d18f43 --- /dev/null +++ b/content/fr/standard-attributes/_index.md @@ -0,0 +1,1846 @@ +--- +attributes: +- description: Le nom de l'hôte d'origine tel que défini dans les métriques. Datadog + récupère automatiquement les balises d'hôte correspondantes de l'hôte correspondant + dans Datadog et les applique à votre télémétrie. L'Agent définit cette valeur + automatiquement. + domain: Reserved + name: host + product_source: + - icon-log + - icon-apm + type: string +- description: Le type de dispositif d'origine. + domain: Reserved + name: device + product_source: + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: Cela correspond au nom de l'intégration, à la technologie dont les + données proviennent. Lorsqu'il correspond à un nom d'intégration, Datadog installe + automatiquement les parseurs et facettes correspondants. Par exemple, `nginx`, + `postgresql`, etc. + domain: Reserved + name: source + product_source: + - icon-log + type: string +- description: Cela correspond au niveau ou à la gravité des données. Pour les journaux, + il est utilisé pour définir [les modèles de journaux](/logs/explorer/patterns/) + et a une mise en page dédiée dans l'interface de gestion des journaux. + domain: Reserved + name: status + product_source: + - icon-log + - icon-apm + type: string +- description: Le [nom de service unifié](/getting_started/tagging/unified_service_tagging/) + pour l'application ou le service qui génère les données, utilisé pour corréler + les sessions utilisateur. Il est utilisé pour passer de l'APM à d'autres produits, + donc assurez-vous de définir la même valeur lorsque vous utilisez les deux produits. + Dans le SDK RUM Browser, un service désigne un ensemble de pages construites par + une équipe qui offre une fonctionnalité spécifique dans votre application de navigateur. + Vous pouvez assigner des pages web à un service avec [le suivi de vue manuel](/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names). + domain: Reserved + name: service + product_source: + - icon-log + - icon-rum + - icon-apm + - android + - ios + - browser + - roku + type: string +- description: L'ID de trace utilisé pour les traces. Il est utilisé pour corréler + vos traces avec d'autres données, y compris les journaux. + domain: Reserved + name: trace_id + product_source: + - icon-log + - icon-apm + type: number +- description: Le corps d'une entrée de journal, mis en évidence et affiché dans Logs + Live Tail, où il est indexé pour une recherche en texte intégral. + domain: Reserved + name: message + product_source: + - icon-log + type: string +- description: Le nombre total d'octets transmis depuis le client vers le serveur + lorsque le log est envoyé. + domain: Network communications + name: network.bytes_read + product_source: + - icon-log + type: number +- description: Le nombre total d'octets transmis depuis le serveur vers le client + lorsque le log est envoyé. + domain: Network communications + name: network.bytes_written + product_source: + - icon-log + type: number +- description: Le nom du pays. + domain: Geolocation + name: network.client.geoip.country.name + product_source: + - icon-log + type: string +- description: Le [code ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + du pays (par exemple, `US` pour les États-Unis, `FR` pour la France). + domain: Geolocation + name: network.client.geoip.country.iso_code + product_source: + - icon-log + type: string +- description: Code ISO du continent (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). + domain: Geolocation + name: network.client.geoip.continent.code + product_source: + - icon-log + type: string +- description: Nom du continent (`Europe`, `Australia`, `North America`, `Africa`, + `Antartica`, `South America`, `Oceania`). + domain: Geolocation + name: network.client.geoip.continent.name + product_source: + - icon-log + type: string +- description: 'Nom du premier niveau de division du pays (par exemple : `California` + aux États-Unis ou le département de la `Sarthe` en France).' + domain: Geolocation + name: network.client.geoip.subdivision.name + product_source: + - icon-log + type: string +- description: Le [code ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + du premier niveau de division du pays (par exemple, `CA` aux États-Unis ou le + département `SA` en France). + domain: Geolocation + name: network.client.geoip.subdivision.iso_code + product_source: + - icon-log + type: string +- description: Le nom de la ville (par exemple, `Paris` ou `New York`). + domain: Geolocation + name: network.client.geoip.city.name + product_source: + - icon-log + type: string +- description: Le champ d'un en-tête HTTP qui identifie l'adresse de la page Web liée + à la ressource demandée. + domain: HTTP + name: http.referer + product_source: + - icon-log + type: string +- description: L'ID de la requête HTTP. + domain: HTTP + name: http.request_id + product_source: + - icon-log + type: string +- description: La partie du host HTTP de l'URL. + domain: HTTP, URL Details + name: http.url_details.host + product_source: + - icon-log + - icon-apm + type: string +- description: La partie du port HTTP de l'URL. + domain: HTTP, URL Details + name: http.url_details.port + product_source: + - icon-log + - icon-apm + type: number +- description: La partie du chemin HTTP de l'URL. + domain: HTTP, URL Details + name: http.url_details.path + product_source: + - icon-log + - icon-apm + type: string +- description: Les parties de chaîne de requête HTTP de l'URL décomposées en attributs + key/value des paramètres de requête. + domain: HTTP, URL Details + name: http.url_details.queryString + product_source: + - icon-log + - icon-apm + type: object +- description: Le nom du protocole de l'URL (HTTP ou HTTPS). + domain: HTTP, URL Details + name: http.url_details.scheme + product_source: + - icon-log + - icon-apm + type: string +- description: La famille du système d'exploitation indiquée par le user-agent. + domain: User-Agent + name: http.useragent_details.os.family + product_source: + - icon-log + type: string +- description: La famille de navigateurs indiquée par le user-agent. + domain: User-Agent + name: http.useragent_details.browser.family + product_source: + - icon-log + type: string +- description: La famille d'appareils indiquée par le user-agent. + domain: User-Agent + name: http.useragent_details.device.family + product_source: + - icon-log + type: string +- description: Le nom de l'enregistreur. + domain: Source code + name: logger.name + product_source: + - icon-log + type: string +- description: Le nom du thread actuel lorsque le log est déclenché. + domain: Source code + name: logger.thread_name + product_source: + - icon-log + type: string +- description: Le nom de la méthode de la classe. + domain: Source code + name: logger.method_name + product_source: + - icon-log + type: string +- description: La version du logger. + domain: Source code + name: logger.version + product_source: + - icon-log + type: string +- description: Le type ou la catégorie d'erreur (ou le code dans certains cas). + domain: Source code + name: error.kind + product_source: + - icon-log + type: string +- description: Le nom de la base de données à laquelle la connexion est établie. Par + exemple, en Java, si `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"`, le nom + de l'instance est `customers`. + domain: Database + name: db.instance + product_source: + - icon-apm + - icon-log + type: string +- description: 'Une instruction de base de données pour le type de base de données + donné. Par exemple, pour MySQL : `''SELECT * FROM wuser_table'';` et pour Redis + : `''SET mykey ''WuValue''''`.' + domain: Database + name: db.statement + product_source: + - icon-apm + - icon-log + type: string +- description: L'utilisateur à l'origine de l'opération. + domain: Database + name: db.user + product_source: + - icon-apm + - icon-log + type: string +- description: 'Une durée de tout type en **nanosecondes** : temps de réponse HTTP, + temps de requête de base de données, latence, etc. Pour [Remap] toutes les durées + dans les journaux à cet attribut car Datadog l''affiche et l''utilise comme mesure + par défaut pour la recherche de traces.' + domain: Performance + name: duration + product_source: + - icon-log + type: number +- description: L'identificateur de l'utilisateur. + domain: User + name: usr.id + product_source: + - icon-log + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: Le nom courant de l'utilisateur. + domain: User + name: usr.name + product_source: + - icon-log + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: L'adresse e-mail de l'utilisateur. + domain: User + name: usr.email + product_source: + - icon-log + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: Le hostname. + domain: Syslog and log shippers + name: syslog.hostname + product_source: + - icon-log + type: string +- description: Le nom de l'application. Généralement remappé à l'attribut réservé + `service`. + domain: Syslog and log shippers + name: syslog.appname + product_source: + - icon-log + type: string +- description: La gravité du journal. Généralement remappé à l'attribut réservé `status`. + domain: Syslog and log shippers + name: syslog.severity + product_source: + - icon-log + type: number +- description: L'horodatage du journal. Généralement remappé à l'attribut réservé + `date`. + domain: Syslog and log shippers + name: syslog.timestamp + product_source: + - icon-log + type: string +- description: Le nom de l'environnement d'où provient la source des logs. + domain: Syslog and log shippers + name: syslog.env + product_source: + - icon-log + type: string +- description: L'identificateur de la requête DNS. + domain: DNS + name: dns.id + product_source: + - icon-log + type: string +- description: Le nom de domaine interrogé. + domain: DNS + name: dns.question.name + product_source: + - icon-log + type: string +- description: Un [code de deux octets](https://en.wikipedia.org/wiki/List_of_DNS_record_types) + spécifiant le type de question DNS. + domain: DNS + name: dns.question.type + product_source: + - icon-log + type: string +- description: La classe recherchée par la question DNS (par exemple, IP lorsque vous + utilisez Internet). + domain: DNS + name: dns.question.class + product_source: + - icon-log + type: string +- description: La taille de la requête DNS en octets. + domain: DNS + name: dns.question.size + product_source: + - icon-log + type: number +- description: L'adresse IP avec laquelle le DNS répond. + domain: DNS + name: dns.answer.name + product_source: + - icon-log + type: string +- description: Un [code de deux octets](https://en.wikipedia.org/wiki/List_of_DNS_record_types) + spécifiant le type de réponse DNS. + domain: DNS + name: dns.answer.type + product_source: + - icon-log + type: string +- description: La classe correspondant à la réponse du DNS. + domain: DNS + name: dns.answer.class + product_source: + - icon-log + type: string +- description: La taille de la réponse du DNS en octets. + domain: DNS + name: dns.answer.size + product_source: + - icon-log + type: number +- description: Le code de réponse du DNS. + domain: DNS + name: dns.flags.rcode + product_source: + - icon-log + type: string +- description: Le nom partagé entre les événements générés par une même activité (par + exemple, authentification). + domain: Events + name: evt.name + product_source: + - icon-log + type: string +- description: Le résultat de l'événement (par exemple, `success`, `failure`). + domain: Events + name: evt.outcome + product_source: + - icon-log + type: string +- description: Le début de l'événement en millisecondes (format epoch). + domain: RUM core attributes + name: date + product_source: + - icon-rum + - android + - ios + - roku + type: integer +- description: Le type de l'événement (par exemple, `view` ou `resource`). + domain: RUM core attributes + name: type + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: L'ID d'application Datadog généré lorsque vous créez une application + RUM. + domain: RUM core attributes + name: application.id + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le nom de l'application Datadog. + domain: RUM core attributes + name: application.name + product_source: + - icon-rum + - android + - browser + - ios + type: string +- description: Le type d'appareil indiqué par l'appareil (User-Agent système) + domain: Device (Android, iOS, Roku) + name: device.type + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: La marque d'appareil indiquée par l'appareil (User-Agent système) + domain: Device (Android, iOS, Roku) + name: device.brand + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le modèle d'appareil indiqué par l'appareil (User-Agent système) + domain: Device (Android, iOS, Roku) + name: device.model + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom d'appareil indiqué par l'appareil (User-Agent système) + domain: Device (Android, iOS, Roku) + name: device.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le statut de l'accessibilité au réseau de l'appareil (`connected`, + `not connected` ou `maybe`). + domain: Connectivity (Android, iOS) + name: connectivity.status + product_source: + - icon-rum + - android + - ios + type: string +- description: La liste des interfaces réseau disponibles (par exemple, `bluetooth`, + `cellular`, `ethernet` ou `wifi`). + domain: Connectivity (Android, iOS) + name: connectivity.interfaces + product_source: + - icon-rum + - android + - ios + type: string +- description: Le type de technologie radio utilisée pour la connexion cellulaire. + domain: Connectivity (Android, iOS) + name: connectivity.cellular.technology + product_source: + - icon-rum + - android + - ios + type: string +- description: Le nom de l'opérateur de la carte SIM. + domain: Connectivity (Android, iOS) + name: connectivity.cellular.carrier_name + product_source: + - icon-rum + - android + - ios + type: string +- description: Le nom du système d'exploitation indiqué par l'appareil (User-Agent + système). + domain: Operating System (Android, iOS, Roku) + name: os.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: La version du système d'exploitation indiquée par l'appareil (User-Agent + système). + domain: Operating System (Android, iOS, Roku) + name: os.version + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: La version majeure du système d'exploitation indiquée par l'appareil + (User-Agent système). + domain: Operating System (Android, iOS, Roku) + name: os.version_major + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom du pays. + domain: Geolocation + name: geo.country + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le [code ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + du pays (par exemple, `US` pour les États-Unis ou `FR` pour la France). + domain: Geolocation + name: geo.country_iso_code + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: 'Nom du premier niveau de division du pays (par exemple : `California` + aux États-Unis ou le département de la `Sarthe` en France).' + domain: Geolocation + name: geo.country_subdivision + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le code ISO du continent (`EU`, `AS`, `NA`, `AF`, `AN`, `SA` ou `OC`). + domain: Geolocation + name: geo.continent_code + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le nom du continent (`Europe`, `Australia`, `North America`, `Africa`, + `Antarctica`, `South America` ou `Oceania`). + domain: Geolocation + name: geo.continent + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le nom de la ville (par exemple, `San Francisco`, `Paris` ou `New York`). + domain: Geolocation + name: geo.city + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: L'identificateur de l'utilisateur. + domain: RUM user attributes (Android, Roku) + name: user.id + product_source: + - icon-rum + - android + - roku + type: string +- description: L'identificateur de l'utilisateur. + domain: RUM user attributes (iOS, Browser) + name: usr.id + product_source: + - icon-rum + - ios + - browser + type: string +- description: Le nom de l'utilisateur. + domain: Global user attributes (Android, iOS, Browser, Roku) + name: usr.name + product_source: + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: L'adresse e-mail de l'utilisateur. + domain: Global user attributes (Android, iOS, Browser, Roku) + name: usr.email + product_source: + - icon-rum + - android + - ios + - browser + - roku + type: string +- description: Identifiant unique de la session. + domain: Session (Android events, iOS events, Roku events) + name: session.id + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le type de la session (`user`). + domain: Session (Android events, iOS events, Roku events) + name: session.type + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le statut d'activité de la session. La session se termine si un utilisateur + navigue en dehors de l'application ou ferme la fenêtre du navigateur, et expire + après 4 heures d'activité ou 15 minutes d'inactivité. + domain: Session (Android events, iOS events, Roku events) + name: session.is_active + product_source: + - icon-rum + - android + - ios + - roku + type: boolean +- description: L'URL de la vue initiale de la session. + domain: Session (Android events, iOS events, Roku events) + name: session.initial_view.url + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom de la vue initiale de la session. + domain: Session (Android events, iOS events, Roku events) + name: session.initial_view.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: L'URL de la dernière vue de la session. + domain: Session (Android events, iOS events, Roku events) + name: session.last_view.url + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom de la dernière vue de la session. + domain: Session (Android events, iOS events, Roku events) + name: session.last_view.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: L'adresse IP de la session extraite à partir de la connexion TCP de + l'admission. Si vous souhaitez arrêter de collecter cet attribut, modifiez le + paramètre dans vos [détails de l'application](/data_security/real_user_monitoring/#ip-address). + domain: Session (Android events, iOS events, Roku events) + name: session.ip + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Les informations `User-Agent` système interprétant les informations + de l'appareil. + domain: Session (Android events, iOS events, Roku events) + name: session.useragent + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: L'ID unique de la vue initiale correspondant à l'événement. + domain: View (Android events, iOS events, Roku events) + name: view.id + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Nom canonique de la classe correspondant à l'événement. Pour iOS, l'URL + de la classe `UIViewController` correspondant à l'événement. + domain: View (Android events, iOS events, Roku events) + name: view.url + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Nom personnalisable de la vue correspond à l'événement. + domain: View (Android events, iOS events, Roku events) + name: view.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Identifiant unique de la ressource. + domain: Resource (Android events, iOS events, Roku events) + name: resource.id + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le type de ressource à recueillir (par exemple, `xhr`, `image`, `font`, + `css` ou `js`). + domain: Resource (Android events, iOS events, Roku events) + name: resource.type + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: La méthode HTTP (par exemple, `POST`, `GET` `PATCH` ou `DELETE`). + domain: Resource (Android events, iOS events, Roku events) + name: resource.method + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le code de statut de la réponse. + domain: Resource (Android events, iOS events, Roku events) + name: resource.status_code + product_source: + - icon-rum + - android + - ios + - roku + type: number +- description: L'URL de la ressource. + domain: Resource (Android events, iOS events, Roku events) + name: resource.url + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom du fournisseur de ressources. Par défaut, c'est `unknown`. + domain: Resource (Android events, iOS events, Roku events) + name: resource.provider.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le domaine du fournisseur de ressource. + domain: Resource (Android events, iOS events, Roku events) + name: resource.provider.domain + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le type de fournisseur de ressources (par exemple, `first-party`, `cdn`, + `ad` ou `analytics`). + domain: Resource (Android events, iOS events, Roku events) + name: resource.provider.type + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: L'origine de l'erreur (par exemple, `webview`, `logger` ou `network`). + domain: Error (Browser events, Android events, iOS events, Roku events) + name: error.source + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le type d'erreur (ou le code dans certains cas). + domain: Error (Browser events, Android events, iOS events, Roku events) + name: error.type + product_source: + - icon-apm + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Un message d'une ligne lisible et concis décrivant l'événement. + domain: Error (Browser events, Android events, iOS events, Roku events) + name: error.message + product_source: + - icon-apm + - icon-log + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: La trace de pile ou toutes informations complémentaires relatives à + l'erreur. + domain: Error (Browser events, Android events, iOS events, Roku events) + name: error.stack + product_source: + - icon-apm + - icon-log + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: La trace de pile ou toutes informations complémentaires relatives à + l'erreur. + domain: Error (Android events, iOS events, Roku events) + name: error.issue_id + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le code de statut de la réponse. + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.status_code + product_source: + - icon-rum + - android + - ios + - roku + type: number +- description: La méthode HTTP (par exemple, `POST` ou `GET`). + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.method + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: L'URL de la ressource. + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.url + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le nom du fournisseur de ressources. Par défaut, c'est `unknown`. + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.provider.name + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le domaine du fournisseur de ressource. + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.provider.domain + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: Le type de fournisseur de ressources (par exemple, `first-party`, `cdn`, + `ad` ou `analytics`). + domain: Network error (Android events, iOS events, Roku events) + name: error.resource.provider.type + product_source: + - icon-rum + - android + - ios + - roku + type: string +- description: UUID de l'action utilisateur. + domain: Action (Browser events, Android events, iOS events, Roku events) + name: action.id + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Le type de l'action utilisateur (par exemple, `tap` ou `application_start`). + Pour [Actions Utilisateur Personnalisées du Navigateur](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), + il est défini sur `custom`. + domain: Action (Browser events, Android events, iOS events, Roku events) + name: action.type + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Un nom convivial (par exemple, `Clic sur paiement`). Pour [Actions + Utilisateur Personnalisées du Navigateur](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions), + le nom de l'action donné dans l'appel API. + domain: Action (Browser events, Android events, iOS events, Roku events) + name: action.name + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: Élément avec lequel l'utilisateur a interagi. Uniquement pour les actions + collectées automatiquement. + domain: Action (Browser events, Android events, iOS events, Roku events) + name: action.target.name + product_source: + - icon-rum + - android + - browser + - ios + - roku + type: string +- description: ID généré aléatoirement pour chaque vue de page. + domain: View (Browser) + name: view.id + product_source: + - icon-rum + - browser + type: string +- description: Le type de chargement de page, `initial_load` ou `route_change`. Pour + plus d'informations, consultez la [documentation de support des applications à + page unique](/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#monitoring-single-page-applications-spa). + domain: View (Browser) + name: view.loading_type + product_source: + - icon-rum + - browser + type: string +- description: L'URL de la page web précédente, à partir de laquelle un lien vers + la page demandée à été sélectionné. + domain: View (Browser) + name: view.referrer + product_source: + - icon-rum + - browser + type: string +- description: L'URL de la vue. + domain: View (Browser) + name: view.url + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au hachage. + domain: View (Browser) + name: view.url_hash + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au host. + domain: View (Browser) + name: view.url_host + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au chemin. + domain: View (Browser) + name: view.url_path + product_source: + - icon-rum + - browser + type: string +- description: Le groupe d'URL généré automatiquement pour les URL connexes (par exemple, + `/dashboard/?` pour `/dashboard/123` et `/dashboard/456`). + domain: View (Browser) + name: view.url_path_group + product_source: + - icon-rum + - browser + type: string +- description: Les parties de l'URL correspondant à la chaîne de requête, décomposées + en attributs key/value de paramètres de requête. + domain: View (Browser) + name: view.url_query + product_source: + - icon-rum + - browser + type: object +- description: La partie de l'URL correspondant au format. + domain: View (Browser) + name: view.url_scheme + product_source: + - icon-rum + - browser + type: object +- description: Le type d'appareil indiqué par l'appareil (en-tête HTTP User-Agent). + domain: Device (Browser) + name: device.type + product_source: + - icon-rum + - browser + type: string +- description: La marque de l'appareil indiquée par l'appareil (en-tête HTTP User-Agent). + domain: Device (Browser) + name: device.brand + product_source: + - icon-rum + - browser + type: string +- description: Le modèle de l'appareil indiqué par l'appareil (en-tête HTTP User-Agent). + domain: Device (Browser) + name: device.model + product_source: + - icon-rum + - browser + type: string +- description: Le nom de l'appareil indiqué par l'appareil (en-tête HTTP User-Agent). + domain: Device (Browser) + name: device.name + product_source: + - icon-rum + - browser + type: string +- description: Le nom du système d'exploitation indiqué par l'appareil (en-tête HTTP + User-Agent). + domain: Operating system (Browser) + name: os.name + product_source: + - icon-rum + - browser + type: string +- description: La version du système d'exploitation indiquée par l'appareil (en-tête + HTTP User-Agent). + domain: Operating system (Browser) + name: os.version + product_source: + - icon-rum + - browser + type: string +- description: La version majeure du système d'exploitation indiquée par l'appareil + (en-tête HTTP User-Agent). + domain: Operating system (Browser) + name: os.version_major + product_source: + - icon-rum + - browser + type: string +- description: Un ID généré aléatoirement pour chaque session. + domain: Session (Browser events) + name: session.id + product_source: + - icon-rum + - browser + type: string +- description: Adresse IP du client. Si vous souhaitez arrêter de collecter cet attribut, + modifiez le paramètre dans vos [détails de l'application](/data_security/real_user_monitoring/#ip-address). + domain: Session (Browser events) + name: session.ip + product_source: + - icon-rum + - browser + type: string +- description: Le statut d'activité de la session. La session se termine après 4 heures + d'activité ou 15 minutes d'inactivité. + domain: Session (Browser events) + name: session.is_active + product_source: + - icon-rum + - browser + type: boolean +- description: 'Le type de session : `user` ou `synthetics`. Les sessions provenant + des [Synthetic Browser Tests](/synthetics/browser_tests/) sont exclues de la facturation.' + domain: Session (Browser events) + name: session.type + product_source: + - icon-rum + - browser + type: string +- description: L'URL de la page web précédente, à partir de laquelle un lien vers + la page demandée à été sélectionné. + domain: Session (Browser events) + name: session.referrer + product_source: + - icon-rum + - browser + type: string +- description: L'ID de la première vue RUM générée par l'utilisateur. + domain: Session (Browser events) + name: session.initial_view.id + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au host. + domain: Session (Browser events) + name: session.initial_view.url_host + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au chemin. + domain: Session (Browser events) + name: session.initial_view.url_path + product_source: + - icon-rum + - browser + type: string +- description: Le groupe d'URL généré automatiquement pour les URL connexes (par exemple, + `/dashboard/?` pour `/dashboard/123` et `/dashboard/456`). + domain: Session (Browser events) + name: session.initial_view.url_path_group + product_source: + - icon-rum + - browser + type: string +- description: Les parties de l'URL correspondant à la chaîne de requête, décomposées + en attributs key/value de paramètres de requête. + domain: Session (Browser events) + name: session.initial_view.url_query + product_source: + - icon-rum + - browser + type: object +- description: La partie de l'URL correspondant au format. + domain: Session (Browser events) + name: session.initial_view.url_scheme + product_source: + - icon-rum + - browser + type: object +- description: L'ID de la dernière vue RUM générée par l'utilisateur. + domain: Session (Browser events) + name: session.last_view.id + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au host. + domain: Session (Browser events) + name: session.last_view.url_host + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au chemin. + domain: Session (Browser events) + name: session.last_view.url_path + product_source: + - icon-rum + - browser + type: string +- description: Le groupe d'URL généré automatiquement pour les URL connexes (par exemple, + `/dashboard/?` pour `/dashboard/123` et `/dashboard/456`). + domain: Session (Browser events) + name: session.last_view.url_path_group + product_source: + - icon-rum + - browser + type: string +- description: Les parties de l'URL correspondant à la chaîne de requête, décomposées + en attributs key/value de paramètres de requête. + domain: Session (Browser events) + name: session.last_view.url_query + product_source: + - icon-rum + - browser + type: object +- description: La partie de l'URL correspondant au format. + domain: Session (Browser events) + name: session.last_view.url_scheme + product_source: + - icon-rum + - browser + type: object +- description: Le type de ressource à recueillir (par exemple, `css`, `javascript`, + `media`, `XHR` ou `image`). + domain: Resource (Browser events) + name: resource.type + product_source: + - icon-rum + - browser + type: string +- description: La méthode HTTP (par exemple, `POST` ou `GET`). + domain: Resource (Browser events) + name: resource.method + product_source: + - icon-rum + - browser + type: string +- description: Le code de statut de la réponse. + domain: Resource (Browser events) + name: resource.status_code + product_source: + - icon-rum + - browser + type: number +- description: L'URL de la ressource. + domain: Resource (Browser events) + name: resource.url + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au host. + domain: Resource (Browser events) + name: resource.url_host + product_source: + - icon-rum + - browser + type: string +- description: La partie de l'URL correspondant au chemin. + domain: Resource (Browser events) + name: resource.url_path + product_source: + - icon-rum + - browser + type: string +- description: Les parties de l'URL correspondant à la chaîne de requête, décomposées + en attributs key/value de paramètres de requête. + domain: Resource (Browser events) + name: resource.url_query + product_source: + - icon-rum + - browser + type: object +- description: Le nom du protocole de l'URL (HTTP ou HTTPS). + domain: Resource (Browser events) + name: resource.url_scheme + product_source: + - icon-rum + - browser + type: string +- description: Le nom du fournisseur de ressources. Par défaut, c'est `unknown`. + domain: Resource (Browser events) + name: resource.provider.name + product_source: + - icon-rum + - browser + type: string +- description: Le domaine du fournisseur de ressource. + domain: Resource (Browser events) + name: resource.provider.domain + product_source: + - icon-rum + - browser + type: string +- description: Le type de fournisseur de ressources (par exemple, `first-party`, `cdn`, + `ad` ou `analytics`). + domain: Resource (Browser events) + name: resource.provider.type + product_source: + - icon-rum + - browser + type: string +- description: Clics sans effet détectés par le SDK Browser RUM. + domain: Frustration signals (Browser events) + name: action.frustration.type:dead_click + product_source: + - icon-rum + - browser + type: string +- description: Clics de rage détectés par le SDK Browser RUM. + domain: Frustration signals (Browser events) + name: action.frustration.type:rage_click + product_source: + - icon-rum + - browser + type: string +- description: Clics effectués par erreur détectés par le SDK Browser RUM. + domain: Frustration signals (Browser events) + name: action.frustration.type:error_click + product_source: + - icon-rum + - browser + type: string +- description: Le paramètre de l'URL effectuant le suivi de la source du trafic. + domain: UTM (Browser events) + name: view.url_query.utm_source + product_source: + - icon-rum + - browser + type: string +- description: Le paramètre de l'URL effectuant le suivi du canal à l'origine du trafic. + domain: UTM (Browser events) + name: view.url_query.utm_medium + product_source: + - icon-rum + - browser + type: string +- description: Le paramètre de l'URL identifiant la campagne marketing spécifique + liée à cette vue. + domain: UTM (Browser events) + name: view.url_query.utm_campaign + product_source: + - icon-rum + - browser + type: string +- description: Le paramètre de l'URL identifiant l'élément spécifique sur lequel un + utilisateur a cliqué dans une campagne marketing. + domain: UTM (Browser events) + name: view.url_query.utm_content + product_source: + - icon-rum + - browser + type: string +- description: Le paramètre de l'URL effectuant le suivi du mot clé recherché par + un utilisateur et ayant déclenché une campagne donnée. + domain: UTM (Browser events) + name: view.url_query.utm_term + product_source: + - icon-rum + - browser + type: string +- description: Le langage du SDK client utilisé pour générer le span. Il peut s'agir + de `cpp`, `dotnet`, `go`, `jvm`, `javascript`, `php`, `python`, `ruby`. + domain: APM core + name: language + product_source: + - icon-apm + type: string +- description: La valeur de la variable d'environnement `DD_ENV` ou du paramètre `env` + défini par l'utilisateur pour le processus en cours d'exécution. + domain: APM core (Reserved) + name: env + product_source: + - icon-apm + type: string +- description: La valeur de la variable d'environnement `DD_VERSION` ou du paramètre + `version` défini par l'utilisateur pour le processus en cours d'exécution. + domain: APM core (Reserved) + name: version + product_source: + - icon-apm + type: string +- description: La chaîne représentant le type d'unité de travail gérée par le span. + Il peut s'agir de `server`, `client`, `producer`, `consumer` ou `internal`. Pour + plus d'informations, consultez la [documentation OpenTelemetry SpanKind](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind). + domain: APM core + name: span.kind + product_source: + - icon-apm + type: string +- description: Le nom de la bibliothèque ou de l'intégration qui a créé la span. + domain: APM core + name: component + product_source: + - icon-apm + type: string +- description: L'adresse IP du client à l'origine de la connexion entrante. + domain: Network communications + name: network.client.ip + product_source: + - icon-apm + - icon-log + type: string +- description: L'adresse IP de destination de la connexion sortante. + domain: Network communications + name: network.destination.ip + product_source: + - icon-apm + - icon-log + type: string +- description: L'adresse IP du host local. + domain: Network communications + name: network.host.ip + product_source: + - icon-apm + type: string +- description: Le port du client qui a établi la connexion. + domain: Network communications + name: network.client.port + product_source: + - icon-apm + - icon-log + type: number +- description: Le numéro de port distant de la connexion sortante. + domain: Network communications + name: network.destination.port + product_source: + - icon-apm + - icon-log + type: number +- description: Le hostname du client à l'origine de la connexion entrante. + domain: Network communications + name: network.client.name + product_source: + - icon-apm + type: string +- description: Le hostname local. + domain: Network communications + name: network.host.name + product_source: + - icon-apm + type: string +- description: Le protocole de transport utilisé pour la connexion entrante. + domain: Network communications + name: network.client.transport + product_source: + - icon-apm + type: string +- description: Le protocole de transport utilisé pour la connexion sortante. + domain: Network communications + name: network.destination.transport + product_source: + - icon-apm + type: string +- description: Le code de statut de la réponse HTTP. + domain: HTTP requests + name: http.status_code + product_source: + - icon-apm + - icon-log + type: string +- description: L'URL de la requête HTTP, y compris la chaîne de requête obfusquée. + Pour plus d'informations sur l'obfuscation, consultez [Configure Data Security](https://docs.datadoghq.com/tracing/configure_data_security/). + domain: HTTP requests + name: http.url + product_source: + - icon-apm + - icon-log + type: string +- description: La version HTTP utilisée pour la requête. + domain: HTTP requests + name: http.version + product_source: + - icon-apm + - icon-log + type: string +- description: Le port du client qui a établi la connexion. + domain: HTTP requests + name: http.method + product_source: + - icon-apm + - icon-log + type: string +- description: La route correspondante (modèle de chemin). Par exemple, `/users/:userID`. + domain: HTTP requests + name: http.route + product_source: + - icon-apm + type: string +- description: L'adresse IP du client d'origine derrière tous les proxies, si connue. + Découverte à partir d'en-têtes tels que `X-Forwarded-For`. + domain: HTTP requests + name: http.client_ip + product_source: + - icon-apm + type: string +- description: Le type d'adresse IP, tel que `public`, `private` ou `reserved`. + domain: HTTP client IP details + name: http.client_ip_details.type + product_source: + - icon-apm + type: string +- description: Le nom du pays auquel l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.country.name + product_source: + - icon-apm + type: string +- description: Le code [ISO](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + du pays (par exemple, `US` pour les États-Unis, `FR` pour la France). + domain: HTTP client IP details + name: http.client_ip_details.country.iso_code + product_source: + - icon-apm + type: string +- description: Le code ISO du continent (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). + domain: HTTP client IP details + name: http.client_ip_details.continent.code + product_source: + - icon-apm + type: string +- description: Le nom du continent auquel l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.continent.name + product_source: + - icon-apm + type: string +- description: Le nom de la subdivision de premier niveau (telle qu'un état ou une + région) à laquelle l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.subdivision.name + product_source: + - icon-apm + type: string +- description: Le code [ISO](https://en.wikipedia.org/wiki/ISO_3166-2) de la subdivision + de premier niveau (par exemple, `CA-ON` pour l'Ontario, Canada). + domain: HTTP client IP details + name: http.client_ip_details.subdivision.iso_code + product_source: + - icon-apm + type: string +- description: Nom de la ville à laquelle l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.city.name + product_source: + - icon-apm + type: string +- description: La latitude de l'emplacement auquel l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.location.latitude + product_source: + - icon-apm + type: number +- description: La longitude de l'emplacement auquel l'adresse IP du client se résout. + domain: HTTP client IP details + name: http.client_ip_details.location.longitude + product_source: + - icon-apm + type: number +- description: L'identifiant de fuseau horaire IANA (par exemple, `America/Toronto`) + associé à l'adresse IP du client. + domain: HTTP client IP details + name: http.client_ip_details.timezone + product_source: + - icon-apm + type: string +- description: Le numéro de système autonome (ASN) auquel appartient l'adresse IP + du client (par exemple, `AS577`). + domain: HTTP client IP details + name: http.client_ip_details.as.number + product_source: + - icon-apm + type: string +- description: Le nom de l'organisation qui gère le système autonome (par exemple, + `Bell Canada`). + domain: HTTP client IP details + name: http.client_ip_details.as.name + product_source: + - icon-apm + type: string +- description: Le domaine principal associé au système autonome (par exemple, `bell.ca`). + domain: HTTP client IP details + name: http.client_ip_details.as.domain + product_source: + - icon-apm + type: string +- description: Le préfixe IP annoncé par le système autonome (par exemple, `65.95.0.0/16`). + domain: HTTP client IP details + name: http.client_ip_details.as.route + product_source: + - icon-apm + type: string +- description: La classification du système autonome (par exemple, `isp`, `hosting`, + `business`, `education`). + domain: HTTP client IP details + name: http.client_ip_details.as.type + product_source: + - icon-apm + type: string +- description: Le `User-Agent` indiqué dans l'en-tête de la requête reçue. + domain: HTTP requests + name: http.useragent + product_source: + - icon-apm + - icon-log + type: string +- description: La taille en octets du corps de la charge utile de la requête. + domain: HTTP requests + name: http.request.content_length + product_source: + - icon-apm + type: number +- description: La taille en octets du corps de la charge utile de la réponse. + domain: HTTP requests + name: http.response.content_length + product_source: + - icon-apm + type: number +- description: La taille du corps de la charge utile de la requête sans compression + après décodage du transport. + domain: HTTP requests + name: http.request.content_length_uncompressed + product_source: + - icon-apm + type: number +- description: La taille du corps de la charge utile de la réponse sans compression + après décodage du transport. + domain: HTTP requests + name: http.response.content_length_uncompressed + product_source: + - icon-apm + type: number +- description: Les en-têtes HTTP de la requête. Aucun n'est collecté par défaut, mais + peut être configuré en option avec `DD_TRACE_HEADER_TAGS`. + domain: HTTP requests + name: http.request.headers.* + product_source: + - icon-apm + type: string +- description: L'identifiant du système de gestion de bases de données (solution SGBD) + utilisé. + domain: Database spans + name: db.system + product_source: + - icon-apm + type: string +- description: Les en-têtes HTTP de la réponse. Aucun n'est collecté par défaut, mais + peut être configuré en option avec `DD_TRACE_HEADER_TAGS`. + domain: HTTP requests + name: http.response.headers.* + product_source: + - icon-apm + type: string +- description: La chaîne utilisée pour la connexion à la base de données. + domain: Database spans + name: db.connection_string + product_source: + - icon-apm + type: string +- description: Le nom de l'opération en cours d'exécution. Par exemple, `SELECT`, + `findAndModify`, `HMSET`. + domain: Database spans + name: db.operation + product_source: + - icon-apm + - icon-log + type: string +- description: Le nom de la table principale à laquelle s'applique l'opération, y + compris le nom de la base de données (le cas échéant). + domain: Database spans + name: db.sql.table + product_source: + - icon-apm + type: string +- description: Le nombre de lignes/résultats renvoyés par la requête ou l'opération. + domain: Database spans + name: db.row_count + product_source: + - icon-apm + type: number +- description: L'identifiant du système de messagerie. + domain: Message queue spans + name: messaging.system + product_source: + - icon-apm + type: string +- description: Le nom de la destination du message. + domain: Message queue spans + name: messaging.destination + product_source: + - icon-apm + type: string +- description: Le type de la destination du message. + domain: Message queue spans + name: messaging.destination_kind + product_source: + - icon-apm + type: string +- description: Le nom du protocole de transport. + domain: Message queue spans + name: messaging.protocol + product_source: + - icon-apm + type: string +- description: La version du protocole de transport. + domain: Message queue spans + name: messaging.protocol_version + product_source: + - icon-apm + type: string +- description: La chaîne de connexion au système de messagerie. + domain: Message queue spans + name: messaging.url + product_source: + - icon-apm + type: string +- description: Une valeur utilisée par le système de messagerie en tant qu'identifiant + pour le message, sous forme de chaîne. + domain: Message queue spans + name: messaging.message_id + product_source: + - icon-apm + type: string +- description: L'ID de conversation identifiant la conversation à laquelle le message + appartient ; représenté par une chaîne. + domain: Message queue spans + name: messaging.conversation_id + product_source: + - icon-apm + type: string +- description: La taille en octets de la charge utile du message sans compression. + domain: Message queue spans + name: messaging.message_payload_size + product_source: + - icon-apm + type: number +- description: Une chaîne identifiant le type de consommation de message. Par exemple, + `send` (un message envoyé à un producer), `receive` (un message reçu par un consumer) + ou `process` (un message précédemment reçu est traité par un consumer). + domain: Message queue spans + name: messaging.operation + product_source: + - icon-apm + type: string +- description: L'identifiant du consommateur recevant un message. + domain: Message queue spans + name: messaging.consumer_id + product_source: + - icon-apm + type: string +- description: L'identifiant du système distant. + domain: Remote procedure calls + name: rpc.system + product_source: + - icon-apm + type: string +- description: Le nom du service appelé. + domain: Remote procedure calls + name: rpc.service + product_source: + - icon-apm + type: string +- description: Le nom de la méthode appelée. + domain: Remote procedure calls + name: rpc.method + product_source: + - icon-apm + type: string +- description: Le type d'activité de sécurité détectée sur la requête, exprimé sous + la forme `.` (par exemple, `attack_attempt.sql_injection`, `business_logic.users.login.failure`). + Un span peut avoir plus d'une valeur lorsque plusieurs règles correspondent. + domain: Application & API Protection (AAP) + name: appsec.security_activity + product_source: + - icon-apm + type: string +- description: La classification de premier niveau de l'activité de sécurité détectée + (par exemple, `attack_attempt`, `business_logic`). + domain: Application & API Protection (AAP) + name: appsec.category + product_source: + - icon-apm + type: string +- description: Le type de menace ou d'événement spécifique au sein de la catégorie + (par exemple, `sql_injection`, `xss`, `users.login.failure`). + domain: Application & API Protection (AAP) + name: appsec.type + product_source: + - icon-apm + type: string +- description: L'identifiant de la règle AAP qui a correspondu à la demande (par exemple, + `crs-942-100`). Un span peut avoir plusieurs valeurs lorsque plusieurs règles + sont déclenchées. + domain: Application & API Protection (AAP) + name: appsec.rule_id + product_source: + - icon-apm + type: string +- description: Indique si la demande a été bloquée par l'AAP. `true` si la demande + a été bloquée, `false` sinon. + domain: Application & API Protection (AAP) + name: appsec.blocked + product_source: + - icon-apm + type: string +content: Le tableau suivant répertorie les attributs appliqués automatiquement aux + données envoyées à Datadog par l'Agent pour chacun des produits RUM, Logs et APM, + selon le domaine de données. Optionnellement, filtrez la liste par produit ou recherchez + par mot-clé ou texte de description pour trouver les attributs qui vous intéressent. +description: Un tableau des attributs appliqués automatiquement aux données envoyées + à Datadog par l'Agent pour chacun des produits RUM, Logs et APM, selon le domaine + de données. +disable_sidebar: true +filter_all: All +further_reading: +- link: /data_security/ + tag: Documentation + text: Assurer la sécurité des données envoyées à Datadog +- link: /tracing/trace_collection/tracing_naming_convention/ + tag: Documentation + text: Sémantique des tags de span +title: Attributs standards par défaut +--- +## Lecture complémentaire {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/fr/synthetics/_index.md b/content/fr/synthetics/_index.md index ec1ace3bf70..48aa323b3c3 100644 --- a/content/fr/synthetics/_index.md +++ b/content/fr/synthetics/_index.md @@ -10,91 +10,154 @@ cascade: description: Utilisez des tests automatisés pour vous assurer que les aspects les plus importants de vos systèmes et applications fonctionnent correctement à différents endroits du monde. -disable_sidebar: true further_reading: -- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring - tag: Notes de version - text: Découvrez les dernières versions de la surveillance Synthetic Datadog (connexion - à l'application requise) -- link: https://www.datadoghq.com/blog/introducing-synthetic-monitoring/ - tag: Blog - text: Présentation de la surveillance Datadog Synthetic -- link: https://www.datadoghq.com/blog/monitor-cdn-performance-with-synthetic-testing/ - tag: Blog - text: Surveillez les performances des CDN au sein de vos tests Synthetic -- link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ - tag: Blog - text: Meilleures pratiques pour la surveillance des applications Web statiques -- link: https://learn.datadoghq.com/courses/intro-to-synthetic-tests - tag: Centre d'apprentissage - text: Présentation des tests Synthetic - link: /synthetics/guide/ tag: Documentation text: Guides d'utilisation de la surveillance Synthetic +- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing + tag: Centre d'apprentissage + text: 'Centre d''apprentissage Datadog : Premiers pas avec les tests de navigateur + Synthetic' - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive pour améliorer vos capacités de testing Synthetic -title: Surveillance Synthetic +- link: https://www.datadoghq.com/blog/http-security-headers-synthetic-tests/ + tag: GitHub + text: Comment sécuriser les en-têtes HTTP avec des tests synthétiques +- link: https://www.datadoghq.com/blog/synthetic-monitoring-updates/ + tag: GitHub + text: Accélérez votre compréhension de l’expérience utilisateur avec Synthetic Monitoring + de Datadog +- link: https://www.datadoghq.com/blog/smoke-testing-synthetic-monitoring/ + tag: GitHub + text: Créer des tests UX de fumée efficaces avec Synthetic Monitoring +- link: https://www.datadoghq.com/blog/slo-synthetic-monitoring/ + tag: GitHub + text: Améliorez la précision et les performances des SLO grâce à Synthetic Monitoring + de Datadog +- link: https://www.datadoghq.com/blog/mobile-apps-synthetic-tests/ + tag: GitHub + text: Comment construire des tests synthétiques fiables et précis pour vos applications + mobiles +- link: https://www.datadoghq.com/blog/ambassador-browser-tests/ + tag: GitHub + text: Comment j'ai aidé mon client à faire évoluer ses tests de navigateur avec + Datadog +- link: https://www.datadoghq.com/blog/datadog-terraform-synthetic-testing/ + tag: GitHub + text: Automatiser votre infrastructure de tests synthétiques avec Datadog Synthetic + Monitoring et Terraform +- link: https://www.datadoghq.com/blog/simplifying-troubleshooting-with-synthetic-monitoring + tag: GitHub + text: Simplifier le dépannage tout au long du parcours utilisateur avec Datadog + Synthetic Monitoring +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: GitHub + text: 'De la performance à l''impact : rapprocher les équipes frontend grâce à un + contexte partagé' +- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring + tag: Notes de version + text: Découvrez les dernières versions de Datadog Synthetic Monitoring ! (Connexion + à l'application requise) +title: Tests et surveillance Synthetic --- +{{< learning-center-callout header="Participez à une session de webinaire de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} + Explorez et inscrivez-vous aux sessions de formation Foundation. Découvrez comment Datadog Synthetic Monitoring est une solution de surveillance proactive qui vous permet de créer des tests d'API, des tests de navigateur et des tests mobiles sans code pour simuler automatiquement les flux et les requêtes des utilisateurs vers vos applications, vos points d'accès clés et vos couches réseau. +{{< /learning-center-callout >}} -{{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/447241955/rendition/1080p/file.mp4?loc=external&signature=47f0bf6adc93cbbd62e4939228c964c19227a2e0aec2d61822417cd2af985c97" poster="/images/poster/synthetics.png" >}} - -
    +Les tests synthétiques vous permettent d'observer comment vos systèmes et applications fonctionnent en utilisant **des requêtes et des actions simulées du monde entier**. Datadog suit la performance de vos pages web et de vos API, du backend au frontend, et à divers niveaux réseau (`HTTP`, `SSL`, `DNS`, `WebSocket`, `TCP`, `UDP`, `ICMP` et `gRPC`) de manière contrôlée et stable, vous alertant sur des comportements défaillants tels que des régressions, des fonctionnalités cassées, des temps de réponse élevés et des codes d'état inattendus. -Les tests Synthetic vous permettent de contrôler le bon fonctionnement de vos systèmes et applications à l'aide de **requêtes et actions simulées dans le monde entier**. Datadog surveille les performances de vos pages Web et de vos API du backend au frontend, et à différents niveaux du réseau (`HTTP`, `SSL`, `DNS`, `WebSocket`, `TCP`, `UDP`, `ICMP` et `gRPC`), de manière contrôlée et stable, en vous envoyant des alertes en cas de comportement anormal (régression, fonctionnalité défaillante, temps de réponse élevé ou code de statut inattendu). - -En **calculant des SLO** sur vos endpoints et parcours utilisateur clés, vous atteindrez plus facilement vos objectifs de performance pour votre application, ce qui se traduira par une expérience utilisateur plus stable. +**Calculer les SLO** sur vos points d'accès clés et vos parcours utilisateurs facilite le respect de vos objectifs de performance applicative et permet finalement de fournir une expérience client cohérente. Vous pouvez créer des tests Synthetic dans l'[application Datadog][1], avec l'[API][2] ou avec [Terraform][3]. -## Configurer des tests API et API à plusieurs étapes +## Configurez des tests API et des tests API à étapes multiples {#set-up-api-tests-and-multistep-api-tests} Les tests API vous permettent de lancer des requêtes [individuelles][4] ou des [chaînes][5] de requêtes afin d'effectuer des vérifications sur vos systèmes essentiels à différents niveaux du réseau : [test HTTP][6], [test SSL][7], [test DNS][8], [test WebSocket][9], [test TCP][10], [test UDP test][11], [test ICMP][12] et [test gRPC][13]. {{< img src="synthetics/api_test.png" alt="Tests API" style="width:100%;">}} -## Enregistrer des tests Browser +## Enregistrer des tests de navigateur {#record-browser-tests} Utilisez des [tests Browser Synthetic][14] pour surveiller l'expérience de vos clients sur vos pages Web, de bout en bout et dans le monde entier. {{< img src="synthetics/browser_test.mp4" alt="Tests Browser" video=true style="width:100%;">}} -## Enregistrer des tests d'application mobile +## Enregistrer des tests d'application mobile {#record-mobile-application-tests} Utilisez des [tests d'application mobile Synthetic][21] pour surveiller l'expérience de vos clients sur vos applications iOS et Android, de bout en bout et sur différents types d'appareils. -{{< img src="mobile_app_testing/mobile_application_testing_demo.png" alt="Exemple de workflow d'enregistrement pour un test mobile Synthetic" style="width:100%;">}} +{{< img src="synthetics/mobile_app_tests.png" alt="Exemples du flux de travail d'enregistrement pour un test mobile synthétique" style="width:100%;">}} + +## Créer des tests de chemin réseau {#create-network-path-tests} + +Créez [des tests de chemin réseau synthétiques][25] à partir d'emplacements gérés pour effectuer des vérifications TCP, UDP et ICMP et visualiser les routes des paquets à travers des points d'accès mondiaux. + +{{< img src="synthetics/network_tests/syn_network_path.png" alt="Exemples d'un test de réseau TCP synthétique" style="width:100%;">}} +## Suites de tests {#test-suites} + +Utilisez les suites de tests synthétiques pour organiser plusieurs tests en collections logiques regroupées par parcours utilisateur, environnement, emplacement, service ou équipe pour une gestion et un dépannage simplifiés. -## Lancer des emplacements privés +{{< img src="synthetics/test_suites/test_suite_summary.png" alt="Page de résumé de la suite de tests de surveillance synthétique" style="width:100%;">}} + +## Lancer des emplacements privés {#launch-private-locations} Utilisez des [emplacements privés Synthetic][15] pour surveiller des API et sites Web internes ou pour créer des emplacements personnalisés dans des zones stratégiques pour votre entreprise. {{< img src="synthetics/private_locations.png" alt="Emplacements privés" style="width:100%;">}} -## Associer vos données à vos traces +## Connecter les données et les traces {#connect-data-and-traces} Datadog vous permet d'[intégrer vos tests Synthetic à vos traces APM][16] pour identifier l'origine des échecs parmi vos requêtes frontend, réseau et backend. -{{< img src="synthetics/synthetics_traces.mp4" alt="Surveillance Synthetic" video=true style="width:100%;">}} +{{< img src="synthetics/synthetics_traces.mp4" alt="Surveillance Synthetics" video=true style="width:100%;">}} -## Accéder aux dashboards prêts à l'emploi +## Accéder aux tableaux de bord prêts à l'emploi {#access-out-of-the-box-dashboards} Utilisez les [dashboards Synthetic prêts à l'emploi][17] pour analyser les données de performance liées à vos tests API, tests API à plusieurs étapes, tests Browser et emplacements privés, ainsi qu'aux événements Datadog. -{{< img src="synthetics/test_summary_dashboard.png" alt="Dashboard de résumé des tests" style="width:100%;">}} +{{< img src="synthetics/dashboards/test_dashboard.png" alt="Tableau de bord de résumé de surveillance synthétique et de tests continus" style="width:100%;">}} -## Utiliser l'Explorateur de surveillance Synthetic et de tests en continu +## Utilisez l'Explorateur de Résultats de Surveillance et de Tests Synthétiques {#use-the-synthetic-monitoring-testing-results-explorer} Créez des [requêtes de recherche et des visualisations][20] pour vos exécutions de tests Synthetic ou vos lots de tests exécutés dans des pipelines CI/CD. -{{< img src="continuous_testing/explorer_ci_batches.png" alt="Explorateur de tests en continu" style="width:100%;">}} +{{< img src="continuous_testing/explorer_ci_batches_1.png" alt="Explorateur de tests continus" style="width:100%;">}} + +## Suivre la couverture des tests {#track-testing-coverage} + +Optimisez votre suite de tests en [vous assurant que les workflows les plus importants de votre applications sont testés][22]. + +{{< img src="synthetics/test_coverage/test_coverage.png" alt="Explorateur de tests continus" style="width:100%;">}} + +## Notifications de surveillance synthétique {#synthetic-monitoring-notifications} + +Utilisez et enrichissez les moniteurs synthétiques pour envoyer des notifications lorsqu'un test de surveillance synthétique échoue. Les fonctionnalités suivantes sont disponibles : + +Messages de moniteur pré-remplis +: Les messages de moniteur pré-remplis fournissent un point de départ structuré pour les alertes de tests Synthétiques. Chaque message comprend un titre, un résumé et un pied de page standardisés contenant des métadonnées de test, ce qui facilite la compréhension de l'alerte d'un coup d'œil. + +Template variables +: Les variables de modèle vous permettent d'injecter des données spécifiques au test dans les notifications de moniteur de manière dynamique. Ces variables proviennent de l'objet `synthetics.attributes`. + +Utilisation avancée +: L'utilisation avancée inclut des techniques permettant de faire ressortir des informations de test plus approfondies ou de structurer des messages complexes en utilisant le modèle Handlebars. + +Alerte conditionnelle +: L'alerte conditionnelle vous permet de modifier le contenu d'une notification de moniteur en fonction de résultats de test spécifiques ou de conditions d'échec. + +Pour plus d'informations, voir [notifications de surveillance synthétique][24]. + +## Historique des versions {#version-history} + +Utilisez [Historique des versions dans la surveillance synthétique][23] pour exécuter une version précédente d'un test, restaurer votre test à une version sauvegardée ou cloner une version pour créer un nouveau test de surveillance synthétique. -## Prêt à vous lancer ? +## Prêt à vous lancer ? {#ready-to-start} -Consultez la section [Débuter avec la surveillance Synthetic][18] pour découvrir comment créer votre premier test Synthetic et surveiller vos applications Web. Lisez ensuite le guide [Débuter avec les emplacements privés][19] pour apprendre à créer un emplacement privé et à exécuter des tests Synthetic depuis celui-ci. +Voir [Premiers pas avec la surveillance synthétique][18] pour des instructions sur la création de votre premier test synthétique et la surveillance de vos applications web. Ensuite, explorez [Premiers pas avec les emplacements privés][19] pour des instructions sur la création de votre emplacement privé et l'exécution de tests synthétiques avec votre emplacement privé. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -119,4 +182,9 @@ Consultez la section [Débuter avec la surveillance Synthetic][18] pour découvr [18]: /fr/getting_started/synthetics [19]: /fr/getting_started/synthetics/private_location [20]: /fr/continuous_testing/explorer/ -[21]: /fr/mobile_testing \ No newline at end of file +[21]: /fr/mobile_testing +[22]: /fr/synthetics/test_coverage +[23]: /fr/synthetics/guide/version_history/ +[24]: /fr/synthetics/notifications/ +[25]: /fr/synthetics/network_path_tests/ +[26]: /fr/synthetics/test_suites/ \ No newline at end of file diff --git a/content/fr/tracing/_index.md b/content/fr/tracing/_index.md index e429b6852b6..02fdba7297f 100644 --- a/content/fr/tracing/_index.md +++ b/content/fr/tracing/_index.md @@ -20,104 +20,121 @@ description: Instrumenter votre code pour améliorer ses performances further_reading: - link: https://app.datadoghq.com/release-notes?category=APM tag: Notes de version - text: Découvrez les dernières versions de la solution APM Datadog (connexion à l'application + text: Découvrez les dernières versions de Datadog APM ! (Connexion à l'application requise) +- link: https://learn.datadoghq.com/courses/getting-started-apm + tag: Centre d'apprentissage + text: Premiers pas avec les métriques et les traces APM - link: https://www.datadoghq.com/blog/monitor-rust-otel/ - tag: Blog + tag: GitHub text: Comment surveiller vos applications Rust avec OpenTelemetry - link: https://www.datadoghq.com/blog/span-based-metrics/ - tag: Blog - text: Générer des métriques basées sur des spans pour suivre les tendances historiques - relatives aux performances des applications + tag: GitHub + text: Générez des métriques basées sur les spans pour suivre les tendances historiques + de la performance des applications - link: https://www.datadoghq.com/blog/apm-security-view/ - tag: Blog + tag: GitHub text: Gagner en visibilité sur les risques, vulnérabilités et attaques avec la vue Security d'APM - link: https://www.datadoghq.com/blog/monitor-azure-app-service-linux/ - tag: Blog - text: Surveiller vos applications Web Linux sur Azure App Service avec Datadog + tag: GitHub + text: Surveillez vos applications web Linux sur Azure App Service avec Datadog - link: https://www.datadoghq.com/blog/monitor-apis-datadog-api-catalog/ - tag: Blog - text: Gérez les performances, la sécurité et la propriété des API avec le catalogue - des API de Datadog + tag: GitHub + text: Gérez la performance, la sécurité et la propriété des API avec le catalogue + API de Datadog - link: https://www.datadoghq.com/blog/software-catalog/ - tag: Blog - text: Améliorez l'expérience développeur et la collaboration avec Software Catalog + tag: GitHub + text: Améliorez l'expérience des développeurs et la collaboration avec Software + Catalog +- link: https://www.datadoghq.com/blog/datadog-csi-driver/ + tag: GitHub + text: Apportez une observabilité haute performance aux environnements Kubernetes + sécurisés avec le pilote CSI de Datadog - link: https://dtdg.co/fe tag: Validation des bases text: Participer à une session interactive pour maîtriser la solution APM +- link: https://www.datadoghq.com/blog/gitlab-source-code-integration + tag: GitHub + text: Résolvez les problèmes plus rapidement avec l'intégration du code source GitLab + dans Datadog +- link: https://www.datadoghq.com/blog/pubsub-cloud-run-tracing + tag: GitHub + text: Tracez les charges de travail Google Pub/Sub dans Cloud Run avec Datadog +- link: https://www.datadoghq.com/blog/analyzing-roundtrip-query-latency + tag: GitHub + text: Analyse de la latence des requêtes aller-retour title: APM --- - {{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/381554158/rendition/1080p/file.mp4?loc=external&signature=e19b4e64632c3b1a42b11cb27fca2682dfadecd4690774c005ba2f5079b6a416" poster="/images/poster/tracing.png" >}}
    -{{< learning-center-callout header="Participez un webinar de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=APM">}} - Participez à une session d'initiation ou intermédiaire pour découvrir comment la solution APM de Datadog fournit un traçage distribué au niveau du code, des applications web et mobiles jusqu'aux services back-end et bases de données, grâce à l'intelligence artificielle. -{{< /learning-center-callout >}}" +{{< learning-center-callout header="Participez à une session de webinaire de formation" hide_image="true" btn_title="Inscrivez-vous" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=APM">}} + Participez à une session de formation d'introduction ou intermédiaire pour en savoir plus sur la manière dont Datadog APM offre un traçage distribué au niveau du code, alimenté par l'IA, depuis les applications web et mobiles jusqu'aux services backend et aux bases de données. +{{< /learning-center-callout >}} -## Section Overview +## Aperçu {#overview} -La solution Application Performance Monitoring (APM) de Datadog vous permet dʼanalyser vos applications en détail, et ainsi d'identifier les goulets d'étranglement, de résoudre les problèmes et d'optimiser vos services. Grâce au tracing distribué, à des dashboards prêts à l'emploi et à la corrélation fluide avec d'autres données de télémétrie, la solution APM de Datadog vous permet de garantir les meilleures performances et la meilleure expérience utilisateur pour vos applications. +La solution Application Performance Monitoring (APM) de Datadog vous permet dʼanalyser vos applications en détail, et ainsi d'identifier les goulets d'étranglement, de résoudre les problèmes et d'optimiser vos services. Avec le traçage distribué, des tableaux de bord prêts à l'emploi et une corrélation transparente avec d'autres données de télémétrie, Datadog APM aide à garantir la meilleure performance et expérience utilisateur possible pour vos applications. Pour découvrir la terminologie en lien avec la solution APM Datadog, consultez la section [Termes et concepts d'APM][1]. -## Prise en main +## Premiers pas {#getting-started} -Afin de bien débuter avec la solution APM de Datadog, essayez l'instrumentation en une seule étape. Cette approche consiste à installer l'Agent Datadog et à instrumenter votre application en une seule étape, sans aucune autre étape de configuration. Pour en savoir plus, référez-vous à la section relative à [l'instrumentation en une seule étape][27]. +La manière la plus simple de commencer avec Datadog APM est Single Step Instrumentation. Cette approche installe l'Agent Datadog et instrumente votre application en une seule étape, sans étapes de configuration supplémentaires requises. Pour en savoir plus, lisez [Single Step Instrumentation][27]. -Afin de s'adapter aux configurations qui nécessitent davantage de personnalisation, Datadog prend en charge l'instrumentation personnalisée avec les bibliothèques de tracing de Datadog. Pour en savoir plus, référez-vous à la section relative à [l'instrumentation d'application][2]. +Pour les configurations nécessitant plus de personnalisation, Datadog prend en charge l'instrumentation personnalisée avec les SDK Datadog et [Dynamic Instrumentation][30] dans Datadog UI. Pour en savoir plus, lisez [Application Instrumentation][2]. -
    Si vous débutez avec la solution APM de Datadog, lisez Débuter avec le tracing APM pour apprendre à envoyer votre première trace vers Datadog.
    +
    Si vous êtes nouveau dans Datadog APM, lisez Getting Started with APM pour apprendre à envoyer votre première trace à Datadog.
    -## Cas d'utilisation +## Cas d'utilisation {#use-cases} Découvrez comment la solution APM de Datadog peut vous permettre de répondre à vos cas d'utilisation : -| Vous voulez...| Ce que la solution APM de Datadog peut faire pour vous aider | +| Vous voulez...| Comment Datadog APM peut vous aider | | ----------- | ----------- | -| Comprenez comment les requêtes circulent dans votre système. | Utilisez le [Trace Explorer][21] pour interroger et visualiser les traces de bout en bout dans les services distribués. | -| Surveillez la santé et les performances de chacun de vos services. | Référez-vous aux pages relatives aux [services][26] et aux [ressources][28] pour évaluer l'état de santé de vos services en analysant les métriques de performances, en suivant les déploiements et en identifiant les ressources problématiques. | -| Corréler des traces avec DBM, RUM, les logs, synthetics et les profils. | [Corrélez les données de l'APM avec d'autres données télémétriques][20] pour donner un contexte à vos données en vue d'une analyse plus complète. | -| Contrôlez la façon dont les données circulent dans Datadog. | Utilisez les [paramètres d'ingestion][6] pour régler la configuration et les taux d'échantillonnage de l'ingestion par service et par ressource. Utilisez les [filtres de rétention][7] pour choisir les spans à conserver pendant 15 jours. | +| Comprendre comment les requêtes circulent dans votre système. | Utilisez le [Trace Explorer][21] pour interroger et visualiser les traces de bout en bout à travers des services distribués. | +| Surveiller la santé et la performance des services individuels. | Utilisez les [pages de service][26] et [pages de ressources][28] pour évaluer la santé des services en analysant les métriques de performance, en suivant les déploiements et en identifiant les ressources problématiques. | +| Corréler les traces avec DBM, RUM, les journaux, les synthétiques et les profils. | [Corréler les données APM avec d'autres données de télémétrie][20] pour donner du contexte à vos données pour une analyse plus complète. | +| Contrôler comment les données circulent dans Datadog. | Utilisez [Ingestion Controls][6] pour ajuster la configuration d'ingestion et les taux d'échantillonnage par service et ressource. Utilisez [Retention filters][7] pour choisir quels spans conserver pendant 15 jours. | -### Trace Explorer +### Trace Explorer {#trace-explorer} -Le [Trace Explorer][21] vous permet de rechercher et d'analyser votre traces en temps réel. Identifiez les goulets d'étranglement en matière de performances, résolvez les erreurs et consultez les logs et les métriques pour comprendre le contexte complet d'un problème. +Le [Trace Explorer][21] vous permet de rechercher et d'analyser vos traces en temps réel. Identifiez les goulets d'étranglement de performance, dépannez les erreurs et passez aux journaux et métriques connexes pour comprendre le contexte complet autour de tout problème. -{{< img src="/tracing/trace_explorer/trace_explorer.png" alt="Vue du Trace explorer." style="width:100%;" >}} +{{< img src="/tracing/trace_explorer/trace_explorer.png" alt="Vue de l'explorateur de traces." style="width:100%;" >}} -### Page Service +### Page de service {#service-page} La [page des services][26] vous aide à surveiller les performances de vos services et [comparer les versions lors des déploiements][15]. -{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versions on the Service Page" style="width:100%;">}} +{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versions sur la page de service :" style="width:100%;">}} -### Corréler des traces avec dʼautres données de télémétrie +### Corrélation des traces avec d'autres données de télémétrie {#correlating-traces-with-other-telemetry} La solution APM de Datadog s'intègre parfaitement aux logs, à la surveillance des utilisateurs réels (RUM), à la surveillance Synthetic, entre autres : -- [Visualisez les logs de votre application côte à côte avec des traces][9] pour retrouver des logs correspondant à des requêtes, des services ou des versions spécifiques. +- [Affichez vos journaux d'application côte à côte avec les traces][9] pour trouver des journaux pour des demandes, services ou versions spécifiques. - [Associer les sessions RUM aux traces du backend][10] pour comprendre comment les performances du backend affectent l'expérience de l'utilisateur. - [Associez les tests Synthetic à des traces][11] pour résoudre les problèmes liés aux requêtes du frontend et du backend. -{{< img src="tracing/index/ConnectLogsWithTraces.png" alt="Associer vos logs à vos traces" style="width:100%;">}} +{{< img src="tracing/index/ConnectLogsWithTraces.png" alt="Connectez les journaux et les traces" style="width:100%;">}} -### Paramètres d'ingestion et filtres de rétention +### Contrôles d'ingestion et filtres de conservation {#ingestion-controls-and-retention-filters} Les traces démarrent dans vos applications instrumentées et circulent dans Datadog. -La solution APM de Datadog fournit des outils pour gérer le volume et la rétention de vos données de trace. Utilisez des [paramètres d'ingestion][6] pour ajuster les taux d’échantillonnage et des [filtres de rétention][7] pour contrôler les spans à stocker. +Datadog APM fournit des outils pour gérer le volume et la conservation de vos données de trace. Utilisez [Contrôles d'ingestion][6] pour ajuster les taux d'échantillonnage et [filtres de conservation][7] pour contrôler quels spans sont stockés. -{{< img src="/tracing/apm_lifecycle/apm_lifecycle_0.png" alt="Flux de données dans la solution APM de Datadog." style="width:100%;" >}} +{{< img src="/tracing/apm_lifecycle/apm_lifecycle_0.png" alt="Flux de données à travers Datadog APM." style="width:100%;" >}} -## Dépannage +## Dépannage {#troubleshooting} En cas de problème, vous pouvez consulter le guide [Dépannage d'APM][29]. -## Pour aller plus loin +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -149,4 +166,5 @@ En cas de problème, vous pouvez consulter le guide [Dépannage d'APM][29]. [26]: /fr/tracing/services/service_page/ [27]: /fr/tracing/trace_collection/single-step-apm/ [28]: /fr/tracing/services/resource_page/ -[29]: /fr/tracing/troubleshooting/ \ No newline at end of file +[29]: /fr/tracing/troubleshooting/ +[30]: /fr/tracing/dynamic_instrumentation/ \ No newline at end of file diff --git a/content/fr/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md b/content/fr/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md new file mode 100644 index 00000000000..1c06d56ad54 --- /dev/null +++ b/content/fr/tracing/trace_collection/custom_instrumentation/server-side/_index.mdoc.md @@ -0,0 +1,239 @@ +--- +aliases: +- /fr/tracing/opentracing/java +- /fr/tracing/manual_instrumentation/java +- /fr/tracing/custom_instrumentation/java +- /fr/tracing/setup_overview/custom_instrumentation/java +- /fr/tracing/trace_collection/custom_instrumentation/java +- /fr/tracing/trace_collection/custom_instrumentation/java/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/java/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/java +- /fr/tracing/trace_collection/otel_instrumentation/java/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/java +- /fr/tracing/opentracing/python +- /fr/tracing/manual_instrumentation/python +- /fr/tracing/custom_instrumentation/python +- /fr/tracing/setup_overview/custom_instrumentation/python +- /fr/tracing/trace_collection/custom_instrumentation/python +- /fr/tracing/trace_collection/custom_instrumentation/python/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/python/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/python +- /fr/tracing/trace_collection/otel_instrumentation/python/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/python +- /fr/tracing/opentracing/nodejs +- /fr/tracing/manual_instrumentation/nodejs +- /fr/tracing/custom_instrumentation/nodejs +- /fr/tracing/setup_overview/custom_instrumentation/nodejs +- /fr/tracing/trace_collection/custom_instrumentation/nodejs +- /fr/tracing/trace_collection/custom_instrumentation/nodejs/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/nodejs/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/nodejs +- /fr/tracing/trace_collection/otel_instrumentation/nodejs/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/nodejs +- /fr/tracing/opentracing/go +- /fr/tracing/manual_instrumentation/go +- /fr/tracing/custom_instrumentation/go +- /fr/tracing/setup_overview/custom_instrumentation/go +- /fr/tracing/trace_collection/custom_instrumentation/go +- /fr/tracing/trace_collection/custom_instrumentation/go/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/go/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/go +- /fr/tracing/trace_collection/otel_instrumentation/go/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/go +- /fr/tracing/opentracing/ruby +- /fr/tracing/manual_instrumentation/ruby +- /fr/tracing/custom_instrumentation/ruby +- /fr/tracing/setup_overview/custom_instrumentation/ruby +- /fr/tracing/trace_collection/custom_instrumentation/ruby +- /fr/tracing/trace_collection/custom_instrumentation/ruby/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/ruby/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby +- /fr/tracing/trace_collection/otel_instrumentation/ruby/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ruby +- /fr/tracing/opentracing/dotnet +- /fr/tracing/manual_instrumentation/dotnet +- /fr/tracing/custom_instrumentation/dotnet +- /fr/tracing/setup_overview/custom_instrumentation/dotnet +- /fr/tracing/trace_collection/custom_instrumentation/dotnet +- /fr/tracing/trace_collection/custom_instrumentation/dotnet/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/dotnet/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/dotnet +- /fr/tracing/trace_collection/otel_instrumentation/dotnet/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet +- /fr/tracing/opentracing/php +- /fr/tracing/manual_instrumentation/php +- /fr/tracing/custom_instrumentation/php +- /fr/tracing/setup_overview/custom_instrumentation/php +- /fr/tracing/trace_collection/custom_instrumentation/php +- /fr/tracing/trace_collection/custom_instrumentation/php/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/php/otel +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/php +- /fr/tracing/trace_collection/otel_instrumentation/php/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/php +- /fr/tracing/manual_instrumentation/cpp +- /fr/tracing/custom_instrumentation/cpp +- /fr/tracing/setup_overview/custom_instrumentation/cpp +- /fr/tracing/trace_collection/custom_instrumentation/cpp +- /fr/tracing/trace_collection/custom_instrumentation/cpp/dd-api +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/cpp +- /fr/tracing/trace_collection/custom_instrumentation/rust +- /fr/tracing/trace_collection/custom_instrumentation/elixir +- /fr/tracing/trace_collection/custom_instrumentation/swift +- /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/ +- /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ +content_filters: +- label: Language + option_group_id: custom_instrumentation_language_options + trait_id: prog_lang +- label: API + option_group_id: custom_instrumentation_api_options + trait_id: api_type +description: Ajoutez des spans, des balises et une instrumentation personnalisée pour + capturer des données d'observabilité spécifiques à l'application en utilisant les + API Datadog et OpenTelemetry. +further_reading: +- link: tracing/guide/instrument_custom_method + text: Instrumenter une méthode personnalisée pour analyser en détail votre logique + métier +- link: tracing/connect_logs_and_traces + text: Associer vos logs à vos traces +- link: tracing/visualization/ + text: Explorer vos services, ressources et traces +- link: https://www.datadoghq.com/blog/opentelemetry-instrumentation/ + text: En savoir plus sur Datadog et l'initiative OpenTelemetry +title: Instrumentation personnalisée côté serveur +--- + + + + + +{% if equals($prog_lang, "cpp") %} +{% if equals($api_type, "otel_api") %} +{% alert level="danger" %} +C++ ne prend pas en charge l'API OpenTelemetry. Sélectionnez **Datadog** dans le menu déroulant de l'API pour voir la documentation sur l'instrumentation personnalisée C++. +{% /alert %} +{% /if %} +{% /if %} + + +{% if equals($prog_lang, "rust") %} +{% if equals($api_type, "dd_api") %} +{% alert level="danger" %} +Rust ne prend pas en charge l'API Datadog. Sélectionnez **OpenTelemetry** dans le menu déroulant de l'API pour voir la documentation sur l'instrumentation personnalisée Rust. +{% /alert %} +{% /if %} +{% /if %} + + +{% if equals($prog_lang, "elixir") %} +{% if equals($api_type, "dd_api") %} +{% alert level="danger" %} +Elixir ne prend pas en charge l'API Datadog. Sélectionnez **OpenTelemetry** dans le menu déroulant de l'API pour voir la documentation sur l'instrumentation personnalisée Elixir. +{% /alert %} +{% /if %} +{% /if %} + + + + + +{% if equals($api_type, "otel_api") %} + + +{% if equals($prog_lang, "elixir") %} +Datadog ne fournit pas de SDK Elixir. Pour envoyer des traces à Datadog, utilisez le [SDK OpenTelemetry pour Elixir][8]. +{% /if %} + + +{% if not(includes($prog_lang, ["cpp", "elixir"])) %} + +## Aperçu {% #overview %} + +{% partial file="opentelemetry/traces/otel-custom-instrumentation-overview.mdoc.md" /%} + +{% if equals($prog_lang, "java") %} +{% partial file="opentelemetry/traces/java.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "python") %} +{% partial file="opentelemetry/traces/python.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "node_js") %} +{% partial file="opentelemetry/traces/nodejs.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "go") %} +{% partial file="opentelemetry/traces/go.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "ruby") %} +{% partial file="opentelemetry/traces/ruby.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "dot_net") %} +{% partial file="opentelemetry/traces/dotnet.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "php") %} +{% partial file="opentelemetry/traces/php.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "rust") %} +{% partial file="opentelemetry/traces/rust.mdoc.md" /%} +{% /if %} + +{% /if %} +{% /if %} + + + + + + + +{% if equals($api_type, "dd_api") %} +{% if not(includes($prog_lang, ["rust", "elixir"])) %} + +## Aperçu {% #overview-1 %} + +Utilisez l'API Datadog pour créer, modifier ou supprimer des traces à envoyer à Datadog de manière programmatique. Ceci est utile pour tracer le code interne qui n'est pas capturé par l'instrumentation automatique, supprimer les spans indésirables des traces et offrir une visibilité plus approfondie ainsi qu'un contexte plus complet sur les spans, y compris l'ajout de balises de span. + +{% if equals($prog_lang, "java") %} +{% partial file="tracing/custom_instrumentation/dd_api/java.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "python") %} +{% partial file="tracing/custom_instrumentation/dd_api/python.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "node_js") %} +{% partial file="tracing/custom_instrumentation/dd_api/nodejs.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "go") %} +{% partial file="tracing/custom_instrumentation/dd_api/go.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "ruby") %} +{% partial file="tracing/custom_instrumentation/dd_api/ruby.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "dot_net") %} +{% partial file="tracing/custom_instrumentation/dd_api/dotnet.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "php") %} +{% partial file="tracing/custom_instrumentation/dd_api/php.mdoc.md" /%} +{% /if %} + +{% if equals($prog_lang, "cpp") %} +{% partial file="tracing/custom_instrumentation/dd_api/cpp.mdoc.md" /%} +{% /if %} + +{% /if %} +{% /if %} + + +[8]: https://opentelemetry.io/docs/languages/beam/ \ No newline at end of file diff --git a/content/fr/tracing/trace_collection/dd_libraries/nodejs.md b/content/fr/tracing/trace_collection/dd_libraries/nodejs.md new file mode 100644 index 00000000000..87c98cdc706 --- /dev/null +++ b/content/fr/tracing/trace_collection/dd_libraries/nodejs.md @@ -0,0 +1,274 @@ +--- +aliases: +- /fr/tracing/nodejs/ +- /fr/tracing/languages/nodejs/ +- /fr/tracing/languages/javascript/ +- /fr/tracing/setup/javascript/ +- /fr/agent/apm/nodejs/ +- /fr/tracing/setup/nodejs +- /fr/tracing/setup_overview/nodejs +- /fr/tracing/setup_overview/setup/nodejs +- /fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs +code_lang: nodejs +code_lang_weight: 30 +further_reading: +- link: https://github.com/DataDog/dd-trace-js + tag: Code source + text: Code source +- link: https://datadog.github.io/dd-trace-js + tag: Documentation + text: Documentation sur l'API +- link: tracing/glossary/ + tag: Documentation + text: Explorer vos services, ressources et traces +- link: tracing/ + tag: Documentation + text: Utilisation avancée +title: Tracer des applications Node.js +type: multi-code-lang +--- +## Exigences de compatibilité {#compatibility-requirements} + +Le dernier Tracer Node.js prend en charge les versions Node.js `>=18`. Pour une liste complète des versions et du support des frameworks Node.js de Datadog (y compris les versions héritées et de maintenance), consultez la page [Exigences de compatibilité][1]. + +## Mise en route {#getting-started} + +Avant de commencer, vérifiez que vous avez bien [installé et configuré l'Agent][13]. Ensuite, complétez les étapes suivantes pour ajouter le SDK Datadog à votre application Node.js afin de l'instrumenter. + +### Installez le SDK Datadog {#install-the-datadog-sdk} + +Pour installer le SDK Datadog en utilisant npm pour Node.js 18+, exécutez : + + ```shell + npm install dd-trace + ``` +Pour installer le SDK Datadog (version 4.x de `dd-trace`) pour la version Node.js 16 en fin de vie, exécutez : + ```shell + npm install dd-trace@latest-node16 + ``` +Pour plus d'informations sur les tags de distribution de Datadog et le support des versions d'exécution Node.js, consultez la page [Exigences de compatibilité][1]. +Si vous effectuez une mise à niveau d'une version majeure précédente de la bibliothèque (0.x, 1.x, 2.x, 3.x ou 4.x) vers une autre version majeure, lisez le [Guide de migration][5] pour évaluer les changements non rétrocompatibles. + +
    Dans les environnements Serverless ou lors de l'utilisation de l'instrumentation en une seule étape, la bibliothèque est déjà pré-installée, donc vous n'avez pas besoin de l'ajouter en tant que dépendance. Au lieu de cela, ajoutez-le en tant que dépendance de développement pour obtenir le traçage localement : +
    +
    +      npm install dd-trace -D # au lieu de `npm install dd-trace`
    +    
    +
    + +
    +
    +
    + +### Installer l'API publique Datadog (optionnel) {#install-the-datadog-public-api-optional} + +Cette étape est uniquement requise lors de l'instrumentation personnalisée dans Serverless ou avec l'instrumentation en une seule étape. Pour d'autres cas d'utilisation d'instrumentation personnalisée, c'est optionnel. Pour des informations sur quand utiliser l'API publique Datadog, consultez [Instrumentation personnalisée utilisant l'API Datadog][14]. + + ```shell + npm install dd-trace-api + ``` + +Vous pouvez alors importer `dd-trace-api` au lieu de `dd-trace` dans tout code effectuant une instrumentation personnalisée. + +### Importez et initialisez le traceur {#import-and-initialize-the-tracer} + +Importez et initialisez le traceur soit dans le code, soit avec des arguments de ligne de commande. Le SDK Node.js doit être importé et initialisé **avant** tout autre module. + +
    Avec des frameworks comme Next.js et Nest.js, vous devez soit fournir une variable d'environnement, soit ajouter un flag Node.js supplémentaire. Consultez l'utilisation complexe des frameworks pour plus d'informations.
    + +Après avoir terminé la configuration, si vous ne recevez pas de traces complètes, y compris des routes URL manquantes pour les requêtes web, ou des spans déconnectés ou manquants, **confirmez que le SDK a été importé et initialisé correctement**. L'initialisation du SDK en premier est nécessaire pour que le SDK puisse correctement patcher toutes les bibliothèques requises pour l'instrumentation automatique. + +Lorsque vous utilisez un transpileur tel que TypeScript, Webpack, Babel ou d'autres, importez et initialisez le SDK dans un fichier externe, puis importez ce fichier dans son intégralité lors de la construction de votre application. + +#### Ajoutez le SDK avec des arguments de ligne de commande {#add-the-sdk-with-command-line-arguments}. + +Utilisez l'option `--require` de Node.js pour charger et initialiser le SDK en une seule étape. + +```sh +node --require dd-trace/init app.js +``` + +L'approche ci-dessus nécessite l'utilisation de variables d'environnement pour toute la configuration du SDK. Si vous devez utiliser une configuration programmatique, initialisez `dd-trace` dans un fichier dédié et requirez-le à la place : + +```sh +node --require ./dd-trace.js app.js +``` + +Le fichier doit contenir ceci : + +```js +// ./dd-trace.js +require('dd-trace').init({ + // programmatic config +}) +``` + +Pour les cas où il n'est pas possible de contrôler les arguments CLI, vous pouvez utiliser une variable d'environnement à la place : + +
    DD_TRACE_ENABLED est true par défaut, ce qui signifie qu'une certaine instrumentation se produit au moment de l'importation, avant l'initialisation. Pour désactiver complètement l'instrumentation, vous pouvez faire l'une des choses suivantes : +
      +
    • Importez le module de manière conditionnelle
    • . +
    • Définissez DD_TRACE_ENABLED=false (si, par exemple, les imports ESM statiques ou de niveau supérieur empêchent le chargement conditionnel)
    • . +
        +
    + +#### Applications ESM uniquement : Importez le chargeur {#esm-applications-only-import-the-loader}. + +Les applications ECMAScript Modules (ESM) nécessitent un argument de ligne de commande _supplémentaire_. Ajoutez cet argument, peu importe comment le SDK est autrement importé et initialisé : + +- **Node.js < v20.6 :** `--loader dd-trace/loader-hook.mjs` +- **Node.js >= v20.6 :** `--import dd-trace/register.js` + +Par exemple, dans Node.js 22, si vous initialisez le SDK en utilisant l'option un ci-dessus, vous le démarrerez comme ceci : + +```sh +node --import dd-trace/register.js app.js +``` + +Cela peut également être combiné avec l'argument de ligne de commande `--require dd-trace/init` : + +```sh +node --import dd-trace/register.js --require dd-trace/init app.js +``` + +Un raccourci existe pour combiner les deux arguments sous Node.js v20.6 et versions ultérieures : + +```sh +node --import dd-trace/initialize.mjs app.js +``` + +### Bundling {#bundling} + +`dd-trace` fonctionne en interceptant les appels `require()` qu'une application Node.js effectue lors du chargement des modules. Cela inclut les modules intégrés à Node.js, comme le module `fs` pour accéder au système de fichiers, ainsi que les modules installés depuis le registre NPM, comme le module de base de données `pg`. + +Les bundlers explorent tous les appels `require()` qu'une application effectue vers des fichiers sur le disque. Il remplace les appels `require()` par du code personnalisé et combine tout le JavaScript résultant en un seul fichier bundle. Lorsqu'un module intégré est chargé, tel que `require('fs')`, cet appel peut alors rester le même dans le bundle résultant. + +Les outils APM comme `dd-trace` cessent de fonctionner à ce stade. Ils peuvent continuer à intercepter les appels pour les modules intégrés mais n'interceptent pas les appels aux bibliothèques tierces. Cela signifie que lorsque vous bundlez une application `dd-trace` avec un bundler, il est probable qu'elle capture des informations sur l'accès au disque (via `fs`) et sur les requêtes HTTP sortantes (via `http`), tout en omettant les appels aux bibliothèques tierces. Exemple : +- Extraction des informations de route des requêtes entrantes pour le framework `express`. +- Affichage de la requête exécutée pour le client de base de données `mysql`. + +Une solution courante consiste à traiter tous les modules tiers que l'APM doit instrumenter comme étant "externes" au bundler. Avec ce paramètre, les modules instrumentés restent sur le disque et continuent d'être chargés avec `require()`, tandis que les modules non instrumentés sont intégrés dans le bundle. Cependant, cela aboutit à une build contenant de nombreux fichiers superflus et compromet l'objectif du bundling. + +Datadog recommande d'utiliser des plugins de bundler personnalisés. Ces plugins peuvent indiquer au bundler comment se comporter, injecter du code intermédiaire et intercepter les appels `require()` « translated ». En conséquence, davantage de paquets sont inclus dans le fichier JavaScript bundle. + +**Remarque** : Certaines applications peuvent avoir 100 % des modules bundled, cependant, les modules natifs doivent rester externes au bundle. + +#### Bundling avec esbuild {#bundling-with-esbuild} + +Cette bibliothèque fournit un support expérimental pour esbuild sous la forme d'un plugin esbuild, et nécessite au moins Node.js v16.17 ou v18.7. Pour utiliser le plugin, assurez-vous d'avoir `dd-trace@3+` installé, puis requérez le module `dd-trace/esbuild` lors de la construction de votre bundle. + +Voici un exemple de la façon dont on pourrait utiliser `dd-trace` avec esbuild : + +```javascript +const ddPlugin = require('dd-trace/esbuild') +const esbuild = require('esbuild') + +esbuild.build({ + entryPoints: ['app.js'], + bundle: true, + outfile: 'out.js', + plugins: [ddPlugin], + platform: 'node', // allows built-in modules to be required + target: ['node16'], + external: [ + // required if you use native metrics + '@datadog/native-metrics', + + // required if you use profiling + '@datadog/pprof', + + // required if you use Datadog security features + '@datadog/native-appsec', + '@datadog/native-iast-taint-tracking', + '@datadog/native-iast-rewriter', + ] +}).catch((err) => { + console.error(err) + process.exit(1) +}) +``` + +#### Bundling avec Next.js {#bundling-with-nextjs} + +Si vous utilisez Next.js ou un autre framework reposant sur webpack pour bundler votre application, ajoutez une déclaration +similaire à celle pour webpack dans votre fichier de configuration `next.config.js` : + +```javascript +/** @type {import('next').NextConfig} */ +const nextConfig = { + // ... non-relevant parts omitted, substitute your own config ... + + // this custom webpack config is required for Datadog tracing to work + webpack: ( + config, + { buildId, dev, isServer, defaultLoaders, nextRuntime, webpack } + ) => { + const externals = [ + // required if you use native metrics + '@datadog/native-metrics', + + // required if you use profiling + '@datadog/pprof', + + // required if you use Datadog security features + '@datadog/native-appsec', + '@datadog/native-iast-taint-tracking', + '@datadog/native-iast-rewriter', + ]; + config.externals.push(...externals); + return config; + }, +}; + +export default nextConfig; +``` + +#### Fonctionnalités non prises en charge par Datadog {#unsupported-datadog-features} + +Les fonctionnalités suivantes sont désactivées par défaut dans le traceur Node.js. Elles ne supportent pas le bundling et ne peuvent pas être utilisées si votre application est bundled. + +- APM : Dynamic Instrumentation (instrumentation dynamique) + +#### Remarques générales sur le bundling {#general-bundling-remarks} + +**Remarque** : En raison de l'utilisation de modules natifs dans le SDK, qui sont du code C++ compilé, (se terminant généralement par une extension de fichier `.node`), vous devez ajouter des entrées à votre liste `external`. Actuellement, les modules natifs utilisés dans le traceur Node.js se trouvent dans des paquets préfixés par `@datadog`. Cela nécessitera également que vous expédiez un répertoire `node_modules/` aux côtés de votre application bundled. Vous n'avez pas besoin d'expédier l'intégralité de votre répertoire `node_modules/` car il contiendrait de nombreux paquets superflus qui devraient être contenus dans votre bundle. + +Pour générer un répertoire `node_modules/` plus petit avec uniquement les modules natifs requis, (et leurs dépendances), vous pouvez d'abord déterminer les versions des paquets dont vous avez besoin, puis créer un répertoire temporaire pour les installer, et copier le répertoire `node_modules/` résultant à partir de celui-ci. Exemple : + +```sh +cd path/to/project +npm ls @datadog/native-metrics +# dd-trace@5.4.3-pre ./dd-trace-js +# └── @datadog/native-metrics@2.0.0 +$ npm ls @datadog/pprof +# dd-trace@5.4.3-pre ./dd-trace-js +# └── @datadog/pprof@5.0.0 +mkdir temp && cd temp +npm init -y +npm install @datadog/native-metrics@2.0.0 @datadog/pprof@5.0.0 +cp -R ./node_modules path/to/bundle +``` + +**Remarque** : Dans le cas de Next.js, le `path/to/bundle` est généralement le répertoire `.next/standalone` de votre application. + +À ce stade, vous devriez être en mesure de déployer votre bundle, (qui est votre code d'application et la plupart de vos dépendances), avec le répertoire `node_modules/`, qui contient les modules natifs et leurs dépendances. + +## Configuration {#configuration} + +Si nécessaire, configurez le SDK pour envoyer les données de télémétrie de performance de l'application comme vous le souhaitez, y compris la configuration du Unified Service Tagging. Lisez [Configuration de la Bibliothèque][4] pour plus de détails. + +Consultez les [paramètres du traceur][3] pour obtenir la liste des options d'initialisation. + +## Lectures Complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/tracing/compatibility_requirements/nodejs +[2]: https://app.datadoghq.com/apm/service-setup +[3]: https://datadog.github.io/dd-trace-js/#tracer-settings +[4]: /fr/tracing/trace_collection/library_config/nodejs/ +[5]: https://github.com/DataDog/dd-trace-js/blob/master/MIGRATING.md +[6]: /fr/tracing/trace_collection/compatibility/nodejs/#complex-framework-usage +[11]: /fr/tracing/trace_collection/library_injection_local/ +[13]: /fr/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent +[14]: /fr/tracing/trace_collection/custom_instrumentation/server-side/?api_type=dd_api&prog_lang=node_js \ No newline at end of file diff --git a/content/fr/tracing/trace_collection/single-step-apm/kubernetes.md b/content/fr/tracing/trace_collection/single-step-apm/kubernetes.md new file mode 100644 index 00000000000..1df0e016f06 --- /dev/null +++ b/content/fr/tracing/trace_collection/single-step-apm/kubernetes.md @@ -0,0 +1,896 @@ +--- +aliases: +- /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/kubernetes +code_lang: kubernetes +code_lang_weight: 20 +further_reading: +- link: /tracing/metrics/runtime_metrics/ + tag: Documentation + text: Activer les métriques d'exécution +- link: /tracing/guide/init_resource_calc/ + tag: Documentation + text: En savoir plus sur l'utilisation des ressources des conteneurs init +- link: /tracing/guide/local_sdk_injection + tag: Documentation + text: Instrumentez vos applications en utilisant l'injection du SDK local +- link: https://learn.datadoghq.com/courses/configuring-ssi-k8s + tag: Centre d'apprentissage + text: Configurer l'instrumentation à étape unique sur Kubernetes +title: Instrumentation APM à étape unique sur Kubernetes +type: multi-code-lang +--- +## Aperçu {#overview} + +Dans un environnement Kubernetes, utilisez l'instrumentation à étape unique (SSI) pour APM afin d'installer l'Agent Datadog et [instrumenter][3] vos applications avec les SDK Datadog en une seule étape. + +## Exigences {#requirements} + +- Kubernetes v1.20+. +- [`Helm`][1] pour déployer l'Opérateur Datadog. +- [`Kubectl` CLI][2] pour installer l'Agent Datadog. +- Compatibilité de l'environnement confirmée selon le [guide de compatibilité de l'instrumentation à étape unique][36]. + + +## Activer APM sur vos applications {#enable-apm-on-your-applications} + +
    L'instrumentation à étape unique n'instrumente pas les applications dans l'espace de noms où l'Agent Datadog est installé. Installez l'Agent dans un espace de noms séparé où vous n'exécutez pas vos applications.
    + +Suivez ces étapes pour activer l'instrumentation à étape unique sur l'ensemble de votre cluster. Cela envoie automatiquement des traces de toutes les applications écrites dans des langages pris en charge. + +**Remarque :** Pour instrumenter uniquement des espaces de noms ou des pods spécifiques, consultez le ciblage de workload dans [Options avancées](#advanced-options). + +1. Dans Datadog, allez à la page [Installer l'Agent Datadog sur Kubernetes][11]. +1. Suivez les instructions à l'écran pour choisir votre méthode d'installation, sélectionner une clé API et configurer l'Opérateur ou le dépôt Helm. +1. Dans la section **Configurer `datadog-agent.yaml`**, allez à **Configuration supplémentaire** > **Observabilité de l'application**, et activez **Instrumentation APM**. + + {{< img src="tracing/trace_collection/k8s-apm-instrumentation-toggle.jpg" alt="Le bloc de configuration pour installer l'Agent Datadog sur Kubernetes via l'application Datadog." style="width:100%;" >}} + +1. Déployez l'Agent en utilisant le fichier de configuration généré. +1. Redémarrez vos applications. + +
    SSI ajoute un petit temps de démarrage aux applications instrumentées. Si ce surcoût n'est pas acceptable pour votre cas d'utilisation, contactez le support Datadog.
    + +## Configurez les balises de service unifiées {#configure-unified-service-tags} + +Les balises de service unifiées (UST) appliquent des balises cohérentes à travers les traces, les métriques et les journaux, facilitant la navigation et la corrélation de vos données d'observabilité. Vous pouvez configurer les UST via l'extraction automatique d'étiquettes (recommandé), par configuration explicite avec `ddTraceConfigs`, ou dans les manifestes de déploiement. + +
    +Si vous utilisez la configuration distante, l'extraction automatique d'étiquettes n'est pas compatible. Vous devez configurer les UST explicitement en utilisant ddTraceConfigs. +
    + +### (Recommandé) Configurez les UST via l'extraction automatique d'étiquettes {#recommended-configure-usts-through-automatic-label-extraction}. + +Avec SSI, vous pouvez extraire automatiquement les valeurs UST des étiquettes et des métadonnées des pods sans modifier les déploiements individuels. Pour ce faire, configurez `kubernetesResourcesLabelsAsTags` pour mapper vos étiquettes Kubernetes existantes aux balises de service Datadog. + +**Remarque :** Cette méthode n'est pas compatible avec la configuration distante. Si vous utilisez la configuration distante, consultez [Configurer les UST explicitement avec ddTraceConfigs](#configure-usts-explicitly-with-ddtraceconfigs). + +#### Prérequis {#prerequisites} + +| Composant | Version minimale | +|-----------|------------------| +| `datadog-agent` | 7.69 | +| `datadog-operator` | 1.16.0 | +| `datadog-helm-chart` | 3.120.0 | + +#### Configuration {#configuration} + +Remplacez `app.kubernetes.io/name` dans l'exemple suivant par toute étiquette contenant le nom de votre service (par exemple, `service.kubernetes.io/name` ou `component`). Vous pouvez configurer plusieurs étiquettes de cette manière. + +```yaml +datadog: + # Automatically extract service names from Kubernetes labels + kubernetesResourcesLabelsAsTags: + pods: + app.kubernetes.io/name: service # Modern Kubernetes label + deployments.apps: + app.kubernetes.io/name: service + replicasets.apps: + app.kubernetes.io/name: service + + # Set environment globally for the entire cluster + tags: + - "env:production" + + apm: + instrumentation: + enabled: true +``` + +Avec cette configuration, Datadog définit automatiquement la balise `service` en utilisant la valeur de l'étiquette `app.kubernetes.io/name` pour toute charge de travail instrumentée qui inclut cette étiquette. + +### Configurez les UST explicitement avec ddTraceConfigs {#configure-usts-explicitly-with-ddtraceconfigs} + +Dans la plupart des cas, la configuration automatique est suffisante. Cependant, si vous avez besoin d'un contrôle granulaire sur les paramètres pour des charges de travail spécifiques, utilisez `ddTraceConfigs` pour mapper explicitement les étiquettes aux configurations de service : + +```yaml +datadog: + kubernetesResourcesLabelsAsTags: + pods: + app.kubernetes.io/name: service + deployments.apps: + app.kubernetes.io/name: service + + # Set environment globally for the entire cluster + tags: + - "env:production" + + apm: + instrumentation: + enabled: true + targets: + - name: frontend-services + podSelector: + matchLabels: + tier: frontend + ddTraceConfigs: + - name: DD_SERVICE # Explicitly override service name + valueFrom: + fieldRef: + fieldPath: metadata.labels['app.kubernetes.io/name'] + # DD_ENV inherited from cluster-level tags above + # DD_VERSION automatically extracted from image tags +``` + + +### Configurez les UST dans les manifests de déploiement {#configure-usts-in-deployment-manifests} + +Si votre configuration n'utilise pas d'étiquettes adaptées à l'extraction des UST, vous pouvez définir les UST directement dans vos manifestes de déploiement en utilisant des variables d'environnement. Cette approche nécessite de modifier chaque déploiement individuellement, mais offre un contrôle précis. + +Pour des instructions complètes, voir [configuration des UST pour les services Kubernetes][5]. + +## Activez les produits et fonctionnalités dépendants du SDK {#enable-sdk-dependent-products-and-features} + +Après que SSI a chargé le SDK Datadog dans vos applications et activé le traçage distribué, vous pouvez configurer des produits supplémentaires qui dépendent du SDK : + +{{< ssi-products >}} + +Utilisez l'une des méthodes de configuration suivantes : + +- **[Configurer avec ciblage de workload (recommandé)](#target-specific-workloads)** : + + Par défaut, l'instrumentation par étape unique instrumente tous les services dans tous les espaces de noms. Utilisez le ciblage de workload pour limiter l'instrumentation à des espaces de noms, pods ou charges de travail spécifiques, et appliquez des configurations personnalisées. + +- **[Définir des variables d'environnement][7]** : + + Activez les produits en définissant des variables d'environnement directement dans la configuration de votre application. + +## Options avancées {#advanced-options} + +Utilisez les options avancées suivantes pour personnaliser le comportement de l'instrumentation à étape unique dans votre environnement. Ces paramètres sont optionnels et généralement nécessaires uniquement dans des configurations spécialisées. + +### Configurer les modes d'injection {#configure-injection-modes} + +SSI prend en charge plusieurs modes d'injection, qui contrôlent la manière dont les fichiers de l'injecteur et de la bibliothèque APM sont livrés à vos conteneurs d'application. Vous n'avez généralement pas besoin de configurer ce paramètre manuellement. Envisagez de l'ajuster si vous remarquez des retards de démarrage de pod significatifs ou une utilisation des ressources (CPU, mémoire) plus élevée que prévu lors de l'initialisation du pod. Pour en savoir plus sur le fonctionnement de l'injecteur, consultez [Comportement de l'injecteur avec l'instrumentation à étape unique][41]. + + +| Mode | Description | Exigences | +|------|-------------|--------------| +| `init_container` | Utilise des conteneurs d'initialisation pour copier les fichiers de l'injecteur et de la bibliothèque APM dans les conteneurs d'application. | Agent déployé avec Helm Chart ou Datadog Operator | +| `csi` | **En prévisualisation.** Monte les fichiers de l'injecteur et de la bibliothèque APM en utilisant le [driver CSI Datadog][37]. Réduit le temps de démarrage du pod par rapport au mode conteneur d'initialisation. | Agent 7.76.0+, driver CSI 1.2.0+, Helm Chart 3.178.1+ ou Datadog Operator 1.25.0+ | + +Avant d'utiliser le mode `csi`, installez et activez le driver CSI Datadog. Si vous déployez avec Helm, définissez également `datadog.csi.enabled: true` dans votre `datadog-values.yaml`. Consultez la [documentation du driver CSI][37] pour les étapes d'installation et les exigences spécifiques à l'environnement, telles que GKE Autopilot. + +#### Configurer le mode d'injection globalement {#configure-injection-mode-globally} + +{{< tabs >}} +{{% tab "Helm" %}} + +Pour définir le mode d'injection à l'échelle du cluster, ajoutez `injectionMode` à votre `datadog-values.yaml`: + +```yaml +datadog: + apm: + instrumentation: + injectionMode: +``` + +Valeurs prises en charge : `init_container`, `csi`. + +{{% /tab %}} +{{% tab "Operator Datadog" %}} + +Pour définir le mode d'injection à l'échelle du cluster, ajoutez `injectionMode` à votre `datadog-agent.yaml`: + +```yaml +features: + apm: + instrumentation: + injectionMode: +``` + +Valeurs prises en charge : `init_container`, `csi`. + +Si vous utilisez Datadog Operator antérieur à 1.25.0, utilisez l'annotation [pod](#configure-injection-mode-per-pod) pour remplacer le mode d'injection pour des pods spécifiques. + +{{% /tab %}} +{{< /tabs >}} + +#### Configurer le mode d'injection par pod {#configure-injection-mode-per-pod} + +Pour remplacer le mode d'injection pour un pod spécifique, ajoutez l'annotation suivante à la spécification du pod : + +```yaml +metadata: + annotations: + admission.datadoghq.com/apm-inject.injection-mode: "" +``` + +Valeurs prises en charge : `init_container`, `csi`. + +### Cibler des charges de travail spécifiques {#target-specific-workloads} + +Par défaut, SSI instrumente tous les services dans tous les espaces de noms de votre cluster. Selon la version de votre Agent, utilisez l'une des méthodes de configuration suivantes pour affiner quels services sont instrumentés et comment. + +{{< tabs >}} + +{{% tab "Agent v7.64+ (Recommandé)" %}} + +Créez des blocs de ciblage avec l'étiquette `targets` pour spécifier quelles charges de travail instrumenter et quelles configurations appliquer. + +Chaque bloc cible a les clés suivantes : + +| Clé | Description | +|------------------|-------------| +| `name` | Le nom du bloc cible. Cela n'a aucun effet sur l'état de surveillance et est utilisé uniquement comme métadonnées. | +| `namespaceSelector` | Les espaces de noms à instrumenter. Spécifiez en utilisant un ou plusieurs de :
    - `matchNames` : Une liste d'un ou plusieurs noms d'espace de noms.
    - `matchLabels` : Une liste d'une ou plusieurs étiquettes définies dans `{key,value}` paires.
    - `matchExpressions` : Une liste d'exigences de sélection d'espace de noms.

    Les espaces de noms doivent répondre à tous les critères pour correspondre. Pour plus de détails, consultez la [documentation sur les sélecteurs Kubernetes][10].| +| `podSelector` | Le(s) pod(s) à instrumenter. Spécifiez en utilisant un ou plusieurs de :
    - `matchLabels` : Une liste d'une ou plusieurs étiquettes définies dans `{key,value}` paires.
    - `matchExpressions` : Une liste d'exigences de sélection de pod.

    Les Pods doivent répondre à tous les critères pour être pris en compte. Pour plus de détails, consultez la [documentation des sélecteurs Kubernetes][10]. | +| `ddTraceVersions` | La version du [Datadog APM SDK][9] à utiliser pour chaque langage. | +| `ddTraceConfigs` | Configurations du SDK APM qui permettent de définir des [tags de service unifiés][8], activant [ des produits dépendants du SDK ](#enable-sdk-dependent-products-and-features) au-delà du traçage, et personnalisant d'autres [paramètres APM][14]. | + +Le fichier que vous devez configurer dépend de la manière dont vous avez activé l'instrumentation par étape unique : +- Si vous avez activé SSI avec Datadog Operator, modifiez `datadog-agent.yaml`. +- Si vous avez activé SSI avec Helm, modifiez `datadog-values.yaml`. + +**Remarque** : Les cibles sont évaluées dans l'ordre ; la première correspondance a la priorité. + +#### Configurations d'exemple {#example-configurations} + +Examinez les exemples suivants démontrant comment sélectionner des services spécifiques : + +{{< collapse-content title="Exemple 1 : Activer tous les espaces de noms sauf un" level="h4" >}} + +Cette configuration : +- active l'APM pour tous les espaces de noms sauf le `jenkins` espace de noms. + - **Remarque** : utilisez `enabledNamespaces` pour désactiver pour tous les espaces de noms sauf ceux listés. +- demande à Datadog d'instrumenter les applications Java avec le SDK Java par défaut et les applications Python avec `v.3.1.0` du SDK Python. + +{{< highlight yaml "hl_lines=4-10" >}} + apm: + instrumentation: + enabled: true + disabledNamespaces: + - "jenkins" + targets: + - name: "all-remaining-services" + ddTraceVersions: + java: "default" + python: "3.1.0" +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Exemple 2 : Instrumenter un sous-ensemble d'espaces de noms, en fonction des noms et des étiquettes" level="h4" >}} + +Cette configuration crée deux blocs de cibles : + +- Le premier bloc (nommé `login-service_namespace`) : + - active l'APM pour les services dans l'espace de noms `login-service`. + - demande à Datadog d'instrumenter les services dans cet espace de noms avec la version par défaut du SDK Java. + - définit la variable d'environnement `DD_PROFILING_ENABLED` pour ce groupe cible. +- Le deuxième bloc (nommé `billing-service_apps`) + - active APM pour les services dans le(s) espace(s) de noms avec l'étiquette `app:billing-service`. + - demande à Datadog d'instrumenter cet ensemble de services avec `v3.1.0` du SDK Python. + +{{< highlight yaml "hl_lines=4-28" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "login-service_namespace" + namespaceSelector: + matchNames: + - "login-service" + ddTraceVersions: + java: "default" + ddTraceConfigs: + - name: "DD_PROFILING_ENABLED" ## profiling is enabled for all services in this namespace + value: "auto" + - name: "billing-service_apps" + namespaceSelector: + matchLabels: + app: "billing-service" + ddTraceVersions: + python: "3.1.0" +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Exemple 3 : Instrumenter différentes charges de travail avec différents traceurs" level="h4" >}} + +Cette configuration effectue les actions suivantes : +- active APM pour les pods avec les étiquettes suivantes : + - `app:db-user`, qui marque les pods exécutant l'application `db-user`. + - `webserver:routing`, qui marque les pods exécutant l'application `request-router`. +- demande à Datadog d'utiliser les versions par défaut des Datadog Tracer SDKs. +- définit les variables d'environnement Datadog à appliquer à chaque groupe cible et configure les SDKs. + +{{< highlight yaml "hl_lines=4-28" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "db-user" + podSelector: + matchLabels: + app: "db-user" + ddTraceVersions: + java: "default" + ddTraceConfigs: ## trace configs set for services in matching pods + - name: "DD_DATA_STREAMS_ENABLED" + value: "true" + - name: "user-request-router" + podSelector: + matchLabels: + webserver: "user" + ddTraceVersions: + php: "default" +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Exemple 4 : Instrumenter un pod dans un espace de noms" level="h4" >}} + +Cette configuration : +- active l'APM pour les pods étiquetés `app:password-resolver` à l'intérieur de l'espace de noms `login-service`. +- demande à Datadog d'utiliser la version par défaut du SDK Datadog Java Tracer. +- définit les variables d'environnement Datadog à appliquer à cette cible. + +{{< highlight yaml "hl_lines=4-28" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "login-service-namespace" + namespaceSelector: + matchNames: + - "login-service" + podSelector: + matchLabels: + app: "password-resolver" + ddTraceVersions: + java: "default" + ddTraceConfigs: + - name: "DD_PROFILING_ENABLED" + value: "auto" +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Exemple 5 : Instrumenter un sous-ensemble de pods en utilisant matchExpressions" level="h4" >}} + +Cette configuration active APM pour tous les pods sauf ceux qui ont l'une des étiquettes `app=app1` ou `app=app2`. + +{{< highlight yaml "hl_lines=4-28" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "default-target" + podSelector: + matchExpressions: + - key: app + operator: NotIn + values: + - app1 + - app2 +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Exemple 6 : Activer des produits supplémentaires avec ddTraceConfigs" level="h4" >}} + +Cette configuration active [App and API Protection (AAP)][12] et [Continuous Profiler][11] pour les services dans l'espace de noms `web-apps`, en utilisant `ddTraceConfigs` pour définir les variables d'environnement requises : + +{{< highlight yaml "hl_lines=4-20" >}} + apm: + instrumentation: + enabled: true + targets: + - name: "web-apps-with-security" + namespaceSelector: + matchNames: + - "web-apps" + ddTraceVersions: + java: "default" + python: "default" + ddTraceConfigs: + - name: "DD_APPSEC_ENABLED" + value: "true" + - name: "DD_PROFILING_ENABLED" + value: "auto" +{{< /highlight >}} + +Pour une liste complète des produits que vous pouvez activer via SSI, voir [Activer des produits et fonctionnalités dépendants du SDK](#enable-sdk-dependent-products-and-features). + +{{< /collapse-content >}} + +[8]: /fr/getting_started/tagging/unified_service_tagging/?tab=kubernetes +[9]: /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/compatibility/#tracer-libraries +[10]: https://kubernetes.io/docs/concepts/overview/working-with-objects/labels/#resources-that-support-set-based-requirements +[11]: /fr/profiler/ +[12]: /fr/security/application_security/ +[14]: /fr/tracing/trace_collection/library_config/ + +{{% /tab %}} + +{{% tab "Agent <=v7.63 (Legacy)" %}} + +#### Activer ou désactiver l'instrumentation pour les espaces de noms {#enable-or-disable-instrumentation-for-namespaces} + +Vous pouvez choisir d'activer ou de désactiver l'instrumentation pour les applications dans des espaces de noms spécifiques. Vous ne pouvez définir que enabledNamespaces ou disabledNamespaces, pas les deux. + +Le fichier que vous devez configurer dépend de si vous avez activé l'instrumentation par étape unique avec Datadog Operator ou Helm : + +{{< collapse-content title="Operator Datadog" level="h5" >}} + +Pour activer l'instrumentation pour des espaces de noms spécifiques, ajoutez la configuration `enabledNamespaces` à `datadog-agent.yaml` : + +{{< highlight yaml "hl_lines=5-7" >}} + features: + apm: + instrumentation: + enabled: true + enabledNamespaces: # Add namespaces to instrument + - default + - applications +{{< /highlight >}} + +Pour désactiver l'instrumentation pour des espaces de noms spécifiques, ajoutez la configuration `disabledNamespaces` à `datadog-agent.yaml` : + +{{< highlight yaml "hl_lines=5-7" >}} + features: + apm: + instrumentation: + enabled: true + disabledNamespaces: # Add namespaces to not instrument + - default + - applications +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Helm" level="h5" >}} + +Pour activer l'instrumentation pour des espaces de noms spécifiques, ajoutez la configuration `enabledNamespaces` à `datadog-values.yaml` : + +{{< highlight yaml "hl_lines=5-7" >}} + datadog: + apm: + instrumentation: + enabled: true + enabledNamespaces: # Add namespaces to instrument + - namespace_1 + - namespace_2 +{{< /highlight >}} + +Pour désactiver l'instrumentation pour des espaces de noms spécifiques, ajoutez la configuration `disabledNamespaces` à `datadog-values.yaml` : + +{{< highlight yaml "hl_lines=5-7" >}} + datadog: + apm: + instrumentation: + enabled: true + disabledNamespaces: # Add namespaces to not instrument + - namespace_1 + - namespace_2 +{{< /highlight >}} + +{{< /collapse-content >}} + +#### Spécifiez les versions SDK {#specify-sdk-versions} + +
    À partir de Datadog Cluster Agent v7.52.0+, vous pouvez instrumenter automatiquement un sous-ensemble de vos applications, en fonction des SDK que vous spécifiez.
    + +Spécifiez les SDK Datadog et leurs versions pour instrumenter automatiquement les applications écrites dans ces langages. Vous pouvez configurer cela de deux manières, qui sont appliquées dans l'ordre de priorité suivant : + +1. [ Spécifiez au niveau du service ](#specify-at-the-service-level), ou +2. [ Spécifiez au niveau du cluster ](#specify-at-the-cluster-level). + +**Par défaut** : Si vous ne spécifiez aucune version de bibliothèque, les applications écrites dans des langages pris en charge sont automatiquement instrumentées en utilisant les dernières versions SDK. + +##### Spécifiez au niveau du service {#specify-at-the-service-level} + +Pour instrumenter automatiquement des applications dans des pods spécifiques, ajoutez l'annotation de langage appropriée et la version de bibliothèque pour votre application dans votre spécification de pod : + +| Langage | Annotation de pod | +|------------|-----------------------------------------------------------------------| +| Java | `admission.datadoghq.com/java-lib.version: ""` | +| Node.js | `admission.datadoghq.com/js-lib.version: ""` | +| Python | `admission.datadoghq.com/python-lib.version: ""` | +| .NET | `admission.datadoghq.com/dotnet-lib.version: ""` | +| Ruby | `admission.datadoghq.com/ruby-lib.version: ""` | +| PHP | `admission.datadoghq.com/php-lib.version: ""` | + +Remplacez `` par la version de bibliothèque souhaitée. Les versions disponibles sont listées dans les [registres de conteneurs Datadog](#change-the-default-image-registry) et les dépôts de code source des traceurs pour chaque langage : + +- [Java][34] +- [Node.js][35] +- [Python][36] +- [.NET][37] +- [Ruby][38] +- [PHP][39] + +
    Faites preuve de prudence lors de l'utilisation de la latest balise, car les versions majeures des bibliothèques peuvent introduire des changements incompatibles.
    + +Par exemple, pour instrumenter automatiquement les applications Java : + +{{< highlight yaml "hl_lines=10" >}} +apiVersion: apps/v1 +kind: Deployment +metadata: + labels: + # ... +spec: + template: + metadata: + annotations: + admission.datadoghq.com/java-lib.version: "" + spec: + containers: + - # ... +{{< /highlight >}} + +##### Spécifiez au niveau du cluster {#specify-at-the-cluster-level} + +Si vous n'activez pas l'instrumentation automatique pour des pods spécifiques à l'aide d'annotations, vous pouvez spécifier les langages à instrumenter dans l'ensemble du cluster en utilisant la configuration SSI. Lorsque `apm.instrumentation.libVersions` est défini, seules les applications écrites dans les langages spécifiés sont instrumentées, en utilisant les versions de bibliothèque spécifiées. + +Le fichier que vous devez configurer dépend de si vous avez activé l'instrumentation par étape unique avec Datadog Operator ou Helm : + +{{< collapse-content title="Operator Datadog" level="h5" >}} + +Par exemple, pour instrumenter les applications .NET, Python et Node.js, ajoutez la configuration suivante à votre `datadog-agent.yaml` fichier : + +{{< highlight yaml "hl_lines=5-8" >}} + features: + apm: + instrumentation: + enabled: true + libVersions: # Add any libraries and versions you want to set + dotnet: "x.x.x" + python: "x.x.x" + js: "x.x.x" +{{< /highlight >}} + +{{< /collapse-content >}} + +{{< collapse-content title="Helm" level="h5" >}} + +Par exemple, pour instrumenter les applications .NET, Python et Node.js, ajoutez la configuration suivante à votre `datadog-values.yaml` fichier : + +{{< highlight yaml "hl_lines=5-8" >}} + datadog: + apm: + instrumentation: + enabled: true + libVersions: # Add any libraries and versions you want to set + dotnet: "x.x.x" + python: "x.x.x" + js: "x.x.x" +{{< /highlight >}} + +{{< /collapse-content >}} + + +[34]: https://github.com/DataDog/dd-trace-java/releases +[35]: https://github.com/DataDog/dd-trace-js/releases +[36]: https://github.com/DataDog/dd-trace-py/releases +[37]: https://github.com/DataDog/dd-trace-dotnet/releases +[38]: https://github.com/DataDog/dd-trace-rb/releases +[39]: https://github.com/DataDog/dd-trace-php/releases + + +{{% /tab %}} +{{< /tabs >}} + +### Changez le registre d'images par défaut {#change-the-default-image-registry} + +Datadog publie des images de bibliothèques d'instrumentation sur gcr.io, Docker Hub et Amazon ECR : + +| Langage | gcr.io | hub.docker.com | gallery.ecr.aws | +|------------|-------------------------------------|---------------------------------------------|-------------------------------------------| +| Java | [gcr.io/datadoghq/dd-lib-java-init][15] | [hub.docker.com/r/datadog/dd-lib-java-init][16] | [gallery.ecr.aws/datadog/dd-lib-java-init][17] | +| Node.js | [gcr.io/datadoghq/dd-lib-js-init][18] | [hub.docker.com/r/datadog/dd-lib-js-init][19] | [gallery.ecr.aws/datadog/dd-lib-js-init][20] | +| Python | [gcr.io/datadoghq/dd-lib-python-init][21] | [hub.docker.com/r/datadog/dd-lib-python-init][22] | [gallery.ecr.aws/datadog/dd-lib-python-init][23] | +| .NET | [gcr.io/datadoghq/dd-lib-dotnet-init][24] | [hub.docker.com/r/datadog/dd-lib-dotnet-init][25] | [gallery.ecr.aws/datadog/dd-lib-dotnet-init][26] | +| Ruby | [gcr.io/datadoghq/dd-lib-ruby-init][27] | [hub.docker.com/r/datadog/dd-lib-ruby-init][28] | [gallery.ecr.aws/datadog/dd-lib-ruby-init][29] | +| PHP | [gcr.io/datadoghq/dd-lib-php-init][30] | [hub.docker.com/r/datadog/dd-lib-php-init][31] | [gallery.ecr.aws/datadog/dd-lib-php-init][32] | + +La variable d'environnement `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` dans la configuration de l'Agent de Cluster Datadog spécifie le registre utilisé par le Contrôleur d'Admission. La valeur par défaut est `gcr.io/datadoghq`. + +Vous pouvez récupérer le SDK depuis un registre différent en le changeant pour `docker.io/datadog`, `public.ecr.aws/datadog`, ou une autre URL si vous hébergez les images dans un registre de conteneurs local. + +Pour obtenir des instructions sur la modification de votre registre de conteneurs, consultez [Changer votre registre de conteneurs][33]. + +### Utilisez un registre de conteneurs privé {#use-a-private-container-registry} + +Si votre organisation n'autorise pas les récupérations directes depuis des registres publics (comme `gcr.io`, `docker.io`, ou `public.ecr.aws`), vous pouvez héberger les images Datadog requises en interne et configurer le Contrôleur d'Admission pour les utiliser. + +Pour utiliser SSI avec un registre de conteneurs privé : + +1. Suivez [ces instructions][34] pour mettre en miroir les images de conteneurs de Datadog vers votre registre privé. + + Vous n'avez besoin que des images pour les langages que vous instrumentez. Si vous n'êtes pas sûr des images dont vous avez besoin, voici une configuration de base qui couvre la plupart des cas d'utilisation : + + - `apm-inject` + - `dd-lib-java-init` + - `dd-lib-python-init` + - `dd-lib-dotnet-init` + - `dd-lib-php-init` + - `dd-lib-ruby-init` + - `dd-lib-js-init` + + Vous pouvez trouver ces images sur [gcr.io][12], [Docker Hub][13], ou [Amazon ECR Public Gallery][14]. + +2. Taguez les images selon votre configuration. + + Les versions que vous mettez en miroir doivent correspondre aux versions configurées dans vos charges de travail, lesquelles peuvent être définies de l'une des manières suivantes : + - globalement dans la configuration de l'Agent en utilisant `ddTraceVersions`, ou + - par pod en utilisant des annotations comme `admission.datadoghq.com/java-lib.version`. + + Si aucune version n'est explicitement configurée, la version par défaut (`0`) est utilisée. + + Exemple : + + ``` + apm: + instrumentation: + enabled: true + targets: + - name: "default-target" + ddTraceVersions: + java: "1" + python: "3" + ``` + + Cette configuration nécessite les balises d'image suivantes : + - `apm-inject:0` + - `dd-lib-java-init:1` + - `dd-lib-python-init:3` + +3. Mettez à jour la configuration du Cluster Agent pour utiliser votre registre privé. + + Définissez la variable d'environnement `DD_ADMISSION_CONTROLLER_AUTO_INSTRUMENTATION_CONTAINER_REGISTRY` dans la configuration du Cluster Agent pour utiliser votre registre privé. + +Pour obtenir de plus amples informations sur la modification de votre registre de conteneurs, consultez [Changer votre registre de conteneurs][33]. + +### Utilisation d'une interface de réseau de conteneurs sur EKS {#using-a-container-network-interface-on-eks} + +Lors de l'utilisation d'un CNI comme Calico, les nœuds du plan de contrôle ne peuvent pas initier de connexions réseau vers le contrôleur d'admission de Datadog et signalent une erreur "L'adresse n'est pas autorisée". +Pour utiliser l'instrumentation à étape unique, modifiez le Cluster Agent de Datadog avec le paramètre `useHostNetwork: true`. + +``` +datadog: + ... + +clusterAgent: + useHostNetwork: true + + admissionController: + ... +``` + +## Supprimez l'instrumentation APM à étape unique de votre Agent {#remove-single-step-apm-instrumentation-from-your-agent} + +Si vous ne souhaitez pas collecter de données de trace pour un service, un hôte, une VM ou un conteneur particulier, suivez les étapes suivantes : + +### Supprimez l'instrumentation pour des services spécifiques {#remove-instrumentation-for-specific-services} + +Pour supprimer l'instrumentation APM et arrêter l'envoi de traces d'un service spécifique, vous pouvez utiliser l'une des méthodes suivantes : + +#### Utilisez des règles d'instrumentation pour cibler des charges de travail spécifiques (recommandé) {#use-instrumentation-rules-to-target-specific-workloads-recommended} + +Avec les règles d'instrumentation (disponibles pour l'Agent v7.64+), vous pouvez activer et désactiver le traçage pour des applications spécifiques. [ Voir les détails de configuration ici ](#advanced-options). + +#### Utilisez le contrôleur d'admission Datadog {#use-the-datadog-admission-controller} + +À titre d'alternative, ou pour une version de l'agent qui ne prend pas en charge les règles d'instrumentation, vous pouvez également désactiver la mutation de pod en ajoutant une étiquette à votre pod. + +
    En plus de désactiver SSI, les étapes suivantes désactivent d'autres webhooks de mutation. Utilisez avec précaution.
    + +1. Définissez l'étiquette `admission.datadoghq.com/enabled:` sur `"false"` pour la spécification du pod : + ```yaml + spec: + template: + metadata: + labels: + admission.datadoghq.com/enabled: "false" + ``` +2. Appliquez la configuration : + ```shell + kubectl apply -f /path/to/your/deployment.yaml + ``` +3. Redémarrez les services pour lesquels vous souhaitez supprimer l'instrumentation. + +### Supprimez APM pour tous les services sur l'infrastructure {#remove-apm-for-all-services-on-the-infrastructure} + +Pour arrêter la production de traces, désinstallez APM et redémarrez l'infrastructure : + +Le fichier à configurer dépend de la méthode utilisée pour activer l'instrumentation à étape unique avec Datadog Operator ou Helm : + +{{< tabs >}} +{{% tab "Operator Datadog" %}} + +1. Définissez `instrumentation.enabled=false` dans `datadog-agent.yaml` : + ```yaml + features: + apm: + instrumentation: + enabled: false + ``` + +2. Déployez l'Agent Datadog avec le fichier de configuration mis à jour : + ```shell + kubectl apply -f /path/to/your/datadog-agent.yaml + ``` +{{% /tab %}} + +{{% tab "Helm" %}} + +1. Définissez `instrumentation.enabled=false` dans `datadog-values.yaml` : + ```yaml + datadog: + apm: + instrumentation: + enabled: false + ``` + +2. Exécutez la commande suivante : + ```shell + helm upgrade datadog-agent -f datadog-values.yaml datadog/datadog + ``` +{{% /tab %}} +{{< /tabs >}} + +## Meilleures pratiques {#best-practices} + +Après avoir activé SSI, tous les processus pris en charge dans le cluster sont automatiquement instrumentés et commencent à produire des traces en quelques minutes. + +Pour contrôler où APM est activé et réduire la surcharge, envisagez les meilleures pratiques suivantes. + +{{% collapse-content title="Utilisez des étiquettes d'opt-in pour un déploiement contrôlé d'APM" level="h3" expanded=false id="id-for-anchoring" %}} + +#### Instrumentation par défaut vs. opt-in {#default-vs-opt-in-instrumentation} +| Mode | Comportement | Quand utiliser | +| --- | ----------- | ----------- | +| Par défaut | Tous les processus pris en charge dans le cluster sont instrumentés. | Petits clusters ou prototypes. | +| Opt-in | Utilisez [règles d'instrumentation][4] pour restreindre l'instrumentation à des espaces de noms ou des pods spécifiques. | Clusters de production, déploiements progressifs ou cas d'utilisation sensibles aux coûts. | + +#### Exemple : Activez l'instrumentation pour des pods spécifiques {#example-enable-instrumentation-for-specific-pods} + +1. Ajoutez une étiquette significative (par exemple, `datadoghq.com/apm-instrumentation: "enabled"`) aux métadonnées de déploiement et au modèle de pod. + + ``` + apiVersion: apps/v1 + kind: Deployment + metadata: + name: checkout-api + labels: + app: checkout-api + datadoghq.com/apm-instrumentation: "enabled" # opt-in label (cluster-wide) + spec: + replicas: 3 + selector: + matchLabels: + app: checkout-api + template: + metadata: + labels: + app: checkout-api + datadoghq.com/apm-instrumentation: "enabled" # opt-in label must be on *template*, too + # Unified Service Tags (recommended) + tags.datadoghq.com/service: "checkout-api" + tags.datadoghq.com/env: "prod" + tags.datadoghq.com/version: "2025-06-10" + spec: + containers: + - name: api + image: my-registry/checkout:latest + ports: + - containerPort: 8080 + ``` + +2. Dans votre configuration Helm de l'Agent Datadog, activez SSI et utilisez `podSelector` pour injecter uniquement dans les pods avec l'étiquette d'opt-in correspondante. + + ``` + apm: + instrumentation: + enabled: true + targets: + - name: apm-instrumented + podSelector: + matchLabels: + datadoghq.com/apm-instrumentation: "enabled" + ``` + +Voir les [règles d'instrumentation][4] pour des exemples supplémentaires. + +{{% /collapse-content %}} + + +{{% collapse-content title="Contrôlez quels SDK Datadog sont chargés." level="h3" expanded=false id="id-for-anchoring" %}} + +Utilisez `ddTraceVersions` dans la configuration Helm de votre Agent pour contrôler à la fois la langue et la version du SDK Datadog. Cela empêche le téléchargement de SDK inutiles, ce qui minimise l'empreinte du conteneur d'initialisation, réduit la taille de l'image et permet des mises à niveau de traceur plus délibérées (par exemple, pour répondre aux exigences de conformité ou simplifier le débogage). + +#### Exemple : Spécifiez un SDK Java pour un espace de noms {#example-specify-a-java-sdk-for-a-namespace}. + +Seules les applications Java s'exécutent dans l'espace de noms `login-service`. Pour éviter de télécharger d'autres SDK, configurez l'Agent pour cibler cet espace de noms et injecter uniquement la version 1.48.2 du SDK Java. + + +``` +targets: + - name: login-service + namespaceSelector: + matchNames: ["login-service"] + ddTraceVersions: + java: "1.48.2" # pin version +``` + +#### Configuration par défaut {#default-configuration} + +Si un pod ne correspond à aucune règle `ddTraceVersions`, la cible par défaut s'applique. + +``` +targets: + - name: default-target # tag any pod *without* an override + ddTraceVersions: + java: "1" # stay on latest v1.x + python: "3" # stay on latest v3.x + js: "5" # NodeJS + php: "1" + dotnet: "3" +``` + +{{% /collapse-content %}} + +## Dépannage {#troubleshooting} + +Si vous rencontrez des problèmes pour activer APM avec SSI, consultez le [guide de dépannage SSI][35]. + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://v3.helm.sh/docs/intro/install/ +[2]: https://kubernetes.io/docs/tasks/tools/install-kubectl/ +[3]: /fr/tracing/glossary/#instrumentation +[4]: /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/kubernetes/?tab=agentv764recommended#configure-instrumentation-for-namespaces-and-pods +[5]: /fr/getting_started/tagging/unified_service_tagging/?tab=kubernetes#containerized-environment +[7]: /fr/tracing/trace_collection/library_config/ +[11]: https://app.datadoghq.com/fleet/install-agent/latest?platform=kubernetes +[12]: https://gcr.io/datadoghq +[13]: https://hub.docker.com/u/datadog +[14]: https://gallery.ecr.aws/datadog +[15]: http://gcr.io/datadoghq/dd-lib-java-init +[16]: http://hub.docker.com/r/datadog/dd-lib-java-init +[17]: http://gallery.ecr.aws/datadog/dd-lib-java-init +[18]: http://gcr.io/datadoghq/dd-lib-js-init +[19]: http://hub.docker.com/r/datadog/dd-lib-js-init +[20]: http://gallery.ecr.aws/datadog/dd-lib-js-init +[21]: http://gcr.io/datadoghq/dd-lib-python-init +[22]: http://hub.docker.com/r/datadog/dd-lib-python-init +[23]: http://gallery.ecr.aws/datadog/dd-lib-python-init +[24]: http://gcr.io/datadoghq/dd-lib-dotnet-init +[25]: http://hub.docker.com/r/datadog/dd-lib-dotnet-init +[26]: http://gallery.ecr.aws/datadog/dd-lib-dotnet-init +[27]: http://gcr.io/datadoghq/dd-lib-ruby-init +[28]: http://hub.docker.com/r/datadog/dd-lib-ruby-init +[29]: http://gallery.ecr.aws/datadog/dd-lib-ruby-init +[30]: http://gcr.io/datadoghq/dd-lib-php-init +[31]: http://hub.docker.com/r/datadog/dd-lib-php-init +[32]: http://gallery.ecr.aws/datadog/dd-lib-php-init +[33]: /fr/containers/guide/changing_container_registry/ +[34]: /fr/containers/guide/sync_container_images/#copy-an-image-to-another-registry-using-crane +[35]: /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/troubleshooting +[36]: /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/compatibility/ +[37]: /fr/containers/kubernetes/csi_driver/ +[41]: /fr/tracing/guide/injectors/ \ No newline at end of file diff --git a/content/fr/tracing/trace_pipeline/ingestion_mechanisms.md b/content/fr/tracing/trace_pipeline/ingestion_mechanisms.md index cd0b5072a22..ce65141a742 100644 --- a/content/fr/tracing/trace_pipeline/ingestion_mechanisms.md +++ b/content/fr/tracing/trace_pipeline/ingestion_mechanisms.md @@ -1,96 +1,99 @@ --- aliases: - /fr/tracing/trace_ingestion/mechanisms -description: Aperçu des mécanismes dans le traceur et l'Agent qui contrôlent l'ingestion +description: Aperçu des mécanismes dans le SDK et l'Agent qui contrôlent l'ingestion des traces. further_reading: - link: /tracing/trace_pipeline/ingestion_controls/ tag: Documentation - text: Contrôles d'ingestion + text: Paramètres d'ingestion - link: /tracing/trace_pipeline/trace_retention/ tag: Documentation - text: Conservation des traces + text: Rétention des traces - link: /tracing/trace_pipeline/metrics/ tag: Documentation text: Métriques d'utilisation - link: https://www.datadoghq.com/blog/zendesk-cost-optimization/#improving-tracing-efficiency-through-targeted-changes - tag: Blog + tag: GitHub text: 'Optimisation de Datadog à grande échelle : observabilité rentable chez Zendesk' +- link: https://learn.datadoghq.com/courses/apm-rate-limit-retention + tag: Centre d'apprentissage + text: Limitation de taux APM et conservation title: Mécanismes d'ingestion --- {{< img src="tracing/apm_lifecycle/ingestion_sampling_rules.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Règles d'échantillonnage d'ingestion" >}} -Plusieurs mécanismes déterminent si les spans générés par vos applications sont envoyés à Datadog (_ingérés_). La logique derrière ces mécanismes réside dans les [bibliothèques de traçage][1] et dans l'Agent Datadog. Selon la configuration, tout ou une partie du trafic généré par les services instrumentés est ingéré. +Plusieurs mécanismes déterminent si les spans générés par vos applications sont envoyés à Datadog (_ingérés_). La logique derrière ces mécanismes se trouve dans les [SDK][1] et dans l'Agent Datadog. Selon la configuration, tout ou une partie du trafic généré par les services instrumentés est ingéré. -Chaque span ingéré se voit attribuer une **raison d'ingestion** unique, qui correspond à l'un des mécanismes décrits sur cette page. [Métriques d'utilisation][2] `datadog.estimated_usage.apm.ingested_bytes` et `datadog.estimated_usage.apm.ingested_spans` sont étiquetées par `ingestion_reason`. +Chaque span ingéré a une raison d'**ingestion** unique qui fait référence à l'un des mécanismes décrits sur cette page. Les [métriques d'utilisation][2] `datadog.estimated_usage.apm.ingested_bytes` et `datadog.estimated_usage.apm.ingested_spans` sont étiquetées par `ingestion_reason`. -Utilisez le [tableau de bord des raisons d'ingestion][3] pour enquêter dans le contexte chacune de ces raisons d'ingestion. Obtenez un aperçu du volume attribué à chaque mécanisme, pour savoir rapidement sur quelles options de configuration se concentrer. +Utilisez le [tableau de bord des raisons d'ingestion][3] pour examiner chaque raison d'ingestion dans son contexte et identifier les options de configuration sur lesquelles se concentrer. -## Échantillonnage basé sur l'en-tête +## Échantillonnage basé sur la tête {#head-based-sampling} -Le mécanisme d'échantillonnage par défaut est appelé _échantillonnage basé sur l'en-tête_. La décision de conserver ou de supprimer une trace est prise dès le début de la trace, au début du [span racine][4]. Cette décision est ensuite propagée à d'autres services dans le cadre de leur contexte de requête, par exemple sous forme d'en-tête de requête HTTP. +Le mécanisme d'échantillonnage par défaut est appelé _échantillonnage basé sur la tête_. La décision de conserver ou de supprimer une trace est prise au début du [span racine][4] et ensuite propagée à d'autres services dans le cadre de leur contexte de demande (par exemple, en tant qu'en-tête de requête HTTP). -Parce que la décision est prise au début de la trace et ensuite transmise à toutes les parties de la trace, la trace est garantie d'être conservée ou supprimée dans son ensemble. +Parce que la décision est prise au début de la trace et transmise à toutes les parties, la trace est conservée ou supprimée dans son ensemble. -{{< img src="/tracing/guide/ingestion_sampling_use_cases/head-based-sampling.png" alt="Échantillonnage basé sur l'en-tête" style="width:100%;" >}} +{{< img src="/tracing/guide/ingestion_sampling_use_cases/head-based-sampling.png" alt="Échantillonnage basé sur la tête" style="width:100%;" >}} -Vous pouvez définir les taux d'échantillonnage pour l'échantillonnage basé sur l'en-tête à deux endroits : +Vous pouvez définir les taux d'échantillonnage pour l'échantillonnage en amont à deux endroits : - Au niveau de l'**[Agent](#in-the-agent)** (par défaut) -- Au niveau de la **[Bibliothèque de Traçage](#in-tracing-libraries-user-defined-rules)** : tout mécanisme de bibliothèque de traçage remplace la configuration de l'Agent. +- Au niveau du **[SDK](#in-sdks-user-defined-rules)** : tout mécanisme SDK remplace la configuration de l'Agent. -### Dans l'Agent +### Dans l'Agent {#in-the-agent} `ingestion_reason: auto` -L'Agent Datadog envoie en continu des taux d'échantillonnage aux bibliothèques de traçage à appliquer à la racine des traces. L'Agent ajuste les taux pour atteindre un objectif de dix traces par seconde au total, réparties entre les services en fonction du trafic. +L'Agent Datadog envoie en continu des taux d'échantillonnage aux SDK pour les appliquer à la racine des traces. L'Agent ajuste les taux pour atteindre un objectif de dix traces par seconde au total, réparties entre les services en fonction du trafic. -Par exemple, si le service `A` a plus de trafic que le service `B`, l'Agent peut varier le taux d'échantillonnage pour `A` de sorte que `A` ne conserve pas plus de sept traces par seconde, et ajuster de manière similaire le taux d'échantillonnage pour `B` afin que `B` ne conserve pas plus de trois traces par seconde, pour un total de 10 traces par seconde. +Par exemple, si le service `A` a plus de trafic que le service `B`, l'Agent pourrait varier le taux d'échantillonnage pour `A` de sorte que `A` ne conserve pas plus de sept traces par seconde, et ajuster de manière similaire le taux d'échantillonnage pour `B` afin que `B` ne conserve pas plus de trois traces par seconde, pour un total de 10 traces par seconde. -#### Configuration à distance +#### Configuration à distance {#remote-configuration} -La configuration du taux d'échantillonnage dans l'Agent peut être configurée à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Pour commencer, configurez [Configuration à Distance][21] puis configurez le paramètre `ingestion_reason` depuis la [page de Contrôle d'Ingestion][5]. La configuration à distance vous permet de modifier le paramètre sans avoir à redémarrer l'Agent. La configuration à distance a la priorité sur les configurations locales, y compris les variables d'environnement et les paramètres de `datadog.yaml`. +La configuration du taux d'échantillonnage dans l'Agent est configurable à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Pour commencer, configurez [Configuration à distance][21] puis paramétrez le paramètre `ingestion_reason` depuis la [page de contrôle d'ingestion][5]. La Configuration à distance vous permet de modifier le paramètre sans redémarrer l'Agent. La configuration à distance a la priorité sur les configurations locales, y compris les variables d'environnement et les paramètres de `datadog.yaml`. -#### Configuration locale +#### Configuration locale {#local-configuration} -Définissez le nombre cible de traces par seconde de l'Agent dans son fichier de configuration principal (`datadog.yaml`) ou en tant que variable d'environnement : +Définissez le nombre de traces par seconde ciblé de l'Agent dans son fichier de configuration principal (`datadog.yaml`) ou en tant que variable d'environnement : ``` @param target_traces_per_second - integer - optional - default: 10 @env DD_APM_TARGET_TPS - integer - optional - default: 10 ``` -**Remarques** : -- Le taux d'échantillonnage de traces par seconde défini dans l'Agent ne s'applique qu'aux bibliothèques de traçage Datadog. Cela n'a aucun effet sur d'autres bibliothèques de traçage telles que les SDK OpenTelemetry. +**Notes** : +- Le taux d'échantillonnage de traces par seconde défini dans l'Agent ne s'applique qu'aux SDK Datadog. Il n'a aucun effet sur d'autres SDK tels que les SDK OpenTelemetry. - La cible n'est pas une valeur fixe. En réalité, elle fluctue en fonction des pics de trafic et d'autres facteurs. -Tous les spans d'une trace échantillonnée via l'Agent Datadog ([taux d'échantillonnage calculés automatiquement](#in-the-agent)) sont étiquetés avec la raison d'ingestion `auto`. Le tag `ingestion_reason` est également défini sur [les métriques d'utilisation][2]. Les services utilisant le mécanisme par défaut de l'Agent Datadog sont étiquetés comme `Automatic` dans la colonne Configuration de la [Page de contrôle d'ingestion][5]. +Les spans des traces échantillonnées par les [taux d'échantillonnage automatiques](#in-the-agent) de l'Agent Datadog sont étiquetés avec la raison d'ingestion `auto`. Le tag `ingestion_reason` est également défini sur [métriques d'utilisation][2]. Les services utilisant ce mécanisme par défaut sont étiquetés `Automatic` dans la colonne Configuration de la [page de contrôle d'ingestion][5]. -### Dans les bibliothèques de traçage : règles définies par l'utilisateur +### Dans les SDK : règles définies par l'utilisateur {#in-sdks-user-defined-rules} `ingestion_reason: rule` -Pour un contrôle plus granulaire, utilisez les options de configuration d'échantillonnage de la bibliothèque de traçage : --Définissez un **taux d'échantillonnage spécifique à appliquer à la racine de la trace**, par service et/ou par nom de ressource, en remplaçant le [mécanisme par défaut de l'Agent](#in-the-agent). -- Définissez une **limite de taux** sur le nombre de traces ingérées par seconde. La limite de taux par défaut est de 100 traces par seconde par instance de service (lors de l'utilisation du [mécanisme par défaut de l'Agent](#in-the-agent), le limiteur de taux est ignoré). +Pour un contrôle plus granulaire, utilisez les options de configuration d'échantillonnage SDK : +- Définissez un **taux d'échantillonnage spécifique à appliquer à la racine de la trace** par nom de service ou de ressource, en remplaçant le [mécanisme par défaut](#in-the-agent) de l'Agent. +- Définissez une **limite de taux** sur le nombre de traces ingérées par seconde. La limite de taux par défaut est de 100 traces par seconde par instance de service. Lors de l'utilisation du mécanisme [par défaut](#in-the-agent), le limiteur de taux est ignoré. -**Remarque** : Les règles d'échantillonnage sont également des contrôles d'échantillonnage basés sur l'en-tête. Si le trafic pour un service est supérieur au maximum configuré de traces par seconde, alors les traces sont abandonnées à la racine. Cela ne crée pas de traces incomplètes. +**Remarque** : Les règles d'échantillonnage sont également des contrôles d'échantillonnage basés sur l'en-tête. Si le trafic pour un service est supérieur au maximum configuré de traces par seconde, alors les traces sont abandonnées à la racine. Cela ne crée pas de traces incomplètes. -La configuration peut être définie par des variables d'environnement ou directement dans le code : +Les options de configuration peuvent être définies via des variables d'environnement ou directement dans le code : {{< tabs >}} {{% tab "Java" %}} **Configuration à distance** -À partir de la version 1.34.0, pour les applications Java, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la Page de contrôle d'ingestion. +À partir de la version 1.34.0, pour les applications Java, définissez les taux d'échantillonnage par service et par ressource depuis l'interface Page de contrôle d'ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. +Lisez-en plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. -**Remarque** : La configuration à distance a la priorité sur la configuration locale. +**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. **Configuration locale** Pour les applications Java, définissez les taux d'échantillonnage par service et par ressource (à partir de la version [v1.26.0][3] pour l'échantillonnage basé sur les ressources) avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. -Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces des autres points de terminaison, définissez : +Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces d'autres points de terminaison, définissez : ``` # using system property @@ -100,13 +103,13 @@ java -Ddd.trace.sampling.rules='[{"service": "my-service", "resource": "GET /che export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource":"GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -La valeur du nom de service est sensible à la casse et doit correspondre à la casse du nom de service réel. +Le nom du service est sensible à la casse et doit correspondre à la casse du nom réel du service. -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. -**Remarque** : L'utilisation de `DD_TRACE_SAMPLE_RATE` est obsolète. Utilisez `DD_TRACE_SAMPLING_RULES` à la place. Par exemple, si vous avez déjà défini `DD_TRACE_SAMPLE_RATE` sur `0.1`, définissez `DD_TRACE_SAMPLING_RULES` sur `[{"sample_rate":0.1}]` à la place. +**Remarque** : L'utilisation de `DD_TRACE_SAMPLE_RATE` est obsolète. Utilisez `DD_TRACE_SAMPLING_RULES` à la place. Par exemple, si vous avez déjà défini `DD_TRACE_SAMPLE_RATE` sur `0.1`, définissez `DD_TRACE_SAMPLING_RULES` sur `[{"sample_rate":0.1}]` à la place. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Java][2]. +Lisez-en plus sur les contrôles d'échantillonnage dans la [documentation du SDK Java][2]. [1]: /fr/tracing/guide/resource_based_sampling [2]: /fr/tracing/trace_collection/dd_libraries/java @@ -115,26 +118,26 @@ En savoir plus sur les contrôles d'échantillonnage dans la [documentation de l {{% tab "Python" %}} **Configuration à distance** -À partir de la version 2.9.0, pour les applications Python, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la Page de contrôle d'ingestion. +À partir de la version 2.9.0, pour les applications Python, définissez les taux d'échantillonnage par service et par ressource depuis l'interface Page de contrôle d'ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][3]. +Lisez-en plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][3]. -**Remarque** : La configuration à distance a la priorité sur la configuration locale. +**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. **Configuration locale** Pour les applications Python, définissez les taux d'échantillonnage par service et par ressource (à partir de la version [v2.8.0][1] pour l'échantillonnage basé sur les ressources) avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. -Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces des autres points de terminaison, définissez : +Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces d'autres points de terminaison, définissez : ``` export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource": "GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. **Remarque** : L'utilisation de `DD_TRACE_SAMPLE_RATE` est obsolète. Utilisez `DD_TRACE_SAMPLING_RULES` à la place. Par exemple, si vous avez déjà défini `DD_TRACE_SAMPLE_RATE` sur `0.1`, définissez `DD_TRACE_SAMPLING_RULES` sur `[{"sample_rate":0.1}]` à la place. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Python][2]. +Lisez-en plus sur les contrôles d'échantillonnage dans la [documentation du SDK Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v2.8.0 [2]: /fr/tracing/trace_collection/dd_libraries/python @@ -143,11 +146,11 @@ En savoir plus sur les contrôles d'échantillonnage dans la [documentation de l {{% tab "Ruby" %}} **Configuration à distance** -À partir de la version 2.0.0, pour les applications Ruby, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la Page de contrôle d'ingestion. +À partir de la version 2.0.0, pour les applications Ruby, définissez les taux d'échantillonnage par service et par ressource depuis l'interface Page de contrôle d'ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. +Lisez-en plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. -**Remarque** : La configuration à distance a la priorité sur la configuration locale. +**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. **Configuration locale** Pour les applications Ruby, définissez un taux d'échantillonnage global pour la bibliothèque en utilisant la variable d'environnement `DD_TRACE_SAMPLE_RATE`. Définissez les taux d'échantillonnage par service avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. @@ -159,18 +162,18 @@ export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' ``` -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Ruby][1]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Ruby][1]. [1]: /fr/tracing/trace_collection/dd_libraries/ruby#sampling {{% /tab %}} {{% tab "Go" %}} **Configuration à distance** -À partir de la version 1.64.0, pour les applications Go, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la page de contrôle d'ingestion. +À partir de la version 1.64.0, pour les applications Go, définissez les taux d'échantillonnage par service et par ressource depuis l'interface Page de contrôle d'ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans cet [article][3]. +Pour en savoir plus sur la configuration à distance des taux d'échantillonnage par service et par ressource, consultez cet [article][3]. **Remarque** : La configuration définie à distance a la priorité sur la configuration locale. @@ -178,17 +181,17 @@ En savoir plus sur la façon de configurer à distance les taux d'échantillonna Pour les applications Go, définissez les taux d'échantillonnage par service et par ressource (à partir de la version [v1.60.0][2] pour l'échantillonnage basé sur les ressources) avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. -Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces des autres points de terminaison, définissez : +Par exemple, pour capturer 100 % des traces pour la ressource `GET /checkout` du service `my-service`, et 20 % des traces d'autres points de terminaison, définissez : ``` export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource": "GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. **Remarque** : L'utilisation de `DD_TRACE_SAMPLE_RATE` est obsolète. Utilisez `DD_TRACE_SAMPLING_RULES` à la place. Par exemple, si vous avez déjà défini `DD_TRACE_SAMPLE_RATE` sur `0.1`, définissez `DD_TRACE_SAMPLING_RULES` sur `[{"sample_rate":0.1}]` à la place. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Go][1]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Go][1]. [1]: /fr/tracing/trace_collection/dd_libraries/go [2]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.60.0 @@ -197,11 +200,11 @@ En savoir plus sur les contrôles d'échantillonnage dans la [documentation de l {{% tab "Node.js" %}} **Configuration à distance** -À partir de la version 5.16.0, pour les applications Node.js, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la page de contrôle d'ingestion. +À partir de la version 5.16.0, pour les applications Node.js, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la Page de Contrôle d'Ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. +Pour en savoir plus sur la configuration à distance des taux d'échantillonnage par service et par ressource, consultez le [guide d'échantillonnage basé sur les ressources][1]. -**Remarque** : La configuration à distance a la priorité sur la configuration locale. +**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. **Configuration locale** @@ -222,18 +225,18 @@ tracer.init({ }); ``` -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Node.js][1]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Node.js][1]. [1]: /fr/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} {{% tab "PHP" %}} **Configuration à distance** -À partir de la version 1.4.0, pour les applications PHP, définissez les taux d'échantillonnage par service et par ressource à partir de la page de contrôle d'ingestion. +À partir de la version 1.4.0, pour les applications PHP, définissez les taux d'échantillonnage par service et par ressource depuis la Page de Contrôle d'Ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. +Pour en savoir plus sur la configuration à distance des taux d'échantillonnage par service et par ressource, consultez le [guide d'échantillonnage basé sur les ressources][1]. **Remarque** : La configuration définie à distance a la priorité sur la configuration locale. @@ -241,31 +244,31 @@ En savoir plus sur la façon de configurer à distance les taux d'échantillonna Pour les applications PHP, définissez un taux d'échantillonnage global pour la bibliothèque en utilisant la variable d'environnement `DD_TRACE_SAMPLE_RATE`. Définissez les taux d'échantillonnage par service avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. -Par exemple, pour envoyer 50 % des traces pour le service nommé `my-service`, 20 % des traces des autres points de terminaison, et 10 % pour le reste des traces, définissez : +Par exemple, pour envoyer 50 % des traces pour le service nommé `my-service`, 20 % des traces d'autres points de terminaison et 10 % pour le reste des traces, définissez : ``` export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource":"GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage PHP][1]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK PHP][1]. [1]: /fr/tracing/trace_collection/dd_libraries/php {{% /tab %}} {{% tab "C++" %}} **Configuration à distance** -À partir de la version 0.2.2, pour les applications C++, définissez les taux d'échantillonnage par service et par ressource à partir de l'interface utilisateur de la page de contrôle d'ingestion. +À partir de la version 0.2.2, pour les applications C++, définissez les taux d'échantillonnage par service et par ressource depuis l'interface utilisateur de la Page de Contrôle d'Ingestion. -En savoir plus sur la façon de configurer à distance les taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. +Pour en savoir plus sur la configuration à distance des taux d'échantillonnage par service et par ressource dans le [guide d'échantillonnage basé sur les ressources][1]. -**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. +**Remarque** : La configuration définie à distance a la priorité sur la configuration locale. **Configuration locale** À partir de [v0.1.0][1], la bibliothèque C++ de Datadog prend en charge les configurations suivantes : - Taux d'échantillonnage global : `DD_TRACE_SAMPLE_RATE` variable d'environnement - Taux d'échantillonnage par service : `DD_TRACE_SAMPLING_RULES` variable d'environnement. -- Paramètre de limite de taux : variable d'environnement `DD_TRACE_RATE_LIMIT`. +- Paramètre de limitation de taux : `DD_TRACE_RATE_LIMIT` variable d'environnement. Par exemple, pour envoyer 50 % des traces pour le service nommé `my-service` et 10 % pour le reste des traces : @@ -274,13 +277,13 @@ export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' ``` -C++ ne fournit pas d'intégrations pour l'instrumentation automatique, mais il est utilisé pour le traçage via des proxies tels qu'Envoy, Nginx ou Istio. En savoir plus sur la façon de configurer l'échantillonnage pour les proxies dans [Traçage des proxies][2]. +C++ ne fournit pas d'intégrations pour l'instrumentation automatique, mais il est utilisé par des systèmes de traçage proxy tels qu'Envoy, NGINX ou Istio. En savoir plus sur la configuration de l'échantillonnage pour les proxies dans [Traçage des proxies][2]. [1]: https://github.com/DataDog/dd-trace-cpp/releases/tag/v0.1.0 [2]: /fr/tracing/trace_collection/proxy_setup {{% /tab %}} {{% tab ".NET" %}} -Pour les applications .NET, définissez un taux d'échantillonnage global pour la bibliothèque en utilisant la variable d'environnement `DD_TRACE_SAMPLE_RATE`. Définissez les taux d'échantillonnage par service avec la variable d'environnement `DD_TRACE_SAMPLING_RULES`. +Pour les applications .NET, définissez un taux d'échantillonnage global pour la bibliothèque en utilisant la variable d'environnement `DD_TRACE_SAMPLE_RATE`. Définissez les taux d'échantillonnage par service avec la `DD_TRACE_SAMPLING_RULES` variable d'environnement. Par exemple, pour envoyer 50 % des traces pour le service nommé `my-service` et 10 % pour le reste des traces : @@ -296,11 +299,11 @@ $env:DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' } ``` -
    À partir de la version 2.35.0, si la configuration à distance de l'agent est activée là où le service s'exécute, vous pouvez définir par service DD_TRACE_SAMPLE_RATE dans l'interface Catalogue logiciel.
    +
    À partir de la version 2.35.0, si la Configuration à Distance de l'Agent est activée là où le service s'exécute, vous pouvez définir un DD_TRACE_SAMPLE_RATE par service dans l'interface utilisateur du Catalogue de Logiciels.
    -Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` à un nombre de traces par seconde par instance de service. Si aucune valeur `DD_TRACE_RATE_LIMIT` n'est définie, une limite de 100 traces par seconde est appliquée. +Configurez une limite de taux en définissant la variable d'environnement `DD_TRACE_RATE_LIMIT` sur le maximum de traces par seconde par instance de service. Si aucune `DD_TRACE_RATE_LIMIT` valeur n'est définie, une limite de 100 traces par seconde est appliquée. -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage .NET][1].\ +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK .NET][1].\ En savoir plus sur [la configuration des variables d'environnement pour .NET][2]. [1]: /fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/dotnet-core @@ -308,23 +311,23 @@ En savoir plus sur [la configuration des variables d'environnement pour .NET][2] {{% /tab %}} {{< /tabs >}} -**Remarque** : Tous les spans d'une trace échantillonnée à l'aide d'une configuration de bibliothèque de traçage sont étiquetés avec la raison d'ingestion `rule`. Les services configurés avec des règles d'échantillonnage définies par l'utilisateur sont marqués comme `Configured` dans la colonne Configuration de la [page de contrôle d'ingestion][5]. +**Remarque** : Tous les spans d'une trace échantillonnée à l'aide d'une configuration SDK sont étiquetés avec la raison d'ingestion `rule`. Les services configurés avec des règles d'échantillonnage définies par l'utilisateur sont marqués comme `Configured` dans la colonne Configuration de la [Page de Contrôle d'Ingestion][5]. -## Traces d'erreur et traces rares +## Erreurs et traces rares {#error-and-rare-traces} -Pour les traces non capturées par l'échantillonnage basé sur l'en-tête, deux mécanismes d'échantillonnage supplémentaires de l'agent Datadog garantissent que les traces critiques et diverses sont conservées et ingérées. Ces deux échantillonneurs conservent un ensemble diversifié de traces locales (ensemble de spans du même hôte) en capturant toutes les combinaisons d'un ensemble prédéterminé d'étiquettes : +Pour les traces non captées par l'échantillonnage basé sur l'en-tête, deux mécanismes d'échantillonnage supplémentaires de l'Agent Datadog capturent des traces critiques et diverses qui seraient autrement perdues. Ces échantillonneurs conservent un ensemble diversifié de traces locales (spans du même hôte) en capturant toutes les combinaisons d'un ensemble prédéterminé de balises : -- **Traces d'erreur** : Échantillonner les erreurs est important pour fournir une visibilité sur les pannes potentielles du système. -- **Traces rares** : Échantillonner les traces rares vous permet de garder une visibilité sur votre système dans son ensemble, en veillant à ce que les services et ressources à faible trafic soient toujours surveillés. +- **Traces d'erreur** : L'échantillonnage des erreurs offre une visibilité sur les défaillances potentielles du système. +- **Traces rares** : L'échantillonnage des traces rares maintient la visibilité sur les services et ressources à faible trafic dans votre système. -**Remarque** : Les échantillonneurs d'erreurs et de traces rares sont ignorés pour les services pour lesquels vous avez défini des [règles d'échantillonnage de bibliothèque](#in-tracing-libraries-user-defined-rules). +**Remarque** : Les échantillonneurs d'erreurs et de traces rares sont ignorés pour les services pour lesquels vous avez défini des [règles d'échantillonnage de bibliothèque](#in-sdks-user-defined-rules). -### Traces d'erreur +### Traces d'erreur {#error-traces} `ingestion_reason: error` -L'échantillonneur d'erreurs capture des morceaux de traces contenant des spans d'erreur qui ne sont pas capturés par l'échantillonnage basé sur l'en-tête. Il capture des traces d'erreur jusqu'à un taux de 10 traces par seconde (par agent). Il garantit une visibilité complète sur les erreurs lorsque le taux d'échantillonnage basé sur l'en-tête est faible. +L'échantillonneur d'erreurs capture des morceaux de traces contenant des spans d'erreur non capturés par l'échantillonnage basé sur l'en-tête, à un rythme allant jusqu'à 10 traces par seconde par Agent. Cela aide à maintenir la visibilité sur les erreurs lorsque le taux d'échantillonnage basé sur l'en-tête est faible. -Avec la version 7.33 de l'agent et les versions ultérieures, vous pouvez configurer l'échantillonneur d'erreurs dans le fichier de configuration principal de l'agent (`datadog.yaml`) ou avec des variables d'environnement : +Avec la version 7.33 de l'Agent et les versions ultérieures, vous pouvez configurer l'échantillonneur d'erreurs dans le fichier de configuration principal de l'Agent (`datadog.yaml`) ou avec des variables d'environnement : ``` @param errors_per_second - integer - optional - default: 10 @@ -333,79 +336,75 @@ Avec la version 7.33 de l'agent et les versions ultérieures, vous pouvez config {{< img src="/tracing/guide/ingestion_sampling_use_cases/error-spans-sampling.png" alt="Échantillonnage des erreurs" style="width:100%;" >}} -**Remarques** : -1. Réglez le paramètre sur `0` pour désactiver l'échantillonneur d'erreurs. -2. L'échantillonneur d'erreurs capture les traces locales avec des spans d'erreur au niveau de l'Agent. Si la trace est distribuée, il n'y a aucune garantie que la trace complète soit envoyée à Datadog. -3. Par défaut, les spans supprimés par les règles de la bibliothèque de traçage ou par une logique personnalisée telle que `manual.drop` sont **exclus** sous l'échantillonneur d'erreurs. - -#### Datadog Agent 7.42.0 et supérieur +**Notes** : +1. Définissez le paramètre sur `0` pour désactiver l'échantillonneur d'erreurs. +2. L'échantillonneur d'erreurs capture les traces d'erreur locales au niveau de l'Agent. Si la trace est distribuée, la trace complète peut ne pas être envoyée à Datadog. +3. Par défaut, les spans supprimés par les règles SDK ou la logique personnalisée telles que `manual.drop` sont **exclus** sous l'échantillonneur d'erreurs. -L'échantillonnage des erreurs est configuré à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Suivez la [documentation][21] pour activer la configuration à distance dans vos Agents. Avec la configuration à distance, vous pouvez activer la collecte de spans rares sans avoir à redémarrer l'Agent Datadog. +#### Datadog Agent 7.42.0 et supérieur {#datadog-agent-7420-and-higher} -#### Datadog Agent 6/7.41.0 et supérieur +L'échantillonnage des erreurs est configuré à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Suivez la [documentation][21] pour activer la configuration à distance dans vos Agents. Avec la configuration à distance, vous pouvez activer la collecte de spans rares sans redémarrer l'Agent Datadog. -Pour remplacer le comportement par défaut afin que les spans supprimés par les règles de la bibliothèque de traçage ou par une logique personnalisée telle que `manual.drop` soient **inclus** par l'échantillonneur d'erreurs, activez la fonctionnalité avec : `DD_APM_FEATURES=error_rare_sample_tracer_drop` dans l'Agent Datadog (ou le conteneur dédié de l'Agent de Traçage dans le pod de l'Agent Datadog dans Kubernetes). +#### Datadog Agent 6/7.41.0 et supérieur {#datadog-agent-67410-and-higher} +Pour remplacer le comportement par défaut afin que les spans supprimés par les règles SDK ou la logique personnalisée telles que `manual.drop` soient **inclus** par l'échantillonneur d'erreurs, activez la fonctionnalité avec : `DD_APM_FEATURES=error_rare_sample_tracer_drop` dans l'Agent Datadog (ou le conteneur dédié de l'Agent de traces dans le pod de l'Agent Datadog dans Kubernetes). -#### Datadog Agent 6/7.33 à 6/7.40.x +#### Datadog Agent 6/7.33 à 6/7.40.x {#datadog-agent-6733-to-6740x} Le comportement par défaut de l'échantillonnage des erreurs ne peut pas être modifié pour ces versions de l'Agent. Mettez à niveau l'Agent Datadog vers Datadog Agent 6/7.41.0 et supérieur. - -### Traces rares +### Traces rares {#rare-traces} `ingestion_reason: rare` -L'échantillonneur rare envoie un ensemble de spans rares à Datadog. Il capture des combinaisons de `env`, `service`, `name`, `resource`, `error.type` et `http.status` jusqu'à 5 traces par seconde (par Agent). Il garantit la visibilité sur les ressources à faible trafic lorsque le taux d'échantillonnage basé sur l'en-tête est faible. +L'échantillonneur de traces rares envoie un ensemble de spans rares à Datadog. Il capture des combinaisons de `env`, `service`, `name`, `resource`, `error.type` et `http.status` à raison de jusqu'à 5 traces par seconde par Agent. Cela aide à maintenir la visibilité sur les ressources à faible trafic lorsque le taux d'échantillonnage basé sur l'en-tête est faible. -**Remarque** : L'échantillonneur rare capture les traces locales au niveau de l'Agent. Si la trace est distribuée, il n'y a aucun moyen de garantir que la trace complète sera envoyée à Datadog. +**Remarque** : L'échantillonneur rare capture des traces locales au niveau de l'Agent. Si la trace est distribuée, il n'y a aucune garantie que la trace complète soit envoyée à Datadog. -#### Datadog Agent 7.42.0 et supérieur +#### Datadog Agent 7.42.0 ou supérieur {#datadog-agent-7420-and-higher-1} -Le taux d'échantillonnage rare est configurable à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Suivez la [documentation][21] pour activer la configuration à distance dans vos Agents. Avec la configuration à distance, vous pouvez changer la valeur du paramètre sans avoir à redémarrer l'Agent Datadog. +L'échantillonnage rare est configuré à distance si vous utilisez la version de l'Agent [7.42.0][20] ou supérieure. Suivez la [documentation][21] pour activer la configuration à distance dans vos Agents. Avec la configuration à distance, vous pouvez modifier la valeur du paramètre sans redémarrer l'Agent Datadog. -#### Datadog Agent 6/7.41.0 et supérieur +#### Datadog Agent 6/7.41.0 ou supérieur {#datadog-agent-67410-and-higher-1} Par défaut, l'échantillonneur rare n'est **pas activé**. -**Remarque** : Lorsque **activé**, les spans supprimés par les règles de la bibliothèque de traçage ou par une logique personnalisée telle que `manual.drop` sont **exclus** sous cet échantillonneur. +**Remarque** : Lorsque **activé**, les spans supprimés par les règles SDK ou la logique personnalisée telles que `manual.drop` sont **exclus** sous cet échantillonneur. -Pour configurer l'échantillonneur rare, mettez à jour le paramètre `apm_config.enable_rare_sampler` dans le fichier de configuration principal de l'Agent (`datadog.yaml`) ou avec la variable d'environnement `DD_APM_ENABLE_RARE_SAMPLER` : +Pour configurer l'échantillonneur rare, mettez à jour le paramètre `apm_config.enable_rare_sampler` dans le fichier de configuration principal de l'Agent (`datadog.yaml`) ou avec la variable d'environnement `DD_APM_ENABLE_RARE_SAMPLER` : ``` @params apm_config.enable_rare_sampler - boolean - optional - default: false @env DD_APM_ENABLE_RARE_SAMPLER - boolean - optional - default: false ``` -Pour évaluer les spans supprimés par les règles de la bibliothèque de traçage ou par une logique personnalisée telle que `manual.drop`, - activez la fonctionnalité avec : `DD_APM_FEATURES=error_rare_sample_tracer_drop` dans l'Agent de Traçage. - +Pour évaluer les spans supprimés par les règles SDK ou la logique personnalisée telles que `manual.drop`, activez la fonctionnalité avec : `DD_APM_FEATURES=error_rare_sample_tracer_drop` dans l'Agent de Trace. -#### Datadog Agent 6/7.33 à 6/7.40.x +#### Datadog Agent 6/7.33 à 6/7.40.x {#datadog-agent-6733-to-6740x-1} Par défaut, l'échantillonneur rare est activé. -**Remarque** : Lorsque **activé**, les spans supprimés par les règles de la bibliothèque de traçage ou par une logique personnalisée telle que `manual.drop` **sont exclus** sous cet échantillonneur. Pour inclure ces spans dans cette logique, mettez à niveau vers l'Agent Datadog 6.41.0/7.41.0 ou supérieur. +**Remarque** : Lorsque **activé**, les spans supprimés par les règles SDK ou la logique personnalisée telles que `manual.drop` **sont exclus** sous cet échantillonneur. Pour inclure ces spans dans cette logique, mettez à niveau vers Datadog Agent 6.41.0/7.41.0 ou supérieur. -Pour changer les paramètres par défaut de l'échantillonneur rare, mettez à jour le paramètre `apm_config.disable_rare_sampler` dans le fichier de configuration principal de l'Agent (`datadog.yaml`) ou avec la variable d'environnement `DD_APM_DISABLE_RARE_SAMPLER` : +Pour modifier les paramètres par défaut de l'échantillonneur rare, mettez à jour le paramètre `apm_config.disable_rare_sampler` dans le fichier de configuration principal de l'Agent (`datadog.yaml`) ou avec la variable d'environnement `DD_APM_DISABLE_RARE_SAMPLER` : ``` @params apm_config.disable_rare_sampler - boolean - optional - default: false @env DD_APM_DISABLE_RARE_SAMPLER - boolean - optional - default: false ``` -## Forcer la conservation et la suppression +## Forcez la conservation et la suppression {#force-keep-and-drop} `ingestion_reason: manual` -Le mécanisme d'échantillonnage basé sur l'en-tête peut être remplacé au niveau de la bibliothèque de traçage. Par exemple, si vous devez surveiller une transaction critique, vous pouvez forcer la trace associée à être conservée. En revanche, pour des informations inutiles ou répétitives comme les vérifications de santé, vous pouvez forcer la trace à être supprimée. +Le mécanisme d'échantillonnage basé sur l'en-tête peut être remplacé au niveau du SDK. Par exemple, si vous devez surveiller une transaction critique, vous pouvez forcer la conservation de la trace associée. D'autre part, pour des informations inutiles ou répétitives comme les vérifications de santé, vous pouvez forcer la suppression de la trace. -- Définissez le maintien manuel sur un span pour indiquer que celui-ci et tous les spans enfants doivent être ingérés. La trace résultante peut sembler incomplète dans l'interface utilisateur si le span en question n'est pas le span racine de la trace. +- Définissez la conservation manuelle sur un span pour indiquer qu'il doit être ingéré ainsi que tous les spans enfants. La trace résultante peut sembler incomplète dans l'interface utilisateur si le span en question n'est pas le span racine de la trace. -- Définissez le Manual Drop sur un span pour vous assurer qu'aucun **span enfant** n'est ingéré. Les [échantillonneurs d'erreur et rares](#error-and-rare-traces) seront ignorés dans l'Agent. +- Définissez la suppression manuelle sur un span pour vous assurer qu'**aucun** span enfant n'est ingéré. Les [échantillonneurs d'erreurs et l'échantillonneur rare](#error-and-rare-traces) sont ignorés dans l'Agent. {{< programming-lang-wrapper langs="java,python,ruby,go,nodejs,.NET,php,cpp" >}} {{< programming-lang lang="java" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```java import datadog.trace.api.DDTags; @@ -425,7 +424,7 @@ public class MyClass { } ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```java import datadog.trace.api.DDTags; @@ -448,7 +447,7 @@ public class MyClass { {{< /programming-lang >}} {{< programming-lang lang="python" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```python from ddtrace import tracer @@ -462,7 +461,7 @@ def handler(): # method impl follows ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```python from ddtrace import tracer @@ -479,7 +478,7 @@ def handler(): {{< /programming-lang >}} {{< programming-lang lang="ruby" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```ruby Datadog::Tracing.trace(name, options) do |span, trace| @@ -488,7 +487,7 @@ Datadog::Tracing.trace(name, options) do |span, trace| end ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```ruby Datadog::Tracing.trace(name, options) do |span, trace| @@ -502,7 +501,7 @@ end {{% tracing-go-v2 %}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```Go package main @@ -526,7 +525,7 @@ func handler(w http.ResponseWriter, r *http.Request) { } ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```Go package main @@ -553,7 +552,7 @@ func handler(w http.ResponseWriter, r *http.Request) { {{< /programming-lang >}} {{< programming-lang lang="nodejs" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```js const tracer = require('dd-trace') @@ -567,7 +566,7 @@ span.setTag(tags.MANUAL_KEEP) ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```js const tracer = require('dd-trace') @@ -584,7 +583,7 @@ span.setTag(tags.MANUAL_DROP) {{< /programming-lang >}} {{< programming-lang lang=".NET" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```cs using Datadog.Trace; @@ -599,7 +598,7 @@ using(var scope = Tracer.Instance.StartActive("my-operation")) } ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```cs using Datadog.Trace; @@ -618,7 +617,7 @@ using(var scope = Tracer.Instance.StartActive("my-operation")) {{< programming-lang lang="php" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```php ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```php }} {{< programming-lang lang="cpp" >}} -Gardez manuellement une trace : +Pour conserver manuellement une trace : ```cpp ... @@ -667,7 +666,7 @@ span.trace_segment().override_sampling_priority(int(dd::SamplingPriority::USER_K //method impl follows ``` -Supprimez manuellement une trace : +Pour supprimer manuellement une trace : ```cpp ... @@ -690,23 +689,23 @@ span.trace_segment().override_sampling_priority(int(dd::SamplingPriority::USER_D {{< /programming-lang >}} {{< /programming-lang-wrapper >}} -La conservation manuelle des traces doit se faire avant la propagation du contexte. Si elle est conservée après la propagation du contexte, le système ne peut pas garantir que l'ensemble de la trace est conservé à travers les services. La conservation manuelle des traces est définie à l'emplacement du client de traçage, de sorte que la trace peut toujours être supprimée par l'Agent ou l'emplacement du serveur en fonction des règles d'échantillonnage. +Définissez la conservation manuelle avant la propagation du contexte. Si elle est définie après la propagation du contexte, la trace entière peut ne pas être conservée à travers les services. Parce que cette décision est prise au niveau du client de traçage, la trace peut toujours être supprimée par l'Agent ou le serveur en fonction des règles d'échantillonnage. -## Spans uniques +## Spans individuels {#single-spans} `ingestion_reason: single_span` -Si vous devez échantillonner un span spécifique, mais que vous n'avez pas besoin que la trace complète soit disponible, les bibliothèques de traçage vous permettent de définir un taux d'échantillonnage à configurer pour un seul span. +Si vous devez échantillonner un span spécifique mais que vous n'avez pas besoin de la trace complète, les SDK vous permettent de définir un taux d'échantillonnage pour un seul span. -Par exemple, si vous construisez [des métriques à partir de spans][6] pour surveiller des services spécifiques, vous pouvez configurer des règles d'échantillonnage de spans pour garantir que ces métriques sont basées sur 100 % du trafic de l'application, sans avoir à ingérer 100 % des traces pour toutes les demandes circulant à travers le service. +Par exemple, si vous construisez [des métriques à partir de spans][6] pour surveiller des services spécifiques, vous pouvez configurer des règles d'échantillonnage de spans afin que ces métriques soient basées sur 100 % du trafic de l'application, sans ingérer 100 % des traces pour toutes les requêtes transitant par le service. Cette fonctionnalité est disponible pour Datadog Agent v[7.40.0][19]+. -**Remarque** : Les règles d'échantillonnage de spans uniques **ne peuvent** pas être utilisées pour supprimer des spans qui sont conservés par [l'échantillonnage basé sur l'en-tête](#head-based-sampling), seulement pour conserver des spans supplémentaires qui sont supprimés par l'échantillonnage basé sur l'en-tête. +**Remarque** : Les règles d'échantillonnage de spans uniques **ne peuvent** pas être utilisées pour supprimer des spans qui sont conservés par [l'échantillonnage basé sur l'en-tête](#head-based-sampling), mais seulement pour conserver des spans supplémentaires qui sont supprimés par l'échantillonnage basé sur l'en-tête. {{< tabs >}} {{% tab "Java" %}} -À partir de la bibliothèque de traçage [version 1.7.0][1], pour les applications Java, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version SDK [1.7.0][1], pour les applications Java, définissez des règles d'échantillonnage de spans **par service** et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. Par exemple, pour collecter 100 % des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à 50 spans par seconde : @@ -714,13 +713,13 @@ Par exemple, pour collecter 100 % des spans du service nommé `my-service`, pour @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Java][2]. +Lisez-en plus sur les contrôles d'échantillonnage dans la [documentation du SDK Java][2]. [1]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.7.0 [2]: /fr/tracing/trace_collection/dd_libraries/java {{% /tab %}} {{% tab "Python" %}} -À partir de la version [v1.4.0][1], pour les applications Python, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v1.4.0][1], pour les applications Python, définissez des règles d'échantillonnage de spans **par service** et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : @@ -728,14 +727,13 @@ Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pou @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` - -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Python][2]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v1.4.0 [2]: /fr/tracing/trace_collection/dd_libraries/python {{% /tab %}} {{% tab "Ruby" %}} -À partir de la version [v1.5.0][1], pour les applications Ruby, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v1.5.0][1], pour les applications Ruby, définissez des règles d'échantillonnage de spans **par service** et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : @@ -743,64 +741,64 @@ Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pou @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Ruby][2]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Ruby][2]. [1]: https://github.com/DataDog/dd-trace-rb/releases/tag/v1.5.0 [2]: /fr/tracing/trace_collection/dd_libraries/ruby#sampling {{% /tab %}} {{% tab "Go" %}} -À partir de la version [v1.41.0][1], pour les applications Go, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v1.41.0][1], pour les applications Go, définissez des règles d'échantillonnage de spans **par service** et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -À partir de la version [v1.60.0][3], pour les applications Go, définissez les règles d'échantillonnage de **span** par ressource et par tags avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v1.60.0][3], pour les applications Go, définissez des règles d'échantillonnage de spans **par ressource** et par balises avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. -Par exemple, pour collecter `100%` des spans du service pour la ressource `POST /api/create_issue`, pour le tag `priority` avec la valeur `high` : +Par exemple, pour collecter `100%` des spans du service pour la ressource `POST /api/create_issue`, pour la balise `priority` avec la valeur `high` : ``` @env DD_SPAN_SAMPLING_RULES=[{"resource": "POST /api/create_issue", "tags": { "priority":"high" }, "sample_rate":1.0}] ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Go][2]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Go][2]. [1]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.41.0 [2]: /fr/tracing/trace_collection/dd_libraries/go [3]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.60.0 {{% /tab %}} {{% tab "Node.js" %}} -Pour les applications Node.js, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +Pour les applications Node.js, définissez les règles d'échantillonnage par service et par nom d'opération **span** avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. -Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : +Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage Node.js][1]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK Node.js][1]. [1]: /fr/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} {{% tab "PHP" %}} -À partir de la version [v0.77.0][1], pour les applications PHP, définissez les règles d'échantillonnage de **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v0.77.0][1], pour les applications PHP, définissez les règles d'échantillonnage par service et par nom d'opération **span** avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. -Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : +Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage PHP][2]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK PHP][2]. [1]: https://github.com/DataDog/dd-trace-php/releases/tag/0.77.0 [2]: /fr/tracing/trace_collection/dd_libraries/php {{% /tab %}} {{% tab "C++" %}} -À partir de la version [v0.1.0][1], pour les applications C++, définissez les règles d'échantillonnage **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v0.1.0][1], pour les applications C++, définissez les règles d'échantillonnage par service et par nom d'opération **span** avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. -Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : +Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : ``` @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] @@ -809,9 +807,9 @@ Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pou [1]: https://github.com/DataDog/dd-trace-cpp/releases/tag/v0.1.0 {{% /tab %}} {{% tab ".NET" %}} -À partir de la version [v2.18.0][1], pour les applications .NET, définissez les règles d'échantillonnage **span** par service et par nom d'opération avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. +À partir de la version [v2.18.0][1], pour les applications .NET, définissez les règles d'échantillonnage par service et par nom d'opération **span** avec la variable d'environnement `DD_SPAN_SAMPLING_RULES`. -Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : +Par exemple, pour collecter `100%` des spans du service nommé `my-service`, pour l'opération `http.request`, jusqu'à `50` spans par seconde : ``` #using powershell @@ -823,26 +821,26 @@ $env:DD_SPAN_SAMPLING_RULES='[{"service": "my-service", "name": "http.request", } ``` -En savoir plus sur les contrôles d'échantillonnage dans la [documentation de la bibliothèque de traçage .NET][2]. +En savoir plus sur les contrôles d'échantillonnage dans la [documentation du SDK .NET][2]. [1]: https://github.com/DataDog/dd-trace-dotnet/releases/tag/v2.18.0 [2]: /fr/tracing/trace_collection/dd_libraries/dotnet-core {{% /tab %}} {{< /tabs >}} -
    Le mécanisme App Analytics est complètement obsolète. Pour ingérer des spans uniques sans la trace complète, utilisez la configuration Single Span sampling. Pour ingérer des traces complètes, utilisez les configurations Head-Based sampling.
    +
    Le mécanisme App Analytics est entièrement obsolète. Utilisez l'échantillonnage de span unique (décrit ci-dessus) pour ingérer des spans individuels, ou l'échantillonnage basé sur l'en-tête pour ingérer des traces complètes.
    -## Spans ingérés par le produit +## Spans de produit ingérés {#product-ingested-spans} -### Traces RUM +### Traces RUM {#rum-traces} `ingestion_reason:rum` -Une requête d'une application web ou mobile génère une trace lorsque les services backend sont instrumentés. [L'intégration APM avec la surveillance des utilisateurs réels][7] relie les requêtes des applications web et mobiles à leurs traces backend correspondantes afin de visualiser l'ensemble de vos données frontend et backend dans une vue unifiée. +Une requête d'une application web ou mobile génère une trace lorsque les services backend sont instrumentés. [L'intégration APM avec la surveillance des utilisateurs réels][7] relie les requêtes des applications web et mobiles à leurs traces backend correspondantes afin que vous puissiez voir vos données frontend et backend complètes à travers un seul prisme. -À partir de la version `4.30.0` du SDK navigateur RUM, vous pouvez contrôler les volumes ingérés et conserver un échantillonnage des traces backend en configurant le paramètre d'initialisation `traceSampleRate`. Définissez `traceSampleRate` sur un nombre compris entre `0` et `100`. -Si aucune valeur `traceSampleRate` n'est définie, par défaut, 100 % des traces provenant des requêtes du navigateur sont envoyées à Datadog. +À partir de la version `4.30.0` du SDK de navigateur RUM, vous pouvez contrôler les volumes ingérés et conserver un échantillonnage des traces backend en configurant le paramètre d'initialisation `traceSampleRate`. Définissez `traceSampleRate` sur un nombre compris entre `0` et `100`. +Si aucune valeur `traceSampleRate` n'est définie, une valeur par défaut de 100 % des traces provenant des requêtes du navigateur est envoyée à Datadog. -De même, contrôlez le taux d'échantillonnage des traces dans d'autres SDK en utilisant des paramètres similaires : +Vous pouvez également contrôler le taux d'échantillonnage des traces dans d'autres SDK : | SDK | Paramètre | Version minimale | |-------------|-----------------------|--------------------| @@ -852,29 +850,29 @@ De même, contrôlez le taux d'échantillonnage des traces dans d'autres SDK en | Flutter | `tracingSamplingRate` | [1.0.0][11] | | React Native | `tracingSamplingRate` | [1.0.0][12] _Le taux d'échantillonnage est rapporté dans la page de contrôle d'ingestion depuis [1.2.0][18]_ | -### Traces synthétiques +### Traces synthétiques {#synthetic-traces} `ingestion_reason:synthetics` et `ingestion_reason:synthetics-browser` -Les tests HTTP et de navigateur génèrent des traces lorsque les services backend sont instrumentés. [L'intégration APM avec les tests synthétiques][13] relie vos tests synthétiques aux traces backend correspondantes. Naviguez d'un test qui a échoué à la cause racine du problème en consultant la trace générée par ce test. +Les tests HTTP et navigateur génèrent des traces lorsque les services backend sont instrumentés. [L'intégration APM avec les tests synthétiques][13] relie vos tests synthétiques aux traces backend correspondantes. Naviguez depuis une exécution de test ayant échoué jusqu'à la cause racine du problème en consultant la trace générée lors de cette exécution. -Par défaut, 100 % des tests HTTP et de navigateur synthétiques génèrent des traces backend. +Par défaut, 100 % des tests HTTP et Browser Synthetic génèrent des traces en backend. -### Autres produits +### Autres produits {#other-products} -Certaines raisons d'ingestion supplémentaires sont attribuées aux spans générés par des produits Datadog spécifiques : +D'autres motifs d'ingestion peuvent être attribués aux spans générées par certains produits Datadog : | Produit | Raison d'ingestion | Description du mécanisme d'ingestion | |------------|-------------------------------------|---------------------------------| -| Serverless | `lambda` et `xray` | Vos traces reçues des [Serverless applications][14] tracées avec les bibliothèques de traçage Datadog ou l'intégration AWS X-Ray. | -| Protection des applications et des API | `appsec` | Traces ingérées à partir des bibliothèques de traçage Datadog et signalées par [AAP][15] comme une menace. | -| Observabilité des données : Surveillance des jobs | `data_jobs` | Traces ingérées depuis l'intégration Datadog Java Tracer Spark ou l'intégration Databricks. | +| Sans serveur | `lambda` et `xray` | Vos traces reçues des [applications sans serveur][14] tracées avec les SDK Datadog ou l'intégration AWS X-Ray. | +| Protection des applications et des API | `appsec` | Traces ingérées des SDK Datadog et signalées par [AAP][15] comme une menace. | +| Observabilité des données : Surveillance des jobs | `data_jobs` | Traces ingérées de l'intégration Datadog Java Tracer Spark ou de l'intégration Databricks. | -## Mécanismes d'ingestion dans OpenTelemetry +## Mécanismes d'ingestion dans OpenTelemetry {#ingestion-mechanisms-in-opentelemetry} `ingestion_reason:otel` -En fonction de votre configuration avec les SDK OpenTelemetry (en utilisant le Collecteur OpenTelemetry ou l'Agent Datadog), vous avez plusieurs façons de contrôler l'échantillonnage de l'ingestion. Voir [Échantillonnage de l'ingestion avec OpenTelemetry][22] pour des détails sur les options disponibles pour l'échantillonnage au niveau des SDK OpenTelemetry, du Collecteur OpenTelemetry et de l'Agent Datadog dans diverses configurations OpenTelemetry. +Selon votre configuration avec les SDK OpenTelemetry (utilisant le collecteur OpenTelemetry ou l'agent Datadog), vous avez plusieurs façons de contrôler l'échantillonnage d'ingestion. Voir [Échantillonnage d'ingestion avec OpenTelemetry][22] pour des détails sur les options disponibles pour l'échantillonnage au niveau du SDK OpenTelemetry, du Collecteur OpenTelemetry et de l'Agent Datadog dans diverses configurations OpenTelemetry. -## Lectures complémentaires +## Lectures complémentaires {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/universal_service_monitoring/_index.md b/content/fr/universal_service_monitoring/_index.md new file mode 100644 index 00000000000..8a02e2b9719 --- /dev/null +++ b/content/fr/universal_service_monitoring/_index.md @@ -0,0 +1,90 @@ +--- +aliases: +- /fr/tracing/universal_service_monitoring/ +cascade: + algolia: + rank: 70 +description: Surveillez les métriques de santé des services sur l'ensemble de votre + infrastructure sans instrumentation de code en utilisant la Surveillance Universelle + des Services et l'Agent Datadog. +further_reading: +- link: /universal_service_monitoring/setup/ + tag: Documentation + text: Configuration de la Surveillance Universelle des Services +- link: https://www.datadoghq.com/blog/universal-service-monitoring-datadog/ + tag: GitHub + text: Récupérez en quelques secondes des signaux clés avec Universal Service Monitoring +- link: /getting_started/tagging/unified_service_tagging/ + tag: Documentation + text: Tagging de serice unifié +- link: /tracing/software_catalog/ + tag: Documentation + text: Découvrez et recensez les services qui transmettent des rapports à Datadog. +- link: /tracing/services/service_page/ + tag: Documentation + text: En savoir plus sur les services dans Datadog +- link: /tracing/services/services_map/ + tag: Documentation + text: En savoir plus sur la Service Map +- link: https://www.datadoghq.com/blog/monitor-connection-churn-datadog/ + tag: GitHub + text: Meilleures pratiques pour surveiller et remédier à l'instabilité des connexions. +- link: https://www.datadoghq.com/blog/software-catalog/ + tag: GitHub + text: Améliorez l'expérience des développeurs et la collaboration avec Software + Catalog. +- link: https://learn.datadoghq.com/courses/getting-started-usm + tag: Centre d'apprentissage + text: Premiers pas avec Universal Service Monitoring (USM) +title: Universal Service Monitoring +--- +## Aperçu {#overview} + +Universal Service Monitoring (USM) vous permet de visualiser les métriques de santé de vos services sur l'ensemble de votre infrastructure _sans avoir à instrumenter votre code_. Elle repose uniquement sur la présence d'un Datadog Agent configuré et de [Unified Service Tagging][1], et fournit des données de performance sur vos services non instrumentés dans des vues telles que Software Catalog et Service Map. L'USM fonctionne également avec [Deployment Tracking][2], Monitors, Dashboards et SLOs. + +{{< img src="universal_service_monitoring/usm-demo.mp4" alt="Vidéo démontrant la Surveillance Universelle des Services. Un aperçu d'un service est accessible en cliquant sur un service sur le Service Map et en sélectionnant View service overview." video="true" >}} + +## Configuration {#setup} + +Pour obtenir des informations sur les plateformes et protocoles pris en charge, ainsi que des instructions pour bien démarrer, consultez [Setting Up Universal Service Monitoring][7]. + +
    Preview : Additional protocols and encryption methods

    L'USM est en Preview pour découvrir des cloud services et pour décoder des protocoles supplémentaires ainsi que des méthodes de cryptage du trafic. Pour plus d'informations et pour demander l'accès, lisez Cloud Service Discovery and Additional Protocols.

    + +## Tagging automatique des services {#automatic-service-tagging} + +La Surveillance Universelle des Services détecte automatiquement les services fonctionnant dans votre infrastructure. S'il ne trouve pas de [tags de service unifiés][1], il leur attribue un nom basé sur l'un des tags : `app`, `short_image`, `kube_container_name`, `container_name`, `kube_deployment`, `kube_service`. + +Pour mettre à jour le nom du service, configurez [Unified Service Tagging][1]. + +{{< img src="universal_service_monitoring/automatic-service-tagging.png" alt="Lorsque Datadog détecte automatiquement vos services, le tag utilisé pour cela est affiché en haut de la page du service." style="width:80%;" >}} + +## Explorer vos services {#exploring-your-services} + +Après avoir configuré l'Agent, attendez environ cinq minutes pour que votre service apparaisse dans Software Catalog. Cliquez sur le service pour voir la service details page. Un nom d'opération de `universal.http.server` ou `universal.http.client` dans le coin supérieur gauche indique que la télémétrie du service provient de Universal Service Monitoring. + +Le nom d'opération `universal.http.server` capture les métriques de santé pour le trafic entrant vers votre service. Le nom d'opération correspondant `universal.http.client` représente le trafic sortant vers d'autres destinations. + +{{< img src="universal_service_monitoring/select_service_operation_cropped.png" alt="Le menu déroulant des opérations dans l'onglet Services montre les noms d'opération disponibles." style="width:100%;" >}} + +Une fois la solution Universal Service Monitoring activée, vous pouvez : + + +- Naviguez vers **APM** > **Software Catalog** ou **APM** > **Service Map** pour [visualiser vos services et leurs dépendances][3]. + +- Cliquez sur des pages de service spécifiques pour voir les golden signal metrics (requests, errors, and duration), et corrélez-les avec les récents changements de code grâce à [Deployment Tracking][2]. + +- Créez des [monitors][4], des [dashboards][5] et des [SLOs][6] en utilisant les métriques de `universal.http.*`. + + + +## Lectures complémentaires {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/getting_started/tagging/unified_service_tagging +[2]: /fr/tracing/services/deployment_tracking/ +[3]: /fr/tracing/software_catalog/ +[4]: /fr/monitors/types/apm/?tab=apmmetrics +[5]: /fr/dashboards/ +[6]: /fr/service_level_objectives/metric/ +[7]: /fr/universal_service_monitoring/setup/ \ No newline at end of file diff --git a/content/ja/agent/_index.md b/content/ja/agent/_index.md index cbdecb646ca..262bc7f51ec 100644 --- a/content/ja/agent/_index.md +++ b/content/ja/agent/_index.md @@ -21,7 +21,7 @@ cascade: rank: 80 tags: - agent -description: データ収集のための Agent のインストールと設定 +description: Agent をインストールしてデータ収集するよう構成する further_reading: - link: /logs/ tag: Documentation @@ -37,82 +37,82 @@ further_reading: text: クラウドインスタンスに Agent をインストールする理由 - link: https://www.datadoghq.com/blog/dont-fear-the-agent/ tag: Blog - text: Agent を恐れる必要はありません + text: Agent を怖がらないでください title: Agent ---
    -Agent v7 が利用可能です。最新バージョンにアップグレードして、すべての新機能を利用してください。 +Agent v7 が利用可能です。最新バージョンにアップグレードして、すべての新機能を利用しましょう。
    ## 概要 {#overview} -Datadog Agent は、ホスト上で動作するソフトウェアです。ホストからイベントとメトリクスを収集して Datadog に送信します。Datadog 上でモニタリングおよびパフォーマンスデータを分析できます。Datadog Agent はオープンソースであり、そのソースコードは GitHub の [DataDog/datadog-agent][1] で公開されています。 +Datadog Agent はホスト上で動作するソフトウェアです。ホストからイベントとメトリクスを収集し、それらを Datadog に送信します。そこで、モニタリングとパフォーマンスデータを分析できます。Datadog Agent はオープンソースであり、そのソースコードは GitHub の [DataDog/datadog-agent][1] で入手できます。
    {{< partial name="platforms/platforms.html" links="platforms" >}}

    -Datadog では、マイナーリリースやパッチリリースのたびに、あるいは少なくとも毎月、Datadog Agent を更新することをお勧めしています。

    +Datadog は、マイナーおよびパッチリリースごとに Datadog Agent を更新すること、または最低でも月に一度は更新することを推奨しています。

    -最新の Agent 機能と修正を入手するためにサポートされている唯一の方法は、Datadog Agent をメジャーバージョンにアップグレードし、常に最新の状態に保つことです。

    -

    Agent をフルインストールすることをお勧めします。ただし、Amazon Linux、CentOS、Debian、Fedora、Red Hat、SUSE、Ubuntu では、スタンドアロンの DogStatsD パッケージを利用できます。このパッケージは、DogStatsD がサイドカーとして動作するコンテナ環境や、フル機能の Agent を使用せずに DogStatsD サーバーを実行する環境で使用されます。

    +Datadog Agent のメジャーバージョンにアップグレードし、それを最新の状態に保つことが、最新の Agent 機能と修正を得るための唯一のサポートされた方法です。

    +

    Agent をフルでインストールすることをお勧めします。しかし、Amazon Linux、CentOS、Debian、Fedora、Red Hat、SUSE、および Ubuntu 用のスタンドアロンの DogStatsD パッケージもあります。このパッケージは、DogStatsD がサイドカーとして動作するコンテナ化された環境や、完全な Agent 機能がない DogStatsD サーバーを実行している環境で使用されます。

    ## Agent の管理 {#managing-the-agent} -### Fleet Automation による Agent の管理 (推奨) {#managing-the-agent-with-fleet-automation-recommended} -[Fleet Automation][15] は、Datadog Agent のインストール、アップグレード、設定、トラブルシューティングを大規模に行うための、主要なアプリ内ワークフローです。 +### Fleet Automation を使用した Agent の管理 (推奨) {#managing-the-agent-with-fleet-automation-recommended} +[Fleet Automation][15] は、大規模に Datadog Agent をインストール、アップグレード、構成、トラブルシューティングするための主要なアプリ内ワークフローです。 -{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="Fleet Automation ビューを使用すると、Datadog Agent を 1 か所で一元管理できます。" style="width:100%;">}} +{{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="Fleet Automation ビューでは、Datadog Agent を一か所で一元管理できます。" style="width:100%;">}} -- **設定と履歴の表示**: フリート内のすべての Agent、そのバージョン、有効な製品、設定ファイル、および変更履歴を単一のページで表示します。 -- **[古い Agent のアップグレード][13]**: 数回クリックするだけで Agent のリモートアップグレードを実行し、フリートを最新の状態に保ちます。 -- **[サポートへのフレアの送信][14]**: ホストの [Support] (サポート) タブから、コマンドラインを使用せずにフレアを生成し、既存または新規のサポートケースに添付します。 -- **API キー使用状況の監査**: 特定の API キーを使用している Agent を特定し、安全にキーをローテーションします。 +- **{{< ui >}}View configuration & history{{< /ui >}}**: フリート内のすべての Agent、そのバージョン、有効な製品、構成ファイル、および履歴の変更を 1 ページで表示します。 +- **[古い Agent をアップグレード][13]**: 数回のクリックで、Agent のリモートアップグレードをトリガーして、フリートを最新の状態に保ちます。 +- **[サポートのためにフレアを送信][14]**: ホストの {{< ui >}}Support{{< /ui >}} タブから、フレアを生成し、コマンドラインを使用せずに既存または新しいサポートケースに添付します。 +- **API キーの使用状況の監査**: 特定の API キーを使用している Agent を特定し、安全にキーをローテーションします。 ###Datadog Agent Manager GUI {#datadog-agent-manager-gui} -
    Agent GUI は 32 ビットの Windows プラットフォームではサポートされていません。
    +
    Agent GUI は 32 ビット Windows プラットフォームではサポートされていません。
    -Datadog Agent Manager GUI を使用して下記の操作ができます。 -- Agent のステータス情報の表示 -- 実行中のすべてのチェックの表示 -- Agent ログの表示 -- Agent 設定ファイル (`datadog.yaml`) の編集 -- Agent チェックの追加または編集 -- フレアの送信 +Datadog Agent Manager GUI を使用して、次のことを行います。 +- Agent のステータス情報を表示する +- すべての実行中のチェックを表示する +- Agent ログを表示する +- Agent 構成ファイル (`datadog.yaml`) を編集する +- Agent チェックを追加および編集する +- フレアを送信する -Datadog Agent Manager GUI は Windows と macOS ではデフォルトで有効になっており、ポート `5002` で動作します。`datadog-agent launch-gui` コマンドを使用して、デフォルトの Web ブラウザで GUI を開きます。 +Datadog Agent Manager GUI は、Windows および macOS でデフォルトで有効になっており、ポート `5002` で実行されます。`datadog-agent launch-gui` コマンドを使用して、デフォルトのウェブブラウザで GUI を開きます。 -GUI のデフォルトポートは、`datadog.yaml` 設定ファイルで変更できます。GUI を無効にするには、ポートの値を `-1` に設定します。Linux では、GUI はデフォルトで無効になっています。 +`datadog.yaml` 構成ファイルで GUI のデフォルトポートを変更できます。GUI を無効にするには、ポートの値を `-1` に設定します。Linux では、GUI はデフォルトで無効になっています。 GUI の要件: -- ブラウザで Cookie が有効になっている必要があります。GUI はブラウザ内にトークンを生成して保存します。このトークンは GUI サーバーとのすべての通信の認証に使用されます。 --GUI を起動するには、ユーザーに必要な権限が必要です。`datadog.yaml` を開くことができれば、GUI を使用できます。 --セキュリティ上の理由から、GUI にはローカルネットワークインターフェイス (`localhost`/`127.0.0.1`) から**のみ**アクセスできます。そのため、Agent が動作しているホスト上で操作する必要があります。VM やコンテナ上で Agent を実行し、それをホストマシンからアクセスすることはできません。 +-ブラウザで Cookie を有効にする必要があります。GUI は、ブラウザにトークンを生成して保存します。トークンは GUI サーバーとのすべての通信を認証するために使用されます。 +-GUI を開始するには、ユーザーが必要な権限を持っている必要があります。`datadog.yaml` を開くことができれば、GUI を使用することができます。 +-セキュリティ上の理由から、GUI はローカルネットワークインターフェース (`localhost`/`127.0.0.1`) から**のみ**アクセス可能であるため、エージェントが実行されているホスト上にいる必要があります。Agent を VM またはコンテナで実行し、ホストマシンからアクセスすることはできません。 ###コマンドラインインターフェイス {#command-line-interface} -Agent 6 以降、Agent のコマンドラインインターフェイスはサブコマンドに基づいています。Agent サブコマンドの全リストについては、[Agent コマンド][2]を参照してください。 +エージェント 6 以降、エージェントのコマンドラインインターフェースはサブコマンドに基づいています。Agent のサブコマンドの全一覧は、[Agent のコマンド][2]を参照してください。 -##Datadog Agent の詳細情報 {#getting-further-with-the-datadog-agent} +##エージェントをさらに使いこなす {#getting-further-with-the-datadog-agent} -### Agent の更新 {#update-the-agent} +### エージェントのアップデート {#update-the-agent} -特定のホスト上で Datadog Agent コアを 2 つのマイナーバージョン間で手動更新するには、[使用しているプラットフォームに対応するインストールコマンド][7]を実行します。 +特定のホスト上で実行されている Datadog Agent のコアを手動でマイナーバージョンにアップデートするには、[ご使用のプラットフォームに対応するインストールコマンド][7]を実行します。 -**注**: 特定の Agent インテグレーションを手動で更新する場合は、[インテグレーション管理ガイド][8]を参照してください。 +**注**: 特定のエージェントインテグレーションを手動でアップデートするには、[インテグレーション管理ガイド][8]を参照してください。 -###設定ファイル {#configuration-files} +###構成ファイル {#configuration-files} -[Agent 設定ファイルのドキュメント][9]を参照してください。 +[Agent 構成ファイルに関するドキュメント][9]を参照してください。 ###Datadog サイト {#datadog-site} -[Agent のメイン設定ファイル][10]である `datadog.yaml` を編集して、`site` パラメーター (デフォルトは `datadoghq.com`) を設定します。 +[エージェントのメイン構成ファイル][10]、`datadog.yaml` を編集して `site` パラメーターを設定します (デフォルトは `datadoghq.com` です)。 ```yaml site: {{< region-param key="dd_site" >}} @@ -122,70 +122,70 @@ site: {{< region-param key="dd_site" >}} ###ログの場所 {#log-location} -[Agent ログファイルのドキュメント][12]を参照してください。 +[Agent ログファイルに関するドキュメント][12]を参照してください。 -##Agent のオーバーヘッド {#agent-overhead} +##エージェントのオーバーヘッド {#agent-overhead} -Datadog Agent のリソース消費量の例を下記に示します。テストは Amazon EC2 マシン `c5.xlarge` インスタンス (4 VCPU、8GB RAM) で行われ、同様のリソースを持つ ARM64 ベースのインスタンスでも同等のパフォーマンスが確認されました。バニラ状態の `datadog-agent` は、Agent 自体をモニタリングするためのプロセスチェックが実行されている状態で動作していました。有効にするインテグレーションを増やすと、Agent のリソース消費量が増加する可能性があります。 -JMX チェックを有効にすると、モニタリング対象の JVM によって公開される Bean の数に応じて、Agent がより多くのメモリを使用するようになります。Trace Agent や Process Agent を有効にすることでも、リソース消費量は増加します。 +Datadog Agent のリソース消費の例を下記に示します。テストは、Amazon EC2 マシン `c5.xlarge` インスタンス (4 VCPU/ 8GB RAM) で行われ、同様のリソースを持つ ARM64 ベースのインスタンスでも同等のパフォーマンスが見られました。標準の `datadog-agent` は、エージェント自体をモニターするためのプロセスチェックで実行されていました。より多くのインテグレーションを有効にすると、Agent のリソース消費が増加する可能性があります。 +JMX チェックを有効にすると、モニター対象の JVM によって公開されるビーンの数に応じて、Agent が使用するメモリが増加します。トレースとプロセスを有効にすると、Agent のリソース消費も増加します。 -*Agent テストバージョン: 7.34.0 -* CPU: 平均で約 0.08% の CPU 使用率 -* メモリ: 約 130MB の RAM 使用量 (RSS メモリ) -* ネットワーク帯域幅: 約 140 B/s ▼ | 800 B/s ▲ +*Agent テストのバージョン: 7.34.0 +* CPU: 平均で CPU の約 0.08% を使用 +* メモリ: 約 130MB の RAM を使用 (RSS メモリ) +* ネットワーク帯域幅: 約 140 B/秒 ▼ | 800 B/秒 ▲ * ディスク: - * Linux: ディストリビューションに応じて 830MB ~ 880MB + * Linux: ディストリビューションによって 830MB ~ 880MB * Windows: 870MB **ログ収集**: -次の結果は、[HTTP フォワーダー][6]を有効にした状態で、ファイルから毎秒 *110KB のログ*を収集した際に得られたものです。利用可能なさまざまな圧縮レベルにおけるリソース使用率の変化を示しています。 +下記の結果は、[HTTP フォワーダー][6] が有効なファイルからの*毎秒 110KB のログの収集*から取得したものです。異なる圧縮レベルにおけるリソース使用率の推移を示しています。 {{< tabs >}} {{% tab "HTTP 圧縮レベル 6" %}} -* Agent テストバージョン: 6.15.0 -* CPU: 平均で約 1.5% の CPU 使用率 -* メモリ: 約 95MB の RAM 使用量。 -*ネットワーク帯域幅: 約 14 KB/s ▲ +* エージェントテストのバージョン: 6.15.0 +* CPU: 平均で CPU の約 1.5% を使用 +* メモリ: 約 95MB の RAM を使用。 +*ネットワーク帯域幅: 約 14KB/秒 ▲ {{% /tab %}} {{% tab "HTTP 圧縮レベル 1" %}} -* Agent テストバージョン: 6.15.0 -* CPU: 平均で約 1% の CPU 使用率 -* メモリ: 約 95MB の RAM 使用量。 -*ネットワーク帯域幅: 約 20 KB/s ▲ +* エージェントテストのバージョン: 6.15.0 +* CPU: 平均で CPU の約 1% を使用 +* メモリ: 約 95MB の RAM を使用。 +*ネットワーク帯域幅: 約 20KB/秒 ▲ {{% /tab %}} {{% tab "HTTP 非圧縮" %}} -* Agent テストバージョン: 6.15.0 -* CPU: 平均で約 0.7% の CPU 使用率 -* メモリ: 約 90MB の RAM 使用量 (RSS メモリ) -* ネットワーク帯域幅: 約 200 KB/s ▲ +* エージェントテストのバージョン: 6.15.0 +* CPU: 平均で CPU の約 0.7% を使用 +* メモリ: 約 90MB の RAM を使用 (RSS メモリ) +* ネットワーク帯域幅: 約 200 KB/秒 ▲ {{% /tab %}} {{< /tabs >}} -## その他のリソース {#additional-resources} -{{< whatsnext desc="このセクションでは、下記のトピックについて説明します。">}} - {{< nextlink href="/agent/kubernetes">}}Kubernetes: Kubernetes への Datadog Agent のインストールと構成。{{< /nextlink >}} - {{< nextlink href="/agent/cluster_agent">}}Cluster Agent: Kubernetes 用 Cluster Agent のインストールと構成。オーケストレーションされたクラスター全体からモニタリングデータを効率的に収集するために構築された Datadog Agent のバージョンです。{{< /nextlink >}} - {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS: Amazon ECS への Datadog Agent のインストールと構成。{{< /nextlink >}} - {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate: AWS Fargate 上の Amazon ECS への Datadog Agent のインストールと構成{{< /nextlink >}} - {{< nextlink href="/agent/iot">}}IoT: Datadog IoT Agent のインストールと構成。IoT デバイスや組み込みアプリケーションのモニタリングに最適化された Datadog Agent のバージョンです。{{< /nextlink >}} - {{< nextlink href="/agent/logs">}}ログ収集: Datadog Agent でのログ収集の有効化と設定。{{< /nextlink >}} - {{< nextlink href="/agent/configuration/proxy">}}プロキシ: ネットワーク設定でアウトバウンドトラフィックが制限されている場合は、Agent トラフィックにプロキシを使用します。{{< /nextlink >}} - {{< nextlink href="/agent/versions/">}}バージョン: Agent 7 は Datadog Agent の最新のメジャーバージョンです。Agent のメジャーバージョン間の変更点とアップグレード方法について説明します。{{< /nextlink >}} - {{< nextlink href="/agent/troubleshooting">}}トラブルシューティング: Datadog Agent のトラブルシューティング情報について説明します。{{< /nextlink >}} - {{< nextlink href="/agent/guide">}}ガイド: Agent を使用するための詳細なステップバイステップのチュートリアルです。{{< /nextlink >}} - {{< nextlink href="/agent/security">}}セキュリティ: 環境の安全を確保するために利用可能な、主なセキュリティ機能と機能に関する情報です。{{< /nextlink >}} - {{< nextlink href="/getting_started/observability_pipelines">}}Observability Pipelines と Datadog の設定: Observability Pipelines Worker をアグリゲーターとしてデプロイし、すべてのログとメトリクスを収集、変換して、任意の宛先にルーティングします。{{< /nextlink >}} +## 追加リソース {#additional-resources} +{{< whatsnext desc="このセクションには下記のトピックが含まれています。">}} + {{< nextlink href="/agent/kubernetes">}}Kubernetes: Kubernetes 上に Datadog Agent をインストールして構成します。{{< /nextlink >}} + {{< nextlink href="/agent/cluster_agent">}}Cluster Agent: オーケストレーションされたクラスター全体からモニタリングデータを効率的に収集するために構築された Datadog Agent のバージョンである Cluster Agent for Kubernetes をインストールして構成します。{{< /nextlink >}} + {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS: Amazon ECS 上に Datadog Agent をインストールして構成します。{{< /nextlink >}} + {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate: AWS Fargate 上の Amazon ECS で Datadog Agent をインストールして構成します。{{< /nextlink >}} + {{< nextlink href="/agent/iot">}}IoT: IoT デバイスおよび組み込みアプリケーションのモニタリングに最適化された Datadog Agent のバージョンである Datadog IoT Agent をインストールして構成します。{{< /nextlink >}} + {{< nextlink href="/agent/logs">}}ログ収集: Datadog Agent でのログ収集を有効にして設定します。{{< /nextlink >}} + {{< nextlink href="/agent/configuration/proxy">}}プロキシ: ネットワーク構成がアウトバウンドトラフィックを制限している場合、Agent トラフィックにプロキシを使用します。{{< /nextlink >}} + {{< nextlink href="/agent/versions/">}}バージョン: Agent 7 は Datadog Agent の最新のメジャーバージョンです。Agent のメジャーバージョン間の変更点とアップグレード方法について学びます。{{< /nextlink >}} + {{< nextlink href="/agent/troubleshooting">}}トラブルシューティング: Datadog Agent のトラブルシューティング情報を見つけます。{{< /nextlink >}} + {{< nextlink href="/agent/guide">}}ガイド: Agent の使用に関する詳細なステップバイステップのチュートリアルです。{{< /nextlink >}} + {{< nextlink href="/agent/security">}}セキュリティ: 環境を安全に保つためにお客様が利用できる主なセキュリティ機能と特徴に関する情報。{{< /nextlink >}} + {{< nextlink href="/getting_started/observability_pipelines">}}Observability Pipelines と Datadog の構成: すべてのログとメトリクスを収集し、変換し、任意の宛先にルーティングするアグリゲーターとして Observability Pipelines Worker をデプロイします。{{< /nextlink >}} {{< /whatsnext >}} -## その他の参考資料 {#further-reading} +##参考資料{#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/agent/configuration/agent-commands.md b/content/ja/agent/configuration/agent-commands.md index 98c52edd971..cac151b0fce 100644 --- a/content/ja/agent/configuration/agent-commands.md +++ b/content/ja/agent/configuration/agent-commands.md @@ -1,98 +1,97 @@ --- algolia: tags: - - Agent status コマンド + - agent status command aliases: - /ja/agent/faq/agent-status-and-information - /ja/agent/faq/start-stop-restart-the-datadog-agent - /ja/agent/faq/agent-commands - /ja/agent/guide/agent-commands -description: Datadog Agent を起動・停止・トラブルシュートし、Agent を管理するための Agent コマンドの完全なリファレンスです。 +description: Datadog Agent の起動、停止、トラブルシューティング、および管理に関する完全なリファレンスです。 further_reading: - link: /agent/troubleshooting/ - tag: ドキュメント + tag: Documentation text: Agent のトラブルシューティング title: Agent のコマンド --- -
    -service ラッパーコマンドを使用できない Linux ベースのシステムをご使用の場合は、代替リストを参照してください。 +serviceラッパーコマンドが利用できないLinuxベースのシステムでは、代替リストをご参照ください
    -## Agent の起動/停止/再起動 +## Agent の起動/停止/再起動 {#start-stop-and-restart-the-agent} -### Agent の起動 +### Agent の起動 {#start-the-agent} Datadog Agent を起動するためのコマンドを以下に示します。 | プラットフォーム | コマンド | |------------|--------------------------------------------------------------------| | AIX | `startsrc -s datadog-agent` | -| Linux | OS については、[Agent に関するドキュメント][1]をご参照ください。 | -| Docker | [インストールコマンド][2]を使用します。 | +| Linux | ご使用のOSに対応する[Agent documentation][1]を参照してください。 | +| Docker | [installation command][2]を使用します。 | | Kubernetes | `kubectl create -f datadog-agent.yaml` | -| macOS | `launchctl start com.datadoghq.agent` *または* systray アプリを使用 | +| macOS | `launchctl start com.datadoghq.agent` *または*システムトレイアプリを通じて| | ソース | `sudo service datadog-agent start` | -| Windows | [Windows Agent ドキュメントを参照してください][3]。 | +| Windows | [Windows Agent ドキュメント][3]を参照してください。 | -### Agent の停止 +### Agent を停止します {#stop-the-agent} Datadog Agent を停止するためのコマンドを以下に示します。 | プラットフォーム | コマンド | |------------|----------------------------------------------------------------------------------| | AIX | `stopsrc -s datadog-agent` | -| Linux | OS については、[Agent に関するドキュメント][1]をご参照ください。 | -| Docker | `docker exec -it <コンテナ名> agent stop` | -| Kubernetes | `kubectl delete pod `—注: ポッドは自動的にリスケジュールされます | -| macOS | `launchctl stop com.datadoghq.agent` *または* systray アプリを使用 | +| Linux | ご使用のOSに対応する[Agent documentation][1]を参照してください。 | +| Docker | `docker exec -it agent stop` | +| Kubernetes | `kubectl delete pod `—注意: Pod は自動的に再スケジュールされます | +| macOS | `launchctl stop com.datadoghq.agent` *または*システムトレイアプリを通じて | | ソース | `sudo service datadog-agent stop` | -| Windows | [Windows Agent ドキュメントを参照してください][3]。 | +| Windows | [Windows Agent ドキュメント][3]を参照してください。 | -### Agent を再起動します。 +### Agent を再起動します {#restart-the-agent} Datadog Agent を再起動するためのコマンドを以下に示します。 | プラットフォーム | コマンド | |------------|----------------------------------------------------------------------------------| -| Linux | OS については、[Agent に関するドキュメント][1]をご参照ください。 | -| Docker | [インストールコマンド][2]を使用します。 | -| Kubernetes | `kubectl delete pod `—注: ポッドは自動的にリスケジュールされます | -| macOS | 以下で Agent を停止し、起動します。
    `launchctl stop com.datadoghq.agent`
    `launchctl start com.datadoghq.agent`
    または systray アプリを使用します | -| ソース | サポートされないプラットフォーム | -| Windows | [Windows Agent ドキュメントを参照してください][3]。 | +| Linux | ご使用のOSに対応する[Agent documentation][1]を参照してください。 | +| Docker | [installation command][2]を使用します。 | +| Kubernetes | `kubectl delete pod `—注意: Pod は自動的に再スケジュールされます | +| macOS | Agent を停止してから、次のコマンドで起動します:
    `launchctl stop com.datadoghq.agent`
    `launchctl start com.datadoghq.agent`
    または、システムトレイアプリを使用します | +| ソース | *サポートされないプラットフォーム* | +| Windows | [Windows Agent documentation][3]を参照してください。 | -## Agent のステータスと情報 +## Agent のステータスと情報 {#agent-status-and-information} -### サービスのステータス +### サービスのステータス {#service-status} Datadog Agent のステータスを表示するためのコマンドを以下に示します。 | プラットフォーム | コマンド | |-----------------|-------------------------------------------------------------------------------| | AIX | `lssrc -s datadog-agent` | -| Linux | OS については、[Agent に関するドキュメント][1]をご参照ください。 | +| Linux | ご使用のOSに対応する[Agent documentation][1]を参照してください。 | | Docker (Debian) | `sudo docker exec -it s6-svstat /var/run/s6/services/agent/` | | Kubernetes | `kubectl exec -it -- s6-svstat /var/run/s6/services/agent/` | -| macOS | `launchctl list com.datadoghq.agent` *または* systray アプリを使用 | +| macOS | `launchctl list com.datadoghq.agent` *または* システムトレイアプリを通じて | | ソース | `sudo service datadog-agent status` | -| Windows | [Windows Agent ドキュメント][4] を参照してください。 | +| Windows | [Windows Agent ドキュメント][4]を参照してください。 | | [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | -### Agent の情報 +### Agent の情報 {#agent-information} Datadog Agent と有効なインテグレーションのステータスを表示するためのコマンドを以下に示します。 -| プラットフォーム | コマンド | +|プラットフォーム | コマンド | |------------|------------------------------------------------------| | AIX | `datadog-agent status` | -| Linux | `sudo datadog-agent status` | -| Docker | `sudo docker exec -it agent status` | +| Linux | `sudo datadog-agent status` | +| Docker | `sudo docker exec -it agent status` | | Kubernetes | `kubectl exec -it -- agent status` | -| macOS | `datadog-agent status` または [Web GUI][6] から | +| macOS | `datadog-agent status` または [web GUI][6] を通じて | | ソース | `sudo datadog-agent status` | -| Windows | [Windows Agent ドキュメント][4] を参照してください。 | +| Windows | [Windows Agent ドキュメント][4]を参照してください。 | | [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | 以下に示すように、適切に構成されたインテグレーションは、**Running Checks** の下に警告やエラーなしで表示されます。 @@ -109,43 +108,46 @@ Running Checks Average Execution Time : 0ms ``` -## その他のコマンド +## その他のコマンド {#other-commands} + +Agent のコマンドラインインターフェースはサブコマンドベースです。利用可能なサブコマンドのリストを表示するには、次のコマンドを実行してください: -Agent のコマンドライン インターフェイスはサブコマンド ベースです。利用可能なサブコマンドの一覧を表示するには、次を実行します: ```shell -<エージェント_バイナリ> --help + --help ``` サブコマンドを実行するには、Agent バイナリを呼び出す必要があります: + ```shell -<エージェントバイナリ> <サブコマンド> <オプション> + ``` -一部のオプションにはフラグとオプションがあり、`--help` で詳細に説明されています。たとえば、`check` サブコマンドのヘルプを使用するには、次を実行します。 +いくつかのオプションには、`--help` の下に詳細なフラグとオプションがあります。例えば、`check` サブコマンドのヘルプを表示します: + ```shell -<エージェント_バイナリ> check --help + check --help ``` -| サブコマンド | 注 | +| サブコマンド | 備考 | |-------------------|-----------------------------------------------------------------------------| -| `check` | 指定されたチェックを実行します。 | -| `config` | [ランタイム構成管理][7]。 | -| `configcheck` | 実行中の Agent のうち、ロード済みで解決済みの構成をすべて出力します。 | -| `diagnose` | システムに対して接続診断を実行します。 | -| `flare` | [フレアを収集して Datadog に送信][8]。 | -| `health` | 現在の Agent の状態を出力します。 | -| `help` | 任意のコマンドのヘルプ。 | -| `hostname` | Agent が使用するホスト名を出力します。 | -| `import` | 以前のバージョンの Agent から構成ファイルをインポートして変換します。 | -| `jmx` | JMX トラブルシューティング。 | -| `launch-gui` | Datadog Agent GUI を起動します。 | -| `restart-service` | サービスコントロールマネージャー内で Agent を再起動します。Windows のみです。 | -| `start-service` | サービスコントロールマネージャー内で Agent を起動します。Windows のみです。 | -| `stream-logs` | 実行中の Agent が処理するログをストリーミング表示します。 | -| `stopservice` | サービスコントロールマネージャー内で Agent を停止します。Windows のみです。 | -| `version` | バージョン情報を出力します。 | - -## 参考資料 +| `check` | 指定されたチェックを実行します。 | +| `config` | [ランタイム構成管理][7]。 | +| `configcheck` | 実行中の Agent のうちロード済みかつ解決済みの構成をすべて出力します。 | +| `diagnose` | システムで接続診断を実行します。 | +| `flare` | [フレアを収集して Datadog に送信][8]。 | +| `health` | 現在の Agent の状態を出力します。 | +| `help` | 任意のコマンドのヘルプ。 | +| `hostname` | Agent が使用するホスト名を出力します。 | +| `import` | 以前のバージョンの Agent から構成ファイルをインポートして変換します。| +| `jmx` | JMX トラブルシューティング。 | +| `launch-gui` | Datadog Agent GUI を起動します。 | +| `restart-service` | サービスコントロールマネージャー内で Agent を再起動します。Windows のみ。 | +| `start-service` | サービスコントロールマネージャー内で Agent を起動します。Windows のみ。 | +| `stream-logs` | 実行中の Agent が処理しているログをストリーミングします。 | +| `stopservice` | サービスコントロールマネージャー内で Agent を停止します。Windows のみ。 | +| `version` | バージョン情報を出力します。 | + +## 参考資料 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/bits_ai/mcp_server/_index.md b/content/ja/bits_ai/mcp_server/_index.md new file mode 100644 index 00000000000..6b0b14be475 --- /dev/null +++ b/content/ja/bits_ai/mcp_server/_index.md @@ -0,0 +1,109 @@ +--- +algolia: + rank: 90 + tags: + - mcp + - mcp server +description: MCPサーバーを使用して、AIエージェントをDatadogのオブザーバビリティデータに接続し、メトリクス、ログ、トレース、その他のインサイトをクエリします。 +further_reading: +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: Cursor用Datadog拡張機能 +- link: bits_ai/mcp_server/setup + tag: Documentation + text: Datadog MCPサーバーの設定 +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Datadog MCPサーバーツール +- link: bits_ai/ + tag: Documentation + text: Bits AI 概要 +- link: https://www.datadoghq.com/blog/datadog-mcp-server-use-cases + tag: Blog + text: エンジニアリングチームがAIエージェントを活用するためにDatadog MCPサーバーを使用する4つの方法 +- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/ + tag: Blog + text: Datadog MCPサーバーを使用して、AIエージェントをDatadogツールとコンテキストに接続します。 +- link: https://www.datadoghq.com/blog/datadog-cursor-extension/ + tag: Blog + text: Datadogカーソル拡張機能を使用して、本番環境で発生している問題をデバッグします。 +- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/ + tag: Blog + text: 'Datadog + OpenAI: AI支援DevOpsのためのCodex CLI統合' +title: Datadog MCPサーバー +--- +Datadog MCPサーバーは、Datadogのオブザーバビリティデータと[Model Context Protocol (MCP)][1]をサポートするAIエージェントとの間で橋渡しを行います。MCPサーバーは、関連するDatadogのコンテキスト、機能、ツールへの構造化されたアクセスを提供し、Cursor、OpenAI Codex、Claude Code、または独自のAIエージェントなどのAI駆動クライアントから直接、オブザーバビリティのインサイトを取得できます。 + +**始める準備はできましたか?**下からご利用のエージェントを選択するか、接続手順については[Datadog MCPサーバーの設定][27]をご覧ください。 + +{{< partial name="mcp_server/mcp_server_agents.html" >}} + +このデモでは、CursorとClaude Codeで使用されているDatadog MCPサーバーを示しています(音声をオンにしてください): + +{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="CursorとClaude CodeにおけるDatadog MCPサーバーのデモ" video="true" >}} + + +##免責事項{#disclaimers} + +-Datadog MCPサーバーはHIPAA適格です。Datadog MCPサーバーに接続するAIツールがHIPAAなどのコンプライアンス要件を満たしていることを確認する責任があります。 +-Datadog MCPサーバーはGovCloud互換ではありません。 +-Datadogは、リモートDatadog MCPサーバーの利用状況に関する情報(ユーザーの操作、利用中にエラーが発生したかどうか、その原因、ユーザー識別子など)を収集します。これらの情報は、DatadogプライバシーポリシーおよびDatadogのEULAに基づいて取り扱われます。このデータは、サーバーのパフォーマンスや機能の向上に利用されます。たとえば、サーバーへの接続時や切断時の遷移、サービスアクセス用のDatadogログインページ、さらに(例:ユーザープロンプト)といった、MCPツール利用に至るコンテキストが含まれます。データは120日間保存されます。 + +##フェアユースレート制限 {#fair-use-rate-limits} + +MCPサーバーには、以下のフェアユース制限があります: +- 10秒あたり50リクエストのツールコールバースト制限 +- 1日あたり5000ツールコール +- 1 か月あたり 50,000 ツールコール。 + +これらの制限は**変更される可能性があり**、使用ケースに応じて調整できます。リクエストや質問については、[Datadogサポート][37]にお問い合わせください。 + +## Datadog MCPサーバーツールコールの監視 {#monitoring-the-datadog-mcp-server-tool-calls} + +DatadogメトリクスとAudit Trailを使用して、組織内のDatadog MCPサーバーの使用状況を追跡できます。 + +すべてのツールコールは、ツール名、引数、ユーザーの識別情報、使用されたMCPクライアントを含むメタデータと共に、Datadogの[Audit Trail][16]に記録されます。詳細については、[Audit Trail でツールコールを追跡します](#track-tool-calls-in-audit-trail)を参照してください。 + +Datadogは、MCPサーバーのアクティビティを監視するために使用できる2つの標準メトリクスも発信します: + +- `datadog.mcp.session.starts`: 各セッションの初期化時に発信されます。 +- `datadog.mcp.tool.usage`: 各ツールコール時に発信される分布メトリクス。 + +両方のメトリクスには、`user_id`、`user_email`、および`client`(MCPクライアント名、例えば`claude`または`cursor`)などの属性がタグ付けされています。 + +`datadog.mcp.tool.usage`が分布メトリクスであるため、ツールコールの数を取得するには`count`(`sum`ではなく)を`.as_count()`と一緒に使用してください。例えば、ユーザーのメールアドレスでグループ化されたツールコールの総数をクエリするには: + +``` +count:datadog.mcp.tool.usage{*} by {user_email}.as_count() +``` + +## 利用可能なツール {#available-tools} + +[Datadog MCPサーバーツール][2]を参照して、ツールセットごとに整理された利用可能なツールの完全なリファレンスと例のプロンプトを確認してください。特定のツールセットを有効にするには、[Datadog MCPサーバーの設定][28]を参照して手順を確認してください。 + +##コンテキスト効率 {#context-efficiency} + +Datadog MCPサーバーは、AIエージェントが関連するコンテキストを取得できるように最適化されており、不必要な情報で過負荷になることはありません。たとえば、次のとおりです。 + +- レスポンスは、各ツールが提供するレスポンスの推定長に基づいて切り捨てられます。ツールは、レスポンスが切り捨てられた場合に、AIエージェントが追加情報をリクエストする方法に関する指示を提供します。 +-ほとんどのツールには、AIエージェントが少ない情報または多くの情報をリクエストできるようにする`max_tokens`パラメータがあります。 + +##Audit Trail {#track-tool-calls-in-audit-trail} でツールコールを追跡します。 + +Datadogの[Audit Trail][16]で、MCPサーバーツールによって行われたコールに関する情報を表示できます。イベント名 `MCP Server` で検索またはフィルタリングします。 + +##フィードバック {#feedback} + +Datadog MCPサーバーは、現在、大規模な開発が進行中です。プロンプトやクエリに関するフィードバック、ユースケース、または問題については、[このフィードバックフォーム][19]を通じてご連絡ください。 + +##参考資料 {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://modelcontextprotocol.io/ +[2]: /ja/bits_ai/mcp_server/tools +[16]: /ja/account_management/audit_trail/ +[19]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform +[27]: /ja/bits_ai/mcp_server/setup +[28]: /ja/bits_ai/mcp_server/setup#toolsets +[37]: https://help.datadoghq.com/hc/en-us/requests/new \ No newline at end of file diff --git a/content/ja/bits_ai/mcp_server/setup.md b/content/ja/bits_ai/mcp_server/setup.md new file mode 100644 index 00000000000..937ab8531d1 --- /dev/null +++ b/content/ja/bits_ai/mcp_server/setup.md @@ -0,0 +1,654 @@ +--- +algolia: + rank: 75 + tags: + - mcp + - mcp server + - setup +description: AI エージェントを Datadog MCP サーバーに接続する方法を学びます。 +further_reading: +- link: bits_ai/mcp_server + tag: Documentation + text: Datadog MCP サーバー +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Datadog MCP サーバーツール +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: カーソル用の Datadog 拡張機能 +title: Datadog MCP サーバーを設定する +--- +Datadog MCP サーバーを設定および構成する方法を学びます。これにより、AI 搭載クライアントから直接テレメトリのインサイトを取得し、プラットフォーム機能を管理できます。クライアントを選択してください: + +{{< tabs >}} +{{% tab "カーソル" %}} + +Datadog の [カーソルと VS Code 拡張機能][1] には、管理された Datadog MCP サーバーへの組み込みアクセスが含まれています。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. 拡張機能をインストールします(`--profile` とプロファイル名を省略してデフォルトのカーソルプロファイルにインストール): + ```shell + cursor --install-extension datadog.datadog-vscode --profile + ``` + または、[Datadog 拡張機能][2] をインストールします。すでに拡張機能がインストールされている場合は、最新バージョンであることを確認してください。 +1.Datadog アカウントにサインインします。 + {{< img src="bits_ai/mcp_server/ide_sign_in.png" alt="IDE 拡張機能から Datadog にサインインします。" style="width:70%;" >}} +1. **IDE を再起動します。** +1.Datadog MCP サーバーが利用可能であり、[ツール][3] がリストされていることを確認します:{{< ui >}}Cursor Settings{{< /ui >}} に移動し(`Shift` + `Cmd/Ctrl` + `J`)、{{< ui >}}Tools & MCP{{< /ui >}} タブを選択し、拡張機能のツールリストを展開します。 +1.以前に手動で Datadog MCP サーバーをインストールした場合は、競合を避けるために IDE の設定から削除してください。 +1.アクセスしたい Datadog リソースに必要な [権限](#required-permissions) があることを確認してください。 + +[2]: /ja/ide_plugins/vscode/?tab=cursor#installation +[3]: /ja/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: /ja/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "Claude Code" %}} + +AIエージェントを、地域の[Datadogサイト][1]のMCPサーバーエンドポイントに向けてください。正しい手順については、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、あなたのサイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.ターミナルで実行: +
    claude mcp add --transport http datadog-mcp {{< region-param key="mcp_server_endpoint" >}}
    + + または、`~/.claude.json`に追加してください: +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +         }
    +       }
    +    }
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog リソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +
    リモート認証が利用できない場合は、ローカルバイナリ認証を代わりに使用してください。
    + +[1]: /ja/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} + +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    + +{{< /site-region >}} + +[1]: /ja/getting_started/site/ +{{% /tab %}} + +{{% tab "Claude" %}} + +クロード(クロード・コワーカーを含む)を、リモートMCP URL を使用して {{< ui >}}custom connector{{< /ui >}} として追加し、Datadog MCP サーバーに接続します。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1.新しいカスタムコネクタを追加するには、[カスタムコネクタ][1]に関するクロードヘルプセンターガイドに従ってください。 + +1.URLの入力を求められたら、あなたの[Datadogサイト][2]のDatadog MCPサーバーエンドポイントを入力してください({{< region-param key="dd_site_name" >}})。正しい手順については、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、あなたのサイトを選択してください。 +
    {{< region-param key="mcp_server_endpoint" >}}
    + + [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1.プロンプトが表示されたら、OAuthログインフローを完了してください。 + +1.Datadog リソースにアクセスするために必要な [権限](#required-permissions) を持っていることを確認してください。 + +[1]: https://support.claude.com/en/articles/11175166-get-started-with-custom-connectors-using-remote-mcp +[2]: /ja/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    Datadog MCP サーバーは、選択した Datadog サイト ではサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Codex" %}} + +AIエージェントを、地域の[Datadogサイト][1]のMCPサーバーエンドポイントに向けてください。正しい手順については、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、あなたのサイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.Datadog MCP サーバーを HTTP トランスポートとサイトのエンドポイント URL で追加するには、`~/.codex/config.toml`(または Codex CLI 構成ファイル)を編集してください。たとえば、次のとおりです。 + +
    [mcp_servers.datadog]
    +   url = "{{< region-param key="mcp_server_endpoint" >}}"
    +   
    + + [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog MCP サーバーにログインします: + + ```shell + codex mcp login datadog + ``` + + これにより、OAuth フローを完了するためにブラウザが開きます。Codex は、トークンが期限切れになるまで再度ログインする必要がないように、取得した資格情報を保存します。 + +1.Datadog リソースにアクセスするために必要な [権限](#required-permissions) を持っていることを確認してください。 + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: /ja/getting_started/site/ +{{% /tab %}} + +{{% tab "Gemini CLI" %}} + +AIエージェントを、地域の[Datadogサイト][1]のMCPサーバーエンドポイントに向けてください。正しい手順を得るには、このドキュメントページの右側にある **Datadog サイト** セレクターを使用して、サイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.ターミナルで実行: +
    gemini mcp add --transport http datadog {{< region-param key="mcp_server_endpoint" >}}
    + + または、`~/.gemini/settings.json`に追加してください: +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "httpUrl": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +
    リモート認証が利用できない場合は、ローカルバイナリ認証を代わりに使用してください。
    + +[1]: /ja/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: /ja/getting_started/site/ +{{% /tab %}} + +{{% tab "Warp" %}} + +[Warp][1] は、組み込みの MCP サポートを持つエージェント端末です。Warp エージェントを、地域の [Datadog サイト][2] の MCP サーバーエンドポイントに向けてください。正しい手順については、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、サイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.Warp アプリで、{{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Servers{{< /ui >}} に移動し、{{< ui >}}+ Add{{< /ui >}} をクリックします。 + +1.次の構成を貼り付けてください: + +
    {
    +      "Datadog": {
    +        "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +      }
    +    }
    + + To enable [product-specific tools](#toolsets), include the `toolsets` query parameter at the end of the endpoint URL. For example, this URL enables _only_ APM and LLM Observability tools (use `toolsets=all` to enable all generally available toolsets, best for clients that support tool filtering): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog サーバーで {{< ui >}}Start{{< /ui >}} をクリックします。Warp は、OAuth ログインフローを完了するためにブラウザを開きます。資格情報はデバイスに安全に保存され、将来のセッションで再利用されます。 + +1.Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: https://www.warp.dev/ +[2]: /ja/getting_started/site/ +{{% /tab %}} + +{{% tab "VS コード" %}} + +Datadog の [カーソルと VS Code 拡張機能][1] には、管理された Datadog MCP サーバーへの組み込みアクセスが含まれています。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. 拡張機能をインストールします(`--profile`とプロファイル名を省略して、デフォルトのVS Codeプロファイルにインストールします): + ```shell + code --install-extension datadog.datadog-vscode --profile + ``` + または、[Datadog 拡張機能][2] をインストールします。すでに拡張機能がインストールされている場合は、最新バージョンであることを確認してください。 +1.Datadog アカウントにサインインします。 +1. **IDEを再起動します。** +1.Datadog MCPサーバーが利用可能であり、[ツール][3]がリストされていることを確認してください:チャットパネルを開き、エージェントモードを選択し、{{< ui >}}Configure Tools{{< /ui >}}ボタンをクリックします。 + {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="VS Code の Configure Tools button を設定します。" style="width:70%;" >}} +1. 以前に手動でDatadog MCPサーバーをインストールした場合は、競合を避けるためにIDEの設定から削除してください。コマンドパレット(`Shift` + `Cmd/Ctrl` + `P`)を開き、`MCP: Open User Configuration`を実行します。 +1.Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +[2]: /ja/ide_plugins/vscode/?tab=vscode#installation +[3]: /ja/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: /ja/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "JetBrains IDE" %}} + +JetBrainsは、さまざまなIDE向けに[Junie][1]および[AI Assistant][2]プラグインを提供しています。GitHubは[Copilot][4]プラグインを提供しています。また、多くの開発者は、IDEと一緒にClaude Code、Codex、またはGemini CLIなどのエージェントCLIを使用しています。 + +プラグインを地域の[Datadogサイト][3]のMCPサーバーエンドポイントに向けます。正しい手順については、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、あなたのサイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +{{% collapse-content title="Junie" level="h4" expanded=false id="jetbrains-junie" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}Junie{{< /ui >}} > {{< ui >}}MCP Settings{{< /ui >}}に移動し、次のブロックを追加します: + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. OAuthを通じてログインするように求められます。設定のステータスインジケーターは、接続が成功すると緑のチェックマークを表示します。 + +1.Datadogリソースにアクセスするために必要な [権限](#required-permissions) を持っていることを確認してください。 + +{{% /collapse-content %}} + +{{% collapse-content title="JetBrains AI Assistant" level="h4" expanded=false id="jetbrains-ai-assistant" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}AI Assistant{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}}に移動し、次のブロックを追加します: + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +          "headers": {
    +            "DD_API_KEY": "<YOUR_API_KEY>",
    +            "DD_APPLICATION_KEY": "<YOUR_APP_KEY>"
    +          }
    +        }
    +      }
    +    }
    +    
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. 設定のステータスインジケーターは、接続が成功すると緑のチェックマークを表示します。 + +1.Datadogリソースにアクセスするために必要な [権限](#required-permissions) を持っていることを確認してください。 + +{{% /collapse-content %}} + +{{% collapse-content title="GitHub Copilot" level="h4" expanded=false id="github-copilot" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}GitHub Copilot{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}}に移動し、次のブロックを追加します: + +
    {
    +      "servers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. エディターに表示される`Start`要素をクリックしてサーバーを起動します。OAuthを通じてログインするように求められます。 + +1.Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +{{% /collapse-content %}} + +{{% collapse-content title="エージェントCLI" level="h4" expanded=false id="jetbrains-agent-clis" %}} +多くの開発者は、JetBrains IDEと一緒にClaude Code、Codex、またはGemini CLIなどのエージェントCLIを使用しています。これらのCLIツールの設定を参照してください: +- [Claude Code][4] +- [Codex][5] +- [Gemini CLI][6] + +[JetBrains IDE用のDatadogプラグイン][3]は、これらのエージェントCLIと統合されています。中断のない体験のために、Datadog MCPサーバーを設定する際にプラグインを同時にインストールしてください。 + +[3]: /ja/ide_plugins/idea/ +[4]: /ja/bits_ai/mcp_server/setup/?tab=claudecode +[5]: /ja/bits_ai/mcp_server/setup/?tab=codex +[6]: /ja/bits_ai/mcp_server/setup/?tab=geminicli +{{% /collapse-content %}} +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[1]: https://plugins.jetbrains.com/plugin/26104-junie-the-ai-coding-agent-by-jetbrains +[2]: https://plugins.jetbrains.com/plugin/22282-jetbrains-ai-assistant +[3]: /ja/getting_started/site/ +[4]: https://plugins.jetbrains.com/plugin/17718-github-copilot--your-ai-pair-programmer +{{% /tab %}} + +{{% tab "キロ" %}} + +AIエージェントを、地域の[Datadogサイト][3]のMCPサーバーエンドポイントに向けてください。正しい手順を得るには、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、ご利用のサイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.次の内容を[Kiro MCP設定ファイル][2]に追加してください(`~/.kiro/settings/mcp.json`はユーザー範囲の設定用): + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +[2]: https://kiro.dev/docs/mcp/configuration/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    +{{< /site-region >}} + +[3]: /ja/getting_started/site/ +{{% /tab %}} + +{{% tab "その他" %}} + +ほとんどの他の[サポートされているクライアント](#supported-clients)については、リモート認証のためのこれらの指示を使用してください。Clineまたはリモート認証が信頼できない、または利用できない場合は、[ローカルバイナリ認証](#local-binary-authentication)を使用してください。 + +AIエージェントを、地域の[Datadogサイト][1]のMCPサーバーエンドポイントに向けてください。正しい指示を得るには、このドキュメントページの右側にある{{< ui >}}Datadog Site{{< /ui >}}セレクターを使用して、ご利用のサイトを選択してください。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +選択したエンドポイント({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}。 + +1.HTTPトランスポートとあなたのサイトのエンドポイントURLを使用して、クライアントの設定ファイルにDatadog MCPサーバーを追加してください。たとえば、次のとおりです。 + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [製品特有のツール](#toolsets)を有効にするには、エンドポイントURLの末尾に`toolsets`クエリパラメータを含めてください。例えば、このURLは_のみ_APMおよびLLM Observabilityツールを有効にします(すべての一般に利用可能なツールセットを有効にするには`toolsets=all`を使用してください。これは、ツールフィルタリングをサポートするクライアントに最適です): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadogリソースにアクセスするために必要な[権限](#required-permissions)があることを確認してください。 + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    選択したサイトでは Datadog MCP サーバーはサポートされていません({{< region-param key="dd_site_name" >}})。
    + +{{< /site-region >}} + +[1]: /ja/getting_started/site/ +{{% /tab %}} +{{< /tabs >}} + +## ツールセット {#toolsets} + +Datadog MCPサーバーは、_ツールセット_をサポートしており、必要な[MCPツール][49]のみを使用できるようにし、貴重なコンテキストウィンドウのスペースを節約します。ツールセットを使用するには、MCPサーバーに接続する際にエンドポイントURLに`toolsets`クエリパラメータを含めてください([リモート認証](#authentication)のみ)。`toolsets=all`を使用して、一般に利用可能なすべてのツールセットを一度に有効にします。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +例えば、選択した[Datadogサイト][17]に基づいて、{{< region-param key="dd_site_name" >}}): + +- コアツールのみを取得します(`toolsets`が指定されていない場合はこれがデフォルトです): +
    {{< region-param key="mcp_server_endpoint" >}}
    + +- Synthetic Testing関連のツールのみを取得します: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=synthetics
    + +- コア、Synthetic Testing、およびソフトウェア配信ツールを取得します: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=core,synthetics,software-delivery
    + +- 一般に利用可能なすべてのツールを取得します: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=all
    + +
    すべてのツールセットを有効にすると、AIクライアントに送信されるツール定義の数が増加し、コンテキストウィンドウのスペースを消費します。toolsets=all ツールフィルタリングをサポートするクライアント(例:Claude Code)で最適に動作します。
    + +[17]: /ja/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +### 利用可能なツールセット {#available-toolsets} + +これらのツールセットは一般に利用可能です。利用可能なツールの完全なリファレンスは、ツールセットごとに整理され、例のプロンプトが含まれている[Datadog MCPサーバーツール][49]を参照してください。 + +- `core`: ログ、メトリクス、トレース、ダッシュボード、モニター、インシデント、ホスト、サービス、イベント、およびノートブックのデフォルトツールセット +- `alerting`: モニターの検証と作成、モニターグループの検索、モニターテンプレートの取得、モニターのカバレッジ分析、およびSLOの検索のためのツール +- `cases`: [Case Management][42] 用のツール。caseの作成、検索、更新、プロジェクトの管理、およびJiraの課題のリンクを含みます。 +- `dashboards`: [ダッシュボード][46]の取得、作成、更新、削除のためのツール、ウィジェットスキーマのリファレンスと検証も含む +- `dbm`: [Database Monitoring][33]と対話するためのツール +- `ddsql`: インフラリソース、ログ、メトリクス、RUM、スパン、その他のDatadogデータソースをサポートするSQL方言である[ DDSQL][44]を使用してDatadogデータをクエリするためのツール +- `error-tracking`: Datadog [Error Tracking][32]と対話するためのツール +- `feature-flags`: [feature flags][35]を管理するためのツール、フラグとその環境の作成、リスト表示、更新を含む +- `llmobs`: [LLM Observability][36]のスパンと実験を検索および分析するためのツール +- `networks`: [Cloud Network Monitoring][37]分析および[Network Device Monitoring][38]のためのツール +- `onboarding`: エージェント的なオンボーディングツールによるDatadogのセットアップと構成のガイド +- `product-analytics`: [Product Analytics][41]クエリと対話するためのツール +- `reference-tables`: [Reference Tables][48]を管理するためのツール、テーブルのリスト表示、行の読み取り、行の追加、クラウドストレージからのテーブル作成を含む +- `security`: コードセキュリティスキャンと[security signals][39]および[security findings][40]を検索するためのツール +- `software-delivery`: ソフトウェアデリバリー([CI Visibility][30]および[Test Optimization][31])と対話するためのツール +- `synthetics`: Datadogの[Synthetic tests][29]と対話するためのツール +- `workflows`: [Workflow Automation][43]のためのツール、エージェント使用のためのワークフローのリスト表示、検査、実行、構成を含む + +### プレビュー用ツールセット {#preview-toolsets} + +これらのツールセットはプレビュー中です。ツールセットにサインアップするには、プロダクトプレビューフォームを完成させるか、[Datadogサポート][47]に連絡してアクセスをリクエストしてください。 +- `apm`: ([Sign up][45]) [APM][34]トレース分析、スパン検索、Watchdogインサイト、パフォーマンス調査のためのツール + +## サポートされているクライアント {#supported-clients} + +| クライアント | 開発者 | ノート | +|--------|------|------| +| [カーソル][3] | カーソル | Datadog [カーソルと VS Code 拡張機能][15]を推奨します。| +| [Claude Code][4] | Anthropic | | +| [Claude][19] | Anthropic | カスタムコネクタのセットアップ[を使用してください。](?tab=claude#installation)Claude Cowork が含まれています。| +| [Codex CLI][6] | OpenAI | | +| [Gemini CLI][50] | Google | | +| [Warp][28] | Warp | | +| [VS Code][7] | マイクロソフト | Datadog [カーソルとVS Code拡張][16] を推奨します。| +| [JetBrains IDEs][18] | JetBrains | [Datadog plugin][18] を推奨します。| +| [Kiro][9]、[Kiro CLI][10] | Amazon Web Services | | +| [Goose][8]、[Cline][11] | 多様 | 上の {{< ui >}}Other{{< /ui >}} タブを参照してください。リモート認証が信頼できない場合は、Clineでローカルバイナリ認証を使用してください。| + +
    Datadog MCPサーバーは大規模な開発中であり、追加のサポートクライアントが利用可能になる場合があります。
    + +## 必要な権限 {#required-permissions} + +MCPサーバーツールには、以下の[Datadogユーザーロール権限][22]が必要です。 + +| 権限 | 対象 | +|------------|-------------| +| mcp_read | Datadogからデータを読み取るツール(例:モニターのクエリ、ログの検索、ダッシュボードの取得) | +| mcp_write | Datadog内のリソースを作成または変更するツール(例:モニターの作成、ホストのミュート) | + +`mcp_read`または`mcp_write`に加えて、ユーザーは基盤となるリソースの標準Datadog権限が必要です。例えば、モニターを読み取るMCPツールを使用するには、`mcp_read`と[Monitors Read][24]権限の両方が必要です。リソースレベルの権限の完全なリストについては、[Datadogロール権限][25]を参照してください。 + +**Datadog標準ロール**を持つユーザーは、デフォルトで両方のMCPサーバー権限を持っています。組織が[カスタムロール][23]を使用している場合は、権限を手動で追加してください: +1. 管理者として[**組織設定 > ロール**][26]に移動し、更新したいロールをクリックします。 +1.{{< ui >}}Edit Role{{< /ui >}}(鉛筆アイコン)をクリックします。 +1.権限リストの下で、{{< ui >}}MCP Read{{< /ui >}}と{{< ui >}}MCP Write{{< /ui >}}のチェックボックスを選択します。 +1.ロールに必要な他のリソースレベルの権限を選択してください。 +1.{{< ui >}}Save{{< /ui >}}をクリックします。 + +組織の管理者は、[組織設定][27]からグローバルMCPアクセスと書き込み機能を管理できます。 + +##認証 {#authentication} + +MCPサーバーは、[認証][14]のためにOAuth 2.0を使用します。OAuthフローを通過できない場合(例えば、サーバー上で)、`DD_API_KEY`および`DD_APPLICATION_KEY`のHTTPヘッダーとしてDatadogの[API キー and application key][1]を提供できます。 + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +例えば、選択した[Datadogサイト][17]に基づいて({{< region-param key="dd_site_name" >}}): + +
    {
    +  "mcpServers": {
    +    "datadog": {
    +      "type": "http",
    +      "url": "{{< region-param key="mcp_server_endpoint" >}}",
    +      "headers": {
    +          "DD_API_KEY": "<YOUR_API_KEY>",
    +          "DD_APPLICATION_KEY": "<YOUR_APPLICATION_KEY>"
    +      }
    +    }
    +  }
    +}
    +
    + +[17]: /ja/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +セキュリティのために、必要な権限だけを持つ[service account][13]からスコープが設定されたAPIキーとアプリケーションキーを使用してください。 + +###ローカルバイナリ認証 {#local-binary-authentication} + +Clineの場合、またはリモート認証が信頼できない、あるいは利用できない場合、ローカル認証の利用が推奨されます。インストール後、通常はMCPサーバーの更新の恩恵を受けるためにローカルバイナリを更新する必要はありません。ツールはリモートで動作します。 + +{{% collapse-content title="Datadog MCPサーバーのローカルバイナリを設定する" level="h5" expanded=false id="mcp-local-binary" %}} + +1. Datadog MCPサーバーバイナリをインストールします(macOSおよびLinux): + ```bash + curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash + ``` + これにより、バイナリが`~/.local/bin/datadog_mcp_cli`にインストールされます。 + + Windowsの場合、[Windowsバージョン][20]をダウンロードします。 + +2.`datadog_mcp_cli login`を手動で実行してOAuthログインフローを通過し、[Datadogサイト][21]を選択します。 + +3.AIクライアントを設定して、stdioトランスポートを使用する際に、`datadog_mcp_cli`をコマンドとして指定してください。例えば、macOSでは(``をあなたのOSユーザー名に置き換えます): + ```json + { + "mcpServers": { + "datadog": { + "type": "stdio", + "command": "/Users//.local/bin/datadog_mcp_cli", + "args": [], + "env": {} + } + } + } + ``` + + 他のオペレーティングシステムの場合、`command`パスをダウンロードしたバイナリの場所に置き換えます: + - Linux: `/home//.local/bin/datadog_mcp_cli` + - Windows: `\bin\datadog_mcp_cli.exe` + +
    Claude Codeの場合は、次のように実行できます: +
    claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli
    + +4.設定を適用し、MCPサーバーをロードするには、AIクライアントを完全に再起動してください。 +{{% /collapse-content %}} + +##MCPサーバーへのアクセスをテストします {#test-access-to-the-mcp-server} + +1.[MCPインスペクター][2]をインストールします。これは、MCPサーバーのテストとデバッグのための開発者ツールです。 + + ```bash + npx @modelcontextprotocol/inspector + ``` +2.インスペクターのWeb UIで、{{< ui >}}Transport Type{{< /ui >}}については、{{< ui >}}Streamable HTTP{{< /ui >}}を選択します。 +3.{{< ui >}}URL{{< /ui >}}については、地域のDatadogサイトのMCPサーバーエンドポイントを入力してください。 + {{< site-region region="us,us3,us5,eu,ap1,ap2" >}} + 例: {{< region-param key="dd_site_name" >}}: {{< region-param key="mcp_server_endpoint" >}} + {{< /site-region >}} +4. {{< ui >}}Connect{{< /ui >}}をクリックし、次に{{< ui >}}Tools{{< /ui >}} > {{< ui >}}List Tools{{< /ui >}}に移動します。 +5.[利用可能なツール][12]が表示されるか確認してください。 + +##参考資料 {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/account_management/api-app-keys/ +[2]: https://github.com/modelcontextprotocol/inspector +[3]: https://cursor.com +[4]: https://claude.com/product/claude-code +[5]: https://claude.com/download +[6]: https://chatgpt.com/codex +[7]: https://code.visualstudio.com/ +[8]: https://github.com/block/goose +[9]: https://kiro.dev/ +[10]: https://kiro.dev/cli/ +[11]: https://cline.bot/ +[12]: /ja/bits_ai/mcp_server/tools +[13]: /ja/account_management/org_settings/service_accounts/ +[14]: https://modelcontextprotocol.io/specification/draft/basic/authorization +[15]: /ja/ide_plugins/vscode/?tab=cursor +[16]: /ja/ide_plugins/vscode/ +[17]: /ja/getting_started/site/#navigate-the-datadog-documentation-by-site +[18]: /ja/ide_plugins/idea/ +[19]: https://claude.ai +[20]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe +[21]: /ja/getting_started/site/ +[22]: /ja/account_management/rbac/permissions/#mcp +[23]: /ja/account_management/rbac/?tab=datadogapplication#custom-roles +[24]: /ja/account_management/rbac/permissions/#monitors +[25]: /ja/account_management/rbac/permissions/ +[26]: https://app.datadoghq.com/organization-settings/roles +[27]: https://app.datadoghq.com/organization-settings/preferences +[28]: https://www.warp.dev/ +[29]: /ja/synthetics/ +[30]: /ja/continuous_integration/ +[31]: /ja/tests/ +[32]: /ja/error_tracking/ +[33]: /ja/database_monitoring/ +[34]: /ja/tracing/ +[35]: /ja/feature_flags/ +[36]: /ja/llm_observability/mcp_server/ +[37]: /ja/network_monitoring/cloud_network_monitoring/ +[38]: /ja/network_monitoring/devices/ +[39]: /ja/security/threats/security_signals/ +[40]: /ja/security/misconfigurations/findings/ +[41]: /ja/product_analytics +[42]: /ja/service_management/case_management/ +[43]: /ja/actions/workflows/ +[44]: /ja/ddsql_editor/ +[45]: https://www.datadoghq.com/product-preview/apm-mcp-toolset/ +[46]: /ja/dashboards/ +[47]: /ja/help/ +[48]: /ja/reference_tables/ +[49]: /ja/bits_ai/mcp_server/tools +[50]: https://github.com/google-gemini/gemini-cli \ No newline at end of file diff --git a/content/ja/getting_started/agent/_index.md b/content/ja/getting_started/agent/_index.md index 615e3f14361..b07c2df03ed 100644 --- a/content/ja/getting_started/agent/_index.md +++ b/content/ja/getting_started/agent/_index.md @@ -1,187 +1,148 @@ --- +description: Datadog Agent をインストールおよび構成して、ホストからシステムレベルのメトリクス、イベント、およびログを収集するためのガイドです。 further_reading: -- link: /agent/basic_agent_usage/ - tag: ドキュメント - text: 基本的な Agent の利用方法 +- link: agent/ + tag: Documentation + text: Datadog Agent - link: https://dtdg.co/fe tag: Foundation Enablement - text: インフラストラクチャーモニタリングをパワーアップさせるインタラクティブなセッションに参加できます + text: インフラストラクチャー監視を強化するためのインタラクティブセッションに参加してください。 - link: /agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ - tag: よくあるご質問 + tag: FAQ text: クラウドインスタンスに Datadog Agent をインストールした方がよいのはなぜですか +- link: https://www.datadoghq.com/blog/lambda-managed-instances + tag: Blog + text: Datadog を使用して AWS Lambda マネージドインスタンスを監視します。 title: Agent の概要 --- +## 概要 {#overview} -このガイドでは、Agent の紹介と、Agent を使用して Datadog プラットフォームにシステムレベルのメトリクスを送信する方法について説明します。また、Ubuntu 上での Agent のインストール例についても説明します。以下の内容をカバーしています。 +このガイドでは、Datadog Agent を紹介し、以下の内容をカバーします: - - Agent のインストール - - Agent が起動していることを確認する - - Agent の機能を構成する - - トラブルシューティングリソース + - [ Agent の紹介 ](#what-is-the-datadog-agent) + - [ インストール ](#installation) + - [ Agent によって収集されたデータ ](#data-collected-by-the-agent) + - [ 高度な構成と機能 ](#advanced-configurations-and-features) + - [ トラブルシューティング ](#troubleshooting) -## 概要 -### Agent について +## Datadog Agent とは?{#what-is-the-datadog-agent} -Datadog Agent は、ホスト上で実行されるソフトウェアです。ホストからイベントやメトリクスを収集し、Datadog に送信し、モニタリングやパフォーマンスデータを分析することができます。ローカルホスト (Windows、MacOS)、コンテナ環境 (Docker、Kubernetes)、オンプレミスデータセンターで実行することが可能です。構成管理ツール (Chef、Puppet、Ansible) を使って、インストールと構成が可能です。 +Datadog Agent はホスト上で動作するソフトウェアです。ホストからイベントとメトリクスを収集し、それらを Datadog に送信します。そこで、モニタリングとパフォーマンスデータを分析できます。 -Agent は、15~20 秒ごとに 75~100 のシステムレベルメトリクスを収集することができます。また、追加の構成により、Agent は実行中のプロセスからライブプロセスデータ、ログ、トレースを Datadog プラットフォームに送信することができます。Datadog Agent はオープンソースで、ソースコードは GitHub の [DataDog/datadog-agent][1] で公開されています。 +Agent は以下の環境で実行できます: +- ローカルホスト(Windows、macOS) +- コンテナ化された環境(Docker、Kubernetes) +- オンプレミスのデータセンター -### Agent のオーバーヘッド +Chef、Puppet、または Ansible などの構成管理ツールを使用して、Agent をインストールおよび構成することもできます。 -Agent が占有するスペースとリソースの量は、構成と Agent が送信するように構成されているデータによって異なります。初期状態では、平均して約 0.08% の CPU 使用率と、約 880MB から 1.3GB のディスクスペースが見込まれます。 +Agent は、15~20 秒ごとに 75~100 のシステムレベルのメトリクスを収集できます。追加の構成を行うことで、実行中のプロセスから Datadog にライブデータ、ログ、およびトレースを送信できます。Datadog Agent はオープンソースであり、そのソースコードは GitHub の [DataDog/datadog-agent][1] で入手できます。 -これらのベンチマークについて詳しくは、[Agent Overhead][2] を参照してください。 - -### データ収集 - -#### Agent メトリクス - -以下の Agent メトリクスは、Agent が Datadog に送信する自分自身に関する情報であり、どのホストやコンテナで Agent が動作しているか、Agent がいつ起動するか、どのバージョンの Python が動作しているかなどを判断することができます。 - -| メトリクス | 説明 | -| -------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| `datadog.agent.python.version` | メトリクスには `python_version` というタグが付いています。 | -| `datadog.agent.running` | Agent が Datadog に報告中の場合は、値 `1` が表示されます。 | -| `datadog.agent.started` | Agent 起動時に値 `1` で送信されるカウント (v6.12 以上で使用可能)。 | - -Agent メトリクスの全リストは、[Agent メトリクス][3]のインテグレーションをご覧ください。 - -#### チェック - -一部のプラットフォームの Agent では、メトリクスを収集するいくつかのコアチェックがデフォルトで有効になっています。 - -| チェック | メトリクス | プラットフォーム | -| ----------- | ------------- | ------------------ | -| CPU | [System][4] | All | -| ディスク | [Disk][5] | All | -| IO | [System][4] | All | -| メモリ | [System][4] | All | -| ネットワーク | [Network][6] | All | -| NTP | [NTP][7] | All | -| アップタイム | [System][4] | All | -| ファイル処理 | [System][4] | Mac 以外のすべて | -| ロード | [System][4] | Windows 以外のすべて | -| Docker | [Docker][8] | Docker | -| Winproc | [System][4] | Windows | - -他のテクノロジーからメトリクスを収集する方法については、[インテグレーション][9]のページを参照してください。 - -## ホスト用 Agent とコンテナ用 Agent の相違点 +###Agent 構成ファイル {#the-agent-configuration-file} -このガイドでは、ホストへの Agent のインストールと構成を説明します。最終的にコンテナ環境に Agent をインストールする予定がある場合、いくつか知っておくべき相違点があります。 +Agent のメイン設定ファイルは `datadog.yaml` です。必要なパラメータは次のとおりです。 +- あなたの [Datadog API キー][16] は、Agent のデータを組織と関連付けるために使用されます。 +- あなたの [Datadog サイト][41] ({{< region-param key="dd_site" code="true" >}})。 -1. ホストでは、Agent は YAML ファイルを使用して構成されます (このガイドの後半で説明します)。一方、コンテナの Agent の構成オプションは、[環境変数][10]で渡されます。たとえば、以下のようになります。 - - `DD_API_KEY` は Datadog API キー用 - - `DD_SITE` は Datadog サイト用 +使用可能なすべての構成オプションの詳細については、[サンプル `config_template.yaml` ファイル][23] を参照してください。Agent の設定ファイルを調整することで、他の Datadog 機能を活用できます。 -2. 同様に、ホスト上では、[インテグレーション][9]は Agent 構成ファイルを通して特定されますが、コンテナ環境では、Datadog のオートディスカバリー機能によりインテグレーションが自動的に特定されます。詳しくは、[基本的な Agent のオートディスカバリー][11]を参照してください。 -コンテナ環境で Agent を実行するためのチュートリアルは、[Docker Agent][12] または [Kubernetes][13] を参照してください。 +##インストール {#installation} -## なぜ Agent をインストールする必要があるのですか? - -Agent ベースのインテグレーションからデータを送信するには、Agent をインストールする必要があります。Agent は必ずしも Datadog プラットフォームにデータを転送することを求められておらず、例えば、ログやメトリクスの送信は Datadog API を通じて行うことができます。しかし、Agent は Datadog プラットフォームにデータを転送する方法として推奨されています。 +### 前提条件 {#prerequisites} +1. [Datadog アカウント][15]を作成します。 -Agent は 15 秒ごとにホストデータを収集し、環境全体で何が起こっているかを正確に把握することができます。[チェック][14]のセクションで述べたように、Agent は 50 以上のデフォルトメトリクスを収集するいくつかのチェックを有効にし、システムレベルのデータについてより深い洞察を提供します。 +2.[Datadog API キー][16]を手元に用意します。 -## セットアップ +###セットアップ {#setup} -### 前提条件 +[Fleet Automation][39] を使用して、Datadog のアプリ内ワークフローを利用し、単一のホストまたは大規模環境で Datadog Agent をインストール、アップグレード、構成、トラブルシューティングします。 -1. [Datadog アカウント][15]を作成します。 +特定のプラットフォームに対する追加のAgent構成については、[Agent ドキュメント][40] を参照してください。 -2. [Datadog API キー][16]を手元に用意します。 -3. Datadog の UI を開いておきます。 +##Agent によって収集されたデータ {#data-collected-by-the-agent} -**注**: このチュートリアルでは、Ubuntu オペレーティングシステムを使用しています。サポートされているプラットフォームの全リストは、[基本的な Agent の利用方法][17]ページを参照してください。 +インフラストラクチャーの完全な可視性を提供するために、Datadog Agent は自身の健康状態と構成に関するメトリクス、ならびにデフォルトのチェックを通じてホストやサービスから収集されたメトリクスを報告します。 -### インストール +###Agent メトリクス {#agent-metrics} -Datadog UI で [Agent Installation ページ][18]に移動し、**Ubuntu** をクリックします。ホストに Datadog Agent をインストールするには、そのページから 1 行のインストールコマンド (下図の例) を使用し、[Datadog API キー][16]で更新します。 +Agent は自身に関する以下のメトリクスを Datadog に報告します。これらのメトリクスは、どのホストまたはコンテナに Agent が稼働しているか、各 Agent がいつ開始されたか、Agent が使用している Python のバージョンに関する情報を提供します。 -Ubuntu の 1 行インストールコマンドの例: - -```shell -DD_API_KEY= DD_SITE="{{< region-param key="dd_site" >}}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" -``` +|メトリクス | 説明 | +| -------------------------------- |------------------------------------------------- | +| `datadog.agent.running` | Agent が Datadog に報告している場合、値 `1` が表示されます。 | +| `datadog.agent.started` | Agent 起動時に、値 `1` で送信されるカウント (v6.12 以上で使用可能)。 | +| `datadog.agent.python.version` | メトリクスには `python_version` のタグが付けられています。 | -[Agent Installation ページ][18]を使用して、お使いのオペレーティングシステムの最新のインストール手順を参照してください。 -### 検証 +Agent メトリクスの全リストは、[Agent メトリクス][3]のインテグレーションをご覧ください。 -#### ターミナルコマンド +###チェック {#checks} -インストールを検証するには、Agent の[ステータスコマンド][19]を実行します。 +一部のプラットフォームの Agent では、メトリクスを収集するいくつかのコアチェックがデフォルトで有効になっています。 -```shell -sudo datadog-agent status -``` -インストールに成功すると、次のような Agent 情報で始まる Agent Status レポートが返されます。 - -```text -=============== -Agent (v7.36.1) -=============== - - Status date: 2022-06-15 15:54:48.364 EDT / 2022-06-15 19:54:48.364 UTC (1655322888364) - Agent start: 2022-06-15 15:54:29.85 EDT / 2022-06-15 19:54:29.85 UTC (1655322869850) - Pid: 9801 - Go Version: go1.17.6 - Python Version: 3.8.11 - Build arch: amd64 - Agent flavor: agent - Check Runners: 6 - Log Level: info -``` +|チェック | メトリクス | プラットフォーム | +| ----------- | ------------- | ------------------ | +| CPU | [システム][4] | すべて | +| ディスク | [ディスク][5] | すべて | +| IO | [システム][4] | すべて | +| メモリ | [システム][4] | すべて | +| ネットワーク | [ネットワーク][6] | すべて | +| NTP | [NTP][7] | All | +| アップタイム | [システム][4] | すべて | +| ファイルハンドル | [システム][4] | Mac を除くすべて | +| ロード | [システム][4] | Windows を除くすべて | +| Docker | [Docker][8] | Docker | +| Winproc | [システム][4] | Windows | -#### イベント +他のテクノロジーからメトリクスを収集する方法については、[インテグレーション][9]のページを参照してください。 -Datadog UI で [Events Explorer ページ][20]に移動します。Agent が起動または再起動されると、Agent は Datadog にイベントを送信します。Agent が正常にインストールされると、以下のメッセージが表示されます。 -```text -Datadog agent (v. 7.XX.X) started on -``` -#### サービスチェック +###サービスチェック {#service-checks} Agent は、以下のサービスチェックを行うように設定されています。 - - `datadog.agent.up`: Agent が Datadog に接続すると `OK` を返します。 -
    AIX Agent は datadog.agent.up サービスチェックを報告しませんが、datadog.agent.running メトリクスを使用して AIX Agent の稼働時間を監視することができます。このメトリクスは、Agent が Datadog に報告している場合、1 を出力します。
    - - `datadog.agent.check_status`: Agent チェックが Datadog にメトリクスを送信できない場合は `CRITICAL` を返し、それ以外は `OK` を返します。 + - `datadog.agent.up`: Agent が Datadog に接続すると **OK** を返します。 + - `datadog.agent.check_status`: Agent チェックが Datadog にメトリクスを送信できない場合は **CRITICAL** を返し、それ以外は **OK** を返します。 +これらのチェックは、Datadog でモニターやダッシュボードを通じて Agent の状態を一目で視覚化するために使用できます。詳細については、[サービスチェックの概要][21] を参照してください。 -これらのチェックは、Datadog プラットフォームで使用することで、モニターやダッシュボードを通じて Agent のステータスを一目で視覚化することができます。詳しくは、[サービスチェックの概要][21]を参照してください。 -#### メトリクス +##高度な構成と機能 {#advanced-configurations-and-features} -Datadog UI で、[Metrics Summary ページ][22]に移動し、メトリクス `datadog.agent.started` または メトリクス `datadog.agent.running` を検索してください。これらのメトリクスがすぐに表示されない場合、Agent が Datadog プラットフォームにデータを送信するのに数分かかることがあります。 +{{% collapse-content title="ホスト用 Agent とコンテナ用 Agent の相違点" level="h4" expanded=false id="id-for-anchoring" %}} -いずれかのメトリクスをクリックすると、Metric パネルが開きます。このパネルには、これらのメトリクスがどこから収集されたか、および関連するタグに関する追加のメタデータが表示されます。このチュートリアルでは今のところ、このホストにはタグが構成されていないため、`version` や `host` など、Datadog がメトリクスに割り当てるデフォルトのタグだけが表示されるはずです。タグを追加する方法については、次の Agent コンフィギュレーションファイルのセクションを参照してください。 +ホストに Agent をインストールすることと、コンテナ環境にインストールすることには重要な違いがあります: -`ntp.offset` や `system.cpu.idle` など、他のデフォルトメトリクスも調べてみてください。 +- **設定の違い**: + - **ホスト**:Agent は YAML ファイルを使用して設定されます。 + - **コンテナ**:設定オプションは [環境変数][10] を使用して渡されます。例えば: + + ```sh + `DD_API_KEY` # Datadog API key + `DD_SITE` # Datadog site + ``` -## Agent 構成ファイル +- **統合の検出**: + - **ホスト**:[統合][9] は Agent の設定ファイルを通じて特定されます。 + - **コンテナ**:Integrations は Datadog の Autodiscovery 機能を使用して自動的に特定されます。[基本的な Agent Autodiscovery][11] を参照して、詳細を学んでください。 -Agent の主なコンフィギュレーションファイルは `datadog.yaml` です。必要なパラメーターは以下の通りです。 -- [Datadog API キー][16]。Agent のデータを組織と関連付けるために使用されます。 -- Datadog サイト ({{< region-param key="dd_site" code="true" >}}) +さらに、コンテナ環境で Agent を実行するためのチュートリアルについては、[Docker Agent][12] または [Kubernetes][13] を参照してください。 +{{% /collapse-content %}} -使用可能なすべての構成オプションの詳細については、[サンプル `config_template.yaml` ファイル][23]を参照してください。 -Agent のコンフィギュレーションファイルを調整することで、タグを含む他の Datadog の機能を利用することができます。 +{{% collapse-content title="Agent のコンフィギュレーションファイルによるタグの設定" level="h4" expanded=false id="id-for-anchoring" %}} -#### Agent のコンフィギュレーションファイルによるタグの設定 - -タグは、メトリクスとイベントにメタデータの追加レイヤーを追加します。これにより、Datadog の視覚化において、データのスコープと比較ができるようになります。複数のホストから Datadog にデータが送信された場合、この情報をタグ付けすることで、最も視覚化したいデータにスコープを絞ることができます。 +タグは、メトリクスやイベントに追加のメタデータ層を追加します。これにより、Datadog のビジュアライゼーションでデータのスコープを設定し、比較することができます。複数のホストから Datadog にデータが送信されるとき、この情報にタグを付けることで、視覚化に最も興味のあるデータに絞り込むことができます。 例えば、異なるチームから収集したデータを持っていて、チーム・アルファのメトリクスだけを見たい場合、特定のホストに `team:alpha` または `team:bravo` タグを付けると、`team:alpha` タグが付いているメトリクスにフィルターがかかるようになります。タグ付けの詳細については、[タグの使用を開始する][24]を参照してください。 -1. Agent の[メインコンフィギュレーションファイル][25]を探します。Ubuntu の場合、ファイルの場所は `/etc/datadog-agent/datadog.yaml` です。 +1.Agent の [メイン設定ファイル][25] を見つけてください。Ubuntu の場合、ファイルの場所は `/etc/datadog-agent/datadog.yaml` です。 -2. `datadog.yaml` ファイルで、`tags` パラメーターを探します。ホストレベルのタグを `datadog.yaml` 構成で設定すると、このホストから転送される全てのメトリクス、トレース、ログにタグを適用することができます。 +2.`datadog.yaml` ファイルで、`tags` パラメータを見つけてください。ホストレベルのタグは、`datadog.yaml` の設定で行うことにより、このホストから転送されるすべてのメトリクス、トレース、およびログに適用できます。 ```yaml ## @param tags - list of key:value elements - optional @@ -199,7 +160,7 @@ Agent のコンフィギュレーションファイルを調整することで # - : ``` -3. tags パラメーターと、例として提供されている `team:infra` タグのコメントを解除します。また、例えば `test:agent_walkthrough` のように、独自のタグを追加することもできます。 +3. タグパラメータと提供された例の `team:infra` タグのコメントアウトの解除を行います。独自のカスタムタグを追加することもできます。例えば、`test:agent_walkthrough`のように。 ```yaml ## @param tags - list of key:value elements - optional ## @env DD_TAGS - space separated list of strings - optional @@ -216,64 +177,86 @@ Agent のコンフィギュレーションファイルを調整することで - test:agent_walkthrough ``` -4. Agent の [restart コマンド][26]を実行して、Agent を再起動します。Ubuntu の restart コマンド: +4. エージェントの[再起動コマンド][26]を実行して、エージェントを再起動します。Ubuntuの再起動コマンド: ```shell sudo service datadog-agent restart ``` -5. 数分後、再び [Metrics Summary ページ][22]に移動し、メトリクス `datadog.agent.started` をクリックします。デフォルトの `host` と `version` タグに加えて、`team` タグや追加した個人用タグも表示されます。また、ページ上部にある `Tag` フィールドでメトリクスをフィルターすることもできます。 +5. 数分後、再度[Metrics Summaryページ][22]に移動し、メトリック`datadog.agent.started`をクリックします。デフォルトの`host`および`version`タグに加えて、`team`タグや追加した個人タグも表示されます。ページの上部にある`Tag`フィールドでメトリクスをフィルタリングすることもできます。 + +6.[Events Explorer ページ][20]で、最新の Agent イベントとともに表示されるカスタムタグを見つけます。 -6. [Events Explorer ページ][20]で、最新の Agent イベントとともに表示されるカスタムタグを見つけます。 +{{% /collapse-content %}} -#### その他の構成オプション +{{% collapse-content title="Datadog UIでメトリクスを見つける" level="h4" expanded=false id="id-for-anchoring" %}} -[ログ][27]、[トレース][28]、[プロセス][29]のデータ収集は、Agent コンフィギュレーションファイルから有効にすることができます。これらは、デフォルトで有効になっている機能ではありません。例えば、コンフィギュレーションファイルで、`logs_enabled` パラメーターは false に設定されています。 +Datadog UIでデフォルトのメトリクスを確認することで、エージェントが正しく動作しているかを確認できます。[Metrics Summaryページ][22]に移動し、メトリック`datadog.agent.started`またはメトリック`datadog.agent.running`を検索します。これらのメトリクスがすぐに表示されない場合、エージェントがデータをDatadogに送信するのに数分かかることがあります。 + +いずれかのメトリクスをクリックすると、メトリクスパネルが開きます。このパネルには、これらのメトリクスが収集される場所に関する追加のメタデータや関連するタグが表示されます。ホストにタグが設定されていない場合、Datadogがメトリクスに割り当てるデフォルトのタグのみが表示されるはずです。これには`version`および`host`が含まれます。タグを追加する方法については、エージェントの設定ファイルを通じてタグを設定するセクションを参照してください。 + +`ntp.offset`や`system.cpu.idle`など、他のデフォルトメトリクスを探索してください。 +{{% /collapse-content %}} + + +{{% collapse-content title="Agent のオーバーヘッド" level="h4" expanded=false id="id-for-anchoring" %}} + +エージェントが占有するスペースとリソースの量は、設定やエージェントが送信するデータによって異なります。最初は、平均して約0.08%のCPUが使用され、ディスクスペースは約880MBから1.3GBになります。 + +これらのベンチマークについて詳しくは、[Agent Overhead][2] を参照してください。 +{{% /collapse-content %}} + +{{% collapse-content title="追加のコンフィギュレーションオプション" level="h4" expanded=false id="id-for-anchoring" %}} + +[ログ][27]、[トレース][28]、および[プロセス][29]データの収集は、エージェントの設定ファイルを通じて有効にできます。これらの機能はデフォルトでは有効になっていません。例えば、設定ファイルでは、`logs_enabled`パラメータがfalseに設定されています。 ```yaml ################################## ## Log collection Configuration ## ################################## -## @param logs_enabled - ブール値 - オプション - デフォルト: false -## @env DD_LOGS_ENABLED - ブール値 - オプション - デフォルト: false -## logs_enabled を true に設定し、Datadog Agent のログ収集を有効にします。 +## @param logs_enabled - boolean - optional - default: false +## @env DD_LOGS_ENABLED - boolean - optional - default: false +## Enable Datadog Agent log collection by setting logs_enabled to true. # # logs_enabled: false ``` -Agent コンフィギュレーションファイルを通じて構成可能なその他の Datadog 機能は以下の通りです。 +Agent コンフィギュレーションファイルを通じて構成可能なその他の Datadog 機能は以下のとおりです。 - [OTLP トレース取り込み][30]を有効にする - [ログ収集のカスタマイズ][31]で機密データをフィルターまたはスクラブする - [DogStatsD][32] によるカスタムデータの構成 -セットアップ中、ドキュメントが `datadog.yaml` ファイルまたは Agent コンフィギュレーションファイルに言及している場合、このファイルを構成する必要があります。 +セットアップ中、ドキュメントが `datadog.yaml` ファイルまたはエージェントの設定ファイルに言及している場合、このファイルを構成する必要があります。 + +{{% /collapse-content %}} + -## コマンド +## コマンド {#commands} Agent を[起動][34]、[停止][35] または [再起動][26]する方法については、[Agent のコマンド][33]を参照してください。 -## トラブルシューティング +##トラブルシューティング {#troubleshooting} Agent のトラブルシューティングに関するヘルプ - [Agent のトラブルシューティング][36]を参照してください。 - [Agent のログファイル][37]を確認してください。 -- [Datadog のサポートチーム][38]までお問い合わせください。 +- [Datadog サポート][38] にお問い合わせください。 -## その他の参考資料 +## 参考資料 {#further-reading} {{< partial name="whats-next/whats-next.html" >}}

    -## 次のステップ +## 次のステップ {#next-steps} -{{< whatsnext desc="Agent のインストール後:">}} -{{< nextlink href="/getting_started/integrations" >}}インテグレーションについて{{< /nextlink >}} -{{< nextlink href="/getting_started/application" >}}Datadog の UI について{{< /nextlink >}} -{{< nextlink href="/getting_started/logs" >}}Agent によるログの収集方法について{{< /nextlink >}} -{{< nextlink href="/getting_started/tracing" >}}Agent によるトレースの収集方法について{{< /nextlink >}} +{{< whatsnext desc="エージェントがインストールされた後:">}} +{{< nextlink href="/getting_started/integrations" >}}Integrations について学ぶ{{< /nextlink >}} +{{< nextlink href="/getting_started/application" >}}Datadog UI について学ぶ{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}エージェントを通じてログを収集する方法を学ぶ{{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}エージェントを通じてトレースを収集する方法を学ぶ{{< /nextlink >}} {{< /whatsnext >}} [1]: https://github.com/DataDog/datadog-agent @@ -292,11 +275,11 @@ Agent のトラブルシューティングに関するヘルプ [14]: /ja/getting_started/agent/#checks [15]: https://www.datadoghq.com [16]: https://app.datadoghq.com/organization-settings/api-keys -[17]: /ja/agent/basic_agent_usage/?tab=agentv6v7 +[17]: /ja/agent/supported_platforms [18]: https://app.datadoghq.com/account/settings/agent/latest [19]: /ja/agent/configuration/agent-commands/#agent-status-and-information [20]: https://app.datadoghq.com/event/explorer -[21]: /ja/developers/service_checks/#visualize-your-service-check-in-datadog +[21]: /ja/extend/service_checks/#visualize-your-service-check-in-datadog [22]: https://app.datadoghq.com/metric/summary [23]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml [24]: /ja/getting_started/tagging/ @@ -307,10 +290,13 @@ Agent のトラブルシューティングに関するヘルプ [29]: /ja/infrastructure/process/?tab=linuxwindows#introduction [30]: /ja/opentelemetry/otlp_ingest_in_the_agent/?tab=host [31]: /ja/agent/logs/advanced_log_collection/ -[32]: /ja/developers/dogstatsd/?tab=hostagent +[32]: /ja/extend/dogstatsd/?tab=hostagent [33]: /ja/agent/configuration/agent-commands/ [34]: /ja/agent/configuration/agent-commands/#start-the-agent [35]: /ja/agent/configuration/agent-commands/#stop-the-agent [36]: /ja/agent/troubleshooting/ [37]: /ja/agent/configuration/agent-log-files/ -[38]: /ja/help/ \ No newline at end of file +[38]: /ja/help/ +[39]: /ja/agent/fleet_automation/ +[40]: /ja/agent/?tab=Host-based +[41]: /ja/getting_started/site/ \ No newline at end of file diff --git a/content/ja/logs/explorer/search_syntax.md b/content/ja/logs/explorer/search_syntax.md index 3091afadb25..a9527244bf3 100644 --- a/content/ja/logs/explorer/search_syntax.md +++ b/content/ja/logs/explorer/search_syntax.md @@ -2,141 +2,151 @@ aliases: - /ja/logs/search-syntax - /ja/logs/search_syntax/ -description: すべてのログを検索する +description: すべてのログを検索します。 further_reading: +- link: /getting_started/search/ + tag: Documentation + text: Datadog での検索の開始 - link: /logs/explorer/#visualize - tag: ドキュメント + tag: Documentation text: ログを視覚化する方法 - link: /logs/explorer/#patterns - tag: ドキュメント - text: ログ内のパターン検出 + tag: Documentation + text: ログ内のパターンの検出 - link: /logs/log_configuration/processors - tag: ドキュメント + tag: Documentation text: ログの処理方法 - link: /logs/explorer/saved_views/ - tag: ドキュメント - text: 保存ビューについて -- link: /logs/explorer/calculated_fields/expression_language - tag: ドキュメント - text: Calculated Fields Expression Language について + tag: Documentation + text: Saved Views について +- link: /logs/explorer/calculated_fields/formulas + tag: Documentation + text: 計算フィールドの数式について詳しく学ぶ title: ログ検索構文 --- +## 概要 {#overview} -## 概要 +クエリフィルターは条件と演算子で構成されます。 -クエリフィルターは、用語と演算子で構成されます。 +条件には 2 種類あります。 -用語には 2 種類あります。 +* 単一用語**は、**や`test`、`hello`のような単語です。 -* **単一条件**は、1 つの単語です (`test`、`hello` など)。 - -* **シーケンス**は、二重引用符で囲まれた単語のグループです (`"hello dolly"` など)。 +*** シーケンス**は、二重引用符で囲まれた単語のグループです。例えば、`"hello dolly"`のようなものです。 複合クエリで複数の条件を組み合わせるには、以下の大文字と小文字を区別するブール演算子を使用します。 | | | | |--------------|--------------------------------------------------------------------------------------------------------|------------------------------| | **演算子** | **説明** | **例** | -| `AND` | **積**: 両方の条件を含むイベントが選択されます (何も追加しなければ、AND がデフォルトで採用されます)。 | authentication AND failure | -| `OR` | **和**: いずれかの条件を含むイベントが選択されます。 | authentication OR password | -| `-` | **除外**: 以下の用語はイベントに含まれません (個々の生テキスト検索に適用されます)。 | authentication AND -password | +| `AND` | **Intersection**: 両方の用語が選択されたイベントに含まれます(何も追加しなければ、AND がデフォルトです) | 認証 AND 失敗 | +| `OR` | **Union**: いずれかの用語が選択されたイベントに含まれます | 認証 OR パスワード | +| `-` | **Exclusion**: 以下の用語はイベントに含まれません(個々の生テキスト検索に適用されます) | 認証 AND -パスワード | -## 全文検索 +## 全文検索 {#full-text-search} -

    全文検索機能は Log Management でのみ利用可能で、モニター、ダッシュボード、およびノートブックのクエリで動作します。全文検索構文は、インデックスフィルター、アーカイブフィルター、ログパイプラインフィルター、リハイドレーションフィルター、または Live Tail では使用することはできません。
    +
    全文検索機能は、Log Managementでのみ利用可能で、ログモニター、ダッシュボード、およびノートブックのクエリで機能します。全文検索構文は、インデックスフィルター、アーカイブフィルター、ログパイプラインフィルター、再水和フィルター、または Live Tail で定義する際には使用できません。
    構文 `*:search_term` を使用して、ログメッセージを含むすべてのログ属性にわたって全文検索を実行します。 -### 単一の用語の例 +###単一の用語の例 {#single-term-example} -| 検索構文 | 検索タイプ | 説明 | +| 検索構文 | 検索タイプ | 説明 | | ------------- | ----------- | --------------------------------------------------------- | -| `*:hello` | 全文 | すべてのログ属性から `hello` という文字列を検索します。 | -| `hello` | フリーテキスト | ログ メッセージのみを対象に、文字列 `hello` を完全一致で検索します。 | +| `*:hello` | 全文 | すべてのログ属性から正確な文字列 `hello` を検索します。| +| `hello` | 自由テキスト | 正確な文字列 `hello` を検索するために、`message`、`@title`、`@error.message`、および `@error.stack` 属性のみを検索します。 | -### ワイルドカードを使った検索例 +### ワイルドカードを使った検索例 {#search-term-with-wildcard-example} -| 検索構文 | 検索タイプ | 説明 | +| 検索構文 | 検索タイプ | 説明 | | ------------- | ----------- | ------------------------------------------------------------------------------------------- | -| `*:hello` | 全文 | すべてのログ属性から `hello` という文字列を検索します。 | -| `*:hello*` | 全文 | すべてのログ属性で、`hello` で始まる文字列を検索します。例: `hello_world`。 | +| `*:hello` | 全文 | すべてのログ属性から正確な文字列 `hello` を検索します。 | +| `*:hello*` | 全文 | すべてのログ属性から `hello` で始まる文字列を検索します。たとえば、 `hello_world`。 | -### 完全一致の複数用語の例 +### 完全一致の複数用語の例 {#multiple-terms-with-exact-match-example} -| 検索構文 | 検索タイプ | 説明 | +| 検索構文 | 検索タイプ | 説明 | | ------------------- | ----------- |--------------------------------------------------------------------------------------------------- | -| `*:"hello world"` | 全文 | すべてのログ属性で、文字列 `hello world` を完全一致で検索します。 | -| `hello world` | フリーテキスト | ログ メッセージ内の `hello` と `world` という単語のみを検索します。例: `hello beautiful world`。 | +| `*:"hello world"` | 全文 | すべてのログ属性から正確な文字列 `hello world` を検索します。 | +| `hello world` | フリーテキスト | `hello` および `world` の単語をログメッセージ内でのみ検索します。たとえば `hello beautiful world`。 | -## 特殊文字とスペースのエスケープ +## 特殊文字とスペースのエスケープ {#escape-special-characters-and-spaces} -次の文字は特殊文字と見なされ、`\` 文字でエスケープする必要があります: `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#`、およびスペース。 -- `/` は特殊文字とは見なされないため、エスケープは不要です。 -- Logs Explorer 内の検索クエリでは `@` は使用できません。これは [属性検索](#attributes-search) に予約されているためです。 +次の文字は特殊文字と見なされ、`\` 文字を使用してエスケープする必要があります: `=` `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#`、およびスペース。 +- `/`は特殊文字とは見なされず、エスケープする必要はありません。 +- `@`は、[Attribute Search](#attributes-search)のために予約されているため、ログエクスプローラー内の検索クエリで使用することはできません。 -ログメッセージ内の特殊文字を検索することはできません。特殊文字が属性の中にある場合は、検索することができます。 +ログメッセージ内で特殊文字を検索することはできません。属性内にある場合は、特殊文字を検索することができます。 特殊文字を検索するには、[Grok Parser][1] で特殊文字を属性にパースし、その属性を含むログを検索してください。 +##属性検索 {#attributes-search} -## 属性検索 - -特定の属性を検索するには、`@` を付けて属性検索であることを明示します。 +特定の属性を検索するには、`@` を追加して属性検索であることを明示します。 -たとえば、属性名が **url** で、**url** の値 `www.datadoghq.com` で絞り込む場合は、次のように入力します。 +たとえば、属性名が **url** で、**url** の値 `www.datadoghq.com` で絞り込む場合は、次のように入力します: ``` @url:www.datadoghq.com ``` +### 予約済み属性 {#reserved-attributes} + +[Reserved attributes][8] のような `host`, `source`, `status`, `service`, `trace_id`, `message` は、`@` のプレフィックスを必要としません。これらの属性を直接検索することができます: + +``` +service:web-app +status:error +host:i-1234567890abcdef0 +``` **注**: -1. 属性やタグを検索するためのファセットの定義は**不要です**。 +1. 属性やタグを検索するためにファセットを定義する必要は**ありません**。 -2. 属性検索は大文字と小文字を区別します。 [全文検索](#full-text-search)を使うと大文字と小文字を区別せずに検索できます。また、検索時に大文字と小文字を区別しない結果を得るために、Grok パーサーで `lowercase` フィルターを使用してパースすることもできます。 +2.属性の検索は大文字と小文字を区別します。[全文検索](#full-text-search)を使用して、大文字と小文字を区別しない結果を取得します。別のオプションは、検索中に大文字と小文字を区別しない結果を得るために、Grokパーサーを使用して`lowercase`フィルターを使用することです。 -3. 特殊文字を含む属性値を検索するには、エスケープ処理または二重引用符が必要です。 - - たとえば、値が `hello:world` の属性 `my_attribute` は、`@my_attribute:hello\:world` または `@my_attribute:"hello:world"` を使用して検索します。 - - 単一の特殊文字またはスペースに一致させるには、`?` ワイルドカードを使用します。たとえば、値が `hello world` の属性 `my_attribute` は、`@my_attribute:hello?world` を使用して検索します。 +3.特殊文字を含む属性値を検索するには、エスケープ処理または二重引用符が必要です。 + - 例えば、属性`my_attribute`の値が`hello:world`の場合、次のように検索します: `@my_attribute:hello\:world` または `@my_attribute:"hello:world"`。 + - 単一の特殊文字またはスペースに一致させるには、`?`ワイルドカードを使用します。例えば、属性`my_attribute`の値が`hello world`の場合、次のように検索します: `@my_attribute:hello?world`。 例: | 検索クエリ | 説明 | |----------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `@http.url_details.path:"/api/v1/test"` | 属性 `http.url_details.path` に `/api/v1/test` と一致するすべてのログを検索します。 | -| `@http.url:/api\-v1/*` | `http.url` 属性に `/api-v1/` で始まる値を含むすべてのログを検索します。 | -| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | `http.status_code` の値が 200 から 299 で、`http.url_details.path` 属性に `/api-v1/` で始まる値を含むすべてのログを検索します。 | -| `-@http.status_code:*` | `http.status_code` 属性を含まないすべてのログを検索します | +| `@http.url_details.path:"/api/v1/test"` | 属性`http.url_details.path`で`/api/v1/test`に一致するすべてのログを検索します。 | +| `@http.url:/api\-v1/*` | 属性`http.url`に、`/api-v1/` |で始まる値を含むすべてのログを検索します。 +| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | 200から299の間の`http.status_code`値を含むすべてのログを検索し、`http.url_details.path`属性に、`/api-v1/` |で始まる値を含むログを検索します。 +| `-@http.status_code:*` | `http.status_code`属性|を含まないすべてのログを検索します。 -### CIDR 表記による検索 -CIDR (Classless Inter Domain Routing) は、IP アドレスの範囲 (CIDR ブロックとも呼ばれる) を簡潔に定義することができる表記法です。CIDR は、ネットワーク (VPC など) またはサブネットワーク (VPC 内のパブリック/プライベートサブネットなど) を定義するために最もよく使用されます。 +### CIDR表記による検索{#search-using-cidr-notation} +クラスレスインタードメインルーティング(CIDR)は、ユーザーがIPアドレスの範囲(CIDRブロックとも呼ばれる)を簡潔に定義できる表記法です。CIDRは、ネットワーク(VPCなど)やサブネット(VPC内のパブリック/プライベートサブネットなど)を定義するために最も一般的に使用されます。 -ユーザーは `CIDR()` 関数を使用して、CIDR 表記を使用してログの属性をクエリすることができます。`CIDR()` 関数は、フィルタリングのパラメーターとしてログ属性を渡し、その後に 1 つまたは複数の CIDR ブロックを渡す必要があります。 +ユーザーは、CIDR表記を使用してログ内の属性をクエリするために`CIDR()`関数を使用できます。`CIDR()`関数は、フィルタリング対象のログ属性をパラメータとして渡し、その後に1つまたは複数のCIDRブロックを続ける必要があります。 -#### 例 -- `CIDR(@network.client.ip,13.0.0.0/8)` は、フィールド `network.client.ip` の IP アドレスが 13.0.0.0/8 CIDR ブロックに該当するログにマッチしてフィルターをかけます。 -- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` は、配列属性 `network.ip.list` の IP アドレスが 13.0.0.0/8 または 15.0.0.0/8 CIDR ブロックに該当するログにマッチしてフィルターをかけます。 -- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` は、13.0.0.0/8 サブネットで発信されるパロアルトファイアウォールの拒否イベントにマッチしてフィルターにかけます。 -- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` は、サブネット間で環境内のネットワークトラフィックを分析するため、サブネット 13.0.0.0/8 から発生していないが、宛先サブネット 15.0.0.0/8 へ向けられている VPC ログをすべて表示します。 +####例{#examples} +- `CIDR(@network.client.ip,13.0.0.0/8)`は、フィールド`network.client.ip`にあるIPアドレスが13.0.0.0/8 CIDRブロックに該当するログにマッチしてフィルターをかけます。 +- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)``network.ip.list` 配列属性にあるIPアドレスが13.0.0.0/8または15.0.0.0/8 CIDRブロックに該当するログにマッチしてフィルターをかけます。 +- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)`13.0.0.0/8 サブネットから発生する Palo Alto ファイアウォールの拒否イベントにマッチしてフィルターをかけます。 +- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)` は、サブネット 13.0.0.0/8 から発生していないが、宛先サブネット 15.0.0.0/8 へ向けられている VPC ログをすべて表示します。これは、サブネット間で環境内のネットワークトラフィックを分析したいためです。 -`CIDR()` 関数は、IPv4 と IPv6 の CIDR 表記をサポートし、ログエクスプローラー、Live Tail、ダッシュボードのログウィジェット、ログモニター、およびログ構成で動作します。 +`CIDR()` 関数は、IPv4 と IPv6 の CIDR 表記をサポートし、Log Explorer、Live Tail、ダッシュボードのログウィジェット、ログモニター、およびログ構成で動作します。 -## ワイルドカード +##ワイルドカード {#wildcards} -フリーテキスト検索ではワイルドカードを使用することができます。ただし、ログエクスプローラーの `content` 列のテキストであるログメッセージ内の用語のみを検索します。ログ属性の値を検索したい場合は、[全文検索](#full-text-search)を参照してください。 +自由なテキスト検索にワイルドカードを使用できます。ただし、ログメッセージ内の用語のみを検索し、ログエクスプローラーの `content` 列のテキストを検索します。ログ属性内の値を検索したい場合は、[全文検索](#full-text-search)を参照してください。 -### 複数文字のワイルドカード +###複数文字のワイルドカード {#multi-character-wildcard} -ログメッセージ (ログエクスプローラーの `content` 列) で複数文字のワイルドカード検索を行うには、以下のように `*` 記号を使用します。 +ログメッセージ (Log Explorerの `content` 列) で複数文字のワイルドカード検索を行うには、以下のように `*` 記号を使用します。 * `service:web*` は、`web` で始まるサービスを持つすべてのログメッセージに一致します。 -* `web*` は、`web` で始まるすべてのログメッセージに一致します。 -* `*web` は、`web` で終わるすべてのログメッセージに一致します。 +* `web*``web` で始まるすべてのログメッセージに一致します。 +* `*web``web` で終わるすべてのログメッセージに一致します。 -**注**: ワイルドカードは、二重引用符の外側にあるワイルドカードとしてのみ機能します。例えば、`"*test*"` は、メッセージの中に `*test*` という文字列があるログにマッチします。`*test*` は、メッセージのどこかに test という文字列を持つログにマッチします。 +**注意**: ワイルドカードは、二重引用符の外側でのみワイルドカードとして機能します。例えば、`"*test*"` は、メッセージ内に文字列 `*test*` を含むログに一致します。`*test*` は、メッセージ内の任意の場所に文字列 test を含むログに一致します。 -ワイルドカード検索は、この構文を使用してタグおよび属性 (ファセット使用の有無を問わない) 内で機能します。次のクエリは、文字列 `mongo` で終わるすべてのサービスを返します。 +ワイルドカード検索は、この構文でタグや属性 (ファセット化されていないものも含む) 内で機能します。このクエリは、文字列 `mongo` で終わるすべてのサービスを返します。

    @@ -144,73 +154,86 @@ CIDR (Classless Inter Domain Routing) は、IP アドレスの範囲 (CIDR ブ service:*mongo ``` -ワイルドカード検索は、ログ属性の一部ではないログのプレーンテキストを検索するためにも使用できます。例えば、このクエリは文字列 `NETWORK` を含むコンテナ (メッセージ) を持つすべてのログを返します。 +Wildcard検索は、ログ属性の一部でないログのプレーンテキスト内を検索するためにも使用できます。例えば、このクエリは、文字列 `NETWORK` を含むコンテンツ (メッセージ) を持つすべてのログを返します。 ``` *NETWORK* ``` -しかし、この検索語は、文字列 `NETWORK` がログ属性内にあり、ログメッセージの一部でない場合は、それを含むログを返しません。 +ただし、この検索語は、文字列 `NETWORK` がログ属性内にあり、ログメッセージの一部でない場合は、それを含むログを返しません。 -### ワイルドカードを検索 +###検索ワイルドカード {#search-wildcard} -特殊文字を含む属性値またはタグ値を検索する場合や、エスケープまたは二重引用符を必要とする場合は、`?` ワイルドカードを使用して 1 つの特殊文字またはスペースに一致させます。たとえば、値が `hello world` の属性 `my_attribute` を検索するには: `@my_attribute:hello?world` +特殊文字を含む属性やタグの値を検索する場合、またはエスケープや二重引用符が必要な場合は、`?` Wildcardを使用して単一の特殊文字またはスペースに一致させます。例えば、値が `hello world` の属性 `my_attribute` を検索するには: `@my_attribute:hello?world`。

    -## 数値 +## 数値 {#numerical-values} -数値属性を検索するには、まず[その属性をファセットとして追加][2]します。次に、数値演算子 (`<`、`>`、`<=`、または `>=`) を使用して、数値ファセットの検索を行うことができます。 -例えば、応答時間が 100ms 超のログをすべて取得するには、次のようにします。 +数値属性で検索するには、まず [ファセットとして追加してください][2]。その後、数値ファセットに対して検索を行うために、数値演算子 (`<`,`>`, `<=`, または `>=`) を使用できます。 +例えば、応答時間が 100ms を超えるすべてのログを取得するには:

    ``` @http.response_time:>100 ``` -特定の範囲内にある数値属性を検索することができます。たとえば、4xx エラーをすべて取得するには、次のようにします。 +特定の範囲内で数値属性を検索できます。例えば、すべての 4xx エラーを取得するには: ``` @http.status_code:[400 TO 499] ``` -## タグ +## タグ {#tags} -ログは、タグを生成する[ホスト][3]と[インテグレーション][4]からタグを引き継ぎます。これらも、ファセットとして検索で使用できます。 +ログは、それらを生成する [ホスト][3] および [インテグレーション][4] からタグを継承します。検索やファセットとしても使用できます: -* `test` は文字列「test」を検索します。 -* `env:(prod OR test)` は、タグ `env:prod` またはタグ `env:test` を含むすべてのログに一致します。 -* `(env:prod AND -version:beta)` は、タグ `env:prod` を含み、タグ `version:beta` は含まないすべてのログに一致します。 +* `test` は文字列 "test" を検索しています。 +* `env:(prod OR test)`タグ `env:prod` またはタグ `env:test` を持つすべてのログに一致します。 +* `(env:prod AND -version:beta)` はタグ `env:prod` を含み、タグ `version:beta` を含まないすべてのログに一致します。 -タグが[タグのベストプラクティス][5]に従わず、`key:value` 構文も使用していない場合は、次の検索クエリを使用します。 +タグが [タグのベストプラクティス][5] に従わず、`key:value` 構文も使用していない場合は、次の検索クエリを使用します: * `tags:` -## 配列 +## 配列 {#arrays} -次の例では、ファセットで `Peter` 値をクリックすると、`users.names` 属性の値が `Peter` であるか、`Peter` を含む配列であるすべてのログが返されます。 +次の例では、ファセット内の `Peter` の値をクリックすると、`users.names` 属性を持つすべてのログが返され、その値は `Peter` か、または `Peter` を含む配列となります。 {{< img src="logs/explorer/search/array_search.png" alt="配列とファセット" style="width:80%;">}} **注**: 同等の構文を使用して、検索をファセットではない配列属性にも使用することができます。 -以下の例では、Windows 用の CloudWatch ログは、`@Event.EventData.Data` の下に JSON オブジェクトの配列が含まれています。JSON オブジェクトの配列にファセットを作成することはできませんが、以下の構文で検索することができます。 +次の例では、Windows 用 CloudWatch ログの `@Event.EventData.Data` の下に JSON オブジェクトの配列が含まれています。JSONオブジェクトの配列にファセットを作成することはできませんが、次の構文を使用して検索できます。 -* `@Event.EventData.Data.Name:ObjectServer` はキー`Name` と値 `ObjectServer` ですべてのログに一致します。 +* `@Event.EventData.Data.Name:ObjectServer`キー `Name` と値 `ObjectServer` を持つすべてのログに一致します。 -{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="JSON オブジェクト配列上のファセットなしクエリ" style="width:80%;">}} -

    +{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="JSONオブジェクトの配列に対するファセットなしのクエリ" style="width:80%;">}} + +### ネストされた配列検索 {#nested-array-search} + +配列属性内のネストされたフィールドを検索するには、完全な属性パスに `@` プレフィックスを使用します。ログエクスプローラーは配列内の任意のアイテムに一致します: + +* `@network.ip.attributes.ip:2a02\:1810*` は、`network.ip.attributes` 配列内の少なくとも1つのアイテムが `ip` フィールドで `2a02:1810` で始まるすべてのログに一致します。 + +配列が複数の特定の値を含むログに一致させるには、値を括弧内にリストします: + +* `@user_perms:(4 6)` は、`user_perms` 配列が `4` と `6` の両方を含むすべてのログに一致します。 + +配列が範囲内の任意の値を含むログに一致させるには、範囲クエリを使用します: + +* `@user_perms:[2 TO 6]` は、`user_perms` 配列が `2` と `6` の間に少なくとも1つの値を含むすべてのログに一致します。 -## 計算フィールド +##計算フィールド {#calculated-fields} 計算フィールドはログ属性のように機能し、検索、集計、可視化、さらには他の計算フィールドの定義にも使用できます。計算フィールド名を参照するには、`#` プレフィックスを使用してください。 -{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Log Explorer で結果をフィルタリングするために使用される request_duration という計算フィールド" style="width:100%;" >}} +{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="ログエクスプローラーで結果をフィルタリングするために使用されるrequest_durationという計算フィールド" style="width:100%;" >}} -## 検索の保存 +## 検索の保存 {#saved-searches} -[保存ビュー][6]に、検索クエリ、列、対象期間、およびファセットが格納されます。 +[Saved Views][6] に、検索クエリ、列、対象期間、およびファセットが格納されます。 -## その他の参考資料 +##参考資料 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -220,4 +243,5 @@ service:*mongo [4]: /ja/integrations/#cat-log-collection [5]: /ja/getting_started/tagging/#tags-best-practices [6]: /ja/logs/explorer/saved_views/ -[7]: /ja/logs/explorer/facets/#facet-panel \ No newline at end of file +[7]: /ja/logs/explorer/facets/#facet-panel +[8]: /ja/logs/log_configuration/attributes_naming_convention/#reserved-attributes \ No newline at end of file diff --git a/content/ja/real_user_monitoring/guide/proxy-rum-data.mdoc.md b/content/ja/real_user_monitoring/guide/proxy-rum-data.mdoc.md new file mode 100644 index 00000000000..050aa1635e0 --- /dev/null +++ b/content/ja/real_user_monitoring/guide/proxy-rum-data.mdoc.md @@ -0,0 +1,229 @@ +--- +aliases: +- /ja/real_user_monitoring/faq/proxy_rum_data/ +content_filters: +- label: SDK source + option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_proxying_options + trait_id: rum_browser_sdk_version +description: SDK のソースオプションおよびバージョン固有の設定を使用して、カスタムネットワークルーティングのためにブラウザ RUM データのプロキシ経由の送信を構成します。 +further_reading: +- link: /real_user_monitoring/ + tag: Documentation + text: Real User Monitoring について +title: ブラウザの RUM データをプロキシする +--- +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +{% alert level="danger" %} +プロキシ設定のセキュリティ脆弱性を回避するために、Browser SDK `4.34.0` 以降にアップグレードしてください。 +{% /alert %} +{% /if %} + +##概要 {% #overview %} + +RUM ブラウザ SDK は、プロキシを介してリクエストを送信するように構成できます。SDK の `proxy` [初期化パラメータ][1] を `https://www.example-proxy.com/any-endpoint` のような URL に設定すると、すべての RUM データが POST メソッドを使用してその URL に送信されます。RUM データは、プロキシから Datadog に転送する必要があります。 + +##前提条件プロキシ設定 {% #prerequisite-proxy-setup %} + +リクエストを Datadog に正常に転送するには、プロキシが次の要件を満たしている必要があります。 + +1. [Datadog インテイク URL を構築します](#build-the-datadog-intake-url)。 +2.正確な geoIP のために、リクエストクライアント IP アドレスを含む `X-Forwarded-For` ヘッダーを追加します。 +3.POST メソッドで Datadog インテーク URL にリクエストを転送します。 +4.リクエスト本文は変更しないでください。 + +{% alert level="warning" %} +-セキュリティ上の理由から、`cookie` ヘッダーなど、機密情報を含む可能性のある HTTP ヘッダーは削除してください。 +-リクエストボディにはバイナリデータを含めることができ、文字列に変換してはいけません。プロキシの実装が変換なしで生のボディを転送することを確認してください。 +-プロキシの実装が悪意のあるアクターが異なるサーバーにリクエストを送信することを許可しないことを確認してください。たとえば: `https://browser-intake-datadoghq.com.malicious.com`。 +{% /alert %} + +###Datadog インテイク URL を構築します{% #build-the-datadog-intake-url %}。 + +Datadog インテイク URL は `/` の形式である必要があります(例: `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser&...`)。 + +{% table %} +--- +*インテイクオリジン +* + Datadog インテイクオリジンは、あなたの `site` [初期化パラメータ][1] に対応します。サイトパラメーターに対応する Datadog インテークオリジンは、プロキシ実装で定義する必要があります。 + + {% site-region region="us" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-datadoghq.com` です。 + {% /site-region %} + + {% site-region region="us3" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-us3-datadoghq.com` です。 + {% /site-region %} + + {% site-region region="us5" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-us5-datadoghq.com` です。 + {% /site-region %} + + {% site-region region="eu" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-datadoghq.eu` です。 + {% /site-region %} + + {% site-region region="ap1" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-ap1-datadoghq.com` です。 + {% /site-region %} + + {% site-region region="ap2" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-ap2-datadoghq.com` です。 + {% /site-region %} + + {% site-region region="gov" %} + あなたの Datadog サイトのインテイクオリジンは `https://browser-intake-ddog-gov.com` です。 + {% /site-region %} +--- +* パス +* + パスには API バージョンと製品が含まれています(例えば、RUM データの場合は `/api/v2/rum`、セッションリプレイデータの場合は `/api/v2/replay`)。 + + 各リクエストのパスは、リクエストの `ddforward` パラメーターでアクセスできます(例えば、`https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`)。 +--- +*パラメーター +* + リクエストパラメータ(例えば、`ddsource=browser&...`)は、リクエストの `ddforward` パラメータからアクセスできます(例えば、`https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`)。 + +{% /table %} + +##SDK セットアップ {% #sdk-setup %} + + +{% if includes($rum_browser_sdk_version, ["gte_5_4_0", "gte_4_34_0"]) %} + +`proxy`初期化パラメーターにプロキシのURLを設定してください: + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: '', +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '', + }); +}); +``` + +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '' + }); +``` +{% /if %} + + +RUM Browser SDK は、すべてのリクエストに `ddforward` クエリパラメーターを追加します。このクエリパラメーターには、すべてのデータが転送されるべきURLパスとパラメーターが含まれています。 + +例えば、`site`が`datadoghq.eu`に設定され、`proxy`が`https://example.org/datadog-intake-proxy`に設定されている場合、RUM Browser SDK は次のような URL にリクエストを送信します:`https://example.org/datadog-intake-proxy?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`。プロキシはリクエストを`https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser`に転送します。 + + +{% if equals($rum_browser_sdk_version, "gte_5_4_0") %} +### `proxy` 初期化パラメーターに関数を渡す {% #passing-a-function-to-the-proxy-initialization-parameter %} + +`proxy` 初期化パラメーターは関数入力もサポートしています。この関数を使用すると、パスとパラメータをプロキシ URL に追加する方法をより制御できます。 + +この関数は、次のプロパティを持つオブジェクトを受け取ります: + +- `path`: Datadog リクエストのパス(例: `/api/v2/rum`) +- `parameters`: Datadog リクエストのパラメータ(例: `ddsource=browser&...`) + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, + }) +}) +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}` + }); +``` +{% /if %} + + +**注:** +- 一部のプライバシーブロッカーはすでにインテーク [URL パターン][2] をターゲットにしているため、プロキシ URL を構築する際にそれを考慮することをお勧めします。 +-`proxy` 関数は各リクエストに対して呼び出されるため、重い計算を避けるべきです。 +- **JSP ウェブアプリケーション** は、これらのパラメータをブラウザに適切に伝播させるために `\` エスケープ文字を使用する必要があります。たとえば、次のとおりです。 + ```javascript + proxy: (options) => 'http://proxyURL:proxyPort\${options.path}?\${options.parameters}', + ``` +{% /if %} + + +{% /if %} + + + +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +Browser SDK v4.34.0 より前は、`proxyUrl` 初期化パラメータが使用され、Datadog インテークオリジンは `ddforward` 属性に含まれていました。プロキシ実装はこのホストの検証を担当しており、これを行わないとさまざまな脆弱性が発生しました。 + +Datadog インテークオリジンは、セキュリティを確保するために、プロキシ実装で定義する必要があります。 + +**セキュリティの脆弱性を避けるために、Browser SDK `4.34.0` 以降にアップグレードする必要があります。** +{% /if %} + + +[1]: /ja/real_user_monitoring/application_monitoring/browser/setup/client/?tab=rum#initialization-parameters +[2]: https://github.com/easylist/easylist/blob/997fb6533c719a015c21723b34e0cedefcc0d83d/easyprivacy/easyprivacy_general.txt#L3840 \ No newline at end of file diff --git a/content/ja/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/ja/security/code_security/static_analysis/static_analysis_rules/_index.md index ccc8e106233..72212317f44 100644 --- a/content/ja/security/code_security/static_analysis/static_analysis_rules/_index.md +++ b/content/ja/security/code_security/static_analysis/static_analysis_rules/_index.md @@ -1,269 +1,335 @@ --- -title: SAST ルール -description: 静的コード解析向けの複数言語に対応したルールを表示します。 aliases: -- /continuous_integration/static_analysis/rules -- /static_analysis/rules -- /code_analysis/static_analysis_rules -- /security/code_security/static_analysis_rules +- /ja/continuous_integration/static_analysis/rules +- /ja/static_analysis/rules +- /ja/code_analysis/static_analysis_rules +- /ja/security/code_security/static_analysis_rules +cascade: + banner: + link: + name: Datadog Code Security + url: https://www.datadoghq.com/product/code-security/ + title: シームレスな連携。 Datadog Code Security をお試しください + modal: + bottom_boxes: + - cta_title: 拡張機能のダウンロード + cta_url: https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode + icon: vscode + subtitle: VS Code エディターで
    直接コードの脆弱性を特定する + title: VS Code 拡張機能 + - cta_title: プラグインのダウンロード + cta_url: https://plugins.jetbrains.com/plugin/19495-datadog + icon: jetbrains + subtitle: JetBrains 製品で
    直接コードの脆弱性を特定する + title: JetBrains プラグイン + footer: + link: + name: Datadog Code Security + url: https://www.datadoghq.com/product/code-security/ + text: Datadog Code Security を使用して、開発プロセスのあらゆるステップでコードの問題を検出します + title: このルールを試して、Datadog Code Security でコードを分析してみましょう + top_box: + footer: For more information, please read the Code + Security documentation + steps: + - Create a static-analysis.datadog.yml with the content above at the root of + your repository + - Use our free IDE Plugins or add Code Security scans to your CI pipelines + - Get feedback on your code + title: このルールの使用方法 +description: 複数言語に対応した Static Code Analysis のルールを表示します。 +further_reading: +- link: /security/code_security/ + tag: Documentation + text: Datadog Code Security について学びましょう is_beta: false -type: static-analysis rulesets: + apex-code-style: + description: '確立されたコーディング規約に従った Apex のルールを記述するための Code Security ルールです。 + + ' + title: Apex コードスタイルとベストプラクティスを徹底するためのルールです。 + apex-security: + description: 'Apex コードのセキュリティ問題を発見するためのルールです。 + + ' + title: Apex のセキュリティルール + bash-code-quality: + description: 'Bash スクリプトのコード品質を強制するルールです。 + + ' + title: Bash スクリプトのコード品質ルールです。 + bash-security: + description: 'Bash スクリプトのセキュリティベストプラクティスを徹底するためのルールです。 + + ' + title: Bash スクリプトのセキュリティルール csharp-best-practices: - title: "C# のベスト プラクティス" - description: | - C# のベスト プラクティスを強制するルール。 + description: 'C# のベストプラクティスを徹底するためのルールです。 + + ' + title: C# のベストプラクティス csharp-code-style: - title: "C# のコード スタイル パターンに従う" - description: | - C# のコード スタイルを強制するルール。 + description: 'C# コードスタイルを強制するルールです。 + + ' + title: C# コードスタイルパターンに従いましょう csharp-inclusive: - title: "C# でインクルーシブな言語を使用する" - description: | - C# コードをよりインクルーシブにするためのルール。 + description: 'C# コードをよりインクルーシブにするためのルールです。 + + ' + title: C# でインクルーシブな表現を使用する csharp-security: - title: "安全でセキュアな C# コードを書く" - description: | - C# コードのセキュリティ上の問題の検出に特化したルール。 + description: 'C# コードのセキュリティ問題を発見するためのルールです。 + + ' + title: 安全でセキュアな C# コードを書く docker-best-practices: - title: Docker のベスト プラクティスに従う - description: | - Docker の使用に関するベスト プラクティス。 + description: 'Docker を使うためのベストプラクティス。 + + ' + title: Docker を使用する際のベストプラクティスに従う github-actions: - title: GitHub Actions をセキュアにする - description: | - GitHub Actions をチェックし、権限やバージョン固定などの危険なパターンを検出するルール。 + description: 'GitHub Actions をチェックし、権限やバージョンピンニングなどの安全でないパターンを検出するためのルールです。 + + ' + title: GitHub Actions を安全に保つ go-best-practices: - title: Go のベスト プラクティス - description: | - Go コードの記述をより高速かつ容易にするためのルール。コード スタイルからバグ防止まで、開発者が高性能で、保守性と効率性に優れた Go コードを書くのを支援します。 + description: 'Go コードをより速く、簡単に書くためのルールです。コードスタイルからバグの防止まで、このルールセットは、開発者がパフォーマンスに優れ、保守性が高く、効率的な + Go コードを書くための支援をします。 + + ' + title: Go のベストプラクティス go-inclusive: - title: Go でインクルーシブな言語を使用する - description: | - Go コードの言い回しの問題をチェックするルール。 + description: 'Go コードの表現に問題がないか確認します。 + + ' + title: Go でインクルーシブな表現を使用する go-security: - title: Go コードが安全かつセキュアであることを確保する - description: | - Go のコード ベースで一般的なセキュリティ上の問題 (SQL インジェクション、XSS、シェル インジェクションなど) を検出するルール。 + description: 'Go コードベースにおける一般的なセキュリティ問題 (SQL インジェクション、XSS、シェルインジェクションなど) を検出します。 + + ' + title: Go コードの安全性とセキュリティを確保 java-best-practices: - title: Java のベスト プラクティスに従う - description: | - Java のベスト プラクティスを強制するルール。 + description: 'Java のベストプラクティスを徹底するためのルールです。 + + ' + title: Java におけるベストプラクティスに従う java-code-style: - title: Java のコード スタイル パターンに従う - description: | - Java のコード スタイルを強制するルール。 + description: 'Java コードスタイルを強制するルールです。 + + ' + title: Java コードスタイルのパターンに従う java-inclusive: - title: Java でインクルーシブな言語を使用する - description: | - コードやコメントにおける不適切な表現を避けるための Java 向けのルール。 + description: 'Java のコードとコメントで不適切な表現を避けるためのルールです。 + + ' + title: Java でインクルーシブな表現を使用する java-security: - title: Java コードのセキュリティを確保する - description: | - Java コードのセキュリティ上の問題の検出に特化したルール。 + description: 'Java コードのセキュリティ問題を発見するためのルールです。 + + ' + title: Java コードが安全であることを確認する javascript-best-practices: - title: JavaScript コード作成のベスト プラクティスに従う - description: | - JavaScript のベスト プラクティスを強制するルール。 + description: 'JavaScript のベストプラクティスを強制するためのルール。 + + ' + title: JavaScript コードを書くためのベストプラクティスに従う javascript-browser-security: - title: JavaScript Web アプリケーション向けのセキュリティ ルール - description: | - JavaScript Web アプリケーションのセキュリティ上の問題の検出に特化したルール。 + description: 'JavaScript Web アプリケーションのセキュリティ問題を見つけることに焦点を当てたルール。 + + ' + title: JavaScript Web アプリケーションのセキュリティルール javascript-code-style: - title: JavaScript のコード スタイルを強制する - description: | - JavaScript のコード スタイルを強制するルール。 + description: 'JavaScript コードスタイルを強制するためのルール。 + + ' + title: JavaScript コードスタイルの強制 javascript-common-security: - title: JavaScript の一般的なセキュリティ ルール - description: | - JavaScript コードのセキュリティ上の問題の検出に特化したルール。 + description: 'JavaScript コードのセキュリティ問題を見つけることに焦点を当てたルール。 + + ' + title: JavaScript の一般的なセキュリティルール javascript-express: - title: Express.js のベスト プラクティスとセキュリティをチェックする - description: | - Express.js のベスト プラクティスとセキュリティ向けのルール。 + description: 'Express.js のベストプラクティスとセキュリティに特化したルール。 + + ' + title: Express.js のベストプラクティスとセキュリティをチェックする javascript-inclusive: - title: JavaScript コードの表現上の問題をチェックする - description: | - コードやコメントにおける不適切な表現を避けるための JavaScript 向けのルール。 + description: 'コードやコメントにおける不適切な表現を避けるための JavaScript のルールです。 + + ' + title: 表現に問題がないか JavaScript コードをチェックする javascript-node-security: - title: Node における潜在的なセキュリティ ホット スポットを特定する - description: | - Node における潜在的なセキュリティ ホット スポットを特定するルール。追加のトリアージを要する誤検知が含まれる場合があります。 + description: 'Node における潜在的なセキュリティホットスポットを特定するためのルールです。これには、さらなるトリアージが必要な誤検知が含まれる場合があります。 + + ' + title: Node における潜在的なセキュリティホットスポットを特定する jsx-react: - title: React 固有のリント ルール - description: | - このプラグインは React のベスト プラクティスを強制する `recommended` 構成をエクスポートします。 + description: 'このプラグインは、React のグッドプラクティスを強制する `recommended` 構成をエクスポートします。 + + ' + title: React 固有のリンティングルール kotlin-best-practices: - title: Kotlin コード作成のベスト プラクティスに従う - description: | - Kotlin のベスト プラクティスを強制するルール。 + description: 'Kotlin のベストプラクティスを徹底するためのルールです。 + + ' + title: Kotlin コードを書くためのベストプラクティスに従う kotlin-code-style: - title: Kotlin のコード スタイルを強制する - description: | - Kotlin のコード スタイルを強制するルール。 + description: 'Kotlin コードスタイルを強制するためのルール。 + + ' + title: Kotlin コードスタイルを強制する。 kotlin-security: - title: 安全な Kotlin コーディングを強制する - description: | - Kotlin コードのセキュリティ上の問題の検出に特化したルール。 + description: 'Kotlin コードのセキュリティ問題を発見するためのルール。 + + ' + title: 安全な Kotlin コーディングを強制する。 php-best-practices: - title: PHP コード作成のベスト プラクティスに従う - description: | - コード スタイルの改善、バグ防止、高性能・保守性・効率性に優れた PHP コードの実現のために、PHP のベスト プラクティスを強制するルール。 + description: 'PHP のベストプラクティスを徹底し、コードスタイルを向上させ、バグを防止し、パフォーマンス、保守性、効率性に優れた PHP コードを書くためのルールです。 + + ' + title: PHP コードの記述におけるベストプラクティスに従う php-code-style: - title: PHP のコード スタイルを強制する - description: | - PHP のコード スタイルを強制するルール。 + description: 'PHP コードスタイルを強制するルールです。 + + ' + title: PHP コードスタイルの強化 php-security: - title: PHP 向けのセキュリティ ルール - description: | - PHP コードのセキュリティ上の問題の検出に特化したルール。 + description: 'PHP コードのセキュリティ問題を発見するためのルールです。 + + ' + title: PHP のセキュリティルール python-best-practices: - title: Python コード作成のベスト プラクティスに従う - description: | - 効率的でバグのないコードを書くための Python のベスト プラクティス。 + description: '効率的でバグのないコードを書くための Python のベストプラクティス。 + + ' + title: Python コードを書くためのベストプラクティスに従う python-code-style: - title: Python のコード スタイルを強制する - description: | - Python のコード スタイルを強制するルール。 + description: 'Python コードスタイルを強制するルール。 + + ' + title: Python コードスタイルの強制 python-design: - title: Python プログラムの構造をチェックする - description: | - 入れ子のループなどを含む、Python プログラムの構造をチェックするルール。 + description: 'ネストされたループのようなものを含む、Python プログラムの構造をチェックするためのルール。 + + ' + title: Python プログラムの構造チェック python-django: - title: Django のベスト プラクティスとセキュリティをチェックする - description: | - Django のベスト プラクティスとセキュリティ向けのルール。 + description: 'Django のベストプラクティスとセキュリティに特化したルール。 + + ' + title: Django のベストプラクティスとセキュリティをチェックする python-flask: - title: Flask のベスト プラクティスとセキュリティをチェックする - description: | - Flask のベスト プラクティスとセキュリティ向けのルール。 + description: 'Flask のベストプラクティスとセキュリティに特化したルール。 + + ' + title: Flask のベストプラクティスとセキュリティをチェックする python-inclusive: - title: Python コードの表現上の問題をチェックする - description: | - コードやコメントにおける不適切な表現を避けるための Python 向けのルール。 - python-pandas: - title: pandas を用いたデータ サイエンスの推奨プラクティス - description: | - pandas コードが適切に使用されているかをチェックするためのルール セット。 + description: 'Python のコードとコメントで不適切な表現を避けるためのルール。 - - `import` 宣言がコーディング ガイドラインに従っていることを保証します。 - - 非推奨のコードやメソッドを避けます。 - - 可能な限り非効率なコードを避けます。 + ' + title: 表現に問題がないか Python コードをチェックする + python-pandas: + description: "pandas コードが適切に使用されていることを確認するための一連のルール。\n\n - `import` 宣言がコーディングガイドラインに従っていることを確認する。\n\ + \ - 非推奨のコードやメソッドを避ける。\n - 可能な限り非効率なコードを避ける。\n" + title: pandas を使ったデータサイエンスのグッドプラクティス python-security: - title: Python コードが安全かつセキュアであることを確保する - description: | - Python コードにおけるセキュリティおよび脆弱性の問題の検出に特化したルール。OWASP Top 10 や SANS Top 25 に含まれる問題も対象にします。 - - - 不適切な暗号化およびハッシュ プロトコルの使用 - - アクセス コントロールの欠如 - - セキュリティ 構成不備 - - SQL インジェクション - - ハード コーディングされた認証情報 - - シェル インジェクション - - 安全でないデシリアライゼーション + description: "OWASP10 および SANS25 に記載されているものを含め、Python コード内のセキュリティや脆弱性の問題を発見することに焦点を当てたルール。\n\ + \n - 粗悪な暗号化およびハッシュ化プロトコルの使用\n - アクセス制御の欠如\n - セキュリティの誤構成\n - SQL インジェクション\n\ + \ - 資格情報のハードコーディング\n - シェルインジェクション\n - 安全でない逆シリアル化\n" + title: Python コードが安全でセキュアなことを確認する rails-best-practices: + description: 'Ruby on Rails コードを書くためのベストプラクティス。 + + ' title: Ruby on Rails コミュニティで広く採用されているパターン - description: | - Ruby on Rails コードを書くためのベスト プラクティス。 ruby-best-practices: - title: Ruby のベスト プラクティスに従う - description: | - Ruby のベスト プラクティスを強制するルール。 + description: 'Ruby のベストプラクティスを徹底するためのルールです。 + + ' + title: Ruby におけるベストプラクティスに従う ruby-code-style: - title: Ruby のコード スタイルを強制する - description: | - 確立されたコーディング標準に準拠した Ruby コード スタイルのための Code Security のルール。 + description: 'Code Security のルールは、確立されたコーディング規約に従う Ruby のルールを作成するためのものです。 + + ' + title: Ruby コードスタイルを強制するルールです。 ruby-inclusive: + description: 'インクルーシブな Ruby コードを書く + + ' title: インクルーシブな Ruby コードのためのルール - description: | - インクルーシブな Ruby コードを書く ruby-security: - title: Ruby 向けのセキュリティ ルール - description: | - Ruby コードのセキュリティ上の問題の検出に特化したルール。 + description: 'Ruby コードのセキュリティ問題を発見するためのルールです。 + + ' + title: Ruby のセキュリティルール + swift-code-style: + description: 'Code Security のルールは、確立されたコーディング規約に従う Swift のルールを作成するためのものです。 + + ' + title: Swift コードスタイルとベストプラクティスを強制するためのルール。 + swift-security: + description: 'Swift コードのセキュリティ問題を発見するためのルール。 + + ' + title: Swift のセキュリティルール。 terraform-aws: + description: 'AWS のための Terraform ベストプラクティスを強制するためのルール。 + + ' title: Terraform AWS - description: | - AWS 向けの Terraform ベスト プラクティスを強制するルール。 tsx-react: + description: 'このプラグインは、React のグッドプラクティスを強制する `recommended` 構成をエクスポートします。 + + ' title: TypeScript React のコード品質 - description: | - このプラグインは React のベスト プラクティスを強制する `recommended` 構成をエクスポートします。 typescript-best-practices: - title: TypeScript コード作成のベスト プラクティスに従う - description: | - TypeScript のベスト プラクティスを強制するルール。 + description: 'TypeScript のベストプラクティスを強制するためのルール。 + + ' + title: TypeScript コードを書くためのベストプラクティスに従う typescript-browser-security: - title: TypeScript Web アプリケーション向けのセキュリティ ルール - description: | - TypeScript Web アプリケーションにおけるセキュリティ上の問題の検出に特化したルール。 + description: 'TypeScript Web アプリケーションのセキュリティ問題を見つけることに焦点を当てたルール。 + + ' + title: TypeScript Web アプリケーションのセキュリティルール typescript-code-style: - title: TypeScript の意見の強いコード パターン - description: | - 現代的な TypeScript コード ベースにおけるベスト プラクティスと考えられるが、プログラム ロジックには影響しないルール。これらのルールは、よりシンプルなコード パターンの適用について一般に意見が強いものです。 + description: '現代の TypeScript コードベースにおけるベストプラクティスと見なされるルールですが、プログラムのロジックには影響しません。これらのルールは、一般的によりシンプルなコードパターンを強制することに関して意見が分かれています。 + + ' + title: TypeScript の意見主義的コードパターン typescript-common-security: - title: TypeScript の一般的なセキュリティ ルール - description: | - TypeScript コードのセキュリティ上の問題の検出に特化したルール。 + description: 'TypeScript コードのセキュリティ問題を見つけることに焦点を当てたルール。 + + ' + title: TypeScript の一般的なセキュリティルール typescript-express: - title: Express.js TypeScript のベスト プラクティスとセキュリティをチェックする - description: | - Express.js TypeScript のベスト プラクティスとセキュリティ向けのルール。 + description: 'Express.js TypeScript のベストプラクティスとセキュリティに特化したルール。 + + ' + title: Express.js TypeScript のベストプラクティスとセキュリティをチェックする typescript-inclusive: - title: TypeScript コードの表現上の問題をチェックする - description: | - コードやコメントにおける不適切な表現を避けるための TypeScript 向けのルール。 - typescript-node-security: - title: Node における潜在的なセキュリティ ホット スポットを特定する - description: | - Node における潜在的なセキュリティ ホット スポットを特定するルール。追加のトリアージを要する誤検知が含まれる場合があります。 -cascade: - modal: - title: このルールを試し、Datadog Code Security でコードを解析する - top_box: - title: このルールの使用方法 - steps: - - リポジトリのルートに、上記の内容で static-analysis.datadog.yml を作成する - - 無償の IDE プラグインを使用するか、CI パイプラインに Code Security のスキャンを追加する - - コードに関するフィードバックを受け取る - footer: 詳細については、Code Security ドキュメント を参照してください - bottom_boxes: - - title: VS Code Extension - icon: vscode - subtitle: あなたの
    VS Code エディタ内で直接コードの脆弱性を特定 - cta_title: Download Extension - cta_url: "https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode" - - title: JetBrains Plugin - icon: jetbrains - subtitle: JetBrains 製品内で直接コードの脆弱性を特定 - cta_title: Download Plugin - cta_url: "https://plugins.jetbrains.com/plugin/19495-datadog" - footer: - text: 開発プロセスのあらゆる段階でコードの問題を検出するために Datadog Code Security を使用する - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + description: 'TypeScript のコードやコメントにおける不適切な表現を避けるためのルールです。 - banner: - title: シームレスな統合。 Datadog Code Security をお試しください - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + ' + title: TypeScript コードの表現の問題をチェック + typescript-node-security: + description: 'Node における潜在的なセキュリティホットスポットを特定するためのルールです。これには、さらなるトリアージが必要な誤検知が含まれる場合があります。 -further_reading: - - link: /security/code_security/ - tag: ドキュメント - text: Datadog Code Security について学ぶ + ' + title: Node における潜在的なセキュリティホットスポットを特定する +title: SAST ルール +type: static-analysis --- - {{% site-region region="gov" %}}
    - Code Security は {{< region-param key="dd_site_name" >}} サイトでは利用できません。 + Code Security は、このサイトでは利用できません. {{< region-param key="dd_site_name" >}} Code Security は、このサイトでは利用できません.
    {{% /site-region %}} -## 概要 +## 概要 {#overview} -Datadog Static Code Analysis は、コード ベースにおけるセキュリティ 脆弱性、バグ、保守性の問題を検出するのに役立つ、すぐに使えるルールを提供します。詳細は [セットアップ ドキュメント][1] を参照してください。 +Datadog 静的コード分析は、コードベース内のセキュリティ脆弱性、バグ、および保守性の問題を検出するための即時利用可能なルールを提供します。詳細については、[Setup documentation][1] を参照してください。 -[1]: /security/code_security/static_analysis/setup/ +[1]: /ja/security/code_security/static_analysis/setup/ \ No newline at end of file diff --git a/content/ja/standard-attributes/_index.md b/content/ja/standard-attributes/_index.md index f0ec17dc3f3..3b02dfd7966 100644 --- a/content/ja/standard-attributes/_index.md +++ b/content/ja/standard-attributes/_index.md @@ -1,1626 +1,1622 @@ --- attributes: -- description: メトリクスに定義されている送信元ホストの名前。Datadog は Datadog 内の一致するホストから対応するホストタグを自動的に取得し、そしてそれらをあなたのテレメトリーに適用します。Agent +- description: メトリクスで定義されている発信元ホストの名前です。Datadog は、Datadog 内の一致するホストから対応するホストタグを自動的に取得し、それをテレメトリに適用します。Agent はこの値を自動的に設定します。 - domain: 予約済み + domain: Reserved name: ホスト product_source: - icon-log - icon-apm - type: 文字列 + type: string - description: 送信元デバイスのタイプ。 - domain: 予約済み + domain: Reserved name: デバイス product_source: - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 -- description: これは、インテグレーション名 (データが生じる技術) に対応します。インテグレーション名と一致する場合、対応するパーサーとファセットが自動的にインストールされます。例えば、`nginx`、`postgresql` + type: string +- description: これは、データの発生元技術である統合名に対応します。統合名と一致する場合、Datadog は対応するパーサーとファセットを自動的にインストールします。例えば、`nginx`、`postgresql` などです。 - domain: 予約済み + domain: Reserved name: source product_source: - icon-log - type: 文字列 -- description: これはデータのレベルや重大度に対応します。ログについては、[ログパターン](/logs/explorer/patterns/)を定義するために使用され、ログ管理 - UI に専用のレイアウトがあります。 - domain: 予約済み + type: string +- description: これは、データのレベルまたは重大度に対応します。ログの場合、[ログパターン](/logs/explorer/patterns/)を定義するために使用され、Log + Management UI には専用のレイアウトがあります。 + domain: Reserved name: status product_source: - icon-log - icon-apm - type: 文字列 -- description: データを生成しているアプリケーションまたはサービスの [統一サービス名](/getting_started/tagging/unified_service_tagging/) - で、ユーザー セッションを相関付けるために使用します。APM から他の製品に切り替えるためにも使用されるため、APM と他の製品の両方を使用する場合は同じ値を定義してください。RUM - Browser SDK では、service はブラウザー アプリケーション内で特定の機能を提供する、チームによって構築されたページの集合を表します。 [手動ビュー - トラッキング](/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names) - を使用して、Web ページを service に割り当てることができます。 - domain: 予約済み - name: サービス + type: string +- description: データを生成しているアプリケーションまたはサービスのための[統一サービス名](/getting_started/tagging/unified_service_tagging/)で、ユーザーセッションを相関させるために使用されます。APM + から他の製品に切り替えるために使用されるため、両方の製品を使用する際には同じ値を定義してください。RUM Browser SDK では、サービスは特定の機能を提供するチームによって構築されたページ群を指します。[手動ビュー追跡](/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names)を使用して、ウェブページをサービスに割り当てることができます。 + domain: Reserved + name: service product_source: - icon-log - icon-rum - icon-apm - android - ios - - ブラウザ + - browser - roku - type: 文字列 -- description: トレースに使用されるトレース ID。ログを含む他のデータとトレースを相関付けるために使用されます。 - domain: 予約済み + type: string +- description: トレースに使用されるトレース ID です。これは、トレースを、ログを含む他のデータと相関させるために使用されます。 + domain: Reserved name: trace_id product_source: - icon-log - icon-apm - type: 数値 + type: number - description: Logs Live Tail でハイライトして表示されるログエントリの本文。全文検索のためにインデックス化されています。 - domain: 予約済み + domain: Reserved name: message product_source: - icon-log - type: 文字列 + type: string - description: ログの送信時にクライアントからサーバーに転送された合計バイト数。 - domain: ネットワーク通信 + domain: Network communications name: network.bytes_read product_source: - icon-log - type: 数値 + type: number - description: ログの送信時にサーバーからクライアントに転送された合計バイト数。 - domain: ネットワーク通信 + domain: Network communications name: network.bytes_written product_source: - icon-log - type: 数値 + type: number - description: 国名。 - domain: 位置情報 + domain: Geolocation name: network.client.geoip.country.name product_source: - icon-log - type: 文字列 -- description: '国の [ISO コード](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) - (例: アメリカ合衆国は `US`、フランスは `FR`)。' - domain: 位置情報 + type: string +- description: 国の [ISO コード](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + (例えば、アメリカなら `US`、フランスなら `FR`)。 + domain: Geolocation name: network.client.geoip.country.iso_code product_source: - icon-log - type: 文字列 + type: string - description: 大陸の ISO コード (`EU`、`AS`、`NA`、`AF`、`AN`、`SA`、`OC`)。 - domain: 位置情報 + domain: Geolocation name: network.client.geoip.continent.code product_source: - icon-log - type: 文字列 + type: string - description: 大陸名 (`Europe`、`Australia`、`North America`、`Africa`、`Antartica`、`South America`、`Oceania`)。 - domain: 位置情報 + domain: Geolocation name: network.client.geoip.continent.name product_source: - icon-log - type: 文字列 + type: string - description: その国で最大規模の地方区分 (米国は `California` 州、フランスは `Sarthe` 県など)。 - domain: 位置情報 + domain: Geolocation name: network.client.geoip.subdivision.name product_source: - icon-log - type: 文字列 -- description: '国の第 1 レベルの行政区の [ISO コード](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) - (例: アメリカ合衆国では `CA`、フランスでは `SA` 県)。' - domain: 位置情報 + type: string +- description: 国の第1次行政区画レベルの [ISO コード](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) + (例えば、アメリカなら `CA`、フランスなら `SA` 部門)。 + domain: Geolocation name: network.client.geoip.subdivision.iso_code product_source: - icon-log - type: 文字列 + type: string - description: 都市名 (`Paris`、`New York` など)。 - domain: 位置情報 + domain: Geolocation name: network.client.geoip.city.name product_source: - icon-log - type: 文字列 + type: string - description: リクエスト中のリソースにリンクした Web ページのアドレスを識別する HTTP ヘッダーフィールド。 domain: HTTP name: http.referer product_source: - icon-log - type: 文字列 + type: string - description: HTTP リクエストの ID。 domain: HTTP name: http.request_id product_source: - icon-log - type: 文字列 + type: string - description: URL の HTTP ホスト部分。 domain: HTTP, URL Details name: http.url_details.host product_source: - icon-log - icon-apm - type: 文字列 + type: string - description: URL の HTTP ポート部分。 domain: HTTP, URL Details name: http.url_details.port product_source: - icon-log - icon-apm - type: 数値 + type: number - description: URL の HTTP パス部分。 domain: HTTP, URL Details name: http.url_details.path product_source: - icon-log - icon-apm - type: 文字列 + type: string - description: クエリパラメーターの key/value 属性として分解された、URL の HTTP クエリ文字列部分。 domain: HTTP, URL Details name: http.url_details.queryString product_source: - icon-log - icon-apm - type: オブジェクト + type: object - description: URL のプロトコル名 (HTTP または HTTPS)。 domain: HTTP, URL Details name: http.url_details.scheme product_source: - icon-log - icon-apm - type: 文字列 + type: string - description: User-Agent によって報告された OS ファミリー。 domain: User-Agent name: http.useragent_details.os.family product_source: - icon-log - type: 文字列 + type: string - description: User-Agent によって報告されたブラウザファミリー。 domain: User-Agent name: http.useragent_details.browser.family product_source: - icon-log - type: 文字列 + type: string - description: User-Agent によって報告されたデバイスファミリー。 domain: User-Agent name: http.useragent_details.device.family product_source: - icon-log - type: 文字列 + type: string - description: ロガーの名前。 - domain: ソースコード + domain: Source code name: logger.name product_source: - icon-log - type: 文字列 + type: string - description: ログの生成時の現在のスレッドの名前。 - domain: ソースコード + domain: Source code name: logger.thread_name product_source: - icon-log - type: 文字列 + type: string - description: クラスメソッド名。 - domain: ソースコード + domain: Source code name: logger.method_name product_source: - icon-log - type: 文字列 + type: string - description: ロガーのバージョン。 - domain: ソースコード + domain: Source code name: logger.version product_source: - icon-log - type: 文字列 + type: string - description: エラーのタイプまたは種類 (場合によってはコード)。 - domain: ソースコード + domain: Source code name: error.kind product_source: - icon-log - type: 文字列 -- description: 接続先のデータベース名。例えば、 Java の場合、 `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"` - であれば、インスタンス名は `customers` です。 - domain: データベース + type: string +- description: 接続中のデータベースの名前。例えば、Java で `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"` + の場合、インスタンス名は `customers` です。 + domain: Database name: db.instance product_source: - icon-apm - icon-log - type: 文字列 -- description: 指定されたデータベースタイプのデータベースステートメント。例えば、mySQL の場合は `'SELECT * FROM wuser_table';` - 、Redis の場合は `'SET mykey 'WuValue''` です。 - domain: データベース + type: string +- description: '指定されたデータベースタイプのデータベースステートメントです。例えば、mySQL の場合: `''SELECT * FROM wuser_table'';`、Redis + の場合: `''SET mykey ''WuValue''''`。' + domain: Database name: db.statement product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: 処理を実行するユーザー。 - domain: データベース + domain: Database name: db.user product_source: - icon-apm - icon-log - type: 文字列 -- description: '**ナノ秒**単位の持続時間: HTTP 応答時間、データベースクエリ時間、レイテンシーなど。Datadog は、トレース検索のためのデフォルトのメジャーとしてこれを表示、使用するため、ログ内の任意の持続時間をこの属性に[再マップ](/logs/log_configuration/processors/#remapper)してください。' - domain: パフォーマンス + type: string +- description: '**nanoseconds** 単位の任意の種類の時間。HTTP 応答時間、データベースクエリ時間、レイテンシーなどがあります。[リマップ](/logs/log_configuration/processors/#remapper)して、ログ内のすべての期間をこの属性に割り当ててください。Datadog + はこれをトレース検索のデフォルトの測定値として表示および使用します。' + domain: Performance name: duration product_source: - icon-log - type: 数値 + type: number - description: ユーザーの識別子。 - domain: ユーザー + domain: User name: usr.id product_source: - icon-log - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 + type: string - description: わかりやすい名前。 - domain: ユーザー + domain: User name: usr.name product_source: - icon-log - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 + type: string - description: ユーザーの電子メール。 - domain: ユーザー + domain: User name: usr.email product_source: - icon-log - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 + type: string - description: ホスト名。 - domain: Syslog とログシッパー + domain: Syslog and log shippers name: syslog.hostname product_source: - icon-log - type: 文字列 + type: string - description: アプリケーション名。通常は、予約済み属性 `service` に再マップされます。 - domain: Syslog とログシッパー + domain: Syslog and log shippers name: syslog.appname product_source: - icon-log - type: 文字列 + type: string - description: ログの重大度。通常は、予約済み属性 `status` に再マップされます。 - domain: Syslog とログシッパー + domain: Syslog and log shippers name: syslog.severity product_source: - icon-log - type: 数値 + type: number - description: ログのタイムスタンプ。通常は、予約済み属性 `date` に再マップされます。 - domain: Syslog とログシッパー + domain: Syslog and log shippers name: syslog.timestamp product_source: - icon-log - type: 文字列 + type: string - description: ログのソースが由来する環境名。 - domain: Syslog とログシッパー + domain: Syslog and log shippers name: syslog.env product_source: - icon-log - type: 文字列 + type: string - description: DNS のクエリ識別子。 domain: DNS name: dns.id product_source: - icon-log - type: 文字列 + type: string - description: クエリ対象のドメイン名。 domain: DNS name: dns.question.name product_source: - icon-log - type: 文字列 + type: string - description: DNS のクエリタイプを指定する [2 オクテットコード](https://en.wikipedia.org/wiki/List_of_DNS_record_types)。 domain: DNS name: dns.question.type product_source: - icon-log - type: 文字列 + type: string - description: DNS の質問で検索されるクラス (インターネットを使用する場合は IP など) 。 domain: DNS name: dns.question.class product_source: - icon-log - type: 文字列 + type: string - description: DNS 質問のバイトサイズ。 domain: DNS name: dns.question.size product_source: - icon-log - type: 数値 + type: number - description: DNS で回答する際の IP アドレス。 domain: DNS name: dns.answer.name product_source: - icon-log - type: 文字列 + type: string - description: DNS の回答タイプを指定する [2 オクテットコード](https://en.wikipedia.org/wiki/List_of_DNS_record_types)。 domain: DNS name: dns.answer.type product_source: - icon-log - type: 文字列 + type: string - description: DNS によって回答されるクラス。 domain: DNS name: dns.answer.class product_source: - icon-log - type: 文字列 + type: string - description: DNS 回答のバイトサイズ。 domain: DNS name: dns.answer.size product_source: - icon-log - type: 数値 + type: number - description: DNS の返答コード。 domain: DNS name: dns.flags.rcode product_source: - icon-log - type: 文字列 + type: string - description: '同じアクティビティ (例: 認証) によって生成されたイベント間での共有名。' - domain: イベント + domain: Events name: evt.name product_source: - icon-log - type: 文字列 + type: string - description: 'イベントの結果 (例: `success`、`failure`)。' - domain: イベント + domain: Events name: evt.outcome product_source: - icon-log - type: 文字列 + type: string - description: Epoch からのイベント開始時間 (ミリ秒) - domain: RUM のコア属性 + domain: RUM core attributes name: date product_source: - icon-rum - android - ios - roku - type: 整数 + type: integer - description: イベントのタイプ (`view` や `resource` など)。 - domain: RUM のコア属性 + domain: RUM core attributes name: type product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: RUM アプリケーションを作成する際に生成される Datadog アプリケーション ID。 - domain: RUM のコア属性 + domain: RUM core attributes name: application.id product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: Datadog アプリケーション名。 - domain: RUM のコア属性 + domain: RUM core attributes name: application.name product_source: - icon-rum - android - - ブラウザ + - browser - ios - type: 文字列 + type: string - description: デバイスにより報告されたデバイスタイプ (System User-Agent)。 - domain: デバイス (Android、iOS、Roku) + domain: Device (Android, iOS, Roku) name: device.type product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスにより報告されたデバイスのブランド (System User-Agent)。 - domain: デバイス (Android、iOS、Roku) + domain: Device (Android, iOS, Roku) name: device.brand product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: デバイスにより報告されたデバイスモデル (System User-Agent)。 - domain: デバイス (Android、iOS、Roku) + type: string +- description: デバイスにより報告されたデバイスモデル (システムユーザーエージェント)。 + domain: Device (Android, iOS, Roku) name: device.model product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスにより報告されたデバイス名 (System User-Agent)。 - domain: デバイス (Android、iOS、Roku) + domain: Device (Android, iOS, Roku) name: device.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスのネットワーク到達可能性の状態 (`connected`、`not connected`、または `maybe`)。 - domain: 接続性 (Android、iOS) + domain: Connectivity (Android, iOS) name: connectivity.status product_source: - icon-rum - android - ios - type: 文字列 + type: string - description: 利用可能なネットワークインターフェースのリスト (`bluetooth`、`cellular`、`ethernet`、または `wifi` など)。 - domain: 接続性 (Android、iOS) + domain: Connectivity (Android, iOS) name: connectivity.interfaces product_source: - icon-rum - android - ios - type: 文字列 + type: string - description: 携帯電話の接続に使用される無線技術のタイプ。 - domain: 接続性 (Android、iOS) + domain: Connectivity (Android, iOS) name: connectivity.cellular.technology product_source: - icon-rum - android - ios - type: 文字列 + type: string - description: SIMを取り扱う事業者名。 - domain: 接続性 (Android、iOS) + domain: Connectivity (Android, iOS) name: connectivity.cellular.carrier_name product_source: - icon-rum - android - ios - type: 文字列 + type: string - description: デバイスにより報告された OS 名 (System User-Agent)。 - domain: オペレーティングシステム (Android、iOS、Roku) + domain: Operating System (Android, iOS, Roku) name: os.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスにより報告される OS バージョン (System User-Agent)。 - domain: オペレーティングシステム (Android、iOS、Roku) + domain: Operating System (Android, iOS, Roku) name: os.version product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスにより報告される OS バージョンメジャー (System User-Agent)。 - domain: オペレーティングシステム (Android、iOS、Roku) + domain: Operating System (Android, iOS, Roku) name: os.version_major product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: 国名。 - domain: 地理的位置 + domain: Geolocation name: geo.country product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: 国の [ISO コード](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes) - (例えば、アメリカなら `US`、フランスなら `FR`)。 - domain: 地理的位置 + (たとえば、アメリカなら `US`、フランスなら `FR`)。 + domain: Geolocation name: geo.country_iso_code product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: その国で最大規模の地方区分 (米国は `California` 州、フランスは `Sarthe` 県など)。 - domain: 地理的位置 + domain: Geolocation name: geo.country_subdivision product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: 大陸の ISO コード (`EU`、`AS`、`NA`、`AF`、`AN`、`SA`、または `OC`)。 - domain: 地理的位置 + domain: Geolocation name: geo.continent_code product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: 大陸名 (`Europe`、`Australia`、`North America`、`Africa`、`Antarctica`、`South America`、または `Oceania`)。 - domain: 地理的位置 + domain: Geolocation name: geo.continent product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: 都市名 (`San Francisco`、`Paris`、`New York` など)。 - domain: 地理的位置 + domain: Geolocation name: geo.city product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: ユーザーの識別子。 - domain: RUM のユーザー属性 (Android、Roku) + domain: RUM user attributes (Android, Roku) name: user.id product_source: - icon-rum - android - roku - type: 文字列 + type: string - description: ユーザーの識別子。 - domain: RUM ユーザー属性 (iOS, Browser) + domain: RUM user attributes (iOS, Browser) name: usr.id product_source: - icon-rum - ios - - ブラウザ - type: 文字列 + - browser + type: string - description: ユーザーの名前。 - domain: グローバル ユーザー属性 (Android, iOS, Browser, Roku) + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.name product_source: - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 + type: string - description: ユーザーのメールアドレス。 - domain: グローバル ユーザー属性 (Android, iOS, Browser, Roku) + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.email product_source: - icon-rum - android - ios - - ブラウザ + - browser - roku - type: 文字列 + type: string - description: セッションのユニーク ID。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.id product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: セッションのタイプ (`user`)。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.type product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: セッションが現在アクティブであるかどうかを示します。セッションは、ユーザーがアプリケーションから移動したり、ブラウザウィンドウを閉じたりすると終了し、4 - 時間の活動または 15 分の非活動時間が経過すると失効します。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + type: string +- description: セッションが現在アクティブかどうかを示します。ユーザーがアプリケーションから移動したり、ブラウザウィンドウを閉じたりするとセッションは終了します。また、4時間の活動または15分の非活動時間が経過するとセッションは失効します。 + domain: Session (Android events, iOS events, Roku events) name: session.is_active product_source: - icon-rum - android - ios - roku - type: ブール値 + type: boolean - description: セッションの初期ビューの URL。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.url product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: セッションの初期ビューの名前。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: セッションの最後のビューの URL。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.last_view.url product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: セッションの最後のビューの名前。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.last_view.name product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: 受信時の TCP 接続から抽出されたセッションの IP アドレス。この属性の収集を停止したい場合は、[アプリケーションの詳細](/data_security/real_user_monitoring/#ip-address)で設定を変更してください。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + type: string +- description: インテークの TCP 接続から抽出されたセッションの IP アドレス。この属性の収集を停止したい場合は、[アプリケーションの詳細](/data_security/real_user_monitoring/#ip-address)で設定を変更してください。 + domain: Session (Android events, iOS events, Roku events) name: session.ip product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: デバイスの情報を解釈するためのシステム `User-Agent` 情報。 - domain: セッション (Android イベント、iOS イベント、Roku イベント) + domain: Session (Android events, iOS events, Roku events) name: session.useragent product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: イベントに対応する初期ビューのユニーク ID。 - domain: ビュー (Android イベント、iOS イベント、Roku イベント) + domain: View (Android events, iOS events, Roku events) name: view.id product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: イベントに対応するクラスの標準名。iOS の場合は、イベントに対応する `UIViewController` クラスの URL。 - domain: ビュー (Android イベント、iOS イベント、Roku イベント) + type: string +- description: イベントに対応するクラスの正規の名前。iOSの場合、イベントに対応する `UIViewController` クラスのURL。 + domain: View (Android events, iOS events, Roku events) name: view.url product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: イベントに対応する、カスタマイズ可能なビューの名前。 - domain: ビュー (Android イベント、iOS イベント、Roku イベント) + domain: View (Android events, iOS events, Roku events) name: view.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースの一意の識別子。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.id product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: 収集されるリソースのタイプ (`xhr`、`image`、`font`、`css`、または `js` など)。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.type product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: HTTP メソッド (`POST`、`GET` `PATCH`、または `DELETE` など)。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.method product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: 応答ステータスコード。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + type: string +- description: 応答ステータスコード + domain: Resource (Android events, iOS events, Roku events) name: resource.status_code product_source: - icon-rum - android - ios - roku - type: 数値 + type: number - description: リソースの URL。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.url product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: リソースプロバイダー名。デフォルトは `unknown` となります。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + type: string +- description: リソースプロバイダー名。デフォルトは `unknown` です。 + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースプロバイダーのドメイン。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.domain product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースプロバイダーのタイプ (`first-party`、`cdn`、`ad`、または `analytics` など)。 - domain: リソース (Android イベント、iOS イベント、Roku イベント) + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.type product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: エラーの発生元 (`webview`、`logger`、`network` など)。 - domain: エラー (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.source product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: エラーのタイプ (場合によってはエラーコード)。 - domain: エラー (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.type product_source: - icon-apm - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: イベントについて簡潔にわかりやすく説明する 1 行メッセージ。 - domain: エラー (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.message product_source: - icon-apm - icon-log - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: スタックトレースまたはエラーに関する補足情報。 - domain: エラー (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.stack product_source: - icon-apm - icon-log - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: スタックトレースまたはエラーに関する補足情報。 - domain: エラー (Android イベント、iOS イベント、Roku イベント) + domain: Error (Android events, iOS events, Roku events) name: error.issue_id product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: 応答ステータスコード。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + type: string +- description: 応答ステータスコード + domain: Network error (Android events, iOS events, Roku events) name: error.resource.status_code product_source: - icon-rum - android - ios - roku - type: 数値 + type: number - description: HTTP メソッド (`POST` または `GET` など)。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.method product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースの URL。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.url product_source: - icon-rum - android - ios - roku - type: 文字列 -- description: リソースプロバイダー名。デフォルトは `unknown` となります。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + type: string +- description: リソースプロバイダー名。デフォルトは `unknown` です。 + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.name product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースプロバイダーのドメイン。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.domain product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: リソースプロバイダーのタイプ (`first-party`、`cdn`、`ad`、または `analytics` など)。 - domain: ネットワークエラー (Android イベント、iOS イベント、Roku イベント) + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.type product_source: - icon-rum - android - ios - roku - type: 文字列 + type: string - description: ユーザーアクションの UUID。 - domain: アクション (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.id product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 -- description: ユーザーアクションのタイプ (例えば、`tap` や `application_start` など)。[カスタムブラウザユーザーアクション](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)の場合には、`custom` + type: string +- description: ユーザーアクションのタイプ (`tap` または `application_start` など)。[カスタムブラウザユーザーアクション](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)の場合には、`custom` に設定されます。 - domain: アクション (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.type product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 -- description: わかりやすい名前 (例えば、`Click on checkout`)。[カスタムブラウザユーザーアクション](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)の場合には、API - コールで指定されたアクション名。 - domain: アクション (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + type: string +- description: 'わかりやすい名前 (例: `チェックアウトをクリック`)。[カスタムブラウザユーザーアクション](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)の場合には、APIコールで指定されたアクション名。' + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.name product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 -- description: ユーザーが操作したエレメント。自動収集されたアクションのみ対象。 - domain: アクション (ブラウザイベント、Android イベント、iOS イベント、Roku イベント) + type: string +- description: ユーザーが操作した要素。自動的に収集されたアクションのみ。 + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.target.name product_source: - icon-rum - android - - ブラウザ + - browser - ios - roku - type: 文字列 + type: string - description: ページビューごとにランダムに生成された ID。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.id product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 'ページ読み込みのタイプ: `initial_load` または `route_change`。詳細については、[シングルページアプリケーションサポートドキュメント](/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#monitoring-single-page-applications-spa)を参照してください。' - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.loading_type product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 現在リクエストされているページへのリンクがたどられた前のウェブページの URL。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.referrer product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: ビューの URL。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のハッシュ部分。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_hash product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のホスト部分。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_host product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のパス部分。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_path product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 同様の URL に対して生成された自動 URL グループ。( `/dashboard/123` と `/dashboard/456` に対する `/dashboard/?` など)。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_path_group product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: クエリパラメーターの key/value 属性として分解された、URL のクエリ文字列部分。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_query product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: URL のスキーム部分。 - domain: ビュー (ブラウザ) + domain: View (Browser) name: view.url_scheme product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: デバイスによって報告されたデバイスタイプ (User-Agent HTTP ヘッダー)。 - domain: デバイス (ブラウザ) + domain: Device (Browser) name: device.type product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告されたデバイスブランド (User-Agent HTTP ヘッダー)。 - domain: デバイス (ブラウザ) + domain: Device (Browser) name: device.brand product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告されたデバイスモデル (User-Agent HTTP ヘッダー)。 - domain: デバイス (ブラウザ) + domain: Device (Browser) name: device.model product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告されたデバイス名 (User-Agent HTTP ヘッダー)。 - domain: デバイス (ブラウザ) + domain: Device (Browser) name: device.name product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告された OS 名 (User-Agent HTTP ヘッダー)。 - domain: オペレーティングシステム (ブラウザ) + domain: Operating system (Browser) name: os.name product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告された OS バージョン (User-Agent HTTP ヘッダー)。 - domain: オペレーティングシステム (ブラウザ) + domain: Operating system (Browser) name: os.version product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: デバイスによって報告された OS バージョンメジャー (User-Agent HTTP ヘッダー)。 - domain: オペレーティングシステム (ブラウザ) + domain: Operating system (Browser) name: os.version_major product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: セッションごとにランダムに生成された ID。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.id product_source: - icon-rum - - ブラウザ - type: 文字列 -- description: クライアントの IP アドレス。この属性の収集を停止したい場合は、[アプリケーションの詳細](/data_security/real_user_monitoring/#ip-address)で設定を変更してください。 - domain: セッション (ブラウザイベント) + - browser + type: string +- description: クライアントのIPアドレス。この属性の収集を停止したい場合は、[アプリケーションの詳細](/data_security/real_user_monitoring/#ip-address)で設定を変更してください。 + domain: Session (Browser events) name: session.ip product_source: - icon-rum - - ブラウザ - type: 文字列 -- description: セッションが現在アクティビティであるかどうかを示します。セッションは、4 時間のアクティビティまたは 15 分の非アクティブの後に終了します。 - domain: セッション (ブラウザイベント) + - browser + type: string +- description: セッションが現在アクティブかどうかを示します。セッションは、4 時間のアクティビティまたは 15 分の非アクティブの後に終了します。 + domain: Session (Browser events) name: session.is_active product_source: - icon-rum - - ブラウザ - type: ブール値 -- description: 'セッションのタイプ: `user` または `synthetics`。[Synthetic ブラウザテスト](/synthetics/browser_tests/)からのセッションは請求から除外されます。' - domain: セッション (ブラウザイベント) + - browser + type: boolean +- description: セッションの種類、`user` または `synthetics`。[Synthetic Browser Tests](/synthetics/browser_tests/) + からのセッションは請求の対象外です。 + domain: Session (Browser events) name: session.type product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 現在リクエストされているページへのリンクがたどられた前のウェブページの URL。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.referrer product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: ユーザーによって生成された最初の RUM ビューの ID。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.id product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のホスト部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.url_host product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のパス部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.url_path product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 同様の URL に対して生成された自動 URL グループ。( `/dashboard/123` と `/dashboard/456` に対する `/dashboard/?` など)。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.url_path_group product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: クエリパラメーターの key/value 属性として分解された、URL のクエリ文字列部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.url_query product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: URL のスキーム部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.initial_view.url_scheme product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: ユーザーによって生成された最後の RUM ビューの ID。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.id product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のホスト部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.url_host product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のパス部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.url_path product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: 同様の URL に対して生成された自動 URL グループ。( `/dashboard/123` と `/dashboard/456` に対する `/dashboard/?` など)。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.url_path_group product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: クエリパラメーターの key/value 属性として分解された、URL のクエリ文字列部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.url_query product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: URL のスキーム部分。 - domain: セッション (ブラウザイベント) + domain: Session (Browser events) name: session.last_view.url_scheme product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: 収集されるリソースのタイプ (`css`、`javascript`、`media`、`XHR`、または `image` など)。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.type product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: HTTP メソッド (`POST` または `GET` など)。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.method product_source: - icon-rum - - ブラウザ - type: 文字列 -- description: 応答ステータスコード。 - domain: リソース (ブラウザイベント) + - browser + type: string +- description: 応答ステータスコード + domain: Resource (Browser events) name: resource.status_code product_source: - icon-rum - - ブラウザ - type: 数値 + - browser + type: number - description: リソースの URL。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.url product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のホスト部分。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.url_host product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: URL のパス部分。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.url_path product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: クエリパラメーターの key/value 属性として分解された、URL のクエリ文字列部分。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.url_query product_source: - icon-rum - - ブラウザ - type: オブジェクト + - browser + type: object - description: URL のプロトコル名 (HTTP または HTTPS)。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.url_scheme product_source: - icon-rum - - ブラウザ - type: 文字列 -- description: リソースプロバイダー名。デフォルトは `unknown` となります。 - domain: リソース (ブラウザイベント) + - browser + type: string +- description: リソースプロバイダー名。デフォルトは `unknown` です。 + domain: Resource (Browser events) name: resource.provider.name product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: リソースプロバイダーのドメイン。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.provider.domain product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: リソースプロバイダーのタイプ (`first-party`、`cdn`、`ad`、または `analytics` など)。 - domain: リソース (ブラウザイベント) + domain: Resource (Browser events) name: resource.provider.type product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: RUM ブラウザ SDK で検出されたデッドクリック。 - domain: フラストレーションシグナル (ブラウザイベント) + domain: Frustration signals (Browser events) name: action.frustration.type:dead_click product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: RUM ブラウザ SDK で検出されたレイジークリック。 - domain: フラストレーションシグナル (ブラウザイベント) + domain: Frustration signals (Browser events) name: action.frustration.type:rage_click product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: RUM ブラウザ SDK で検出されたエラークリック。 - domain: フラストレーションシグナル (ブラウザイベント) + domain: Frustration signals (Browser events) name: action.frustration.type:error_click product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: トラフィックのソースを追跡する URL のパラメーター。 - domain: UTM (ブラウザイベント) + domain: UTM (Browser events) name: view.url_query.utm_source product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: トラフィックの発信元チャンネルを追跡する URL のパラメーター。 - domain: UTM (ブラウザイベント) + domain: UTM (Browser events) name: view.url_query.utm_medium product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: そのビューに紐づく特定のマーケティングキャンペーンを識別する URL のパラメーター。 - domain: UTM (ブラウザイベント) + domain: UTM (Browser events) name: view.url_query.utm_campaign product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: マーケティングキャンペーン内でユーザーがクリックした特定の要素を特定する URL 内のパラメーター。 - domain: UTM (ブラウザイベント) + domain: UTM (Browser events) name: view.url_query.utm_content product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: ユーザーが特定のキャンペーンをトリガーするために検索したキーワードを追跡する URL のパラメーター。 - domain: UTM (ブラウザイベント) + domain: UTM (Browser events) name: view.url_query.utm_term product_source: - icon-rum - - ブラウザ - type: 文字列 + - browser + type: string - description: スパンを生成するために使用されるクライアント SDK の言語。`cpp`、`dotnet`、`go`、`jvm`、`javascript`、`php`、`python`、`ruby` - のいずれかになります。 - domain: APM コア + のいずれかです。 + domain: APM core name: language product_source: - icon-apm - type: 文字列 + type: string - description: 実行中のプロセスの `DD_ENV` 環境変数の値、またはユーザー定義の `env` の値。 - domain: APM コア (予約済み) + domain: APM core (Reserved) name: env product_source: - icon-apm - type: 文字列 + type: string - description: 実行中のプロセスの `DD_VERSION` 環境変数の値、またはユーザー定義の `version` の値。 - domain: APM コア (予約済み) + domain: APM core (Reserved) name: version product_source: - icon-apm - type: 文字列 -- description: スパンが扱う作業単位のタイプを表す文字列。server、client、producer、consumer、internal のいずれかになります。詳細は、[OpenTelemetry - SpanKind のドキュメント](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind)を参照してください。 - domain: APM コア + type: string +- description: スパンが処理する作業単位の種類を表す文字列。サーバー、クライアント、プロデューサー、コンシューマー、または内部のいずれかです。詳細については、[OpenTelemetry + SpanKind ドキュメント](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind)を参照してください。 + domain: APM core name: span.kind product_source: - icon-apm - type: 文字列 + type: string - description: スパンを作成したライブラリまたはインテグレーションの名前。 - domain: APM コア + domain: APM core name: component product_source: - icon-apm - type: 文字列 + type: string - description: インバウンド接続を開始したクライアントの IP アドレス。 - domain: ネットワーク通信 + domain: Network communications name: network.client.ip product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: アウトバウンド接続が行われる IP アドレス。 - domain: ネットワーク通信 + domain: Network communications name: network.destination.ip product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: ローカルホストの IP アドレス。 - domain: ネットワーク通信 + domain: Network communications name: network.host.ip product_source: - icon-apm - type: 文字列 + type: string - description: 接続を開始したクライアントのポート。 - domain: ネットワーク通信 + domain: Network communications name: network.client.port product_source: - icon-apm - icon-log - type: 数値 + type: number - description: アウトバウンド接続のリモートポート番号。 - domain: ネットワーク通信 + domain: Network communications name: network.destination.port product_source: - icon-apm - icon-log - type: 数値 + type: number - description: インバウンド接続を開始したクライアントのホスト名。 - domain: ネットワーク通信 + domain: Network communications name: network.client.name product_source: - icon-apm - type: 文字列 + type: string - description: ローカルホスト名。 - domain: ネットワーク通信 + domain: Network communications name: network.host.name product_source: - icon-apm - type: 文字列 + type: string - description: インバウンド接続に使用されるトランスポートプロトコル。 - domain: ネットワーク通信 + domain: Network communications name: network.client.transport product_source: - icon-apm - type: 文字列 + type: string - description: アウトバウンド接続に使用されるトランスポートプロトコル。 - domain: ネットワーク通信 + domain: Network communications name: network.destination.transport product_source: - icon-apm - type: 文字列 + type: string - description: HTTP 応答ステータスコード。 - domain: HTTP リクエスト + domain: HTTP requests name: http.status_code product_source: - icon-apm - icon-log - type: 文字列 -- description: 難読化されたクエリ文字列を含む、 HTTP リクエストの URL。難読化の詳細については、 [データ セキュリティの構成](https://docs.datadoghq.com/tracing/configure_data_security/) - を参照してください。 - domain: HTTP リクエスト + type: string +- description: HTTP リクエストの URL、難読化されたクエリ文字列を含む。難読化に関する詳細は、[データセキュリティの構成](https://docs.datadoghq.com/tracing/configure_data_security/)を参照してください。 + domain: HTTP requests name: http.url product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: リクエストに使用された HTTP のバージョン。 - domain: HTTP リクエスト + domain: HTTP requests name: http.version product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: 接続を開始したクライアントのポート。 - domain: HTTP リクエスト + domain: HTTP requests name: http.method product_source: - icon-apm - icon-log - type: 文字列 -- description: '一致したルート (パステンプレート)。例: `/users/:userID`' - domain: HTTP リクエスト + type: string +- description: マッチしたルート (パステンプレート)。例えば、`/users/:userID`。 + domain: HTTP requests name: http.route product_source: - icon-apm - type: 文字列 -- description: すべてのプロキシの背後にいるオリジナルのクライアントの IP アドレス (既知の場合)。`X-Forwarded-For` のようなヘッダーから取得します。 - domain: HTTP リクエスト + type: string +- description: すべてのプロキシの背後にいる元のクライアントの IP アドレス、もし知られている場合。`X-Forwarded-For` などのヘッダーから発見されました。 + domain: HTTP requests name: http.client_ip product_source: - icon-apm - type: 文字列 + type: string - description: リクエストとともに受け取った `User-Agent` ヘッダー。 - domain: HTTP リクエスト + domain: HTTP requests name: http.useragent product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: リクエストペイロード本文のサイズ (バイト単位)。 - domain: HTTP リクエスト + domain: HTTP requests name: http.request.content_length product_source: - icon-apm - type: 数値 + type: number - description: レスポンスペイロード本文のサイズ (バイト単位)。 - domain: HTTP リクエスト + domain: HTTP requests name: http.response.content_length product_source: - icon-apm - type: 数値 + type: number - description: トランスポートデコード後の非圧縮リクエストペイロードのサイズ。 - domain: HTTP リクエスト + domain: HTTP requests name: http.request.content_length_uncompressed product_source: - icon-apm - type: 数値 + type: number - description: トランスポートデコード後の非圧縮レスポンスペイロードのサイズ。 - domain: HTTP リクエスト + domain: HTTP requests name: http.response.content_length_uncompressed product_source: - icon-apm - type: 数値 + type: number - description: リクエストの HTTP ヘッダー。デフォルトでは何も収集されませんが、オプションで `DD_TRACE_HEADER_TAGS` を用いて構成することができます。 - domain: HTTP リクエスト + domain: HTTP requests name: http.request.headers.* product_source: - icon-apm - type: 文字列 + type: string - description: 使用しているデータベース管理システム (DBMS) 製品の識別子。 - domain: データベーススパン + domain: Database spans name: db.system product_source: - icon-apm - type: 文字列 -- description: レスポンス HTTP ヘッダー。デフォルトでは収集されませんが、 `DD_TRACE_HEADER_TAGS` で任意に設定できます。 - domain: HTTP リクエスト + type: string +- description: レスポンスの HTTP ヘッダー。デフォルトでは何も収集されませんが、オプションで `DD_TRACE_HEADER_TAGS` を用いて構成することができます。 + domain: HTTP requests name: http.response.headers.* product_source: - icon-apm - type: 文字列 + type: string - description: データベースへの接続に使用する接続文字列。 - domain: データベーススパン + domain: Database spans name: db.connection_string product_source: - icon-apm - type: 文字列 -- description: '実行中の操作の名前。例: `SELECT`、`findAndModify`、`HMSET`' - domain: データベーススパン + type: string +- description: 実行されている操作の名前。例えば、`SELECT`、`findAndModify`、`HMSET`。 + domain: Database spans name: db.operation product_source: - icon-apm - icon-log - type: 文字列 + type: string - description: データベース名 (該当する場合) を含む、操作の対象となる主テーブルの名前。 - domain: データベーススパン + domain: Database spans name: db.sql.table product_source: - icon-apm - type: 文字列 + type: string - description: クエリまたは操作の行数/結果数。 - domain: データベーススパン + domain: Database spans name: db.row_count product_source: - icon-apm - type: 数値 + type: number - description: メッセージングシステムの識別子。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.system product_source: - icon-apm - type: 文字列 + type: string - description: メッセージの宛先名。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.destination product_source: - icon-apm - type: 文字列 + type: string - description: メッセージの宛先の種類。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.destination_kind product_source: - icon-apm - type: 文字列 + type: string - description: トランスポートプロトコルの名前。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.protocol product_source: - icon-apm - type: 文字列 + type: string - description: トランスポートプロトコルのバージョン。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.protocol_version product_source: - icon-apm - type: 文字列 + type: string - description: メッセージングシステムへの接続文字列。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.url product_source: - icon-apm - type: 文字列 + type: string - description: メッセージングシステムがメッセージの識別子として使用する値で、文字列として表される。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.message_id product_source: - icon-apm - type: 文字列 + type: string - description: メッセージが属する会話を識別する会話の ID で、文字列として表現される。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.conversation_id product_source: - icon-apm - type: 文字列 + type: string - description: 圧縮されていないメッセージペイロードのサイズ (バイト数)。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.message_payload_size product_source: - icon-apm - type: 数値 -- description: '消費メッセージの種類を示す文字列。例: `send` (メッセージをプロデューサーに送信)、`receive` (コンシューマーがメッセージを受け取る)、または - `process` (コンシューマーが以前に受け取ったメッセージを処理)。' - domain: メッセージキュースパン + type: number +- description: 消費メッセージの種類を示す文字列。例えば、`send` (プロデューサーに送るメッセージ)、`receive` (コンシューマーが受け取るメッセージ)、または + `process` (以前に受け取ったメッセージをコンシューマーが処理する)。 + domain: Message queue spans name: messaging.operation product_source: - icon-apm - type: 文字列 + type: string - description: メッセージを受信するコンシューマーの識別子。 - domain: メッセージキュースパン + domain: Message queue spans name: messaging.consumer_id product_source: - icon-apm - type: 文字列 + type: string - description: リモートシステムの識別子。 - domain: リモートプロシージャコール + domain: Remote procedure calls name: rpc.system product_source: - icon-apm - type: 文字列 + type: string - description: 呼び出されるサービスの名前。 - domain: リモートプロシージャコール + domain: Remote procedure calls name: rpc.service product_source: - icon-apm - type: 文字列 + type: string - description: 呼び出されるメソッドの名前。 - domain: リモートプロシージャコール + domain: Remote procedure calls name: rpc.method product_source: - icon-apm - type: 文字列 -content: 以下の表は、RUM、Logs、APM の各製品が Agent によって Datadog に送信されるデータにデータドメインに応じて自動的に適用される属性の一覧です。製品別にリストをフィルタリングするか、キーワードや説明テキストで検索することもできます。 -description: RUM、Logs、APM の各製品が Agent によって Datadog に送信されるデータにデータドメインに応じて自動的に適用される属性の表です。 + type: string +content: The following table lists the attributes automatically applied to data sent + to Datadog by the Agent by each of the RUM, Logs, and APM products, as applicable + to the data domain. Optionally, filter the list by product or search by keyword + or description text to find the attributes you're interested in. +description: エージェントによってDatadogに送信されるデータに自動的に適用される属性のテーブルで、RUM、ログ、およびAPM製品ごとにデータドメインに応じて適用されます。 disable_sidebar: true filter_all: All further_reading: - link: /data_security/ - tag: ドキュメント + tag: Documentation text: Datadog に送信されるデータのセキュリティ確保 - link: /tracing/trace_collection/tracing_naming_convention/ - tag: ドキュメント + tag: Documentation text: スパンタグのセマンティクス title: デフォルトの標準属性 --- - - - -## 関連情報 +## 参考資料 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ja/synthetics/_index.md b/content/ja/synthetics/_index.md index d9013ca1f8f..d1f448ede9c 100644 --- a/content/ja/synthetics/_index.md +++ b/content/ja/synthetics/_index.md @@ -1,110 +1,151 @@ --- algolia: tags: - - 外形監視 + - synthetics aliases: - /ja/integrations/synthetics/ cascade: algolia: rank: 70 description: 自動テストを使用して、システムとアプリケーションの最も重要な部分が世界各地で正常に稼働していることを確認します。 -disable_sidebar: true further_reading: -- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring - tag: リリースノート - text: Datadog Synthetic Monitoring の最新リリースをチェック! (アプリログインが必要です) -- link: https://www.datadoghq.com/blog/introducing-synthetic-monitoring/ - tag: ブログ - text: Datadog Synthetic モニタリングの紹介 -- link: https://www.datadoghq.com/blog/monitor-cdn-performance-with-synthetic-testing/ - tag: ブログ - text: Synthetic テスト内の CDN パフォーマンスの監視 -- link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ - tag: ブログ - text: 静的 Web アプリケーションを監視するためのベストプラクティス -- link: https://www.datadoghq.com/blog/api-test-coverage-monitoring-datadog-synthetics/ - tag: ブログ - text: Datadog Synthetic Monitoring で API テストカバレッジを向上させる +- link: /synthetics/guide/ + tag: Documentation + text: Synthetics モニタリングガイド - link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing - tag: ラーニングセンター + tag: Learning Center text: 'Datadog ラーニングセンター: Synthetic ブラウザテストを始める' -- link: /synthetics/guide/ - tag: ドキュメント - text: Synthetic モニタリングガイド - link: https://dtdg.co/fe tag: Foundation Enablement text: Synthetic テスト能力を高めるためのインタラクティブなセッションに参加できます +- link: https://www.datadoghq.com/blog/http-security-headers-synthetic-tests/ + tag: Blog + text: Synthetic テストを使用して HTTP ヘッダーを保護する方法 +- link: https://www.datadoghq.com/blog/synthetic-monitoring-updates/ + tag: Blog + text: Datadog Synthetic Monitoring を使用して、ユーザー体験に関する重要な洞察をより迅速に得ることができます +- link: https://www.datadoghq.com/blog/smoke-testing-synthetic-monitoring/ + tag: Blog + text: Synthetic Monitoring を使用して効率的な UX スモークテストを作成する方法 +- link: https://www.datadoghq.com/blog/slo-synthetic-monitoring/ + tag: Blog + text: Datadog Synthetic Monitoring を使用して SLO の精度とパフォーマンスを向上させる +- link: https://www.datadoghq.com/blog/mobile-apps-synthetic-tests/ + tag: Blog + text: モバイルアプリ向けの信頼性が高く正確な Synthetic テストを構築する方法 +- link: https://www.datadoghq.com/blog/ambassador-browser-tests/ + tag: Blog + text: Datadog を使用してクライアントのブラウザテストをスケールさせる手助けをした方法 +- link: https://www.datadoghq.com/blog/datadog-terraform-synthetic-testing/ + tag: Blog + text: Datadog Synthetic Monitoring と Terraform を使用して Synthetic テストインフラストラクチャーを自動化する +- link: https://www.datadoghq.com/blog/simplifying-troubleshooting-with-synthetic-monitoring + tag: Blog + text: Datadog Synthetic Monitoring を使用してユーザージャーニー全体のトラブルシューティングを簡素化する +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: Blog + text: パフォーマンスから影響へ:共有コンテキストを通じてフロントエンドチームをつなぐ +- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring + tag: Release Notes + text: Datadog Synthetic Monitoring の最新リリースをチェック!(アプリログインが必要です) title: Synthetic テストとモニター --- - -{{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/447241955/rendition/1080p/file.mp4?loc=external&signature=47f0bf6adc93cbbd62e4939228c964c19227a2e0aec2d61822417cd2af985c97" poster="/images/poster/synthetics.png" >}} - -
    - - -{{< learning-center-callout header="イネーブルメントウェビナーセッションに参加" hide_image="true" btn_title="登録" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} - Foundation Enablement セッションを確認し、登録しましょう。Datadog Synthetic Monitoring は、コード不要で API、ブラウザ、モバイルのテストを作成し、アプリケーション、主要なエンドポイント、ネットワーク層へのユーザーフローとリクエストを自動的にシミュレートする先進的なモニタリングソリューションであることを学びましょう。 +{{< learning-center-callout header="エンゲージメントウェビナーセッションに参加する" hide_image="true" btn_title="サインアップ" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} + Foundation Enablement セッションを探索し、登録してください。Datadog Synthetic Monitoring が、コードなしで API、ブラウザ、モバイルテストを作成し、ユーザーフローやアプリケーション、主要エンドポイント、ネットワーク層へのリクエストを自動的にシミュレートするプロアクティブな監視ソリューションであることを学びましょう。 {{< /learning-center-callout >}} -Synthetic テストでは、**世界中からのシミュレートされたリクエストとアクション**を使用して、システムとアプリケーションがどのように実行されているかを観察できます。Datadog は、バックエンドからフロントエンドまで、さまざまなネットワークレベル (`HTTP`、`SSL`、`DNS`、`WebSocket`、`TCP`、`UDP`、`ICMP`、`gRPC`) で、制御された安定した方法で Web ページと API のパフォーマンスを追跡します。障害のある動作 (リグレッション、機能の破損、応答時間の長さ、予期しないステータスコードなど) を警告します。 +Synthetic テストを使用すると、**世界中からのシミュレートされたリクエストとアクション**を使用して、システムやアプリケーションのパフォーマンスを観察できます。Datadog は、バックエンドからフロントエンドまで、さまざまなネットワークレベル(`HTTP`、`SSL`、`DNS`、`WebSocket`、`TCP`、`UDP`、`ICMP`、および `gRPC`)で、制御された安定した方法でウェブページや API のパフォーマンスを追跡し、回帰、壊れた機能、高い応答時間、予期しないステータスコードなどの異常な動作について警告します。 -キーエンドポイントとユーザージャーニーで **SLO を計算**することで、アプリケーションのパフォーマンス目標を達成しやすくなり、最終的に一貫したカスタマーエクスペリエンスを提供することができます。 +キーエンドポイントとユーザージャーニーで**SLO を計算**することで、アプリケーションのパフォーマンス目標を達成しやすくなり、最終的に一貫したカスタマーエクスペリエンスを提供することができます。 Synthetic テストは、[Datadog アプリケーション][1]、[API][2]、[Terraform][3] で作成することが可能です。 -## API テストとマルチステップ API テストのセットアップ +##API テストとマルチステップ API テストをセットアップする {#set-up-api-tests-and-multistep-api-tests} API テストを使用すると、[シングル][4]または[チェーン][5]リクエストを起動して、さまざまなネットワークレベル ([HTTP テスト][6]、[SSL テスト][7]、[DNS テスト][8]、[WebSocket テスト][9]、[TCP テスト][10]、[UDP テスト][11]、[ICMP テスト][12]、[gRPC テスト][13]) で主要システムの検証を実行できます。 {{< img src="synthetics/api_test.png" alt="API テスト" style="width:100%;">}} -## ブラウザテストを記録する +##ブラウザテストを記録する {#record-browser-tests} [Synthetic ブラウザテスト][14]を使用して、世界中の Web ページを顧客がどのように体験しているかをエンドツーエンドで監視します。 {{< img src="synthetics/browser_test.mp4" alt="ブラウザテスト" video=true style="width:100%;">}} -## モバイルアプリケーションテストを記録する +##モバイルアプリケーションテストを記録する {#record-mobile-application-tests} [Synthetic モバイルアプリケーションテスト][21]を使用して、顧客が異なるデバイスタイプから iOS と Android アプリケーションをエンドツーエンドでどのように体験するかを監視します。 -{{< img src="synthetics/mobile_app_tests.png" alt="Synthetic モバイルテストの記録ワークフローの例" style="width:100%;">}} +{{< img src="synthetics/mobile_app_tests.png" alt="Synthetic Mobile テストの録画ワークフローの例" style="width:100%;">}} + +## ネットワークパステストを作成 {#create-network-path-tests} + +管理されたロケーションから[Synthetic network path tests][25]を作成し、TCP、UDP、ICMPチェックを実行し、グローバルエンドポイント間のパケットルートを可視化します。 + +{{< img src="synthetics/network_tests/syn_network_path.png" alt="Synthetic TCPネットワークテストの例" style="width:100%;">}} +## テストスイート {#test-suites} -## プライベートロケーションを起動する +[Synthetic テストスイート][26]を使用して、ユーザージャーニー、環境、ロケーション、サービス、またはチームごとに論理的にグループ化された複数のテストを整理し、管理とトラブルシューティングを効率化します。 + +{{< img src="synthetics/test_suites/test_suite_summary.png" alt="Synthetic Monitoring Test Suiteの概要ページ" style="width:100%;">}} + +## プライベートロケーションを起動する {#launch-private-locations} [Synthetic プライベートロケーション][15]を使用すれば、内部 API と Web サイトを監視したり、ビジネスにミッションクリティカルな領域にカスタムロケーションを作成したりすることができます。 {{< img src="synthetics/private_locations.png" alt="プライベートロケーション" style="width:100%;">}} -## データとトレースを接続する +## データとトレースを接続する {#connect-data-and-traces} -[Synthetics テストと APM トレース間のインテグレーション][16]を利用すれば、フロントエンド、ネットワーク、バックエンドリクエスト全体の障害の根本的な原因を見つけることができます。 +[Synthetic テストと APM トレース間のインテグレーション][16]を利用すれば、フロントエンド、ネットワーク、バックエンドリクエスト全体の障害の根本的な原因を見つけることができます。 -{{< img src="synthetics/synthetics_traces.mp4" alt="Synthetic モニタリング" video=true style="width:100%;">}} +{{< img src="synthetics/synthetics_traces.mp4" alt="Synthetic Monitoring" video=true style="width:100%;">}} -## すぐに使えるダッシュボードにアクセスする +## すぐに使えるダッシュボードにアクセスする {#access-out-of-the-box-dashboards} API テスト、マルチステップ API テスト、ブラウザテスト、プライベートロケーションのパフォーマンス情報や、Datadog のイベントを[すぐに使える Synthetic ダッシュボード][17]で分析します。 -{{< img src="synthetics/dashboards/test_dashboard.png" alt="Synthetic Monitoring & Continuous Testing サマリーダッシュボード" style="width:100%;">}} +{{< img src="synthetics/dashboards/test_dashboard.png" alt="Synthetic Monitoring と Continuous Testing の概要ダッシュボード" style="width:100%;">}} -## Synthetic Monitoring & Testing Results Explorer を使用する +## Synthetic Monitoring と Testing Results Explorer を使用する {#use-the-synthetic-monitoring-testing-results-explorer} Synthetic テストの実行や、CI/CD パイプラインで実行されているテストのバッチに対して、[検索クエリおよび視覚化][20]を作成します。 {{< img src="continuous_testing/explorer_ci_batches_1.png" alt="Continuous Testing Explorer" style="width:100%;">}} -## テストカバレッジの追跡 +## テストカバレッジを追跡する {#track-testing-coverage} [アプリケーションの最も重要なワークフローを確実にテストする][22]ことで、テストスイートを最適化します。 {{< img src="synthetics/test_coverage/test_coverage.png" alt="Continuous Testing Explorer" style="width:100%;">}} -## 準備はいいですか? +## Synthetic Monitoring 通知 {#synthetic-monitoring-notifications} + +Synthetic モニターを使用して、Synthetic Monitoring テストが失敗したときに通知を送信するように強化します。以下の機能が利用可能です: + +事前入力されたモニターメッセージ +: 事前入力されたモニターメッセージは、Synthetic テストアラートのための構造化された出発点を提供します。各メッセージには、標準化されたタイトル、要約、およびテストメタデータを含むフッターが含まれており、一目でアラートを理解しやすくなっています。 + +テンプレート変数 +テンプレート変数を使用すると、モニター通知にテスト固有のデータを動的に挿入できます。これらの変数は、`synthetics.attributes`オブジェクトから取得されます。 + +高度な使用方法 +高度な使用法には、より深いテストの洞察を引き出したり、Handlebars テンプレートを使用して複雑なメッセージを構造化する技術が含まれます。 + +条件付きアラート +条件付きアラートを使用すると、特定のテスト結果や失敗条件に基づいてモニター通知の内容を変更できます。 + +詳しくは、[Synthetic Monitoring notifications][24]をご覧ください。 + +##バージョン履歴 {#version-history} + +[Version History in Synthetic Monitoring][23]を使用して、テストの以前のバージョンを実行したり、テストを保存された任意のバージョンに復元したり、新しいSynthetic Monitoringテストを作成するためにバージョンをクローンしたりできます。 + +##準備はいいですか?{#ready-to-start} -最初の Synthetic テストを作成して Web アプリケーションを監視する手順については、[Synthetic モニタリングの概要][18]を参照してください。次に、[プライベートロケーションの概要][19]を参照して、プライベートロケーションを作成し、プライベートロケーションで Synthetic テストを実行する手順を確認してください。 +最初のSynthetic テストを作成し、Webアプリケーションの監視を行う方法については、[Getting Started with Synthetic Monitoring][18]をご覧ください。次に、[プライベートロケーションの始め方][19]を参照して、プライベートロケーションを作成し、プライベートロケーションでSynthetic テストを実行する方法を確認してください。 -## その他の参考資料 +##参考資料 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -130,4 +171,8 @@ Synthetic テストの実行や、CI/CD パイプラインで実行されてい [19]: /ja/getting_started/synthetics/private_location [20]: /ja/continuous_testing/explorer/ [21]: /ja/mobile_testing -[22]: /ja/synthetics/test_coverage \ No newline at end of file +[22]: /ja/synthetics/test_coverage +[23]: /ja/synthetics/guide/version_history/ +[24]: /ja/synthetics/notifications/ +[25]: /ja/synthetics/network_path_tests/ +[26]: /ja/synthetics/test_suites/ \ No newline at end of file diff --git a/content/ko/agent/_index.md b/content/ko/agent/_index.md index aff76fd13f4..73da14d6a75 100644 --- a/content/ko/agent/_index.md +++ b/content/ko/agent/_index.md @@ -37,7 +37,7 @@ further_reading: text: 클라우드 인스턴스에 Agent를 설치하는 이유가 무엇인가요? - link: https://www.datadoghq.com/blog/dont-fear-the-agent/ tag: Blog - text: 손쉽게 활용 가능한 Agent + text: Agent를 두려워하지 마세요. title: Agent ---
    @@ -53,10 +53,10 @@ Datadog Agent는 호스트에서 실행되는 소프트웨어입니다. 호스 {{< partial name="platforms/platforms.html" links="platforms" >}}

    -Datadog은 Datadog Agent를 마이너 릴리스와 패치 릴리스별로, 또는 적어도 매월 업데이트하시길 권장합니다.

    +Datadog는 Datadog Agent를 마이너 릴리스와 패치 릴리스별로, 또는 적어도 매월 업데이트하시길 권장합니다.

    -주요 Datadog Agent 버전으로 업그레이드하고 업데이트를 유지하는 것이 최신 Datadog Agent 기능과 수정 사항을 이용할 수 있는 유일한 지원 방법입니다.

    -

    Agent를 완전히 설치하는 것이 좋습니다. 그러나 Amazon Linux, CentOS, Debian, Fedora, Red Hat, SUSE 및 Ubuntu에서 독립 실행형 DogStatsD 패키지를 사용할 수 있습니다. 이 패키지는 DogStatsD가 사이드카로 실행되는 컨테이너화된 환경이나 전체 Agent 기능 없이 DogStatsD 서버를 실행하는 환경에서 사용됩니다.

    +주요 Datadog Agent 버전으로 업그레이드하고 업데이트된 상태를 유지하는 것이 최신 Datadog Agent 기능과 수정 사항을 이용하기 위해 지원되는 유일한 방법입니다.

    +

    Agent를 완전히 설치하는 것이 좋습니다. 그러나 Amazon Linux, CentOS, Debian, Fedora, Red Hat, SUSE 및 Ubuntu에서 독립 실행형 DogStatsD 패키지도 사용할 수 있습니다. 이 패키지는 DogStatsD가 사이드카로 실행되는 컨테이너화된 환경이나 전체 Agent 기능 없이 DogStatsD 서버를 실행하는 환경에서 사용됩니다.

    ## Agent 관리 {#managing-the-agent} @@ -67,44 +67,44 @@ Datadog은 Datadog Agent를 마이너 릴리스와 패치 릴리스별로, 또 {{< img src="/agent/basic_agent_usage/basic_agent_2_july_25.png" alt="Fleet Automation 뷰를 통해 한 곳에서 Datadog Agent를 중앙에서 관리할 수 있습니다." style="width:100%;">}} -- **구성 및 이력 보기**: 한 페이지에서 플릿에 있는 모든 Agent와 그 버전, 활성화된 제품, 구성 파일 및 변경 내역을 확인하세요. +- **{{< ui >}}View configuration & history{{< /ui >}}**: 플릿에 있는 모든 Agent와 그 버전, 활성화된 제품, 구성 파일 및 변경 내역을 한 페이지에서 확인하세요. - **[오래된 Agent 업그레이드][13]**: 몇 번의 클릭으로 Agent를 원격으로 업그레이드하여 플릿을 최신 상태로 유지하세요. -- **[지원을 위한 플레어 전송][14]**: 호스트의 Support 탭에서 플레어를 생성하고 명령줄을 사용할 필요 없이 기존 또는 새로운 지원 케이스에 첨부하세요. -- **API-키 사용 감사**: 특정 API 키를 사용하는 Agent를 파악하고 안전하게 키를 로테이션하세요. +- **[지원을 위한 플레어 요청][14]**: 호스트의 {{< ui >}}Support{{< /ui >}} 탭에서 플레어를 생성하고 명령줄을 사용할 필요 없이 기존 또는 새로운 지원 케이스에 첨부하세요. +- **API 키 사용 감사**: 특정 API 키를 사용하는 Agent를 파악하고 안전하게 키를 교체하세요. -### Datadog Agent Manager GUI {#datadog-agent-manager-gui} +### Datadog Agent 관리자 GUI {#datadog-agent-manager-gui} -
    Agent GUI는 32비트 Windows 플랫폼에서 지원되지 않습니다.
    +
    Agent GUI는 32비트 Windows 플랫폼에서 지원되지 않습니다.
    다음에 Datadog Agent Manager GUI를 사용합니다. - Agent용 상태 정보 보기 - 모든 실행 중인 검사 보기 - Agent 로그 보기 -- Agent 구성 파일(`datadog.yaml`) 수정 +- Agent 구성 파일(`datadog.yaml`) 편집 - Agent 검사 추가 또는 수정 - 플레어 전송 -Datadog Agent Manager GUI는 기본적으로 Windows 및 macOS에서 활성화되어 있으며, 포트 `5002`에서 실행됩니다. 기본 웹 브라우저에서 GUI를 열려면 `datadog-agent launch-gui` 명령을 사용하세요. +Datadog Agent 관리자 GUI는 기본적으로 Windows 및 macOS에서 활성화되어 있으며, 포트 `5002`에서 실행됩니다. 기본 웹 브라우저에서 GUI를 열려면 `datadog-agent launch-gui` 명령을 사용하세요. GUI의 기본 포트는 `datadog.yaml` 구성 파일에서 변경할 수 있습니다. GUI를 비활성화하려면 포트 값을 `-1`로 설정하세요. Linux에서는 기본적으로 GUI가 비활성화되어 있습니다. GUI 요구 사항: -- 브라우저에서 쿠키를 활성화한 상태여야 합니다. GUI는 브라우저에서 토큰을 생성하고 저장합니다. 이 토큰은 GUI 서버와의 모든 커뮤니케이션을 인증하는 데 사용됩니다. -- GUI를 시작하려면 사용자에게 필수 권한이 있어야 합니다. `datadog.yaml`을 열 수 있으면 GUI를 사용할 수 있는 것입니다. -- 보안상의 이유로 **오직** 로컬 네트워크 인터페이스(`localhost`/`127.0.0.1`)에서만 GUI에 액세스할 수 있으므로 Agent가 실행 중인 호스트에서 작업해야 합니다. VM이나 컨테이너에서 Agent를 실행하고 호스트 시스템에서 액세스할 수 없습니다. +- 브라우저에서 쿠키를 활성화한 상태여야 합니다. GUI는 브라우저에서 토큰을 생성하고 저장하는데, 이를 활용해 GUI 서버와의 모든 커뮤니케이션을 인증합니다. +- GUI를 시작하려면 사용자에게 필수 권한이 있어야 합니다. `datadog.yaml`을 열 수 있으면 GUI를 사용할 수 있습니다. +- 보안상의 이유로, GUI는 **오직** 로컬 네트워크 인터페이스(`localhost`/`127.0.0.1`)에서만 액세스할 수 있으므로, Agent가 실행 중인 호스트에서 작업해야 합니다. VM이나 컨테이너에서 Agent를 실행하고 호스트 시스템에서 액세스할 수 없습니다. ### 명령줄 인터페이스 {#command-line-interface} -Agent 6 이상 버전부터 Agent 명령줄 인터페이스는 하위 명령을 기반으로 합니다. Agent 하위 명령의 전체 목록은 [Agent 명령][2]을 참조하세요. +Agent 6 이상 버전부터는 Agent 명령줄 인터페이스가 하위 명령을 기반으로 합니다. Agent 하위 명령어의 전체 목록을 보려면 [Agent 명령어][2]를 참조하세요. -## Datadog Agent로 더 나아가기 {#getting-further-with-the-datadog-agent} +## Datadog Agent에 대해 더 자세히 알아보기 {#getting-further-with-the-datadog-agent} ### Agent 업데이트 {#update-the-agent} -지정된 호스트의 부차 버전 두 개 사이에서 Datadog Agent 코어를 수동으로 업데이트하려면 [플랫폼에 해당하는 설치 명령][7]을 실행합니다. +지정된 호스트의 부차 버전 두 개 사이에 Datadog Agent 코어를 수동으로 업데이트하려면 [플랫폼에 해당하는 설치 명령][7]을 실행합니다. -**참고**: 특정 Agent 통합을 수동으로 업데이트하려면 [통합 관리 가이드][8]를 참조하세요. +**참고**: 특정 Agent 통합을 수동으로 업데이트하려면 [통합 관리 지침][8]을 참조하세요. ### 구성 파일 {#configuration-files} @@ -112,13 +112,13 @@ Agent 6 이상 버전부터 Agent 명령줄 인터페이스는 하위 명령을 ### Datadog 사이트 {#datadog-site} -[Agent 주 구성 파일][10] `datadog.yaml`을 수정해 `site` 파라미터를 설정하세요(기본값: `datadoghq.com`). +[Agent의 주요 구성 파일][10], `datadog.yaml`를 편집하여 `site` 매개변수를 설정하세요(기본값은 `datadoghq.com`입니다). ```yaml site: {{< region-param key="dd_site" >}} ``` -**참고**: `site` 파라미터에 대한 자세한 내용은 [Datadog 사이트 시작하기 설명서][11]를 참조하세요. +**참고**: `site` 매개변수에 관한 자세한 내용은 [Datadog 사이트 설명서 시작하기][11]를 참고하세요. ### 로그 위치 {#log-location} @@ -126,44 +126,44 @@ site: {{< region-param key="dd_site" >}} ## Agent 오버헤드 {#agent-overhead} -다음은 Datadog Agent 리소스 소비량 예시입니다. 테스트는 Amazon EC2 머신 `c5.xlarge` 인스턴스(4 VCPU/8GB RAM)에서 수행되었으며 유사한 리소스를 가진 ARM64 기반 인스턴스에서도 비슷한 성능이 관찰되었습니다. Agent 자체를 모니터링하기 위해 기본 `datadog-agent`가 프로세스 검사와 함께 실행되었습니다. 통합을 더 활성화하면 Agent 리소스 소비량이 늘어날 수 있습니다. -JMX 검사를 활성화하면 모니터링 중인 JVM이 노출하는 빈의 개수에 따라 Agent의 메모리 사용량이 늘어납니다. 트레이스 및 프로세스 Agent를 활성화해도 리소스 소비량이 늘어납니다. +다음은 Datadog Agent 리소스 소비량 예시입니다. Amazon EC2 머신 `c5.xlarge` 인스턴스(4 VCPU/ 8GB RAM)에서 테스트가 수행되었으며, 유사한 리소스를 가진 ARM64 기반 인스턴스에서도 비슷한 성능이 나타났습니다. 기본 `datadog-agent`가 Agent 자체를 모니터링하기 위해 프로세스 검사와 함께 실행 중이었습니다. 더 많은 통합을 활성화하면 Agent 리소스 소비량이 늘어날 수 있습니다. +JMX 점검을 활성화하면 모니터링 중인 JVM으로 노출되는 빈의 개수에 따라 Agent의 메모리 사용량이 늘어납니다. 트레이스 및 프로세스 Agent를 활성화하면 리소스 사용량도 늘어납니다. -* Agent 테스트 버전: 7.34.0 -* CPU: 평균적으로 CPU의 약 0.08% 사용 +* Agent Test 버전: 7.34.0 +* CPU: CPU 평균 사용량의 ~0.08% * 메모리: RAM 약 130MB 사용(RSS 메모리) -* 네트워크 대역폭: 약 140B/s ▼ | 800B/s ▲ +* 네트워크 대역폭: 약 140 B/s ▼ | 800 B/s ▲ * 디스크: - * Linux 830MB~880MB(분포에 따라 결정됨) + * Linux: 830MB~880MB(배포판에 따라) * Windows: 870MB **로그 수집**: -아래는 파일 하나에서 [HTTP 포워더][6]를 활성화하여 *초당 로그 110KB*를 수집해 얻은 결과입니다. 리소스 사용량의 변화를 사용할 수 있는 여러 압축 수준에서 보여줍니다. +아래 결과는 [HTTP 포워더][6]가 활성화된 파일에서 초당 *110KB의 로그*를 수집하여 얻은 것입니다. 리소스 사용량의 변화를 사용할 수 있는 여러 압축 수준에서 보여줍니다. {{< tabs >}} {{% tab "HTTP 압축 수준 6" %}} -* Agent 테스트 버전: 6.15.0 -* CPU: 평균적으로 CPU의 약 1.5% 사용 -* 메모리: RAM 약 95MB 사용 +* Agent Test 버전: 6.15.0 +* CPU: CPU 평균 사용량의 ~1.5% +* 메모리: RAM 약 95MB 사용. * 네트워크 대역폭: 약 14KB/s ▲ {{% /tab %}} {{% tab "HTTP 압축 수준 1" %}} -* Agent 테스트 버전: 6.15.0 -* CPU: 평균적으로 CPU의 약 1% 사용 -* 메모리: RAM 약 95MB 사용 -* 네트워크 대역폭: 약 20KB/s ▲ +* Agent Test 버전: 6.15.0 +* CPU: CPU 평균 사용량의 ~1% +* 메모리: RAM 약 95MB 사용. +* 네트워크 대역폭: 약20 KB/s ▲ {{% /tab %}} {{% tab "HTTP 비압축" %}} -* Agent 테스트 버전: 6.15.0 -* CPU: 평균적으로 CPU의 약 0.7% 사용 +* Agent Test 버전: 6.15.0 +* CPU: CPU 평균 사용량의 ~0.7% * 메모리: RAM 약 90MB 사용(RSS 메모리) -* 네트워크 대역폭: 약 200KB/s ▲ +* 네트워크 대역폭: ~200 KB/s ▲ {{% /tab %}} {{< /tabs >}} @@ -174,18 +174,18 @@ JMX 검사를 활성화하면 모니터링 중인 JVM이 노출하는 빈의 개 {{< nextlink href="/agent/kubernetes">}}Kubernetes: Kubernetes에 Datadog Agent를 설치하고 구성합니다.{{< /nextlink >}} {{< nextlink href="/agent/cluster_agent">}}Cluster Agent: 오케스트레이션된 클러스터에서 모니터링 데이터를 효율적으로 수집하기 위해 구축된 Datadog Agent의 버전인 Kubernetes용 Cluster Agent를 설치하고 구성합니다.{{< /nextlink >}} {{< nextlink href="/agent/amazon_ecs">}}Amazon ECS: Amazon ECS에 Datadog Agent를 설치하고 구성합니다.{{< /nextlink >}} - {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate: AWS Fargate에서 Amazon ECS로 Datadog Agent를 설치하고 구성합니다.{{< /nextlink >}} - {{< nextlink href="/agent/iot">}}IoT: IoT 장치 및 임베디드 애플리케이션 모니터링에 최적화된 Datadog Agent 버전인 Datadog IoT Agent를 설치하고 구성합니다.{{< /nextlink >}} + {{< nextlink href="integrations/ecs_fargate/">}}AWS Fargate: AWS Fargate에서 Amazon ECS와 함께 Datadog Agent를 설치하고 구성합니다.{{< /nextlink >}} + {{< nextlink href="/agent/iot">}}IoT: IoT 장치 및 임베디드 애플리케이션 모니터링에 최적화된 Datadog Agent의 버전인 Datadog IoT Agent를 설치하고 구성합니다.{{< /nextlink >}} {{< nextlink href="/agent/logs">}}로그 수집: Datadog Agent에서 로그 수집을 활성화하고 구성합니다.{{< /nextlink >}} {{< nextlink href="/agent/configuration/proxy">}}프록시: 네트워크 구성으로 인해 아웃바운드 트래픽이 제한되는 경우 Agent 트래픽에 프록시를 사용합니다.{{< /nextlink >}} {{< nextlink href="/agent/versions/">}}버전: Agent 7은 Datadog Agent의 최신 주요 버전입니다. 주요 Agent 버전 간의 변경 사항과 업그레이드 방법을 알아보세요.{{< /nextlink >}} {{< nextlink href="/agent/troubleshooting">}}문제 해결: Datadog Agent에 대한 문제 해결 정보를 찾습니다.{{< /nextlink >}} - {{< nextlink href="/agent/guide">}}가이드: Agent 사용에 관한 상세한 단계별 튜토리얼입니다.{{< /nextlink >}} - {{< nextlink href="/agent/security">}}보안: 고객이 환경을 안전하게 유지하기 위해 사용할 수 있는 주요 보안 기능 및 특징에 대한 정보입니다.{{< /nextlink >}} - {{< nextlink href="/getting_started/observability_pipelines">}}Observability Pipelines 및 Datadog 구성: Observability Pipelines Worker를 애그리게이터로 배포하여 모든 로그와 메트릭을 수집 및 변환하고 원하는 대상으로 라우팅합니다.{{< /nextlink >}} + {{< nextlink href="/agent/guide">}}가이드: Agent 사용을 위한 심층적인 단계별 튜토리얼입니다.{{< /nextlink >}} + {{< nextlink href="/agent/security">}}보안: 고객이 환경을 안전하게 보호할 수 있도록 제공되는 주요 보안 기능 및 특징에 대한 정보입니다.{{< /nextlink >}} + {{< nextlink href="/getting_started/observability_pipelines">}}Observability Pipelines 및 Datadog 구성: Observability Pipelines Worker를 애그리게이터로 배포하여 모든 로그와 메트릭을 원하는 대상으로 수집, 변환 및 라우팅합니다.{{< /nextlink >}} {{< /whatsnext >}} -## 참고 자료 {#further-reading} +## 추가 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ko/agent/configuration/agent-commands.md b/content/ko/agent/configuration/agent-commands.md index da315fab0ac..928d896686d 100644 --- a/content/ko/agent/configuration/agent-commands.md +++ b/content/ko/agent/configuration/agent-commands.md @@ -7,95 +7,95 @@ aliases: - /ko/agent/faq/start-stop-restart-the-datadog-agent - /ko/agent/faq/agent-commands - /ko/agent/guide/agent-commands -description: Agent 시작, 중지, 문제 해결 및 관리를 위한 Datadog Agent 명령의 전체 참조입니다. +description: Datadog Agent 명령어에 대한 전체 참조입니다. 이 문서에서는 Agent를 시작, 중지, 문제 해결 및 관리를 수행하는 + 방법을 설명합니다. further_reading: - link: /agent/troubleshooting/ - tag: 설명서 - text: Agent 트러블슈팅 -title: Agent 명령 + tag: Documentation + text: Agent 문제 해결 +title: Agent 명령어 --- -
    -서비스 래퍼 명령을 사용할 수 없는 Linux 기반 시스템의 경우 문의해 주시면 대체 목록을 알려드립니다. +service 래퍼 명령어가 없는 Linux 기반 시스템의 경우, 대안 목록을 참조하세요.
    -## Agent 시작/중지/다시 시작 +## Agent를 시작, 중지, 재시작합니다. {#start-stop-and-restart-the-agent} -### Agent 시작 +### Agent를 시작합니다. {#start-the-agent} -Datadog Agent를 시작하는 명령 목록: +Datadog Agent를 시작하는 명령어 목록: | 플랫폼 | 명령어 | |------------|--------------------------------------------------------------------| | AIX | `startsrc -s datadog-agent` | -| Linux | 사용 중인 OS에 대한 [Agent 문서][1]를 참고하세요. | -| 도커(Docker) | [설치 명령][2]을 사용합니다. | +| Linux | 귀하의 OS에 대한 [Agent 설명서][1]를 참조하세요. | +| Docker | [설치 명령어][2]를 사용하세요. | | Kubernetes | `kubectl create -f datadog-agent.yaml` | -| macOS | `launchctl start com.datadoghq.agent` *또는* systray 앱 사용 | +| macOS | `launchctl start com.datadoghq.agent` *또는* 시스템 트레이 앱을 통해 | | 소스 | `sudo service datadog-agent start` | -| 윈도우즈(Windows) | [Windows Agent 문서][3]를 참고하세요. | +| Windows | [Windows Agent 문서][3]를 참조하세요. | -### Agent 중지 +### Agent를 중지합니다. {#stop-the-agent} -Datadog Agent를 중지하는 명령 목록: +Datadog Agent를 중지하는 명령어 목록: | 플랫폼 | 명령어 | |------------|----------------------------------------------------------------------------------| | AIX | `stopsrc -s datadog-agent` | -| Linux | 사용 중인 OS에 대한 [Agent 문서][1]를 참고하세요. | -| 도커(Docker) | `docker exec -it agent stop` | -| Kubernetes | `kubectl delete pod `—참고: 파드가 자동으로 재예약됩니다 | -| macOS | `launchctl stop com.datadoghq.agent` *또는* systray 앱 사용 | +| Linux | 귀하의 OS에 대한 [Agent 문서][1]를 참조하세요. | +| Docker | `docker exec -it agent stop` | +| Kubernetes | `kubectl delete pod `—참고: 포드는 자동으로 재배치됩니다 | +| macOS | `launchctl stop com.datadoghq.agent` *또는* 시스템 트레이 앱을 통해 | | 소스 | `sudo service datadog-agent stop` | -| 윈도우즈(Windows) | [Windows Agent 문서][3]를 참고하세요. | +| Windows | [Windows Agent 문서][3]를 참조하세요. | -### 에이전트 재시작 +### Agent를 재시작합니다. {#restart-the-agent} -Datadog Agent를 다시 시작하는 명령 목록: +Datadog Agent를 재시작하는 명령어 목록: -| 플랫폼 | 명령어 | +| 플랫폼 | 명령 | |------------|----------------------------------------------------------------------------------| -| Linux | 사용 중인 OS에 대한 [Agent 문서][1]를 참고하세요. | -| 도커(Docker) | [설치 명령][2]을 사용합니다. | -| Kubernetes | `kubectl delete pod `—참고: 파드가 자동으로 재예약됩니다 | -| macOS | 에이전트를 중지한 후 다음으로 시작:
    `launchctl stop com.datadoghq.agent`
    `launchctl start com.datadoghq.agent`
    또는 Systray 앱 사용 | +| Linux | 귀하의 OS에 대한 [Agent 설명서][1]를 참조하세요. | +| Docker | [설치 명령어][2]를 사용하세요. | +| Kubernetes | `kubectl delete pod `—참고: 포드는 자동으로 재배치됩니다 | +| macOS | Agent를 중지한 후 다음과 같이 시작하세요:
    `launchctl stop com.datadoghq.agent`
    `launchctl start com.datadoghq.agent`
    또는 시스템 트레이 앱을 사용하세요 | | 소스 | *지원되지 않는 플랫폼* | -| 윈도우즈(Windows) | [Windows Agent 문서][3]를 참고하세요. | +| Windows | [Windows Agent 문서][3]를 참조하세요. | -## 에이전트 상태 및 정보 +## Agent 상태 및 정보 {#agent-status-and-information} -### 서비스 상태 +### 서비스 상태 {#service-status} Datadog Agent의 상태를 표시하는 명령 목록: -| 플랫폼 | 명령어 | +| 플랫폼 | 명령 | |-----------------|-------------------------------------------------------------------------------| | AIX | `lssrc -s datadog-agent` | -| Linux | 사용 중인 OS에 대한 [Agent 문서][1]를 참고하세요. | +| Linux | 귀하의 OS에 대한 [Agent 설명서][1]를 참조하세요. | | Docker (Debian) | `sudo docker exec -it s6-svstat /var/run/s6/services/agent/` | | Kubernetes | `kubectl exec -it -- s6-svstat /var/run/s6/services/agent/` | -| macOS | `launchctl list com.datadoghq.agent` *또는* systray 앱 사용 | +| macOS | `launchctl list com.datadoghq.agent` *또는* 시스템 트레이 앱을 통해 | | 소스 | `sudo service datadog-agent status` | -| 윈도우즈(Windows) | [Windows Agent 문서][4]를 참고하세요. | +| Windows | [Windows Agent 문서][4]를 참조하세요. | | [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | -### Agent 정보 +### Agent 정보 {#agent-information} -Datadog Agent와 활성화된 통합의 상태를 표시하는 명령 목록: +Datadog Agent 및 활성화된 통합의 상태를 표시하는 명령 목록: -| 플랫폼 | 명령어 | +| 플랫폼 | 명령 | |------------|------------------------------------------------------| | AIX | `datadog-agent status` | | Linux | `sudo datadog-agent status` | -| 도커(Docker) | `sudo docker exec -it agent status` | +| Docker | `sudo docker exec -it agent status` | | Kubernetes | `kubectl exec -it -- agent status` | -| macOS | `datadog-agent status` 또는 [web GUI][6]에서 | +| macOS | `datadog-agent status` 또는 [web GUI][6]를 통해 | | 소스 | `sudo datadog-agent status` | -| 윈도우즈(Windows) | [Windows Agent 문서][4]를 참고하세요. | -| [Cluster Agent (Kubernetes)][5] | `datadog-cluster-agent status` | +| Windows | [Windows Agent 설명서][4]를 참조하세요. | +| [클러스터 에이전트 (Kubernetes)][5] | `datadog-cluster-agent status` | -올바르게 구성된 통합은 아래에서 볼 수 있듯이 경고나 오류 없이 **Running Checks**에 표시됩니다. +적절하게 구성된 통합은 아래와 같이 경고나 오류 없이 **Running Checks** 아래에 표시됩니다: ```text Running Checks @@ -109,43 +109,46 @@ Running Checks Average Execution Time : 0ms ``` -## 기타 명령 +## 기타 명령 {#other-commands} + +Agent 명령줄 인터페이스는 서브 명령 기반입니다. 사용 가능한 서브 명령 목록을 보려면 실행하세요: -Agent 명령줄 인터페이스는 하위 명령 기반입니다. 사용 가능한 하위 명령 목록을 보려면 다음을 실행하세요. ```shell --help ``` -서브 명령어를 실행하려면 Agent 바이너리를 호출해야 합니다. +하위 명령어를 실행하려면 Agent 바이너리를 호출해야 합니다. + ```shell ``` -일부 옵션에는 플래그와 옵션이 있으며, '--help'에서 상세하게 설명하고 있습니다. 예를 들어, 'check' 서브 명령어를 사용하려면 다음을 수행하세요. +일부 옵션에는 `--help`에 자세히 설명된 플래그와 옵션이 있습니다. 예를 들어, 다음 `check` 하위 명령어와 함께 도움말을 사용하세요. + ```shell check --help ``` -| 하위 명령 | 참고 | +| 서브 명령 | 비고 | |-------------------|-----------------------------------------------------------------------------| -| `check` | 지정된 점검을 실행합니다. | +| `check` | 지정된 검사를 실행합니다. | | `config` | [런타임 구성 관리][7]. | -| `configcheck` | 실행 중인 Agent에서 로드되고 해결된 구성을 모두 출력합니다. | -| `diagnose` | 시스템에 대한 연결 진단을 실행합니다. | -| `flare` | [플레어를 수집하여 Datadog에 보냅니다][8]. | -| `health` | 현재 Agent 상태를 출력합니다. | -| `help` | 모든 명령과 관련한 도움말. | +| `configcheck` | 실행 중인 Agent의 로드되고 해결된 모든 구성을 출력합니다. | +| `diagnose` | 시스템에서 연결 진단을 실행합니다. | +| `flare` | [플레어를 수집하여 Datadog으로 보냅니다][8]. | +| `health` | 현재 Agent의 상태를 출력합니다. | +| `help` | 모든 명령에 대한 도움말입니다. | | `hostname` | Agent가 사용하는 호스트 이름을 출력합니다. | -| `import` | 이전 버전의 Agent에서 구성 파일을 가져와 변환합니다. | -| `jmx` | JMX 트러블슈팅. | +| `import` | 이전 버전의 Agent에서 구성 파일을 가져오고 변환합니다. | +| `jmx` | JMX 문제 해결 | | `launch-gui` | Datadog Agent GUI를 시작합니다. | -| `restart-service` | 서비스 컨트롤 관리자에서 Agent를 다시 시작합니다. Windows만 해당. | -| `start-service` | 서비스 컨트롤 관리자에서 Agent를 시작합니다. Windows만 해당. | -| `stream-logs` | 실행 중인 Agent가 처리하는 로그를 스트리밍합니다. | -| `stopservice` | 서비스 컨트롤 관리자에서 Agent를 중지합니다. Windows만 해당. | +| `restart-service` | 서비스 제어 관리자 내에서 Agent를 다시 시작합니다. Windows 전용입니다. | +| `start-service` | 서비스 제어 관리자 내에서 Agent를 시작합니다. Windows 전용입니다. | +| `stream-logs` | 실행 중인 에이전트가 처리 중인 로그를 스트리밍합니다. | +| `stopservice` | 서비스 제어 관리자 내에서 Agent를 중지합니다. Windows 전용입니다. | | `version` | 버전 정보를 출력합니다. | -## 참고 자료 +## 참고 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ko/bits_ai/mcp_server/_index.md b/content/ko/bits_ai/mcp_server/_index.md new file mode 100644 index 00000000000..69097014db2 --- /dev/null +++ b/content/ko/bits_ai/mcp_server/_index.md @@ -0,0 +1,109 @@ +--- +algolia: + rank: 90 + tags: + - mcp + - mcp server +description: MCP 서버를 사용하여 AI 에이전트를 Datadog 관측 데이터에 연결하고, 메트릭, 로그, 트레이스 및 기타 통찰력을 쿼리합니다. +further_reading: +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: 커서용 Datadog 확장 +- link: bits_ai/mcp_server/setup + tag: Documentation + text: Datadog MCP 서버 설정 +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Datadog MCP 서버 도구 +- link: bits_ai/ + tag: Documentation + text: Bits AI 개요 +- link: https://www.datadoghq.com/blog/datadog-mcp-server-use-cases + tag: Blog + text: 엔지니어링 팀이 AI 에이전트를 지원하기 위해 Datadog MCP 서버를 사용하는 네 가지 방법 +- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/ + tag: Blog + text: Datadog MCP 서버를 사용하여 AI 에이전트를 Datadog 도구 및 컨텍스트에 연결합니다. +- link: https://www.datadoghq.com/blog/datadog-cursor-extension/ + tag: Blog + text: Datadog Cursor 확장을 사용하여 실시간 프로덕션 문제를 디버깅합니다. +- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/ + tag: Blog + text: 'Datadog + OpenAI: AI 지원 DevOps를 위한 Codex CLI 통합' +title: Datadog MCP 서버 +--- +Datadog MCP 서버는 Datadog의 관측 데이터와 [모델 컨텍스트 프로토콜(MCP)][1]을 지원하는 모든 AI 에이전트 간의 다리 역할을 합니다. MCP 서버는 관련 Datadog 컨텍스트, 기능 및 도구에 대한 구조화된 액세스를 제공하여 Cursor, OpenAI Codex, Claude Code 또는 귀하의 AI 에이전트와 같은 AI 기반 클라이언트에서 직접 관측 통찰력을 쿼리하고 검색할 수 있게 합니다. + +**시작할 준비가 되셨나요?** 아래에서 에이전트를 선택하거나 [Datadog MCP 서버 설정][27]에서 연결 방법을 확인하세요. + +{{< partial name="mcp_server/mcp_server_agents.html" >}} + +이 데모는 Cursor와 Claude Code에서 Datadog MCP 서버가 사용되는 모습을 보여줍니다(오디오를 활성화하세요): + +{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="Cursor와 Claude Code에서 Datadog MCP 서버의 데모" video="true" >}} + + +## 면책 조항 {#disclaimers} + +- Datadog MCP 서버는 HIPAA 적격입니다. Datadog MCP 서버에 연결하는 AI 도구가 HIPAA와 같은 규정 준수 요구 사항을 충족하는지 확인할 책임이 있습니다. +- Datadog MCP 서버는 GovCloud와 호환되지 않습니다. +- Datadog은 원격 Datadog MCP 서버 사용에 대한 특정 정보를 수집하며, 여기에는 상호작용 방식, 사용 중 발생한 오류, 오류의 원인 및 사용자 식별자가 포함됩니다. 이는 Datadog 개인정보 보호정책 및 Datadog의 EULA에 따라 이루어집니다. 이 데이터는 서버의 성능과 기능을 개선하는 데 사용되며, 서버와의 전환 및 서비스에 접근하기 위한 해당 Datadog 로그인 페이지, 그리고 MCP 도구 사용으로 이어지는 맥락(예: 사용자 프롬프트)을 포함합니다. 데이터는 120일 동안 저장됩니다. + +## 공정 사용 비율 제한 {#fair-use-rate-limits} + +MCP 서버는 다음과 같은 공정 사용 제한이 있습니다: +- 10초당 50회 요청의 도구 호출 버스트 제한 +- 하루 5,000회 도구 호출 +- 월 50,000회 도구 호출. + +이 제한은 **변경될 수 있으며** 사용 사례에 따라 조정될 수 있습니다. 요청이나 질문이 있으시면 [Datadog 지원][37]에 문의해 주십시오. + +## Datadog MCP 서버 도구 호출 모니터링 {#monitoring-the-datadog-mcp-server-tool-calls} + +Datadog 메트릭 및 Audit Trail을 사용하여 귀하의 조직의 Datadog MCP 서버 사용량을 추적할 수 있습니다. + +모든 도구 호출은 Datadog [Audit Trail][16]에 기록되며, 도구 이름, 인수, 사용자 신원 및 사용된 MCP 클라이언트를 포함하여 MCP 액션으로 식별되는 메타데이터가 포함됩니다. 자세한 정보는 [Audit Trail에서 도구 호출 추적](#track-tool-calls-in-audit-trail)을 참조하십시오. + +Datadog은 MCP 서버 활동을 모니터링하는 데 사용할 수 있는 두 가지 표준 메트릭을 제공합니다. + +- `datadog.mcp.session.starts`: 각 세션 초기화 시 방출됩니다. +- `datadog.mcp.tool.usage`: 각 도구 호출 시 방출되는 분포 메트릭입니다. + +두 메트릭 모두 `user_id`, `user_email`, `client`와 같은 속성으로 태그됩니다(예: `claude` 또는 `cursor`과 같은 MCP 클라이언트 이름). + +`datadog.mcp.tool.usage`는 분포 메트릭이므로, 도구 호출 수를 얻기 위해 `count`(`sum` 아님)를 `.as_count()`와 함께 사용하세요. 예를 들어, 사용자 이메일별로 그룹화된 총 도구 호출 수를 쿼리하려면: + +``` +count:datadog.mcp.tool.usage{*} by {user_email}.as_count() +``` + +## 사용 가능한 도구 {#available-tools} + +[Datadog MCP 서버 도구][2]에서 도구 세트별로 정리된 사용 가능한 도구의 전체 참조를 확인하고 예제 프롬프트를 확인하세요. 특정 도구 세트를 활성화하려면 [Datadog MCP 서버 설정][28]에서 지침을 참조하세요. + +## 맥락 효율성 {#context-efficiency} + +Datadog MCP 서버는 AI 에이전트가 불필요한 정보에 압도되지 않고 관련 맥락을 얻을 수 있도록 응답을 제공하도록 최적화되어 있습니다. 예: + +- 응답은 각 도구가 제공하는 응답의 예상 길이에 따라 잘립니다. 도구는 응답이 잘린 경우 추가 정보를 요청하는 방법에 대한 지침을 AI 에이전트에 제공합니다. +- 대부분의 도구에는 AI 에이전트가 더 적거나 더 많은 정보를 요청할 수 있도록 하는 `max_tokens` 매개변수가 있습니다. + +## Audit Trail에서 도구 호출 추적 {#track-tool-calls-in-audit-trail} + +Datadog의 [감사 추적][16]에서 MCP 서버 도구가 수행한 호출에 대한 정보를 볼 수 있습니다. 이벤트 이름 `MCP Server`으로 검색하거나 필터링하세요. + +## 피드백 {#feedback} + +Datadog MCP 서버는 활발히 개발 중입니다. [이 피드백 양식][19]을 사용하여 프롬프트 및 쿼리에서 발생한 피드백, 케이스 또는 문제를 공유하세요. + +## 추가 자료 {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://modelcontextprotocol.io/ +[2]: /ko/bits_ai/mcp_server/tools +[16]: /ko/account_management/audit_trail/ +[19]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform +[27]: /ko/bits_ai/mcp_server/setup +[28]: /ko/bits_ai/mcp_server/setup#toolsets +[37]: https://help.datadoghq.com/hc/en-us/requests/new \ No newline at end of file diff --git a/content/ko/bits_ai/mcp_server/setup.md b/content/ko/bits_ai/mcp_server/setup.md new file mode 100644 index 00000000000..4fd31ddf2b0 --- /dev/null +++ b/content/ko/bits_ai/mcp_server/setup.md @@ -0,0 +1,654 @@ +--- +algolia: + rank: 75 + tags: + - mcp + - mcp server + - setup +description: AI 에이전트를 Datadog MCP 서버에 연결하는 방법을 배우십시오. +further_reading: +- link: bits_ai/mcp_server + tag: Documentation + text: Datadog MCP 서버 +- link: bits_ai/mcp_server/tools + tag: Documentation + text: Datadog MCP 서버 도구 +- link: ide_plugins/vscode/?tab=cursor + tag: Documentation + text: Cursor용 Datadog 확장 +title: Datadog MCP 서버 설정 +--- +AI 기반 클라이언트에서 직접 텔레메트리 통찰력을 검색하고 플랫폼 기능을 관리할 수 있도록 해주는 Datadog MCP 서버를 설정하고 구성하는 방법을 배우십시오. 클라이언트를 선택하십시오: + +{{< tabs >}} +{{% tab "커서" %}} + +Datadog의 [커서 및 VS 코드 확장][1]은 관리되는 Datadog MCP 서버에 대한 내장 액세스를 포함합니다. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. 확장을 설치합니다(기본 Cursor 프로필에 설치하려면 `--profile` 및 프로필 이름을 생략). + ```shell + cursor --install-extension datadog.datadog-vscode --profile + ``` + 또는 [Datadog 확장][2]을 설치하십시오. 이미 확장을 설치한 경우 최신 버전인지 확인하십시오. +1. Datadog 계정에 로그인하십시오. + {{< img src="bits_ai/mcp_server/ide_sign_in.png" alt="IDE 확장에서 Datadog에 로그인하십시오." style="width:70%;" >}} +1. **IDE를 재시작합니다.** +1. Datadog MCP 서버가 사용 가능하고 [도구][3]가 나열되어 있는지 확인하십시오: {{< ui >}}Cursor Settings{{< /ui >}} (`Shift` + `Cmd/Ctrl` + `J`)로 이동하여 {{< ui >}}Tools & MCP{{< /ui >}} 탭을 선택하고 확장의 도구 목록을 확장하십시오. +1. 이전에 Datadog MCP 서버를 수동으로 설치한 경우 충돌을 피하기 위해 IDE의 구성에서 제거하십시오. +1. 접근하려는 Datadog 리소스에 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +[2]: /ko/ide_plugins/vscode/?tab=cursor#installation +[3]: /ko/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /ko/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "Claude Code" %}} + +AI 에이전트를 귀하의 지역 [Datadog 사이트][1]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. 터미널에서 실행: +
    claude mcp add --transport http datadog-mcp {{< region-param key="mcp_server_endpoint" >}}
    + + 또는 `~/.claude.json`에 추가하십시오: +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +         }
    +       }
    +    }
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다 (모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +
    원격 인증이 사용 불가능한 경우, 대신 로컬 바이너리 인증을 사용하십시오.
    + +[1]: /ko/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} + +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    + +{{< /site-region >}} + +[1]: /ko/getting_started/site/ +{{% /tab %}} + +{{% tab "Claude" %}} + +Claude(Claude Cowork 포함)를 Datadog MCP 서버에 연결하려면, 원격 MCP URL을 사용하여 {{< ui >}}custom connector{{< /ui >}}로 추가합니다. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. 새로운 사용자 정의 커넥터를 추가하려면 [사용자 정의 커넥터][1]에 대한 클로드 도움말 센터 가이드를 따르십시오. + +1. URL을 입력하라는 메시지가 표시되면 귀하의 [Datadog 사이트][2]에 대한 Datadog MCP 서버 엔드포인트를 입력하십시오. ({{< region-param key="dd_site_name" >}}). 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. +
    {{< region-param key="mcp_server_endpoint" >}}
    + + [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다 (모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. 프롬프트가 표시되면 OAuth 로그인 흐름을 완료하십시오. + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +[1]: https://support.claude.com/en/articles/11175166-get-started-with-custom-connectors-using-remote-mcp +[2]: /ko/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 Datadog 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +{{% /tab %}} + +{{% tab "Codex" %}} + +AI 에이전트를 귀하의 지역 [Datadog 사이트][1]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Datadog MCP 서버를 HTTP 전송 및 사이트의 엔드포인트 URL과 함께 추가하려면 `~/.codex/config.toml`를 편집하십시오(또는 Codex CLI 구성 파일). 예: + +
    [mcp_servers.datadog]
    +   url = "{{< region-param key="mcp_server_endpoint" >}}"
    +   
    + + [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다 (모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog MCP 서버에 로그인하십시오: + + ```shell + codex mcp login datadog + ``` + + 이것은 OAuth 흐름을 완료하기 위해 브라우저를 엽니다. Codex는 결과 자격 증명을 저장하므로 토큰이 만료될 때까지 다시 로그인할 필요가 없습니다. + +1. 접근하려는 Datadog 리소스에 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /ko/getting_started/site/ +{{% /tab %}} + +{{% tab "Gemini CLI" %}} + +AI 에이전트를 귀하의 지역 [Datadog 사이트][1]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽에 있는 **Datadog 사이트** 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. 터미널에서 실행: +
    gemini mcp add --transport http datadog {{< region-param key="mcp_server_endpoint" >}}
    + + 또는 `~/.gemini/settings.json`에 추가하십시오: +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "httpUrl": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다(모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +
    원격 인증이 사용 불가능한 경우, 대신 로컬 바이너리 인증을 사용하십시오.
    + +[1]: /ko/getting_started/site/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /ko/getting_started/site/ +{{% /tab %}} + +{{% tab "Warp" %}} + +[Warp][1]는 내장된 MCP 지원이 있는 에이전트 터미널입니다. Warp 에이전트를 귀하의 지역 [Datadog 사이트][2]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. Warp 앱에서 {{< ui >}}Settings{{< /ui >}} > {{< ui >}}MCP Servers{{< /ui >}}로 이동하여 {{< ui >}}+ Add{{< /ui >}}를 클릭하십시오. + +1. 다음 구성을 붙여넣으십시오: + +
    {
    +      "Datadog": {
    +        "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +      }
    +    }
    + + To enable [product-specific tools](#toolsets), include the `toolsets` query parameter at the end of the endpoint URL. For example, this URL enables _only_ APM and LLM Observability tools (use `toolsets=all` to enable all generally available toolsets, best for clients that support tool filtering): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog 서버에서 {{< ui >}}Start{{< /ui >}}을 클릭하십시오. Warp는 OAuth 로그인 흐름을 완료하기 위해 브라우저를 엽니다. 자격 증명은 귀하의 장치에 안전하게 저장되며 향후 세션에 재사용됩니다. + +1. 접근하려는 Datadog 리소스에 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: https://www.warp.dev/ +[2]: /ko/getting_started/site/ +{{% /tab %}} + +{{% tab "VS Code" %}} + +Datadog의 [커서 및 VS 코드 확장][1]은 관리되는 Datadog MCP 서버에 대한 내장 액세스를 포함합니다. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +1. 확장 프로그램을 설치하십시오(기본 VS Code 프로필에 설치하려면 `--profile` 및 프로필 이름을 생략하십시오): + ```shell + code --install-extension datadog.datadog-vscode --profile + ``` + 또는 [Datadog 확장][2]을 설치하십시오. 이미 확장을 설치한 경우 최신 버전인지 확인하십시오. +1. Datadog 계정에 로그인하십시오. +1. **IDE를 재시작합니다.** +1. Datadog MCP 서버가 사용 가능한지 확인하고 [도구][3]가 나열되어 있는지 확인하십시오: 채팅 패널을 열고, 에이전트 모드를 선택한 후 {{< ui >}}Configure Tools{{< /ui >}} 버튼을 클릭하십시오. + {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="VS Code의 도구 구성 버튼" style="width:70%;" >}} +1. 이전에 Datadog MCP 서버를 수동으로 설치한 경우, 충돌을 피하기 위해 IDE의 구성에서 제거하십시오. 명령 팔레트 (`Shift` + `Cmd/Ctrl` + `P`)를 열고 `MCP: Open User Configuration`를 실행하십시오. +1. 접근하려는 Datadog 리소스에 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +[2]: /ko/ide_plugins/vscode/?tab=vscode#installation +[3]: /ko/bits_ai/mcp_server/tools +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: /ko/ide_plugins/vscode/ +{{% /tab %}} + +{{% tab "JetBrains IDE" %}} + +JetBrains는 다양한 IDE를 위한 [Junie][1] 및 [AI Assistant][2] 플러그인을 제공합니다. GitHub는 [Copilot][4] 플러그인을 제공합니다. 대안으로, 많은 개발자들이 IDE와 함께 Claude Code, Codex 또는 Gemini CLI와 같은 에이전트 CLI를 사용합니다. + +플러그인을 귀하의 지역 [Datadog 사이트][3]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +{{% collapse-content title="Junie" level="h4" expanded=false id="jetbrains-junie" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}Junie{{< /ui >}} > {{< ui >}}MCP Settings{{< /ui >}}로 이동하여 다음 블록을 추가하십시오: + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다 (모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. OAuth를 통해 로그인하라는 메시지가 표시됩니다. 설정의 상태 표시기는 연결이 성공하면 녹색 체크 표시를 표시합니다. + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{% /collapse-content %}} + +{{% collapse-content title="JetBrains AI Assistant" level="h4" expanded=false id="jetbrains-ai-assistant" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}AI Assistant{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}}로 이동하여 다음 블록을 추가하십시오: + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +          "headers": {
    +            "DD_API_KEY": "<YOUR_API_KEY>",
    +            "DD_APPLICATION_KEY": "<YOUR_APP_KEY>"
    +          }
    +        }
    +      }
    +    }
    +    
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다 (모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. 설정의 상태 표시기는 연결이 성공하면 녹색 체크 표시를 표시합니다. + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{% /collapse-content %}} + +{{% collapse-content title="GitHub Copilot" level="h4" expanded=false id="github-copilot" %}} +1. {{< ui >}}Tools{{< /ui >}} > {{< ui >}}GitHub Copilot{{< /ui >}} > {{< ui >}}Model Context Protocol (MCP){{< /ui >}}로 이동하여 다음 블록을 추가하십시오: + +
    {
    +      "servers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    +    
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다(모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. 편집기에 나타나는 `Start` 요소를 클릭하여 서버를 시작하십시오. OAuth를 통해 로그인하라는 메시지가 표시됩니다. + +1. 접근하려는 Datadog 리소스에 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{% /collapse-content %}} + +{{% collapse-content title="에이전트 CLI" level="h4" expanded=false id="jetbrains-agent-clis" %}} +많은 개발자들이 JetBrains IDE와 함께 Claude Code, Codex 또는 Gemini CLI와 같은 에이전트 CLI를 사용합니다. 해당 CLI 도구의 구성을 참조하십시오: +- [Claude Code][4] +- [Codex][5] +- [Gemini CLI][6] + +[Datadog plugin for JetBrains IDEs][3]은 이러한 에이전트 CLI와 통합됩니다. 중단 없는 경험을 위해 Datadog MCP 서버를 구성할 때 플러그인을 동시에 설치하십시오. + +[3]: /ko/ide_plugins/idea/ +[4]: /ko/bits_ai/mcp_server/setup/?tab=claudecode +[5]: /ko/bits_ai/mcp_server/setup/?tab=codex +[6]: /ko/bits_ai/mcp_server/setup/?tab=geminicli +{{% /collapse-content %}} +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[1]: https://plugins.jetbrains.com/plugin/26104-junie-the-ai-coding-agent-by-jetbrains +[2]: https://plugins.jetbrains.com/plugin/22282-jetbrains-ai-assistant +[3]: /ko/getting_started/site/ +[4]: https://plugins.jetbrains.com/plugin/17718-github-copilot--your-ai-pair-programmer +{{% /tab %}} + +{{% tab "Kiro" %}} + +AI 에이전트를 귀하의 지역 [Datadog 사이트][3]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 위해 이 문서 페이지 오른쪽의 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. 다음 내용을 [Kiro MCP configuration file][2]에 추가하십시오 (`~/.kiro/settings/mcp.json` 사용자 범위 구성용): + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다(모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +[2]: https://kiro.dev/docs/mcp/configuration/ +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    +{{< /site-region >}} + +[3]: /ko/getting_started/site/ +{{% /tab %}} + +{{% tab "기타" %}} + +대부분의 다른 [지원되는 클라이언트](#supported-clients)의 경우 원격 인증을 위한 지침을 사용하십시오. Cline 또는 원격 인증이 신뢰할 수 없거나 사용할 수 없는 경우 [로컬 바이너리 인증](#local-binary-authentication)을 사용하십시오. + +AI 에이전트를 귀하의 지역 [Datadog 사이트][1]의 MCP 서버 엔드포인트로 지정하십시오. 올바른 지침을 보려면 이 문서 페이지 오른쪽에 있는 {{< ui >}}Datadog Site{{< /ui >}} 선택기를 사용하여 귀하의 사이트를 선택하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +선택한 엔드포인트 ({{< region-param key="dd_site_name" >}}): {{< region-param key="mcp_server_endpoint" >}}. + +1. HTTP 전송과 사이트의 엔드포인트 URL을 사용하여 클라이언트의 구성 파일에 Datadog MCP 서버를 추가하십시오. 예: + +
    {
    +      "mcpServers": {
    +        "datadog": {
    +          "type": "http",
    +          "url": "{{< region-param key="mcp_server_endpoint" >}}"
    +        }
    +      }
    +    }
    + +1. [제품별 도구](#toolsets)를 활성화하려면 엔드포인트 URL 끝에 `toolsets` 쿼리 매개변수를 포함하십시오. 예를 들어, 이 URL은 _오직_ APM 및 LLM Observability 도구를 활성화합니다(모든 일반적으로 사용 가능한 도구 세트를 활성화하려면 `toolsets=all`을 사용하십시오. 이는 도구 필터링을 지원하는 클라이언트에 가장 적합합니다): + +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=apm,llmobs
    + +1. Datadog 리소스에 접근하기 위해 필요한 [권한](#required-permissions)이 있는지 확인하십시오. + +{{< /site-region >}} + +{{< site-region region="gov" >}} +
    선택한 사이트에 대해 Datadog MCP 서버가 지원되지 않습니다 ({{< region-param key="dd_site_name" >}}).
    + +{{< /site-region >}} + +[1]: /ko/getting_started/site/ +{{% /tab %}} +{{< /tabs >}} + +## 도구 세트 {#toolsets} + +Datadog MCP 서버는 _도구 세트_를 지원하며, 이를 통해 오직 필요한 [MCP tools][49]를 사용할 수 있어 귀중한 컨텍스트 창 공간을 절약할 수 있습니다. 도구 세트를 사용하려면 MCP 서버에 연결할 때 엔드포인트 URL에 `toolsets` 쿼리 매개변수를 포함하십시오 ([원격 인증](#authentication)만). 모든 일반적으로 사용 가능한 도구 세트를 한 번에 활성화하려면 `toolsets=all`을 사용하십시오. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +예를 들어, 선택한 [Datadog 사이트][17]에 따라 ({{< region-param key="dd_site_name" >}}): + +- 코어 도구만 검색(`toolsets`를 지정하지 않은 경우 기본값): +
    {{< region-param key="mcp_server_endpoint" >}}
    + +- Synthetic Testing 관련 도구만 검색: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=synthetics
    + +- 코어, Synthetic Testing 및 소프트웨어 배포 도구를 검색: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=core,synthetics,software-delivery
    + +- 일반적으로 사용 가능한 모든 도구를 검색합니다: +
    {{< region-param key="mcp_server_endpoint" >}}?toolsets=all
    + +
    모든 도구 세트를 활성화하면 AI 클라이언트에 전송되는 도구 정의의 수가 증가하여 컨텍스트 창 공간을 소모합니다. toolsets=all은 도구 필터링을 지원하는 클라이언트(예: Claude Code)에서 가장 잘 작동합니다.
    + +[17]: /ko/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +### 사용 가능한 도구 세트 {#available-toolsets} + +이 도구 세트는 일반적으로 사용 가능합니다. 사용 가능한 도구의 전체 참조는 [Datadog MCP Server Tools][49]를 참조하십시오. 도구 세트별로 정리되어 있으며, 예제 프롬프트가 포함되어 있습니다. + +- `core`: 로그, 메트릭, 트레이스, 대시보드, 모니터링, 인시던트, 호스트, 서비스, 이벤트 및 노트북을 위한 기본 도구 세트 +- `alerting`: 모니터를 검증하고 생성하며, 모니터 그룹을 검색하고, 모니터 템플릿을 검색하고, 모니터 범위를 분석하며, SLO를 검색하기 위한 도구 +- `cases`: [Case Management][42]를 위한 도구로, 케이스 생성, 검색 및 업데이트; 프로젝트 관리; Jira 이슈 연결을 포함합니다. +- `dashboards`: [대시보드][46]를 검색, 생성, 업데이트 및 삭제하기 위한 도구로, 위젯 스키마 참조 및 검증도 포함됩니다. +- `dbm`: [Database Monitoring][33]과 상호작용하기 위한 도구 +- `ddsql`: [DDSQL][44]이라는 SQL 방언을 사용하여 Datadog 데이터를 쿼리하기 위한 도구로, 인프라 리소스, 로그, 메트릭, RUM, 스팬 및 기타 Datadog 데이터 소스를 지원합니다. +- `error-tracking`: Datadog [Error Tracking][32]과 상호작용하기 위한 도구 +- `feature-flags`: [기능 플래그][35]를 관리하기 위한 도구로, 플래그 및 해당 환경을 생성, 나열 및 업데이트하는 것을 포함합니다. +- `llmobs`: [LLM Observability][36] 스팬 및 실험을 검색하고 분석하기 위한 도구 +- `networks`: [Cloud Network Monitoring][37] 분석 및 [Network Device Monitoring][38]을 위한 도구 +- `onboarding`: Datadog 설정 및 구성을 안내하는 온보딩 도구 +- `product-analytics`: [Product Analytics][41] 쿼리와 상호작용하기 위한 도구 +- `reference-tables`: [Reference Tables][48]을 관리하기 위한 도구로, 표 나열, 행 읽기, 행 추가 및 클라우드 저장소에서 표 생성 기능을 포함합니다. +- `security`: 코드 보안 스캐닝 및 [security signals][39] 및 [security findings][40] 검색을 위한 도구 +- `software-delivery`: 소프트웨어 배포와 상호작용하는 도구([CI Visibility][30] 및 [Test Optimization][31]) +- `synthetics`: Datadog [Synthetic 테스트][29]와 상호작용하기 위한 도구 +- `workflows`: 에이전트 사용을 위한 워크플로의 나열, 검사, 실행 및 구성을 포함하는 [Workflow Automation][43] 도구 + +### 미리보기 도구 세트 {#preview-toolsets} + +이 도구 세트는 미리보기 상태입니다. 제품 미리보기 양식을 작성하거나 [Datadog 지원][47]에 연락하여 도구 세트에 가입하세요. +- `apm`: ([가입][45]) 심층 [APM][34] 추적 분석, 스팬 검색, Watchdog 통찰력 및 성능 조사를 위한 도구 + +## 지원되는 클라이언트 {#supported-clients} + +| 클라이언트 | 개발자 | 노트 | +|--------|------|------| +| [커서][3] | 커서 | Datadog [커서 및 VS 코드 확장][15] 추천. | +| [Claude Code][4] | Anthropic | | +| [Claude][19] | Anthropic | [사용자 지정 커넥터 설정](?tab=claude#installation)을 사용하세요. Claude Cowork이 포함됩니다. | +| [Codex CLI][6] | OpenAI | | +| [Gemini CLI][50] | Google | | +| [Warp][28] | Warp | | +| [VS 코드][7] | 마이크로소프트 | Datadog [커서 및 VS 코드 확장][16] 추천. | +| [JetBrains IDEs][18] | JetBrains | [Datadog 플러그인][18]을 권장합니다. | +| [Kiro][9], [Kiro CLI][10] | Amazon Web Services | | +| [구스][8], [클라인][11] | 다양한 | 위의 {{< ui >}}Other{{< /ui >}} 탭을 참조하세요. 원격 인증이 신뢰할 수 없는 경우 Cline에 대해 로컬 바이너리 인증을 사용하세요. | + +
    Datadog MCP 서버는 상당한 개발 중이며, 추가 지원 클라이언트가 제공될 수 있습니다.
    + +## 필수 권한 {#required-permissions} + +MCP 서버 도구는 다음 [Datadog 사용자 역할 권한][22]이 필요합니다: + +| 권한 | |에 필요합니다. +|------------|-------------| +| mcp_read | Datadog에서 데이터를 읽는 도구(예: 모니터 쿼리, 로그 검색, 대시보드 검색) | +| mcp_write | Datadog에서 리소스를 생성하거나 수정하는 도구(예: 모니터 생성, 호스트 음소거) | + +`mcp_read` 또는 `mcp_write` 외에도, 사용자는 기본 리소스에 대한 표준 Datadog 권한이 필요합니다. 예를 들어, 모니터를 읽는 MCP 도구를 사용하려면 `mcp_read`와 [모니터 읽기][24] 권한이 모두 필요합니다. 리소스 수준 권한의 전체 목록은 [Datadog 역할 권한][25]을 참조하십시오. + +**Datadog 표준 역할**을 가진 사용자는 기본적으로 두 가지 MCP 서버 권한을 가집니다. 조직에서 [사용자 정의 역할][23]을 사용하는 경우, 권한을 수동으로 추가하십시오: +1. 관리자로서 [**조직 설정 > 역할**][26]로 이동하여 업데이트할 역할을 클릭하십시오. +1. {{< ui >}}Edit Role{{< /ui >}}(연필 아이콘)을 클릭합니다. +1. 권한 목록 아래에서 {{< ui >}}MCP Read{{< /ui >}} 및 {{< ui >}}MCP Write{{< /ui >}} 체크박스를 선택하십시오. +1. 역할에 필요한 다른 리소스 수준 권한을 선택하십시오. +1. {{< ui >}}Save{{< /ui >}}를 클릭합니다. + +조직 관리자는 [조직 설정][27]에서 전역 MCP 접근 및 쓰기 기능을 관리할 수 있습니다. + +## 인증 {#authentication} + +MCP 서버는 [인증][14]을 위해 OAuth 2.0을 사용합니다. OAuth 흐름을 통과할 수 없는 경우(예: 서버에서), Datadog [API 키 및 애플리케이션 키][1]를 `DD_API_KEY` 및 `DD_APPLICATION_KEY` HTTP 헤더로 제공할 수 있습니다. + +{{< site-region region="us,us3,us5,eu,ap1,ap2" >}} +예를 들어, 선택한 [Datadog 사이트][17]에 따라 ({{< region-param key="dd_site_name" >}}): + +
    {
    +  "mcpServers": {
    +    "datadog": {
    +      "type": "http",
    +      "url": "{{< region-param key="mcp_server_endpoint" >}}",
    +      "headers": {
    +          "DD_API_KEY": "<YOUR_API_KEY>",
    +          "DD_APPLICATION_KEY": "<YOUR_APPLICATION_KEY>"
    +      }
    +    }
    +  }
    +}
    +
    + +[17]: /ko/getting_started/site/#navigate-the-datadog-documentation-by-site +{{< /site-region >}} + +보안을 위해 필요한 권한만 가진 [서비스 계정][13]에서 범위가 지정된 API 키와 애플리케이션 키를 사용하십시오. + +### 로컬 바이너리 인증 {#local-binary-authentication} + +로컬 인증은 Cline 및 원격 인증이 신뢰할 수 없거나 사용 불가능한 경우에 권장됩니다. 설치 후에는 일반적으로 로컬 바이너리를 업데이트하지 않아도 MCP 서버 업데이트의 혜택을 받을 수 있습니다. 이는 도구가 원격으로 제공되기 때문입니다. + +{{% collapse-content title="Datadog MCP 서버 로컬 바이너리 설정." level="h5" expanded=false id="mcp-local-binary" %}} + +1. Datadog MCP 서버 바이너리 설치 (macOS 및 Linux). + ```bash + curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash + ``` + 이것은 바이너리를 `~/.local/bin/datadog_mcp_cli`에 설치합니다. + + Windows의 경우, [Windows 버전][20]을 다운로드하십시오. + +2. `datadog_mcp_cli login`을 수동으로 실행하여 OAuth 로그인 흐름을 진행하고 [Datadog 사이트][21]를 선택하십시오. + +3. AI 클라이언트를 `datadog_mcp_cli`를 명령으로 사용하여 stdio 전송을 사용하도록 구성하십시오. 예를 들어, macOS에서(``을 귀하의 OS 사용자 이름으로 교체): + ```json + { + "mcpServers": { + "datadog": { + "type": "stdio", + "command": "/Users//.local/bin/datadog_mcp_cli", + "args": [], + "env": {} + } + } + } + ``` + + 다른 운영 체제의 경우, `command` 경로를 다운로드한 바이너리의 위치로 교체하십시오. + - Linux: `/home//.local/bin/datadog_mcp_cli` + - Windows: `\bin\datadog_mcp_cli.exe` + +
    Claude Code의 경우, 대신 다음을 실행할 수 있습니다. +
    claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli
    + +4. AI 클라이언트를 완전히 재시작하여 구성을 적용하고 MCP 서버를 로드하십시오. +{{% /collapse-content %}} + +## MCP 서버에 대한 액세스 권한 테스트 {#test-access-to-the-mcp-server}. + +1. [MCP 검사기][2]를 설치하십시오. 이는 MCP 서버를 테스트하고 디버깅하기 위한 개발자 도구입니다. + + ```bash + npx @modelcontextprotocol/inspector + ``` +2. 검사기의 웹 UI에서 {{< ui >}}Transport Type{{< /ui >}}에 대해 {{< ui >}}Streamable HTTP{{< /ui >}}을 선택하십시오. +3. {{< ui >}}URL{{< /ui >}}의 경우, 귀하의 지역 Datadog 사이트에 대한 MCP 서버 엔드포인트를 입력하십시오. + {{< site-region region="us,us3,us5,eu,ap1,ap2" >}} + 예를 들어, 다음의 경우 {{< region-param key="dd_site_name" >}}: {{< region-param key="mcp_server_endpoint" >}} + {{< /site-region >}} +4. {{< ui >}}Connect{{< /ui >}}를 클릭한 후 {{< ui >}}Tools{{< /ui >}} > {{< ui >}}List Tools{{< /ui >}}로 이동하십시오. +5. [사용 가능한 도구][12]가 나타나는지 확인하십시오. + +## 추가 자료 {#further-reading} + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/account_management/api-app-keys/ +[2]: https://github.com/modelcontextprotocol/inspector +[3]: https://cursor.com +[4]: https://claude.com/product/claude-code +[5]: https://claude.com/download +[6]: https://chatgpt.com/codex +[7]: https://code.visualstudio.com/ +[8]: https://github.com/block/goose +[9]: https://kiro.dev/ +[10]: https://kiro.dev/cli/ +[11]: https://cline.bot/ +[12]: /ko/bits_ai/mcp_server/tools +[13]: /ko/account_management/org_settings/service_accounts/ +[14]: https://modelcontextprotocol.io/specification/draft/basic/authorization +[15]: /ko/ide_plugins/vscode/?tab=cursor +[16]: /ko/ide_plugins/vscode/ +[17]: /ko/getting_started/site/#navigate-the-datadog-documentation-by-site +[18]: /ko/ide_plugins/idea/ +[19]: https://claude.ai +[20]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe +[21]: /ko/getting_started/site/ +[22]: /ko/account_management/rbac/permissions/#mcp +[23]: /ko/account_management/rbac/?tab=datadogapplication#custom-roles +[24]: /ko/account_management/rbac/permissions/#monitors +[25]: /ko/account_management/rbac/permissions/ +[26]: https://app.datadoghq.com/organization-settings/roles +[27]: https://app.datadoghq.com/organization-settings/preferences +[28]: https://www.warp.dev/ +[29]: /ko/synthetics/ +[30]: /ko/continuous_integration/ +[31]: /ko/tests/ +[32]: /ko/error_tracking/ +[33]: /ko/database_monitoring/ +[34]: /ko/tracing/ +[35]: /ko/feature_flags/ +[36]: /ko/llm_observability/mcp_server/ +[37]: /ko/network_monitoring/cloud_network_monitoring/ +[38]: /ko/network_monitoring/devices/ +[39]: /ko/security/threats/security_signals/ +[40]: /ko/security/misconfigurations/findings/ +[41]: /ko/product_analytics +[42]: /ko/service_management/case_management/ +[43]: /ko/actions/workflows/ +[44]: /ko/ddsql_editor/ +[45]: https://www.datadoghq.com/product-preview/apm-mcp-toolset/ +[46]: /ko/dashboards/ +[47]: /ko/help/ +[48]: /ko/reference_tables/ +[49]: /ko/bits_ai/mcp_server/tools +[50]: https://github.com/google-gemini/gemini-cli \ No newline at end of file diff --git a/content/ko/getting_started/agent/_index.md b/content/ko/getting_started/agent/_index.md index 0c0be4d8c99..d09089c82cb 100644 --- a/content/ko/getting_started/agent/_index.md +++ b/content/ko/getting_started/agent/_index.md @@ -1,190 +1,148 @@ --- +description: Datadog Agent를 설치하고 구성하여 호스트에서 시스템 수준의 메트릭, 이벤트 및 로그를 수집하는 방법에 대한 가이드입니다. further_reading: -- link: /agent/basic_agent_usage/ - tag: 설명서 - text: 에이전트 기본 사용법 +- link: agent/ + tag: Documentation + text: Datadog Agent - link: https://dtdg.co/fe - tag: 기반 활성화 + tag: Foundation Enablement text: 대화형 세션에 참여하여 인프라스트럭처 모니터링 강화 - link: /agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ tag: FAQ - text: 클라우드 인스턴스에 Datadog 에이전트를 설치해야 하는 이유 -title: 에이전트 이용해 시작하기 + text: 클라우드 인스턴스에 Datadog Agent를 설치해야 하는 이유 +- link: https://www.datadoghq.com/blog/lambda-managed-instances + tag: Blog + text: Datadog을 사용한 AWS Lambda 관리 인스턴스 모니터링 +title: Agent 시작하기 --- +## 개요 {#overview} -이번 가이드에서는 에이전트를 소개하고, 시스템 레벨 메트릭을 Datadog 플랫폼으로 전송할 때 사용하는 방법을 알려드리겠습니다. 우분투(Ubuntu) 상의 에이전트 설치 사례도 함께 설명합니다. 이번에 다룰 주제는 다음과 같습니다. +이 가이드는 Datadog Agent를 소개하고 다음 내용을 다룹니다: - - 에이전트 설치 - - 에이전트 실행 여부의 확인 - - 에이전트 기능 설정 - - 트러블슈팅 자료 + - [Agent 소개](#what-is-the-datadog-agent) + - [ 설치 ](#installation) + - [Agent가 수집한 데이터](#data-collected-by-the-agent) + - [ 고급 구성 및 기능 ](#advanced-configurations-and-features) + - [ 문제 해결 ](#troubleshooting) -## 개요 -### 에이전트 소개 +## Datadog Agent란 무엇인가요? {#what-is-the-datadog-agent} -Datadog 에이전트는 호스트에서 실행되는 소프트웨어입니다. 호스트에서 이벤트와 메트릭을 수집하여 모니터링 및 성능 데이터를 분석할 수 있는 Datadog으로 전송합니다. 로컬 호스트(Windows, MacOS), 컨테이너화된 환경(Docker, Kubernetes), 온프레미스 데이터 센터에서 실행할 수 있습니다. 설정 관리 도구(Chef, Puppet, Ansible)를 사용하여 설치 및 구성할 수 있습니다. +Datadog Agent는 호스트에서 실행되는 소프트웨어입니다. 호스트로부터 이벤트와 메트릭을 수집하여 모니터링 및 성능 데이터를 분석할 수 있는 Datadog으로 보냅니다. +Agent는 다음에서 실행될 수 있습니다. +- 로컬 호스트(Windows, macOS) +- 컨테이너화된 환경(Docker, Kubernetes) +- 온프레미스 데이터 센터 +Chef, Puppet 또는 Ansible과 같은 구성 관리 도구를 사용하여 Agent를 설치하고 구성할 수도 있습니다. -에이전트는 15~20초마다 75~100개의 시스템 레벨 메트릭을 수집할 수 있습니다. 또한 에이전트 추가 설정을 통해 실행 중인 프로세스에서 라이브 데이터, 로그, 트레이스를 Datadog 플랫폼으로 전송할 수 있습니다. DataDog 에이전트는 오픈소스로, 소스 코드는 깃허브(GitHub)의 [DataDog/datadog-agent][1]에 공개되어 있습니다. +Agent는 15-20초마다 75-100개의 시스템 수준 메트릭을 수집할 수 있습니다. 추가 구성을 통해 실행 중인 프로세스에서 Datadog으로 실시간 데이터, 로그 및 트레이스를 보낼 수 있습니다. Datadog Agent는 오픈 소스이며, 소스 코드는 GitHub의 [DataDog/datadog-agent][1]에서 사용할 수 있습니다. -### 에이전트의 오버헤드 +### Agent 구성 파일 {#the-agent-configuration-file} -에이전트가 차지하는 공간과 리소스의 양은 설정과 에이전트가 전송하도록 구성된 데이터에 따라 달라집니다. 시작 시 평균적으로 약 0.08%의 CPU가 사용되고 약 880MB~1.3GB의 디스크 공간이 사용됩니다. +Agent의 기본 구성 파일은 `datadog.yaml`입니다. 필수 파라미터는 다음과 같습니다: +- 귀하의 [Datadog API 키][16]는 Agent의 데이터를 귀하의 조직과 연결하는 데 사용됩니다. +- 귀하의 [Datadog 사이트][41]({{< region-param key="dd_site" code="true" >}}). -이러한 벤치마크 수치에 대해 자세히 알아보려면 [에이전트 오버헤드][2]를 참조하세요. +사용 가능한 모든 구성 옵션은 [샘플 `config_template.yaml` 파일][23]을 참조하세요. Agent의 구성 파일을 조정하여 기타 Datadog 기능을 활용할 수 있습니다. -### 수집 데이터 -#### 에이전트 메트릭 +## 설치 {#installation} -다음의 에이전트 메트릭은 에이전트 자체에 대하여 스스로 Datadog에 전송하는 정보입니다. 따라서 호스트나 컨테이너가 에이전트를 실행 중인지, 언제 에이전트가 시작되었는지, 어느 버전의 파이썬(Python)을 실행하는지 확인할 수 있습니다. - -| 메트릭 | 설명 | -| -------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| `datadog.agent.python.version` | 에이전트가 Datadog에 보고 중인 경우 값 `1`이 표시됩니다. 메트릭에는 `python_version` 태그가 지정됩니다. | -| `datadog.agent.running` | 에이전트가 Datadog에 보고 중인 경우 값 `1`이 표시됩니다. | -| `datadog.agent.started` | 에이전트 시작 시에 값 `1`과 함께 개수 정보가 전송됩니다(v6.12 이상에서 사용할 수 있습니다). | - -에이전트 메트릭 전체 목록은 [에이전트 메트릭][3] 통합에서 찾아볼 수 있습니다. - -#### 점검 - -플랫폼에 따라 Agent는 메트릭을 수집하면서 여러 핵심 점검을 기본으로 수행합니다. - -| 점검 | 메트릭 | 플랫폼 | -| ----------- | ------------- | ------------------ | -| CPU | [시스템][4] | 전체 | -| 디스크 | [디스크][5] | 전체 | -| IO | [시스템][4] | 전체 | -| 메모리 | [시스템][4] | 전체 | -| 네트워크 | [네트워크][6] | 전체 | -| NTP | [NTP][7] | 전체 | -| 업타임 | [시스템][4] | 전체 | -| 파일 관리 | [시스템][4] | 맥(Mac) 제외 전체 | -| 로드 | [시스템][4] | 윈도우즈(Windows) 제외 전체 | -| 도커(Docker) | [도커(Docker)][8] | 도커(Docker) | -| 윈프록(Winproc) | [시스템][4] | 윈도우즈(Windows) | - -기타 기술 메트릭을 수집하려면 [통합][9] 페이지를 참조하세요. - -## 호스트 및 컨테이너용 Agent의 차이점 - -이번 가이드에서는 호스트 상의 Agent 설치와 설정 방법을 설명해드리겠습니다. 최종적으로 컨테이너 환경에 Agent를 설치할 예정이 있는 경우, 몇 가지 주지하셔야 하는 차이점이 있습니다. - -1. 호스트에서 Agent는 YAML 파일을 사용하여 설정됩니다(가이드의 후반부에서 자세히 설명하겠습니다). 반면, 컨테이너 Agent 설정 옵션은 [환경 변수][10]로 전달됩니다. 예를 들면 다음과 같습니다. - - Datadog API 키용: `DD_API_KEY` - - Datadog 사이트용: `DD_SITE` - -2. 마찬가지로 호스트 상에서 [통합][9]은 Agent 설정 파일을 통해 식별되지만 컨테이너 환경에서는 Datadog의 자동탐지 기능을 통해 통합이 자동 식별됩니다. 자세한 내용은 [기본 Agent 자동탐지[11]를 참조하세요. - -컨테이너 환경에서 Agent를 실행하기 위한 튜토리얼은 [도커(Docker) Agent][12]나 [쿠버네티스(Kubernetes)][13]를 참조하시기 바랍니다. - -## Agent를 설치해야 하는 이유 - -다양한 Agent 기반 통합에서 데이터를 전송하려면 Agent를 설치해야 합니다. 예를 들어, Datadog API를 통해 로그나 메트릭을 전송할 때는 꼭 Agent가 필요하지는 않습니다. 그러나 Datadog 플랫폼으로 데이터를 전송할 때는 Agent를 사용하시길 권장합니다. - -Agent는 15초마다 호스트 데이터를 수집하여 환경 전체에서 무슨 일이 일어나고 있는지 정확하게 파악합니다. [점검][14] 섹션에서 설명한 바와 같이 Agent는 50개 이상의 기본 메트릭을 수집하는 점검을 활성화하고, 시스템 레벨의 데이터에 대하여 보다 깊이 있는 인사이트를 제공합니다. - -## 설정 +### 전제 조건 {#prerequisites} +1. [Datadog 계정][15]을 만듭니다. -### 전제 조건 +2. [Datadog API 키][16]를 준비합니다. -1. [Datadog 계정][15]을 만듭니다. +### 설정 {#setup} -2. [Datadog API 키][16]를 준비하세요. +[Fleet Automation][39], Datadog의 인앱 워크플로를 사용하여 단일 호스트 또는 대규모로 Datadog Agent를 설치, 업그레이드, 구성 및 문제 해결할 수 있습니다. -3. Datadog UI를 열어둡니다. +특정 플랫폼에 대한 추가 Agent 구성은 [Agent 설명서][40]를 참조하세요. -**참조**: 이번 튜토리얼에서는 우분투(Ubuntu) 운영체제를 사용합니다. 지원되는 플랫폼의 전체 목록은 [기본 Agent 사용][17] 페이지를 참조하세요. -### 설치 +## Agent가 수집한 데이터 {#data-collected-by-the-agent} -Datadog UI에서 [에이전트 설치 페이지][18]로 이동해 **Ubuntu**를 클릭합니다. 호스트에서 Datadog 에이전트를 설치하려면 해당 페이지에서 1줄 설치 명령을 사용합니다(아래 예시). 1줄 설치 명령은 [Datadog API 키][16]로 업데이트되어야 합니다. +귀하의 인프라에 대한 완전한 가시성을 제공하기 위해 Datadog Agent는 자신의 상태 및 구성에 대한 메트릭과 기본 검사를 통해 호스트 및 서비스에서 수집한 메트릭을 보고합니다. -우분투(Ubuntu) 1줄 설치 명령 예시: +### Agent 메트릭 {#agent-metrics} -```shell -DD_API_KEY= DD_SITE="{{< region-param key="dd_site" >}}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" -``` +Agent는 자신에 대한 다음 메트릭을 Datadog에 보고합니다. 이 메트릭은 어떤 호스트 또는 컨테이너에 실행 중인 Agent가 있는지, 각 Agent가 시작된 시점, Agent가 사용하는 Python 버전에 대한 정보를 제공합니다. -[에이전트 설치 페이지][18]에서 사용 중인 운영 체제에 대한 최신 설치 지침을 확인하세요. +| 메트릭 | 설명 | +| -------------------------------- |------------------------------------------------- | +| `datadog.agent.running` | Agent가 Datadog에 보고 중인 경우 값 `1`이 표시됩니다. | +| `datadog.agent.started` | Agent 시작 시 값 `1`로 전송되는 카운트입니다(v6.12 이상에서 사용 가능). | +| `datadog.agent.python.version` | 이 메트릭은 `python_version`로 태그가 지정됩니다. | -### 검증 -#### 터미널 명령어 +Agent 메트릭 전체 목록은 [Agent Metrics][3] 통합에서 찾아볼 수 있습니다. -Agent의 [상태 명령][19]을 실행하여 설치를 확인합니다. +### 검사 {#checks} -```shell -sudo datadog-agent status -``` -정상적으로 설치된 경우 다음과 같은 Agent 정보로 시작하는 Agent 상태 리포트가 반환됩니다. - -```text -=============== -Agent (v7.36.1) -=============== - - Status date: 2022-06-15 15:54:48.364 EDT / 2022-06-15 19:54:48.364 UTC (1655322888364) - Agent start: 2022-06-15 15:54:29.85 EDT / 2022-06-15 19:54:29.85 UTC (1655322869850) - Pid: 9801 - Go Version: go1.17.6 - Python Version: 3.8.11 - Build arch: amd64 - Agent flavor: agent - Check Runners: 6 - Log Level: info -``` +플랫폼에 따라 Agent에는 메트릭을 수집하는 여러 코어 검사가 기본적으로 활성화되어 있습니다. -#### 이벤트 +| 검사 | 메트릭 | 플랫폼 | +| ----------- | ------------- | ------------------ | +| CPU | [시스템][4] | 모두 | +| 디스크 | [디스크][5] | 모두 | +| IO | [시스템][4] | 모두 | +| 메모리 | [시스템][4] | 모두 | +| 네트워크 | [네트워크][6] | 모두 | +| NTP | [NTP][7] | 모두 | +| 가동 시간 | [시스템][4] | 모두 | +| 파일 핸들 | [시스템][4] | Mac을 제외한 모두 | +| 부하 | [시스템][4] | Windows를 제외한 모두 | +| Docker | [Docker][8] | Docker | +| Winproc | [시스템][4] | Windows | -Datadog UI에서 [이벤트 탐색기 페이지][20]로 이동합니다. 에이전트를 시작하거나 다시 시작하면 이벤트가 Datadog로 전송됩니다. 에이전트가 성공적으로 설치되면 다음 메시지가 표시됩니다: +기타 기술로부터 메트릭을 수집하려면 [Integrations][9] 페이지를 참조하세요. -```text -Datadog agent (v. 7.XX.X) started on -``` -#### 서비스 검사 -Agent는 다음의 서비스 점검을 제공하도록 설정되어 있습니다. +### 서비스 검사 {#service-checks} - - `datadog.agent.up`: - Agent가 Datadog에 연결된 경우 `OK`를 반환합니다. +Agent는 다음 서비스 점검을 제공하도록 설정되어 있습니다. - - `datadog.agent.check_status`: - Agent 점검으로 Datadog에 메트릭을 보낼 수 없는 경우 `CRITICAL`를 반환합니다. 기타 경우에는 `OK`를 반환합니다. + - `datadog.agent.up`: Agent가 Datadog에 연결되면 **OK**를 반환합니다. + - `datadog.agent.check_status`: Agent 검사가 Datadog에 메트릭을 전송하지 못하면 **CRITICAL**을 반환하고, 그렇지 않으면 **OK**를 반환합니다. -이러한 점검은 Datadog 플랫폼에서 모니터링과 대시보드를 통해 Agent 상태를 빠르게 시각화하는 용도로 사용됩니다. 더 자세한 정보는 [서비스 점검 개요][21]를 참조하세요. +이 검사들은 Datadog에서 모니터와 대시보드를 통해 에이전트 상태를 한눈에 시각화하는 데 사용될 수 있습니다. 자세한 내용은 [서비스 검사 개요][21]를 참조하십시오. -#### 메트릭 -Datadog UI에서 [메트릭 요약 페이지][22]로 이동하여 `datadog.agent.started` 또는 `datadog.agent.running` 메트릭을 검색합니다. 해당 메트릭이 즉시 표시되지 않는 경우 에이전트가 Datadog 플랫폼에 데이터를 전송하는 데 수 분이 소요되기 때문일 수 있습니다. +## 고급 구성 및 기능 {#advanced-configurations-and-features} -하나의 메트릭을 클릭하면 메트릭(Metric) 패널이 열립니다. 이 패널에는 메트릭이 어디에서 수집되었는지, 관련 태그가 무엇인지에 관한 메타데이터가 추가로 표시됩니다. 이번 튜토리얼에서 다루는 호스트에는 태그가 지정되어 있지 않으므로, Datadog가 메트릭에 할당할 기본 태그만(`version`나 `host` 등) 표시될 것입니다. 태그를 추가하는 방법은 다음의 Agent 설정 파일 섹션을 참조하시기 바랍니다. +{{% collapse-content title="호스트와 컨테이너용 에이전트의 차이점" level="h4" expanded=false id="id-for-anchoring" %}} -`ntp.offset`이나 `system.cpu.idle`를 비롯한 기타 기본 메트릭을 살펴보세요. +호스트에 에이전트를 설치하는 것과 컨테이너화된 환경에 설치하는 것 사이에는 주요 차이점이 있습니다: -## Agent 설정 파일 +- **구성 차이** : + - **호스트** : 에이전트는 YAML 파일을 사용하여 구성됩니다. + - **컨테이너** : 구성 옵션은 [환경 변수][10]를 사용하여 전달됩니다. 예를 들어: + + ```sh + `DD_API_KEY` # Datadog API key + `DD_SITE` # Datadog site + ``` -Agent의 기본 설정 파일은 `datadog.yaml`입니다. 필수 파라미터는 다음과 같습니다. -- [Datadog API 키][16]. Agent 데이터를 귀하의 조직과 연결하기 위해 사용됩니다. -- Datadog 사이트 ({{< region-param key="dd_site" code="true" >}}). +- **통합 감지** : + - **호스트** : [Integrations][9]은 에이전트 구성 파일을 통해 식별됩니다. + - **컨테이너** : 통합은 Datadog의 Autodiscovery 기능을 사용하여 자동으로 식별됩니다. 자세한 내용은 [기본 에이전트 Autodiscovery][11]을 참조하십시오. -사용 가능한 모든 설정 옵션을 보려면 [샘플 `config_template.yaml` 파일][23]을 참조하세요. +또한, 컨테이너 환경에서 에이전트를 실행하기 위한 튜토리얼은 [Docker Agent][12]나 [쿠버네티스][13]를 참조하시기 바랍니다. +{{% /collapse-content %}} -Agent의 설정 파일을 조정하여 태그를 포함한 기타 Datadog의 기능을 이용할 수 있습니다. -#### Agent 설정 파일을 통해 태그 설정 +{{% collapse-content title="Agent 구성 파일을 통해 태그 설정" level="h4" expanded=false id="id-for-anchoring" %}} -태그는 메트릭과 이벤트에 추가 메타데이터 레이어를 더해줍니다. 이를 활용해 Datadog에서 시각화한 데이터의 범위를 설정하고 서로 비교할 수 있습니다. 여러 호스트에서 Datadog로 데이터가 전송된 경우, 이 정보를 태그하여 시각화하고 싶은 데이터만 포함하도록 범위를 지정할 수 있습니다. +태그는 메트릭과 이벤트에 추가적인 메타데이터를 제공합니다. 이를 통해 Datadog 시각화에서 데이터를 범위 지정하고 비교할 수 있습니다. 여러 호스트에서 Datadog으로 데이터가 전송될 때, 이 정보를 태그하면 시각화하고자 하는 데이터로 범위를 좁힐 수 있습니다. -예를 들어, 여러 팀에서 수집한 데이터가 있고, 팀 알파의 메트릭에만 관심이 있다고 가정해 보겠습니다. 해당 특정 호스트를 `team:alpha` 또는 `team:bravo` 태그로 태깅하면 `team:alpha`로 태깅하여 메트릭을 필터링할 수 있습니다. [태그 시작하기][24]를 참조해 데이터 태깅에 대해 자세히 알아보세요. +예를 들어, 여러 팀에서 수집한 데이터가 있고, 팀 알파의 메트릭에만 관심이 있다고 가정해 보겠습니다. 해당 특정 호스트를 `team:alpha` 또는 `team:bravo` 태그로 태깅하면 `team:alpha`으로 태깅된 메트릭을 필터링할 수 있습니다. 데이터 태깅에 대해 자세히 알아보려면 [태그 시작하기][24]를 참조하십시오. -1. 에이전트의 [기본 설정 파일][25]을 찾습니다. 우분투(Ubuntu)의 경우 파일 위치는 `/etc/datadog-agent/datadog.yaml`입니다. +1. 에이전트의 [기본 구성 파일][25]을 찾으십시오. Ubuntu의 경우 파일 위치는 `/etc/datadog-agent/datadog.yaml`입니다. -2. `datadog.yaml` 파일에서 `tags` 파라미터를 찾습니다. 호스트 레벨 태그를 `datadog.yaml` 설정에 구성하면 해당 호스트에서 전송한 모든 메트릭, 트레이스, 로그에 태그를 지정할 수 있습니다. +2. `datadog.yaml` 파일에서 `tags` 매개변수를 찾으십시오. 호스트 수준의 태그는 `datadog.yaml` 구성에서 설정할 수 있으며, 이 호스트에서 전달되는 모든 메트릭, 트레이스 및 로그에 태그를 적용합니다. ```yaml ## @param tags - list of key:value elements - optional @@ -202,7 +160,7 @@ Agent의 설정 파일을 조정하여 태그를 포함한 기타 Datadog의 기 # - : ``` -3. 태그 파라미터의 코멘트를 해제하고 제시된 사례의 `team:infra` 태그를 추가합니다. 또는, `test:agent_walkthrough`처럼 커스텀 태그를 만들어 추가할 수도 있습니다. +3. 태그 매개변수와 제공된 예제 `team:infra` 태그의 주석을 제거하세요. 나만의 사용자 지정 태그도 추가할 수 있습니다(예: `test:agent_walkthrough`). ```yaml ## @param tags - list of key:value elements - optional ## @env DD_TAGS - space separated list of strings - optional @@ -219,19 +177,38 @@ Agent의 설정 파일을 조정하여 태그를 포함한 기타 Datadog의 기 - test:agent_walkthrough ``` -4. 에이전트의 [재설치 명령][26]을 실행하여 에이전트를 재설치합니다. 우분투(Ubuntu) 재시작 명령은 다음과같습니다. +4. Agent의 [재시작 명령][26]을 실행하여 Agent를 재시작합니다. Ubuntu 재시작 명령: ```shell sudo service datadog-agent restart ``` -5. 몇 분 후 [메트릭 요약 페이지][22]로 다시 이동하여 `datadog.agent.started` 메트릭을 클릭합니다. 기본 `host` 및 `version` 태그 외에도 `team` 태그 및 직접 추가한 태그를 확인할 수 있습니다. 페이지 상단의 `Tag` 필드를 통해 메트릭 을 필터링할 수도 있습니다. +5. 몇 분 후, [Metrics Summary 페이지][22]로 다시 가서 메트릭 `datadog.agent.started`를 클릭하십시오. 기본 `host` 및 `version` 태그 외에도 `team` 태그와 추가한 개인 태그를 볼 수 있습니다. 페이지 상단의 `Tag` 필드를 통해 메트릭을 필터링할 수도 있습니다. + +6. [Event Explorer 페이지][20]로 이동하여 최신 Agent 이벤트에 표시된 사용자 지정 태그를 찾습니다. + +{{% /collapse-content %}} + +{{% collapse-content title="Datadog UI에서 메트릭 찾기" level="h4" expanded=false id="id-for-anchoring" %}} -6. [이벤트 탐색기 페이지][20]로 이동하여 최신 에이전트 이벤트에 표시된 커스텀 태그를 찾습니다. +Datadog UI에서 기본 메트릭을 확인하여 에이전트가 올바르게 실행되고 있는지 확인할 수 있습니다. [Metrics Summary 페이지][22]로 가서 메트릭 `datadog.agent.started` 또는 메트릭 `datadog.agent.running`를 검색할 수 있습니다. 이 메트릭이 즉시 보이지 않으면 에이전트가 데이터를 Datadog에 전송하는 데 몇 분이 걸릴 수 있습니다. -#### 기타 설정 옵션 +메트릭 중 하나를 클릭하면 메트릭 패널이 열립니다. 이 패널은 이러한 메트릭이 수집된 위치와 관련된 추가 메타데이터를 보여줍니다. 호스트에 태그가 구성되지 않은 경우, Datadog이 메트릭에 할당하는 기본 태그인 `version` 및 `host`만 표시됩니다. 태그 추가 방법에 대한 자세한 내용은 에이전트 구성 파일을 통한 태그 설정 섹션을 참조하십시오. -[로그][27], [트레이스][28], [프로세스][29] 데이터 수집은 에이전트 설정 파일을 통해 활성화할 수 있습니다. 이러한 기능은 기본적으로 활성화되는 기능이 아닙니다. 예를 들어 설정 파일에서 `logs_enabled` 파라미터는 거짓(false)로 설정되어 있습니다. +`ntp.offset` 또는 `system.cpu.idle`과 같은 다른 기본 메트릭을 탐색하십시오. +{{% /collapse-content %}} + + +{{% collapse-content title="Agent 오버헤드" level="h4" expanded=false id="id-for-anchoring" %}} + +에이전트가 차지하는 공간과 리소스의 양은 구성 및 에이전트가 전송하는 데이터에 따라 다릅니다. 초기에는 평균적으로 약 0.08%의 CPU 사용량과 약 880MB에서 1.3GB의 디스크 공간을 예상할 수 있습니다. + +이러한 벤치마크 수치에 대해 자세히 알아보려면 [Agent 오버헤드][2]를 참조하세요. +{{% /collapse-content %}} + +{{% collapse-content title="추가 구성 옵션" level="h4" expanded=false id="id-for-anchoring" %}} + +[로그][27], [트레이스][28], 및 [프로세스][29] 데이터 수집은 에이전트 구성 파일을 통해 활성화할 수 있습니다. 이 기능은 기본적으로 활성화되어 있지 않습니다. 예를 들어, 구성 파일에서 `logs_enabled` 매개변수가 false로 설정되어 있습니다. ```yaml ################################## @@ -245,38 +222,41 @@ Agent의 설정 파일을 조정하여 태그를 포함한 기타 Datadog의 기 # logs_enabled: false ``` -기타 Agent 설정 파일을 통해 설정할 수 있는 Datadog 기능은 다음과 같습니다. +기타 Agent 구성 파일을 통해 구성할 수 있는 Datadog 기능은 다음과 같습니다. - [OTLP 트레이스 수집][30] 활성화 -- 민감한 데이터 필터링 및 스크러빙을 위한 [로그 수집 커스터마이즈][31] -- [DogStatsD][32]를 통해 커스텀 데이터 설정하기 +- 민감한 데이터를 필터링하거나 스크러빙하기 위한 [로그 수집 맞춤 설정][31] +- [DogStatsD][32]를 통한 맞춤형 데이터 설정 + +설정 과정을 진행하는 중에 설명서에서 `datadog.yaml` 파일이나 에이전트 설정 파일을 언급하는 경우, 이는 설정해야 하는 파일을 가리킵니다. + +{{% /collapse-content %}} -설정 과정을 진행하는 중에 설명서에서 `datadog.yaml` 파일이나 Agent 설정 파일을 언급하는 경우, 이는 설정해야 하는 파일을 가리킵니다. -## 명령어 +## 명령어 {#commands} -[에이전트 명령어][33]를 참조하여 에이전트를 [시작][34], [중지][35] 또는 [다시 시작][26]합니다. +[Agent 명령어][33]를 참조하여 Agent를 [시작][34], [중지][35] 또는 [다시 시작][26]합니다. -## 문제 해결 +## 문제 해결 {#troubleshooting} -Agent 트러블슈팅과 관련해 도움이 필요하신 경우 +Agent 문제 해결과 관련해 도움이 필요하신 경우: -- [에이전트 트러블슈팅][26] 참조하기 +- [에이전트 트러블슈팅][36] 참조하기 - [에이전트 로그 파일][37] 보기 - [Datadog 지원팀][38]에 문의하기 -## 참고 자료 +## 참고 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}}

    -## 다음 단계 +## 다음 단계 {#next-steps} -{{< whatsnext desc="Agent를 설치한 후:">}} -{{< nextlink href="/getting_started/integrations" >}}통합에 대해 알아보세요{{< /nextlink >}} -{{< nextlink href="/getting_started/application" >}}Datadog UI에 대해 알아보세요{{< /nextlink >}} -{{< nextlink href="/getting_started/logs" >}}Agent로 로그를 수집하는 방법을 알아보세요{{< /nextlink >}} -{{< nextlink href="/getting_started/tracing" >}}Agent로 트레이스를 수집하는 방법을 알아보세요{{< /nextlink >}} +{{< whatsnext desc="에이전트가 설치된 후:">}} +{{< nextlink href="/getting_started/integrations" >}}Integrations에 대해 알아보기{{< /nextlink >}} +{{< nextlink href="/getting_started/application" >}}Datadog UI에 대해 알아보기{{< /nextlink >}} +{{< nextlink href="/getting_started/logs" >}}Agent를 통해 로그 수집하는 방법 알아보기{{< /nextlink >}} +{{< nextlink href="/getting_started/tracing" >}}Agent를 통해 트레이스 수집하는 방법 알아보기{{< /nextlink >}} {{< /whatsnext >}} [1]: https://github.com/DataDog/datadog-agent @@ -295,11 +275,11 @@ Agent 트러블슈팅과 관련해 도움이 필요하신 경우 [14]: /ko/getting_started/agent/#checks [15]: https://www.datadoghq.com [16]: https://app.datadoghq.com/organization-settings/api-keys -[17]: /ko/agent/basic_agent_usage/?tab=agentv6v7 +[17]: /ko/agent/supported_platforms [18]: https://app.datadoghq.com/account/settings/agent/latest [19]: /ko/agent/configuration/agent-commands/#agent-status-and-information [20]: https://app.datadoghq.com/event/explorer -[21]: /ko/developers/service_checks/#visualize-your-service-check-in-datadog +[21]: /ko/extend/service_checks/#visualize-your-service-check-in-datadog [22]: https://app.datadoghq.com/metric/summary [23]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml [24]: /ko/getting_started/tagging/ @@ -310,10 +290,13 @@ Agent 트러블슈팅과 관련해 도움이 필요하신 경우 [29]: /ko/infrastructure/process/?tab=linuxwindows#introduction [30]: /ko/opentelemetry/otlp_ingest_in_the_agent/?tab=host [31]: /ko/agent/logs/advanced_log_collection/ -[32]: /ko/developers/dogstatsd/?tab=hostagent +[32]: /ko/extend/dogstatsd/?tab=hostagent [33]: /ko/agent/configuration/agent-commands/ [34]: /ko/agent/configuration/agent-commands/#start-the-agent [35]: /ko/agent/configuration/agent-commands/#stop-the-agent [36]: /ko/agent/troubleshooting/ [37]: /ko/agent/configuration/agent-log-files/ -[38]: /ko/help/ \ No newline at end of file +[38]: /ko/help/ +[39]: /ko/agent/fleet_automation/ +[40]: /ko/agent/?tab=Host-based +[41]: /ko/getting_started/site/ \ No newline at end of file diff --git a/content/ko/logs/explorer/search_syntax.md b/content/ko/logs/explorer/search_syntax.md index d85f82f7309..31f63a07368 100644 --- a/content/ko/logs/explorer/search_syntax.md +++ b/content/ko/logs/explorer/search_syntax.md @@ -2,141 +2,151 @@ aliases: - /ko/logs/search-syntax - /ko/logs/search_syntax/ -description: 모든 로그를 검색하세요. +description: 로그 전체를 검색합니다. further_reading: +- link: /getting_started/search/ + tag: Documentation + text: Datadog에서 검색 시작하기 - link: /logs/explorer/#visualize - tag: 설명서 + tag: Documentation text: 로그를 시각화하는 방법 알아보기 - link: /logs/explorer/#patterns - tag: 설명서 + tag: Documentation text: 로그 내 패턴 감지 - link: /logs/log_configuration/processors - tag: 설명서 - text: 로그 처리하는 방법 배우기 + tag: Documentation + text: 로그 처리 방법 알아보기 - link: /logs/explorer/saved_views/ - tag: 설명서 - text: 저장된 보기에 대해 알아보기 -- link: /logs/explorer/calculated_fields/expression_language - tag: 설명서 - text: 계산된 필드 표현식 언어 알아보기 -title: 검색 구문 로그 + tag: Documentation + text: Saved Views에 대해 알아보기 +- link: /logs/explorer/calculated_fields/formulas + tag: Documentation + text: 계산된 필드 수식에 대해 자세히 알아보기 +title: 로그 검색 구문 --- - -## 개요 +## 개요 {#overview} 쿼리 필터는 용어와 연산자로 구성되어 있습니다. 용어에는 다음과 같은 두 가지 유형이 있습니다. -* **단일 용어**는 `test` 또는 `hello` 과 같은 하나의 단어입니다. +* **단일 용어**는 `test` 또는 `hello`과 같은 단일 단어입니다. -* **시퀀스**는 `"hello dolly"`와 같이 큰 따옴표로 묶인 단어의 그룹입니다. +* **시퀀스**는 `"hello dolly"`과 같이 큰따옴표로 묶인 단어의 그룹입니다. -복잡한 쿼리로 여러 용어를 결합하려면, 대소문자를 구분해 다음 부울 연산자를 사용할 수 있습니다. +여러 용어를 복잡한 쿼리로 결합하려면, 대소문자를 구분하는 다음 부울 연산자를 사용할 수 있습니다. | | | | |--------------|--------------------------------------------------------------------------------------------------------|------------------------------| | **연산자** | **설명** | **예시** | -| `AND` | **Intersection**: 모든 용어가 선택한 이벤트에 존재합니다(추가된 것이 없으면 AND가 기본적으로 적용됨). | 인증 AND 실패 | -| `OR` | **Union** 용어 중 하나가 선택한 이벤트에 포함되어 있습니다. | 인증 OR 비밀번호 | -| `-` | **예외**: 다음 용어가 이벤트에 존재하지 않습니다(개별 원본 텍스트 검색에 적용됨). | 인증 AND -비밀번호 | +| `AND` | **인터섹션**: 선택한 이벤트에 두 용어가 모두 존재합니다(아무것도 추가하지 않으면 AND가 기본적으로 사용됨) | 인증 AND 실패 | +| `OR` | **유니온**: 선택한 이벤트에 어느 한 용어가 포함되어 있습니다 | 인증 OR 비밀번호 | +| `-` | **예외**: 다음 용어가 이벤트에 존재하지 않습니다(개별 원본 텍스트 검색에 적용됨) | 인증 AND -비밀번호 | -## 전문 검색 +## 전체 텍스트 검색 {#full-text-search} -

    전체 텍스트 검색 기능은 로그 관리에서만 사용할 수 있으며 모니터, 대시보드, 노트북 쿼리에서 작동합니다. 전체 텍스트 검색 구문은 인덱스 필터, 아카이브 필터, 로그 파이프라인 필터, 재수화 필터를 정의하는 데 사용할 수 없으며 라이브 테일에서도 사용할 수 없습니다.
    +
    전체 텍스트 검색 기능은 Log Management에서만 사용할 수 있으며 monitor, 대시보드 및 노트북 쿼리에서 작동합니다. 전체 텍스트 검색 구문은 인덱스 필터, 아카이브 필터, 로그 파이프라인 필터, 재수화 필터 또는 Live Tail에서 정의하는 데 사용할 수 없습니다.
    -`*:search_term` 구문을 사용하여 로그 메시지를 포함하는 모든 로그 속성에서 전체 텍스트 검색을 실행할 수 있습니다. +구문 `*:search_term`을 사용하여 로그 메시지를 포함한 모든 로그 속성에서 전체 텍스트 검색을 수행합니다. -### 단일 검색어 예시 +### 단일 용어 예시 {#single-term-example} -| 검색 구문 | 검색 유형 | 설명 | +| 검색 구문 | 검색 유형 | 설명 | | ------------- | ----------- | --------------------------------------------------------- | | `*:hello` | 전체 텍스트 | 모든 로그 속성에서 정확히 `hello` 문자열을 검색합니다. | -| `hello` | 무료 텍스트 | 로그 메시지에서 정확히 `hello` 문자열만 검색합니다. | +| `hello` | 자유 텍스트 | `message`, `@title`, `@error.message`, `@error.stack` 속성에서만 정확히 `hello` 문자열을 검색합니다. | -### 와일드카드를 사용한 검색어 예시 +### 와일드카드를 사용한 검색어 예시 {#search-term-with-wildcard-example} -| 검색 구문 | 검색 유형 | 설명 | +| 검색 구문 | 검색 유형 | 설명 | | ------------- | ----------- | ------------------------------------------------------------------------------------------- | | `*:hello` | 전체 텍스트 | 모든 로그 속성에서 정확히 `hello` 문자열을 검색합니다. | -| `*:hello*` | 전체 텍스트 | 전체 로그 속성에서 `hello`로 시작하는 문자열을 검색합니다. 예를 들어 `hello_world`가 있을 수 있습니다. | +| `*:hello*` | 전체 텍스트 | 모든 로그 속성에서 `hello`로 시작하는 문자열을 검색합니다. 예를 들어, `hello_world`입니다. | -### 정확히 일치하는 여러 검색어 예시 +### 정확히 일치하는 여러 검색어 예시 {#multiple-terms-with-exact-match-example} | 검색 구문 | 검색 유형 | 설명 | | ------------------- | ----------- |--------------------------------------------------------------------------------------------------- | | `*:"hello world"` | 전체 텍스트 | 모든 로그 속성에서 정확히 `hello world` 문자열을 검색합니다. | -| `hello world` | 프리 텍스트 | 로그 메시지에서만 `hello` 및 `world` 단어를 검색합니다. 예로 `hello beautiful world`가 있습니다. | +| `hello world` | 자유 텍스트 | `hello` 및 `world` 단어에 대해 로그 메시지만 검색합니다. 예를 들어 `hello beautiful world`입니다. | -## 특수 문자 및 공백 이스케이프 +## 특수 문자 및 공백 이스케이프 {#escape-special-characters-and-spaces} -다음 특수 문자가 사용됩니다. `+` `-` `=` `&&` `||` `>` `<` `!` `(` `)` `{` `}` `[` `]` `^` `"` `“` `”` `~` `*` `?` `:` `\` `#` 공백은 `\` 문자로 이스케이프 처리해야 합니다. -- `/`는 특수 문자로 간주되지 않으므로 이스케이프 처리할 필요가 없습니다. -- `@`는 Log Explorer 내에 검색 쿼리로 사용할 수 없습니다. [Attribute Search](#attributes-search)에 예약되어 있기 때문입니다. +다음 문자는 특수 문자로 간주되며 `\` 문자로 이스케이프 처리해야 합니다: `=` `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#`, 및 공백. +- `/` 특수 문자로 간주되지 않으며 이스케이프 처리할 필요가 없습니다. +- `@` Logs Explorer 내에서 검색 쿼리에서 사용할 수 없습니다. 이는 [속성 검색](#attributes-search)에 예약되어 있기 때문입니다. -로그 메시지에서는 특수 문자를 검색할 수 없습니다. 특수 문자가 속성 내에 있는 경우에만 검색할 수 있습니다. +로그 메시지에서 특수 문자를 검색할 수 없습니다. 속성 내에 있을 때 특수 문자를 검색할 수 있습니다. 특수 문자를 검색하려면, [Grok 파서][1]가 포함된 속성으로 파싱한 다음 해당 속성을 포함하는 로그를 검색합니다. +## 속성 검색 {#attributes-search} -## 속성 검색 - -특정 속성의 검색 에 `@`를 추가하여 검색 중인 속성을 지정합니다. +특정 속성을 검색하려면 `@`를 추가하여 검색 중인 속성을 지정합니다. -예를 들어, 속성 이름이 **URL**이고 **URL** 값을 필터링하려면 `www.datadoghq.com` 을 입력합니다: +예를 들어, 속성 이름이 **url**이고 **url** 값 `www.datadoghq.com`을 필터링하려면 입력합니다: ``` @url:www.datadoghq.com ``` +### 예약된 속성 {#reserved-attributes} + +`host`, `source`, `status`, `service`, `trace_id`, 및 `message`과 같은 [예약된 속성][8]은 `@` 접두사가 필요하지 않습니다. 이러한 속성들을 직접 검색할 수 있습니다: + +``` +service:web-app +status:error +host:i-1234567890abcdef0 +``` **참고**: -1. 속성의 검색 및 태그 에 패싯을 정의할 필요는 **없습니다**. +1. 속성 및 태그를 검색하기 위해 패싯을 정의할 필요는 **없습니다**. -2. 속성 검색은 대소문자를 구분합니다. 대소문자를 구분하지 않는 결과를 얻으려면 [전체 텍스트 검색](#전체 텍스트-검색)를 사용하세요. 또 다른 옵션은 대소문자를 구분하지 않는 결과를 얻으려면 `lowercase` 필터를 Grok 파서와 함께 사용하고 파싱 동안 대소문자를 구분하지 않는 결과를 얻으려면 검색 을 사용하는 것입니다. +2. 속성 검색은 대소문자를 구분합니다. 대소문자를 구분하지 않는 결과를 얻으려면 [전체 텍스트 검색](#full-text-search)을 사용하십시오. 또 다른 옵션은 검색 중에 대소문자를 구분하지 않는 결과를 얻기 위해 Grok 파서를 사용하여 `lowercase` 필터를 사용하는 것입니다. 3. 특수 문자가 포함된 속성 값을 검색하려면 이스케이프 또는 큰따옴표를 사용해야 합니다. - - 예를 들어 값이 `hello:world` 값을 포함하는 `my_attribute` 속성의 경우 `@my_attribute:hello\:world` 또는 `@my_attribute:"hello:world"`를 사용하여 검색합니다. - - 단일 특수 문자나 공백을 찾으려면 `?` 와일드카드를 사용합니다. 예를 들어 `hello world` 값이 포함된 `my_attribute` 속성의 경우 `@my_attribute:hello?world`를 사용해 검색합니다. + - 예를 들어, 값이 `hello:world`인 속성 `my_attribute`에 대해 다음과 같이 검색하십시오: `@my_attribute:hello\:world` 또는 `@my_attribute:"hello:world"`. + - 단일 특수 문자 또는 공백과 일치하려면 `?` 와일드카드를 사용하세요. 예를 들어, 값이 `hello world`인 속성 `my_attribute`에 대해 다음과 같이 검색하십시오: `@my_attribute:hello?world`. 예: | 검색 쿼리 | 설명 | |----------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `@http.url_details.path:"/api/v1/test"` | `http.url_details.path` 속성에서 `/api/v1/test`와 일치하는 모든 로그를 검색합니다. | -| `@http.url:/api\-v1/*` | `/api-v1/`로 시작하는 `http.url` 속성의 값을 포함하는 모든 로그를 검색합니다. | -| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | `http.status_code` 값이 200에서 299 사이이고 `/api-v1/`로 시작하는 `http.url_details.path` 속성 값을 포함하는 모든 로그를 검색합니다. | -| `-@http.status_code:*` | `http.status_code` 속성이 포함되지 않은 모든 로그 검색 | +| `@http.url_details.path:"/api/v1/test"` | 속성 `http.url_details.path`에서 `/api/v1/test`과 일치하는 모든 로그를 검색합니다. | +| `@http.url:/api\-v1/*` | `/api-v1/` |로 시작하는 `http.url` 속성에 값을 포함하는 모든 로그를 검색합니다. +| `@http.status_code:[200 TO 299] @http.url_details.path:/api\-v1/*` | 200과 299 사이의 `http.status_code` 값을 포함하고 `/api-v1/` |로 시작하는 `http.url_details.path` 속성에 값을 포함하는 모든 로그를 검색합니다. +| `-@http.status_code:*` | | 속성을 포함하지 않는 모든 로그를 검색합니다. -### 검색 CIDR 표기법 사용 -클래스 없는 도메인 간 라우팅(CIDR)은 사용자가 다양한 IP 주소(CIDR 블록으로도 명명)를 간결하게 정의할 수 있는 표기법입니다. CIDR은 네트워크 (예: VPC) 또는 서브네트워크(예: VPC 내의 공용/비공용 서브넷)를 정의하는 데 가장 일반적으로 사용됩니다. +### CIDR 표기법 사용 {#search-using-cidr-notation} +클래스 없는 인터 도메인 라우팅(CIDR)은 사용자가 IP 주소 범위(또는 CIDR 블록)를 간결하게 정의할 수 있도록 하는 표기법입니다. CIDR은 일반적으로 네트워크(예: VPC) 또는 서브네트워크(예: VPC 내의 공용/사설 서브넷)를 정의하는 데 사용됩니다. -사용자는 CIDR 표기법을 통해 로그에서 속성을 쿼리하는 데 `CIDR()` 함수를 사용할 수 있습니다. `CIDR()` 함수는 로그을 필터링할 파라미터로 로그 속성에 전달되어야 하며 이후 하나 이상의 CIDR 블록을 사용해야 합니다. +사용자는 CIDR 표기법을 사용하여 로그의 속성을 쿼리하기 위해 `CIDR()` 함수를 사용할 수 있습니다. `CIDR()` 함수는 필터링할 로그 속성을 매개변수로 전달받아야 하며, 그 뒤에 하나 이상의 CIDR 블록이 따라야 합니다. -#### 예시 -- `CIDR(@network.client.ip,13.0.0.0/8)`은 13.0.0.0/8 CIDR 블록에 속하는 `network.client.ip` 필드의 IP 주소를 포함하는 로그를 검색하고 필터링합니다. -- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)`은 배열 속성 `network.ip.list`에 13.0.0.0/8 또는 15.0.0.0/8 CIDR 블록에 속하는 IP 주소가 있는 로그를 검색하고 필터링합니다. -- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)`은 출발지가 13.0.0.0/8 서브넷인 팔로 알토 방화벽의 거부 이벤트를 검색하고 필터링합니다. -- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)`은 출발지 서브넷이 13.0.0.0/8이 아니며 목적지 서브넷이 15.0.0.0/8로 지정된 모든 VPC 로그를 표시합니다. 이는 서브넷 간 환경의 네트워크 트래픽을 분석하는 데 사용할 수 있습니다. +#### 예시 {#examples} +- `CIDR(@network.client.ip,13.0.0.0/8)`은 13.0.0.0/8 CIDR 블록에 속하는 필드 `network.client.ip`에 IP 주소가 있는 로그를 검색하고 필터링합니다. +- `CIDR(@network.ip.list,13.0.0.0/8, 15.0.0.0/8)` 배열 속성 `network.ip.list`에 13.0.0.0/8 또는 15.0.0.0/8 CIDR 블록에 속하는 IP 주소가 포함된 로그를 일치시키고 필터링합니다. +- `source:pan.firewall evt.name:reject CIDR(@network.client.ip, 13.0.0.0/8)` 13.0.0.0/8 서브넷에서 발생한 palo alto 방화벽의 거부 이벤트를 일치시키고 필터링합니다. +- `source:vpc NOT(CIDR(@network.client.ip, 13.0.0.0/8)) CIDR(@network.destination.ip, 15.0.0.0/8)`은 출발지 서브넷이 13.0.0.0/8이 아니면서 목적지 서브넷이 15.0.0.0/8로 지정된 모든 VPC 로그를 표시합니다. 이는 서브넷 간 환경에서 네트워크 트래픽을 분석하려는 경우에 사용됩니다. -`CIDR()` 함수는 IPv4 및 IPv6 CIDR 표기법을 모두 지원하며 대시보드, 로그 모니터 및 로그 설정의 로그 탐색기, 라이브 테일, 로그 위젯에서 작동합니다. +`CIDR()` 함수는 IPv4 및 IPv6 CIDR 표기법을 모두 지원하며 로그 탐색기, Live Tail, 대시보드의 로그 위젯, 로그 모니터 및 로그 설정에서 작동합니다. -## 와일드카드 +## 와일드카드 {#wildcards} -와일드카드를 프리 텍스트 검색과 함께 사용할 수 있습니다. 그러나 로그 탐색기의 `content` 열에 있는 텍스트인 로그 메시지에 있는 용어만 검색합니다. 로그 속성에서 값을 검색하려면 [전체 텍스트 검색](#full-text-search)을 참조하세요. +자유 텍스트 검색에 와일드카드를 사용할 수 있습니다. 그러나 로그 메시지, 즉 Log Explorer의 `content` 열의 텍스트에서만 용어를 검색합니다. 로그 속성에서 값을 검색하려면 [전체 텍스트 검색](#full-text-search)을 참조하십시오. -### 멀티 문자 와일드카드 +### 멀티 문자 와일드카드 {#multi-character-wildcard} -로그 메시지(로그 탐색기의 `content` 열)에서 복수 문자에 대한 와일드카드 검색을 수행하려면 다음과 같이 `*` 기호를 사용합니다. +로그 메시지( Log Explorer의 `content` 열)에서 멀티 문자 Wildcard 검색을 수행하려면 `*` 기호를 다음과 같이 사용합니다: -* `service:web*`은 `web`으로 시작하는 서비스가 포함된 모든 로그 메시지를 찾습니다. -* `web*`은 `web`으로 시작되는 모든 로그 메시지를 찾습니다. -* `*web`은 `web`으로 끝나는 모든 로그 메시지를 찾습니다. +* `service:web*`은 `web`로 시작하는 서비스가 포함된 모든 로그 메시지를 찾습니다. +* `web*` `web`으로 시작되는 모든 로그 메시지를 찾습니다. +* `*web` `web`으로 끝나는 모든 로그 메시지를 찾습니다. -**참고**: 와일드카드는 큰따옴표 밖에서만 와일드카드로 작동합니다. 예를 들어 `"*test*"`는 메시지에 `*test*` 문자열이 있는 로그를 찾습니다. `*test*` 는 메시지 내에서 그 위치와 관계없이 test 문자열이 있는 로그를 찾습니다. +**참고**: 와일드카드는 큰따옴표 외부에서만 작동합니다. 예를 들어, `"*test*"`는 메시지에 문자열 `*test*`가 포함된 로그를 찾습니다. `*test*`는 메시지의 어느 곳에서나 문자열 test가 포함된 로그를 찾습니다. -와일드카드 검색은 이 구문을 포함하는 태그 및 속성(패싯 처리/처리 안 됨) 내에서 작동합니다. 이 쿼리는 `mongo` 문자열로 끝나는 모든 서비스를 반환합니다. +와일드카드 검색은 이 구문을 사용하는 태그 및 속성 내에서 (패싯 여부와 관계없이) 동작합니다. 이 쿼리는 문자열 `mongo`로 끝나는 모든 서비스를 반환합니다:

    @@ -144,73 +154,86 @@ title: 검색 구문 로그 service:*mongo ``` -와일드카드는 로그 속성의 일부가 아닌 로그의 일반 텍스트를 검색하는 데에도 사용할 수 있습니다. 예를 들어 이 쿼리는 `NETWORK` 문자열을 포함하는 콘텐츠(메시지)가 있는 모든 로그를 반환합니다. +Wildcard 검색은 로그 속성의 일부가 아닌 로그의 일반 텍스트에서 검색하는 데에도 사용할 수 있습니다. 예를 들어, 이 쿼리는 문자열 `NETWORK`이 포함된 콘텐츠(메시지)를 가진 모든 로그를 반환합니다: ``` *NETWORK* ``` -그러나 이 검색어는 로그 메시지의 일부가 아니거나 로그 속성에 포함되지 않은 경우 `NETWORK` 문자열을 포함하는 로그를 반환하지 않습니다. +그러나 이 검색어는 문자열 `NETWORK`이 로그 속성에 있고 로그 메시지의 일부가 아닌 경우에는 로그를 반환하지 않습니다. -### 와일드카드 검색 +### Wildcard 검색 {#search-wildcard} -특수 문자를 포함하거나 이스케이핑 또는 따옴표를 필요로 하는 속성 또는 태그 값을 검색하는 경우, `?` 와일드카드를 사용해 단일 특수 문자나 공백을 찾습니다. 예를 들어 `hello world` 값이 포함된 `my_attribute` 속성을 검색하려면 `@my_attribute:hello?world`를 사용합니다. +특수 문자가 포함되어 있거나 이스케이프 또는 큰따옴표가 필요한 속성 또는 태그 값을 검색할 때는 `?` Wildcard를 사용하여 단일 특수 문자 또는 공백과 일치시킵니다. 예를 들어, 값이 `hello world`인 속성 `my_attribute`를 검색하려면: `@my_attribute:hello?world`.

    -## 숫자 값 +## 숫자 값 {#numerical-values} -숫자 속성을 검색하려면 먼저 [패싯으로 추가][2]합니다. 그런 다음 숫자 연산자(`<`,`>`, `<=`, 또는 `>=`)를 사용하여 숫자 패싯을 검색합니다. -예를 들어 다음을 사용해 응답 시간이 100ms 이상인 로그 을 모두 검색합니다. +숫자 속성에서 검색하려면 먼저 [패싯으로 추가하세요][2]. 그런 다음 숫자 연산자(`<`,`>`, `<=` 또는 `>=`)를 사용하여 숫자 패싯에서 검색을 수행할 수 있습니다. +예를 들어, 응답 시간이 100ms를 초과하는 모든 로그를 다음과 같이 검색할 수 있습니다:

    ``` @http.response_time:>100 ``` -특정 범위 내의 숫자 속성을 검색할 수 있습니다. 예를 들어 다음을 사용하여 4xx 오류 모두를 검색합니다. +특정 범위 내에서 숫자 속성을 검색할 수 있습니다. 예를 들어, 모든 4xx 오류를 다음과 같이 검색할 수 있습니다: ``` @http.status_code:[400 TO 499] ``` -## 태그 +## 태그 {#tags} -로그는 [호스트][3] 및 [통합][4]에서 태그를 상속합니다. 검색에서 패싯으로도 사용할 수 있습니다. +로그는 이를 생성한 [호스트][3] 및 [통합][4]의 태그를 상속받습니다. 검색 및 패싯으로도 사용할 수 있습니다. -* `test`는 문자열 "test"를 검색합니다. -* `env:(prod OR test)`는 `env:prod` 태그 또는 `env:test` 태그를 포함하는 모든 로그와 일치합니다. -* `(env:prod AND -version:beta)`는 `env:prod` 태그를 포함하고 `version:beta` 태그를 포함하지 않는 모든 로그와 일치합니다. +* `test`는 문자열 "test"를 검색하고 있습니다. +* `env:(prod OR test)` 태그 `env:prod` 또는 태그 `env:test`가 있는 모든 로그와 일치합니다. +* `(env:prod AND -version:beta)`는 태그 `env:prod`가 포함되어 있고 태그 `version:beta`가 포함되어 있지 않은 모든 로그와 일치합니다. -태그가 [태그 모범 사례][5]를 따르지 않고 `key:value` 구문을 사용하지 않는 경우 이 검색 쿼리를 사용하세요. +태그가 [태그 모범 사례][5]를 따르지 않고 `key:value` 구문을 사용하지 않는 경우 이 검색 쿼리를 사용하세요: * `tags:` -## 배열 +## 배열 {#arrays} -아래 예제에서 패싯의 `Peter` 값을 클릭하면 `users.names` 속성이 포함된 로그가 모두 반환되며, 그 값은 `Peter` 또는 `Peter`가 포함된 배열입니다. +다음 예제에서 패싯의 `Peter` 값을 클릭하면 `users.names` 속성이 포함된 모든 로그가 반환되며, 그 값이 `Peter`이거나 `Peter`이 포함된 배열입니다. {{< img src="logs/explorer/search/array_search.png" alt="배열 및 패싯" style="width:80%;">}} **참고**: 검색은 동등한 구문을 통해 패싯이 아닌 배열 속성에서도 사용할 수 있습니다. -다음 예시에서 윈도우즈(Windows)에 대한 클라우드와치(CloudWatch) 로그는 `@Event.EventData.Data` 아래에 JSON 객체 배열을 포함합니다. JSON 객체 배열에서는 패싯을 만들 수 없지만 다음 구문을 사용하여 검색할 수 있습니다. +다음 예제에서 Windows용 CloudWatch 로그는 `@Event.EventData.Data` 아래에 JSON 객체 배열을 포함합니다. JSON 객체 배열에 대한 패싯을 생성할 수는 없지만, 다음 구문을 사용하여 검색할 수 있습니다. -* `@Event.EventData.Data.Name:ObjectServer`는 `Name` 키와 `ObjectServer` 값을 포함하는 모든 로그와 일치합니다. +* `@Event.EventData.Data.Name:ObjectServer` `Name` 키와 `ObjectServer` 값을 가진 모든 로그와 일치합니다. -{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="JSON 객체 배열에서 패싯리스 쿼리" style="width:80%;">}} -

    +{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="JSON 객체 배열에 대한 패싯 없는 쿼리" style="width:80%;">}} + +### 중첩 배열 검색 {#nested-array-search} + +배열 속성에서 중첩 필드를 검색하려면 전체 속성 경로와 함께 `@` 접두사를 사용하십시오. 로그 탐색기는 배열 내의 어떤 항목과도 일치합니다: + +* `@network.ip.attributes.ip:2a02\:1810*`는 `network.ip.attributes` 배열의 항목 중 적어도 하나의 `ip` 필드가 `2a02:1810`로 시작하는 모든 로그와 일치합니다. + +배열에 여러 특정 값이 포함된 로그와 일치시키려면 값을 괄호 안에 나열하십시오: + +* `@user_perms:(4 6)`는 `user_perms` 배열이 `4`과 `6`을 모두 포함하는 모든 로그와 일치합니다. + +배열에 범위 내의 임의 값이 포함된 로그를 찾으려면 범위 쿼리를 사용하십시오: + +* `@user_perms:[2 TO 6]`는 `user_perms` 배열이 `2`와 `6` 사이의 적어도 하나의 값을 포함하는 모든 로그와 일치합니다. -## 계산된 필드 +## 계산된 필드 {#calculated-fields} -계산된 필드는 로그 속성과 같이 기능하며, 검색, 집계, 시각화 및 기타 계산된 필드 정의에 사용할 수 있습니다. `#` 접두사를 사용하여 계산된 필드 이름을 참조합니다. +계산된 필드는 로그 속성과 같이 기능하며, 검색, 집계, 시각화 및 기타 계산된 필드 정의에 사용할 수 있습니다. 계산된 필드 이름을 참조하려면 `#` 접두사를 사용하십시오. -{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="로그 탐색기에서 결과 필터링에 사용되는 계산된 필드인 request_duration" style="width:100%;" >}} +{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="로그 탐색기에서 결과를 필터링하는 데 사용되는 request_duration이라는 계산된 필드" style="width:100%;" >}} -## 저장된 검색 +## 저장된 검색 {#saved-searches} -[저장된 보기][6]에는 검색 쿼리 , 열, 시간대 및 패싯이 포함됩니다. +[Saved Views][6]에는 검색 쿼리 , 열, 시간대 및 패싯이 포함됩니다. -## 참고 자료 +## 추가 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -220,4 +243,5 @@ service:*mongo [4]: /ko/integrations/#cat-log-collection [5]: /ko/getting_started/tagging/#tags-best-practices [6]: /ko/logs/explorer/saved_views/ -[7]: /ko/logs/explorer/facets/#facet-panel \ No newline at end of file +[7]: /ko/logs/explorer/facets/#facet-panel +[8]: /ko/logs/log_configuration/attributes_naming_convention/#reserved-attributes \ No newline at end of file diff --git a/content/ko/real_user_monitoring/guide/proxy-rum-data.mdoc.md b/content/ko/real_user_monitoring/guide/proxy-rum-data.mdoc.md new file mode 100644 index 00000000000..905c6bc74a9 --- /dev/null +++ b/content/ko/real_user_monitoring/guide/proxy-rum-data.mdoc.md @@ -0,0 +1,229 @@ +--- +aliases: +- /ko/real_user_monitoring/faq/proxy_rum_data/ +content_filters: +- label: SDK source + option_group_id: rum_browser_sdk_source_options + trait_id: lib_src +- option_group_id: rum_browser_sdk_version_for_proxying_options + trait_id: rum_browser_sdk_version +description: SDK 소스 옵션 및 버전별 설정을 사용하여 브라우저 RUM 데이터 프록시를 구성하고, 맞춤형 네트워크 라우팅을 설정합니다. +further_reading: +- link: /real_user_monitoring/ + tag: Documentation + text: Real User Monitoring에 대해 알아보기 +title: 브라우저 RUM 데이터 프록시 구성하기 +--- +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +{% alert level="danger" %} +프록시 구성의 보안 취약점을 피하기 위해 브라우저 SDK `4.34.0` 이상으로 업그레이드하십시오. +{% /alert %} +{% /if %} + +## 개요 {% #overview %} + +RUM 브라우저 SDK는 요청을 프록시를 통해 전송하도록 구성할 수 있습니다. SDK의 `proxy` [초기화 매개변수][1]를 `https://www.example-proxy.com/any-endpoint`와 같은 URL로 설정하면 모든 RUM 데이터가 POST 방법을 사용하여 해당 URL로 전송됩니다. RUM 데이터는 여전히 프록시에서 Datadog으로 전달되어야 합니다. + +## 필수 프록시 설정 {% #prerequisite-proxy-setup %} + +요청을 Datadog으로 성공적으로 전달하려면 프록시가 다음을 수행해야 합니다. + +1. [Datadog 수집 URL을 구축합니다](#build-the-datadog-intake-url). +2. 정확한 geoIP를 위해 요청 클라이언트 IP 주소를 포함하는 `X-Forwarded-For` 헤더를 추가하십시오. +3. POST 방법을 사용하여 요청을 Datadog 수집 URL로 전달하십시오. +4. 요청 본문은 변경하지 마세요. + +{% alert level="warning" %} +- 보안상의 이유로 `cookie` 헤더와 같이 민감한 정보를 포함할 수 있는 HTTP 헤더를 제거하십시오. +- 요청 본문은 이진 데이터를 포함할 수 있으며 문자열로 변환되지 않아야 합니다. 프록시 구현이 변환 없이 원시 본문을 전달하는지 확인하십시오. +- 프록시 구현이 악의적인 행위자가 다른 서버에 요청을 보내지 않도록 허용하지 않는지 확인하십시오. 예: `https://browser-intake-datadoghq.com.malicious.com`. +{% /alert %} + +### Datadog 수집 URL {% #build-the-datadog-intake-url %}을 구축하십시오. + +귀하의 Datadog 수집 URL은 `/` 형식을 가져야 하며 (예: `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser&...`)입니다. + +{% table %} +--- +* 수집 출처 +* + Datadog 수집 출처는 귀하의 `site` [초기화 매개변수][1]에 해당합니다. 귀하의 사이트 매개변수에 해당하는 Datadog 수집 출처는 프록시 구현에서 정의되어야 합니다. + + {% site-region region="us" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-datadoghq.com`입니다. + {% /site-region %} + + {% site-region region="us3" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-us3-datadoghq.com`입니다. + {% /site-region %} + + {% site-region region="us5" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-us5-datadoghq.com`입니다. + {% /site-region %} + + {% site-region region="eu" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-datadoghq.eu`입니다. + {% /site-region %} + + {% site-region region="ap1" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-ap1-datadoghq.com`입니다. + {% /site-region %} + + {% site-region region="ap2" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-ap2-datadoghq.com`입니다. + {% /site-region %} + + {% site-region region="gov" %} + 귀하의 Datadog 사이트에 대한 수집 출처는 `https://browser-intake-ddog-gov.com`입니다. + {% /site-region %} +--- +* 경로 +* + 경로에는 API 버전과 제품이 포함되어 있습니다(예: RUM 데이터의 경우 `/api/v2/rum` 또는 세션 리플레이 데이터의 경우 `/api/v2/replay`). + + 각 요청의 경로는 요청의 `ddforward` 매개변수에서 접근할 수 있습니다(예: `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). +--- +* 매개변수 +* + 요청 매개변수 (예: `ddsource=browser&...`)는 요청의 `ddforward` 매개변수를 통해 접근할 수 있습니다 (예: `https://www.example-proxy.com/any-endpoint?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`). + +{% /table %} + +## SDK 설정 {% #sdk-setup %} + + +{% if includes($rum_browser_sdk_version, ["gte_5_4_0", "gte_4_34_0"]) %} + +`proxy` 초기화 매개변수에서 프록시의 URL을 구성하십시오: + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: '', +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '', + }); +}); +``` + +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: '' + }); +``` +{% /if %} + + +RUM 브라우저 SDK는 모든 요청에 `ddforward` 쿼리 매개변수를 추가합니다. 이 쿼리 매개변수에는 모든 데이터가 전달되어야 하는 URL 경로와 매개변수가 포함되어 있습니다. + +예를 들어, `site`가 `datadoghq.eu`로 설정되고 `proxy`가 `https://example.org/datadog-intake-proxy`로 설정되면, RUM 브라우저 SDK는 다음과 같은 URL로 요청을 보냅니다: `https://example.org/datadog-intake-proxy?ddforward=%2Fapi%2Fv2%2Frum%3Fddsource%3Dbrowser`. 프록시는 요청을 `https://browser-intake-datadoghq.eu/api/v2/rum?ddsource=browser`로 전달합니다. + + +{% if equals($rum_browser_sdk_version, "gte_5_4_0") %} +### `proxy` 초기화 매개변수에 함수를 전달하기 {% #passing-a-function-to-the-proxy-initialization-parameter %} + +`proxy` 초기화 매개변수는 함수 입력도 지원합니다. 이 함수는 경로와 매개변수가 프록시 URL에 추가되는 방식을 더 잘 제어할 수 있게 해줍니다. + +이 함수는 다음 속성을 가진 객체를 받습니다: + +- `path`: Datadog 요청의 경로 (예: `/api/v2/rum`) +- `parameters`: Datadog 요청의 매개변수 (예: `ddsource=browser&...`) + + +{% if equals($lib_src, "npm") %} + +```javascript +import { Datacenter, datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '', + clientToken: '', + site: '{% region-param key="dd_site" /%}', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, +}); +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_async") %} + +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}`, + }) +}) +``` +{% /if %} + + + +{% if equals($lib_src, "cdn_sync") %} + +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + proxy: (options) => `https://www.proxy.com/foo${options.path}/bar?${options.parameters}` + }); +``` +{% /if %} + + +**참고:** +- 일부 개인 정보 차단기가 이미 수집 [URL 패턴][2]을 대상으로 하고 있으므로, 프록시 URL을 구축할 때 이를 고려하는 것이 좋습니다. +- 각 요청에 대해 `proxy` 함수가 호출되므로, 무거운 계산을 피해야 합니다. +- **JSP 웹 애플리케이션**은 이러한 매개변수를 브라우저에 올바르게 전파하기 위해 `\` 이스케이프 문자를 사용해야 합니다. 예: + ```javascript + proxy: (options) => 'http://proxyURL:proxyPort\${options.path}?\${options.parameters}', + ``` +{% /if %} + + +{% /if %} + + + +{% if equals($rum_browser_sdk_version, "lt_4_34_0") %} +브라우저 SDK v4.34.0 이전에는 `proxyUrl` 초기화 매개변수가 사용되었으며, Datadog 수집 출처가 `ddforward` 속성에 포함되었습니다. 프록시 구현은 이 호스트를 검증하는 책임이 있었으며, 검증에 실패하면 다양한 취약점이 발생했습니다. + +Datadog 수집 출처는 보안을 보장하기 위해 프록시 구현에서 정의되어야 합니다. + +**보안 취약점을 피하기 위해, 브라우저 SDK `4.34.0` 이상으로 업그레이드해야 합니다.** +{% /if %} + + +[1]: /ko/real_user_monitoring/application_monitoring/browser/setup/client/?tab=rum#initialization-parameters +[2]: https://github.com/easylist/easylist/blob/997fb6533c719a015c21723b34e0cedefcc0d83d/easyprivacy/easyprivacy_general.txt#L3840 \ No newline at end of file diff --git a/content/ko/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/ko/security/code_security/static_analysis/static_analysis_rules/_index.md index 56f5eff7d51..f28d66f21bc 100644 --- a/content/ko/security/code_security/static_analysis/static_analysis_rules/_index.md +++ b/content/ko/security/code_security/static_analysis/static_analysis_rules/_index.md @@ -1,269 +1,338 @@ --- -title: SAST 규칙 -description: Static Code Analysis 규칙을 언어별로 확인하세요. aliases: -- /continuous_integration/static_analysis/rules -- /static_analysis/rules -- /code_analysis/static_analysis_rules -- /security/code_security/static_analysis_rules +- /ko/continuous_integration/static_analysis/rules +- /ko/static_analysis/rules +- /ko/code_analysis/static_analysis_rules +- /ko/security/code_security/static_analysis_rules +cascade: + banner: + link: + name: Datadog Code Security + url: https://www.datadoghq.com/product/code-security/ + title: 매끄러운 통합. Datadog Code Security를 사용해 보세요 + modal: + bottom_boxes: + - cta_title: 확장 프로그램 다운로드 + cta_url: https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode + icon: vscode + subtitle: VS Code 편집기에서 직접 코드 취약점을 식별하세요
    + title: VS Code 확장 프로그램 + - cta_title: 플러그인 다운로드 + cta_url: https://plugins.jetbrains.com/plugin/19495-datadog + icon: jetbrains + subtitle: JetBrains 제품에서 직접 코드 취약점을 식별하세요
    + title: JetBrains 플러그인 + footer: + link: + name: Datadog Code Security + url: https://www.datadoghq.com/product/code-security/ + text: Datadog Code Security를 사용하여 개발 프로세스의 모든 단계에서 코드 문제를 잡으세요 + title: 이 규칙을 시도하고 Datadog Code Security로 코드를 분석하세요 + top_box: + footer: For more information, please read the Code + Security documentation + steps: + - Create a static-analysis.datadog.yml with the content above at the root of + your repository + - Use our free IDE Plugins or add Code Security scans to your CI pipelines + - Get feedback on your code + title: 이 규칙을 사용하는 방법 +description: 정적 코드 분석을 위한 여러 언어의 규칙을 확인하세요. +further_reading: +- link: /security/code_security/ + tag: Documentation + text: Datadog Code Security에 대해 알아보기 is_beta: false -type: static-analysis rulesets: + apex-code-style: + description: '정해진 코딩 표준을 따르는 Apex 규칙을 작성하기 위한 Code Security 규칙. + + ' + title: Apex 코드 스타일과 모범 사례를 강제하기 위한 규칙. + apex-security: + description: 'Apex 코드에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: Apex를 위한 보안 규칙 + bash-code-quality: + description: 'Bash 스크립트의 코드 품질을 강제하기 위한 규칙. + + ' + title: Bash 스크립트의 코드 품질 규칙. + bash-security: + description: 'Bash 스크립트의 보안 모범 사례를 강제하기 위한 규칙. + + ' + title: Bash 스크립트에 대한 보안 규칙 csharp-best-practices: - title: "C# 모범 사례" - description: | - C# 모범 사례 적용 규칙. + description: 'C# 모범 사례를 시행하기 위한 규칙. + + ' + title: C#을 위한 모범 사례 csharp-code-style: - title: "C# 코드 스타일 패턴 준수" - description: | - C# 코드 스타일 적용 규칙. + description: 'C# 코드 스타일을 시행하기 위한 규칙. + + ' + title: C# 코드 스타일 패턴을 따르십시오 csharp-inclusive: - title: "C#에서 포괄적 언어 사용" - description: | - C# 코드를 더 포괄적으로 만드는 규칙. + description: 'C# 코드를 더 포괄적으로 만들기 위한 규칙. + + ' + title: C#에서 포괄적인 언어 사용 csharp-security: - title: "안전하고 보안이 강화된 C# 코드 작성" - description: | - C# 코드 보안 문제 식별 규칙. + description: 'C# 코드에서 보안 문제를 찾는 데 집중한 규칙. + + ' + title: 안전하고 보안이 강화된 C# 코드 작성 docker-best-practices: - title: Docker를 사용하여 모범 사례 준수 - description: | - Docker 사용 모범 사례. + description: 'Docker 사용을 위한 모범 사례. + + ' + title: Docker 사용 시 모범 사례를 따르십시오 github-actions: - title: GitHub Actions 보안 강화 - description: | - GitHub Actions에서 권한 설정, 버전 고정 등 위험 패턴을 감지하는 규칙. + description: 'GitHub Actions를 검사하여 권한이나 버전 고정 등과 같은 안전하지 않은 패턴을 감지하기 위한 규칙. + + ' + title: GitHub Actions를 안전하게 보호하십시오 go-best-practices: - title: Go 모범 사례 - description: | - Go 코드를 더 빠르고 쉽게 작성할 수 있게 해주는 규칙. 코드 스타일부터 버그 예방까지, 성능과 유지보수성을 갖춘 효율적인 Go 코드 작성에 도움을 줍니다. + description: 'Go 코드를 더 빠르고 쉽게 작성하기 위한 규칙. 코드 스타일에서 버그 방지에 이르기까지, 이 규칙 세트는 성능이 + 뛰어나고 유지 관리가 용이하며 효율적인 Go 코드를 작성하는 개발자에게 도움을 줍니다. + + ' + title: Go를 위한 모범 사례 go-inclusive: + description: 'Go 코드에 표현 문제가 있는지 검사합니다. + + ' title: Go에서 포괄적인 언어 사용 - description: | - Go 코드에 표현 문제가 있는지 확인. go-security: - title: Go 코드의 안전성과 보안성 확인 - description: | - Go 코드베이스에서 일반적인 보안 문제(SQL 삽입, XSS, 셸 삽입 등) 감지. + description: 'Go 코드베이스에서 일반적인 보안 문제(예: SQL 인젝션, XSS 또는 셸 인젝션)를 감지하십시오. + + ' + title: Go 코드가 안전하고 보안이 강화되었는지 확인 java-best-practices: - title: Java 모범 사례 준수 - description: | - Java 모범 사례 적용 규칙. + description: 'Java 모범 사례를 준수하기 위한 규칙. + + ' + title: Java에서 모범 사례를 따르십시오. java-code-style: - title: Java 코드 스타일 패턴 준수 - description: | - Java 코드 스타일 적용 규칙. + description: 'Java 코드 스타일을 준수하기 위한 규칙. + + ' + title: Java 코드 스타일 패턴을 따르십시오. java-inclusive: - title: Java에서 포괄적 언어 사용 - description: | - Java의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + description: 'Java의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + + ' + title: Java에서 포괄적인 언어 사용 java-security: - title: Java 코드 안전성 확인 - description: | - Java 코드 보안 문제 식별 규칙. + description: 'Java 코드에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: Java 코드가 안전한지 확인하십시오. javascript-best-practices: - title: JavaScript 코드 작성 시 모범 사례 준수 - description: | - JavaScript 모범 사례 적용 규칙. + description: 'JavaScript 모범 사례를 준수하기 위한 규칙. + + ' + title: JavaScript 코드를 작성할 때 모범 사례를 따르십시오. javascript-browser-security: - title: JavaScript 웹 애플리케이션용 보안 규칙 - description: | - JavaScript 웹 애플리케이션 보안 문제 식별 규칙. + description: 'JavaScript 웹 애플리케이션에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: JavaScript 웹 애플리케이션을 위한 보안 규칙. javascript-code-style: - title: JavaScript 코드 스타일 적용 - description: | - JavaScript 코드 스타일 적용 규칙. + description: 'JavaScript 코드 스타일을 강제하는 규칙. + + ' + title: JavaScript 코드 스타일을 강제하십시오. javascript-common-security: - title: JavaScript용 일반 보안 규칙 - description: | - JavaScript 코드 보안 문제 식별 규칙. + description: 'JavaScript 코드에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: JavaScript를 위한 일반적인 보안 규칙. javascript-express: - title: Express.js 모범 사례 및 보안 확인 - description: | - Express.js 모범 사례 및 보안 관련 규칙. + description: 'Express.js 모범 사례와 보안을 위한 규칙. + + ' + title: Express.js 모범 사례 및 보안을 검사하십시오. javascript-inclusive: - title: JavaScript 코드에 표현 문제가 있는지 확인 - description: | - JavaScript의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + description: 'JavaScript의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + + ' + title: JavaScript 코드에서 표현 문제를 검사하십시오. javascript-node-security: - title: Node에서 잠재적인 보안 취약 지점 식별 - description: | - Node에서 잠재적인 보안 취약 지점을 식별하는 규칙. 여기에는 추가 분류가 필요한 오탐지가 포함될 수 있습니다. + description: 'Node에서 잠재적인 보안 핫스팟을 식별하는 규칙. 여기에는 추가적인 분류가 필요한 잘못된 긍정이 포함될 수 있습니다. + + ' + title: Node에서 잠재적인 보안 핫스팟을 식별하십시오. jsx-react: + description: '이 플러그인은 React의 모범 사례를 강제하는 `권장` 구성을 내보냅니다. + + ' title: React 전용 린팅 규칙 - description: | - 이 플러그인은 React 모범 사례를 적용하는 `recommended` 구성을 내보냅니다. kotlin-best-practices: - title: Kotlin 코드 작성 시 모범 사례 준수 - description: | - Kotlin 모범 사례 적용 규칙. + description: 'Kotlin 모범 사례를 강제하는 규칙입니다. + + ' + title: Kotlin 코드 작성을 위한 모범 사례를 따르십시오. kotlin-code-style: - title: Kotlin 코드 스타일 적용 - description: | - Kotlin 코드 스타일 적용 규칙. + description: 'Kotlin 코드 스타일을 강제하는 규칙입니다. + + ' + title: Kotlin 코드 스타일을 강제하십시오. kotlin-security: - title: 안전한 Kotlin 코딩 적용 - description: | - Kotlin 코드 보안 문제 식별 규칙. + description: 'Kotlin 코드에서 보안 문제를 찾는 데 중점을 둔 규칙입니다. + + ' + title: 안전한 Kotlin 코딩을 강제하십시오. php-best-practices: - title: PHP 코드 작성 시 모범 사례 준수 - description: | - PHP 모범 사례 적용 규칙. 코드 스타일 개선, 버그 방지, 성능과 유지보수성을 갖춘 효율적인 PHP 코드 작성을 지원합니다. + description: 'PHP 모범 사례를 강제하고, 코드 스타일을 향상시키며, 버그를 방지하고, 성능이 뛰어나고 유지 관리가 용이하며 효율적인 + PHP 코드를 촉진하는 규칙입니다. + + ' + title: PHP 코드 작성을 위한 모범 사례를 따르십시오. php-code-style: - title: PHP 코드 스타일 적용 - description: | - PHP 코드 스타일 적용 규칙. + description: 'PHP 코드 스타일을 강제하는 규칙입니다. + + ' + title: PHP 코드 스타일을 강제하십시오. php-security: - title: PHP용 보안 규칙 - description: | - PHP 코드 보안 문제 식별 규칙. + description: 'PHP 코드에서 보안 문제를 찾는 데 중점을 둔 규칙입니다. + + ' + title: PHP를 위한 보안 규칙입니다. python-best-practices: + description: '효율적이고 버그 없는 코드를 작성하기 위한 Python 모범 사례입니다. + + ' title: 모범 사례를 따라 Python 코드 작성하기 - description: | - 효율적이고 버그 없는 코드를 작성하기 위한 Python 모범 사례. python-code-style: + description: 'Python 코드 스타일을 적용하는 규칙입니다. + + ' title: Python 코드 스타일 적용 - description: | - Python 코드 스타일 적용 규칙. python-design: - title: Python 프로그램 구조 확인 - description: | - 중첩 루프 등을 포함하여 Python 프로그램 구조를 점검하는 규칙. + description: '중첩된 루프 등을 포함해 Python 프로그램 구조를 검사하기 위한 규칙입니다. + + ' + title: Python 프로그램 구조 검사 python-django: - title: Django 모범 사례 및 보안 확인 - description: | - Django 모범 사례 및 보안 관련 규칙. + description: 'Django 모범 사례 및 보안 전용 규칙입니다. + + ' + title: Django 모범 사례 및 보안 검사 python-flask: - title: Flask 모범 사례 및 보안 확인 - description: | - Flask 모범 사례 및 보안 관련 규칙. + description: 'Flask 모범 사례 및 보안 전용 규칙입니다. + + ' + title: Flask 모범 사례 및 보안 검사 python-inclusive: - title: Python 코드에 표현 문제가 있는지 확인 - description: | - Python의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + description: 'Python의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙입니다. + + ' + title: Python 코드에 표현 문제가 있는지 검사 python-pandas: + description: "pandas 코드가 적절하게 사용되었는지 검사하기 위한 일련의 규칙입니다.\n\n - `import` 선언이 코딩\ + \ 가이드라인을 따르도록 합니다.\n - 더 이상 사용되지 않는 코드와 메서드를 피하십시오.\n - 가능한 한 비효율적인 코드를 피하십시오.\n" title: pandas를 사용한 데이터 과학 모범 사례 - description: | - 판다스 코드가 적절하게 사용되었는지 확인하는 규칙 세트. - - - `import` 선언이 코딩 가이드라인을 따르도록 합니다. - - 비권장 코드와 메서드 사용을 피하세요. - - 가능한 한 비효율적인 코드 사용을 피하세요. python-security: - title: Python 코드의 안전성과 보안성 확인 - description: | - OWASP10 및 SANS25에서 발견된 문제 등 Python 코드에서 보안 및 취약성 문제 식별을 위한 규칙. - - - 잘못된 암호화 및 해싱 프로토콜 사용 - - 접근 제어 부족 - - 보안 설정 오류 - - SQL 삽입 - - 하드코딩된 크리덴셜 - - Shell 삽입 - - 안전하지 않은 역직렬화 + description: "Python 코드에서 보안 및 취약성 문제를 찾는 데 중점을 둔 규칙, OWASP10 및 SANS25에서 발견된 문제를\ + \ 포함합니다.\n\n - 나쁜 암호화 및 해싱 프로토콜 사용\n - 접근 제어 부족\n - 보안 잘못 구성\n - SQL 삽입\n -\ + \ 하드코딩된 자격 증명\n - 셸 인젝션\n - 안전하지 않은 역직렬화\n" + title: Python 코드가 안전하고 보안이 강화되도록 하십시오. rails-best-practices: - title: Ruby on Rails 커뮤니티에서 많이 사용되는 패턴 - description: | - Ruby on Rails 코드 작성 모범 사례. + description: 'Ruby on Rails 코드를 작성하기 위한 모범 사례입니다. + + ' + title: Ruby on Rails 커뮤니티에서 널리 채택된 패턴 ruby-best-practices: - title: Ruby 모범 사례 준수 - description: | - Ruby 모범 사례 적용 규칙. + description: 'Ruby 모범 사례를 시행하기 위한 규칙입니다. + + ' + title: Ruby에서 모범 사례를 따르십시오 ruby-code-style: - title: Ruby 코드 스타일 적용 규칙. - description: | - 기존 코딩 표준을 따르는 Ruby 규칙 작성을 위한 Code Security 규칙. + description: '정립된 코딩 표준을 따르는 Ruby 규칙을 작성하기 위한 Code Security 규칙입니다. + + ' + title: Ruby 코드 스타일을 시행하기 위한 규칙입니다. ruby-inclusive: + description: '포괄적인 Ruby 코드를 작성하십시오 + + ' title: 포괄적인 Ruby 코드에 대한 규칙 - description: | - 포괄적인 Ruby 코드 작성 ruby-security: - title: Ruby용 보안 규칙 - description: | - Ruby 코드 보안 문제 식별 규칙. + description: 'Ruby 코드에서 보안 문제를 찾는 데 중점을 둔 규칙입니다. + + ' + title: Ruby를 위한 보안 규칙 + swift-code-style: + description: '정립된 코딩 표준을 따르는 Swift 규칙을 작성하기 위한 Code Security 규칙입니다. + + ' + title: Swift 코드 스타일과 모범 사례를 강제하기 위한 규칙. + swift-security: + description: 'Swift 코드에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: Swift를 위한 보안 규칙 terraform-aws: + description: 'AWS에 대한 Terraform 모범 사례를 강제하기 위한 규칙. + + ' title: Terraform AWS - description: | - AWS용 Terraform 모범 사례 적용 규칙. tsx-react: + description: '이 플러그인은 React의 모범 사례를 강제하는 `권장` 구성을 내보냅니다. + + ' title: TypeScript React 코드 품질 - description: | - 이 플러그인은 React 모범 사례를 적용하는 `recommended` 구성을 내보냅니다. typescript-best-practices: - title: TypeScript 코드 작성 시 모범 사례 준수 - description: | - TypeScript 모범 사례 적용 규칙. + description: 'TypeScript 모범 사례를 강제하기 위한 규칙. + + ' + title: TypeScript 코드를 작성할 때 모범 사례를 따르십시오. typescript-browser-security: - title: TypeScript 웹 애플리케이션용 보안 규칙 - description: | - TypeScript 웹 애플리케이션 보안 문제 식별 규칙. + description: 'TypeScript 웹 애플리케이션에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: TypeScript 웹 애플리케이션을 위한 보안 규칙 typescript-code-style: - title: TypeScript 권장 코드 패턴 - description: | - 최신 TypeScript 코드베이스 모범 사례로 간주되지만 프로그램 로직에는 영향을 미치지 않는 규칙. 이 규칙은 대체로 더 단순한 코드 패턴을 적용하도록 권장합니다. + description: '현대 TypeScript 코드베이스에 대한 모범 사례로 간주되지만 프로그램 논리에 영향을 미치지 않는 규칙. 이 규칙들은 + 일반적으로 더 간단한 코드 패턴을 강제하는 데에 강한 의견을 반영합니다. + + ' + title: TypeScript에서 권장하는 코드 패턴 typescript-common-security: - title: TypeScript용 일반 보안 규칙 - description: | - TypeScript 코드 보안 문제 식별 규칙. + description: 'TypeScript 코드에서 보안 문제를 찾는 데 중점을 둔 규칙. + + ' + title: TypeScript를 위한 일반적인 보안 규칙 typescript-express: - title: Express.js TypeScript 모범 사례 및 보안 확인 - description: | - Express.js TypeScript 모범 사례 및 보안 관련 규칙. + description: 'Express.js TypeScript 모범 사례 및 보안을 위한 규칙. + + ' + title: Express.js TypeScript 모범 사례 및 보안을 검사하십시오. typescript-inclusive: - title: TypeScript 코드에 표현 문제가 있는지 확인 - description: | - TypeScript의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. - typescript-node-security: - title: Node에서 잠재적인 보안 핫스팟 식별 - description: | - Node에서 잠재적인 보안 취약 지점을 식별하는 규칙. 여기에는 추가 분류가 필요한 오탐지가 포함될 수 있습니다. -cascade: - modal: - title: 이 규칙을 사용해 Datadog Code Security로 코드를 분석하세요 - top_box: - title: 규칙 사용 방법 - steps: - - 리포지토리 루트에 위의 내용을 포함하는 static-analysis.datadog.yml을 만듭니다 - - 무료 IDE 플러그인을 사용하거나 CI 파이프라인에 Code Security 검사를 추가합니다 - - 코드에 대한 피드백을 받습니다 - footer: 자세한 내용은 Code Security 문서를 참고하세요 - bottom_boxes: - - title: VS Code 확장 프로그램 - icon: vscode - subtitle:
    VS Code 편집기에서 직접 코드 취약점 식별하세요 - cta_title: 확장 프로그램 다운로드 - cta_url: "https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode" - - title: JetBrains 플러그인 - icon: jetbrains - subtitle:
    JetBrain 제품에서 직접 코드 취약점 식별하세요 - cta_title: 플러그인 다운로드 - cta_url: "https://plugins.jetbrains.com/plugin/19495-datadog" - footer: - text: Datadog Code Security를 ​​사용하여 개발 프로세스의 모든 단계에서 코드 문제를 식별하세요 - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + description: '코드와 주석에서 부적절한 표현을 피하기 위한 TypeScript 규칙. - banner: - title: 원활한 통합. Datadog Code Security를 경험해 보세요 - link: - name: Datadog Code Security - url: "https://www.datadoghq.com/product/code-security/" + ' + title: TypeScript 코드에서 표현 문제를 검사하십시오. + typescript-node-security: + description: 'Node에서 잠재적인 보안 핫스팟을 식별하는 규칙입니다. 여기에는 추가적인 분류가 필요한 잘못된 긍정이 포함될 수 + 있습니다. -further_reading: - - link: /security/code_security/ - tag: 설명서 - text: Datadog Code Security 자세히 보기 + ' + title: Node에서 잠재적인 보안 핫스팟을 식별하십시오. +title: SAST 규칙 +type: static-analysis --- - {{% site-region region="gov" %}}
    Code Security는 {{< region-param key="dd_site_name" >}} 사이트에서 사용할 수 없습니다.
    {{% /site-region %}} -## 개요 +## 개요 {#overview} -Datadog Static Code Analysis는 코드베이스의 보안 취약점, 버그, 유지 관리 문제 감지를 위한 기본 규칙을 제공합니다. 자세한 내용은 [설정 문서][1]를 참고하세요. +Datadog 정적 코드 분석은 보안 취약점, 버그 및 코드베이스의 유지 관리 문제를 감지하는 데 도움이 되는 기본 제공 규칙을 제공합니다. 자세한 내용은 [설정 문서][1]를 참조하세요. -[1]: /security/code_security/static_analysis/setup/ +[1]: /ko/security/code_security/static_analysis/setup/ \ No newline at end of file diff --git a/content/ko/standard-attributes/_index.md b/content/ko/standard-attributes/_index.md index 128aeecfe3e..4b4b7c49d8d 100644 --- a/content/ko/standard-attributes/_index.md +++ b/content/ko/standard-attributes/_index.md @@ -1,636 +1,637 @@ --- attributes: -- description: 메트릭에 정의된 원본 호스트 이름입니다. Datadog에서는 Datadog에 있는 일치 호스트에서 해당되는 호스트 태그를 - 자동으로 검색하고 이를 텔레메트리에 적용합니다. 에이전트는 이 값을 자동으로 설정합니다. - domain: 예약됨 - name: 호스트 +- description: 메트릭에서 정의된 원래 호스트의 이름입니다. Datadog은 일치하는 호스트에서 해당 호스트 태그를 자동으로 검색하여 텔레메트리에 + 적용합니다. Agent가 이 값을 자동으로 설정합니다. + domain: Reserved + name: host product_source: - icon-log - icon-apm - type: 문자열 + type: string - description: 원본 장치의 유형입니다. - domain: 예약됨 - name: 장치 + domain: Reserved + name: device product_source: - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 -- description: 이는 데이터의 출처가 된 기술로 통합 이름을 가르킵니다. 해당 항목이 통합 이름과 일치하면 Datadog 은 해당 파서와 - 패싯을 자동으로 설치합니다. 예를 들어 `nginx`, `postgresql` 등이 있습니다. - domain: 예약됨 - name: 소스 + type: string +- description: 이는 데이터가 유래한 기술인 통합 이름에 해당합니다. 통합 이름과 일치할 때, Datadog은 해당 파서와 패싯을 자동으로 + 설치합니다. 예를 들어, `nginx`, `postgresql` 등이 있습니다. + domain: Reserved + name: source product_source: - icon-log - type: 문자열 -- description: 이는 데이터의 수준 또는 심각도를 가르킵니다. 로그의 경우 [로그 패턴](/logs/explorer/patterns/) - 을 정의하는 데 사용되며 로그 관리 UI에 전용 레이아웃이 있습니다. - domain: 예약됨 + type: string +- description: 이는 데이터의 수준 또는 심각도에 해당합니다. 로그의 경우, [로그 패턴](/logs/explorer/patterns/)을 + 정의하는 데 사용되며, 로그 관리 UI에서 전용 레이아웃을 가집니다. + domain: Reserved name: status product_source: - icon-log - icon-apm - type: 문자열 + type: string - description: 데이터를 생성하는 애플리케이션 또는 서비스의 [통합 서비스 이름](/getting_started/tagging/unified_service_tagging/)으로, - 사용자 세션을 상호 연계하는 데 사용됩니다. APM에서 다른 제품으로 전환하는 데 사용되므로 두 제품을 모두 사용할 때는 동일한 값을 정의해야 - 합니다. RUM SDK에서 서비스는 브라우저 애플리케이션에서 특정 기능을 제공하는 팀에서 구축한 페이지 집합을 나타냅니다. [수동 보기 추적]을 - 사용하여 서비스에 웹 페이지를 할당할 수 있습니다(/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names). - domain: 예약됨 - name: 서비스 + 사용자 세션을 상관시키는 데 사용됩니다. APM에서 다른 제품으로 전환하는 데 사용되므로, 두 제품을 사용할 때 동일한 값을 정의해야 합니다. + RUM 브라우저 SDK에서 서비스는 특정 기능을 제공하는 팀이 구축한 페이지 집합을 나타냅니다. [수동 뷰 추적](/real_user_monitoring/application_monitoring/browser/advanced_configuration/?tab=npm#override-default-rum-view-names)을 + 통해 웹 페이지를 서비스에 할당할 수 있습니다. + domain: Reserved + name: service product_source: - icon-log - icon-rum - icon-apm - android - ios - - 브라우저 + - browser - roku - type: 문자열 -- description: 트레이스에 사용되는 트레이스 ID입니다. 로그를 포함해 트레이스를 다른 데이터와 연계하는 데 사용됩니다. - domain: 예약됨 + type: string +- description: 트레이스에 사용되는 트레이스 ID입니다. 이는 로그를 포함한 다른 데이터와 트레이스를 상관시키는 데 사용됩니다. + domain: Reserved name: trace_id product_source: - icon-log - icon-apm - type: 숫자 -- description: 로그 항목의 본문으로, 강조 표시되어 Logs Live Tail에 표시됩니다. 여기에서 전체 텍스트 검색을 위해 인덱싱됩니다. - domain: 예약됨 + type: number +- description: 로그 항목의 본문으로, Logs Live Tail에 강조 표시되어 표시되며 전체 텍스트 검색을 위해 인덱싱됩니다. + domain: Reserved name: message product_source: - icon-log - type: 문자열 + type: string - description: 로그 전송 시 클라이언트에서 서버로 전송된 총 바이트 수입니다. - domain: 네트워크 통신 + domain: Network communications name: network.bytes_read product_source: - icon-log - type: 숫자 + type: number - description: 로그 전송 시 서버에서 클라이언트로 전송된 총 바이트 수입니다. - domain: 네트워크 통신 + domain: Network communications name: network.bytes_written product_source: - icon-log - type: 숫자 -- description: 국가 이름. - domain: 지리적 위치 + type: number +- description: 국가 이름입니다. + domain: Geolocation name: network.client.geoip.country.name product_source: - icon-log - type: 문자열 + type: string - description: 해당 국가의 [ISO 코드](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes)로, 예를 들어 미국의 경우 `US`, 프랑스의 경우 `FR`를 입력합니다. - domain: 지리적 위치 + domain: Geolocation name: network.client.geoip.country.iso_code product_source: - icon-log - type: 문자열 -- description: 대륙의 ISO 코드 (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). - domain: 지리적 위치 + type: string +- description: 대륙의 ISO 코드입니다(`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, `OC`). + domain: Geolocation name: network.client.geoip.continent.code product_source: - icon-log - type: 문자열 + type: string - description: 대륙 이름입니다(`Europe`, `Australia`, `North America`, `Africa`, `Antartica`, `South America`, `Oceania`). - domain: 지리적 위치 + domain: Geolocation name: network.client.geoip.continent.name product_source: - icon-log - type: 문자열 -- description: '국가의 첫 번째 세분 수준 이름 (예: 미국에서 `California` 또는 프랑스에서 `Sarthe` 부서).' - domain: 지리적 위치 + type: string +- description: '국가의 첫 번째 하위 행정 구역 이름입니다(예: 미국의 `California` 또는 프랑스의 `Sarthe` 데파르트망).' + domain: Geolocation name: network.client.geoip.subdivision.name product_source: - icon-log - type: 문자열 -- description: '[ISO 코드](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes)로 - 해당 국가의 첫 번째 하위 수준 지역 코드입니다. 예를 들어 미국의 경우 `CA`, 프랑스의 경우 `SA`가 이에 해당할 수 있습니다.' - domain: 지리적 위치 + type: string +- description: '국가의 첫 번째 하위 행정 구역 [ISO 코드](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes)입니다(예: + 미국의 `CA` 또는 프랑스의 `SA` 데파르트망).' + domain: Geolocation name: network.client.geoip.subdivision.iso_code product_source: - icon-log - type: 문자열 + type: string - description: '도시 이름입니다(예: `Paris`, `New York`).' - domain: 지리적 위치 + domain: Geolocation name: network.client.geoip.city.name product_source: - icon-log - type: 문자열 + type: string - description: 요청 중인 리소스에 연결된 웹페이지의 주소를 식별하는 HTTP 헤더 필드입니다. domain: HTTP name: http.referer product_source: - icon-log - type: 문자열 + type: string - description: HTTP 요청의 ID입니다. domain: HTTP name: http.request_id product_source: - icon-log - type: 문자열 -- description: URL의 HTTP 호스트 부분. - domain: HTTP, URL 세부 정보 + type: string +- description: URL의 HTTP 호스트 부분입니다. + domain: HTTP, URL Details name: http.url_details.host product_source: - icon-log - icon-apm - type: 문자열 -- description: URL의 HTTP 호스트 부분. - domain: HTTP, URL 세부 정보 + type: string +- description: URL의 HTTP 포트 부분입니다. + domain: HTTP, URL Details name: http.url_details.port product_source: - icon-log - icon-apm - type: 숫자 -- description: URL의 HTTP 호스트 부분. - domain: HTTP, URL 세부 정보 + type: number +- description: URL의 HTTP 경로 부분입니다. + domain: HTTP, URL Details name: http.url_details.path product_source: - icon-log - icon-apm - type: 문자열 -- description: URL의 HTTP 쿼리 문자열 부분은 쿼리 파라미터 키/값 속성으로 나누어볼 수 있습니다. - domain: HTTP, URL 세부 정보 + type: string +- description: URL의 HTTP 쿼리 문자열 부분을 쿼리 파라미터의 키/값 속성으로 분해한 것입니다. + domain: HTTP, URL Details name: http.url_details.queryString product_source: - icon-log - icon-apm - type: 오브젝트 -- description: URL의 프로토콜 이름(HTTP 또는 HTTPS). - domain: HTTP, URL 세부 정보 + type: object +- description: URL의 프로토콜 이름입니다(HTTP 또는 HTTPS). + domain: HTTP, URL Details name: http.url_details.scheme product_source: - icon-log - icon-apm - type: 문자열 + type: string - description: User-Agent에서 보고한 OS 제품군입니다. - domain: 사용자-에이전트 + domain: User-Agent name: http.useragent_details.os.family product_source: - icon-log - type: 문자열 -- description: 사용자가 보고한 브라우저 제품군-에이전트입니다. - domain: 사용자-에이전트 + type: string +- description: User-Agent에서 보고한 브라우저 제품군입니다. + domain: User-Agent name: http.useragent_details.browser.family product_source: - icon-log - type: 문자열 -- description: 사용자가 보고한 디바이스 제품군-에이전트입니다. - domain: 사용자-에이전트 + type: string +- description: User-Agent에서 보고한 장치 제품군입니다. + domain: User-Agent name: http.useragent_details.device.family product_source: - icon-log - type: 문자열 -- description: 로거의 이름입니다. - domain: 소스 코드 + type: string +- description: 로거 이름입니다. + domain: Source code name: logger.name product_source: - icon-log - type: 문자열 + type: string - description: 로그가 실행될 때 현재 스레드의 이름입니다. - domain: 소스 코드 + domain: Source code name: logger.thread_name product_source: - icon-log - type: 문자열 + type: string - description: 클래스 메서드 이름입니다. - domain: 소스 코드 + domain: Source code name: logger.method_name product_source: - icon-log - type: 문자열 -- description: 로거의 버전입니다. - domain: 소스 코드 + type: string +- description: 로거 버전입니다. + domain: Source code name: logger.version product_source: - icon-log - type: 문자열 -- description: 오류 유형 또는 종류(또는 경우에 따라 코드). - domain: 소스 코드 + type: string +- description: 오류 유형 또는 종류(또는 경우에 따라 오류 코드)입니다. + domain: Source code name: error.kind product_source: - icon-log - type: 문자열 -- description: 연결 중인 데이터베이스 이름입니다. 예를 들어 Java에서 `jdbc.url="jdbc:MySQL://127.0.0.1:3306/customers"` + type: string +- description: 연결되는 데이터베이스의 이름입니다. 예를 들어, 자바에서 `jdbc.url="jdbc:mysql://127.0.0.1:3306/customers"`이면 인스턴스 이름은 `customers`입니다. - domain: 데이터베이스 + domain: Database name: db.instance product_source: - icon-apm - icon-log - type: 문자열 -- description: '지정된 데이터베이스 유형에 대한 데이터베이스 문입니다. 예를 들어, mySQL의 경우: `''SELECT * FROM - wuser_table'';`, Redis의 경우: `''SET mykey ''WuValue''''` 입니다.' - domain: 데이터베이스 + type: string +- description: '주어진 데이터베이스 유형에 대한 데이터베이스 문입니다. 예를 들어, mySQL의 경우: `''SELECT * FROM + wuser_table'';` 및 Redis의 경우: `''SET mykey ''WuValue''''`입니다.' + domain: Database name: db.statement product_source: - icon-apm - icon-log - type: 문자열 + type: string - description: 작업을 수행하는 사용자입니다. - domain: 데이터베이스 + domain: Database name: db.user product_source: - icon-apm - icon-log - type: 문자열 -- description: '모든 종류의 기간(**나노초** 단위): HTTP 응답 시간, 데이터베이스 쿼리 시간, 지연 시간 등이 있습니다. 로그 - 이내의 모든 기간을 이 속성에 [리매핑](/logs/log_configuration/processors/#remapper)하면 Datadog가 - 트레이스 검색의 기본 측정 단위로 이를 표시하고 사용합니다.' - domain: 성능 - name: 기간 + type: string +- description: '**나노초** 단위의 모든 종류의 지속 시간: HTTP 응답 시간, 데이터베이스 쿼리 시간, 대기 시간 등이 있습니다. + 로그 내의 모든 지속 시간을 이 속성으로 [재매핑](/logs/log_configuration/processors/#remapper)하십시오. + Datadog은 이를 기본 측정값으로 표시하고 사용합니다.' + domain: Performance + name: duration product_source: - icon-log - type: 숫자 + type: number - description: 사용자 식별자입니다. - domain: 사용자 + domain: User name: usr.id product_source: - icon-log - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 + type: string - description: 사용자 친화적인 이름입니다. - domain: 사용자 + domain: User name: usr.name product_source: - icon-log - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 + type: string - description: 사용자 이메일입니다. - domain: 사용자 + domain: User name: usr.email product_source: - icon-log - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 + type: string - description: 호스트 이름입니다. - domain: Syslog 및 로그 운송자 + domain: Syslog and log shippers name: syslog.hostname product_source: - icon-log - type: 문자열 + type: string - description: 애플리케이션 이름입니다. 일반적으로 `service` 예약 속성으로 리매핑됩니다. - domain: Syslog 및 로그 운송자 + domain: Syslog and log shippers name: syslog.appname product_source: - icon-log - type: 문자열 + type: string - description: 로그 심각도입니다. 일반적으로 `status` 예약 속성으로 리매핑됩니다. - domain: Syslog 및 로그 운송자 + domain: Syslog and log shippers name: syslog.severity product_source: - icon-log - type: 숫자 -- description: 로그를 남기다 타임스탬프입니다. 일반적으로 `date` 예약 속성으로 리매핑됩니다. - domain: Syslog 및 로그 운송자 + type: number +- description: 로그 타임스탬프입니다. 일반적으로 `date` 예약 속성으로 리매핑됩니다. + domain: Syslog and log shippers name: syslog.timestamp product_source: - icon-log - type: 문자열 + type: string - description: 로그의 출처가 된 환경 이름입니다. - domain: Syslog 및 로그 운송자 + domain: Syslog and log shippers name: syslog.env product_source: - icon-log - type: 문자열 + type: string - description: DNS 쿼리 식별자입니다. domain: DNS name: dns.id product_source: - icon-log - type: 문자열 + type: string - description: 쿼리한 도메인 이름입니다. domain: DNS name: dns.question.name product_source: - icon-log - type: 문자열 + type: string - description: DNS 질문 유형을 지정하는 [2옥텟 코드](https://en.wikipedia.org/wiki/List_of_DNS_record_types)입니다. domain: DNS name: dns.question.type product_source: - icon-log - type: 문자열 -- description: '클래스는 DNS 질문(예: 인터넷 사용 시 IP)으로 조회됩니다.' + type: string +- description: 'DNS 질문으로 조회된 클래스입니다(예: 인터넷 사용 시 IP).' domain: DNS name: dns.question.class product_source: - icon-log - type: 문자열 + type: string - description: 바이트 단위의 DNS 질문 크기입니다. domain: DNS name: dns.question.size product_source: - icon-log - type: 숫자 + type: number - description: DNS가 응답하는 IP 주소입니다. domain: DNS name: dns.answer.name product_source: - icon-log - type: 문자열 + type: string - description: DNS 응답 유형을 지정하는 [2옥텟 코드](https://en.wikipedia.org/wiki/List_of_DNS_record_types)입니다. domain: DNS name: dns.answer.type product_source: - icon-log - type: 문자열 + type: string - description: DNS가 응답한 클래스입니다. domain: DNS name: dns.answer.class product_source: - icon-log - type: 문자열 -- description: The DNS answer size in bytes. + type: string +- description: 바이트 단위의 DNS 답변 크기입니다. domain: DNS name: dns.answer.size product_source: - icon-log - type: 숫자 + type: number - description: DNS 응답 코드입니다. domain: DNS name: dns.flags.rcode product_source: - icon-log - type: 문자열 + type: string - description: '동일한 활동(예: 인증)에 의해 생성된 이벤트 전반에 걸친 공유 이름입니다.' - domain: 이벤트 + domain: Events name: evt.name product_source: - icon-log - type: 문자열 -- description: '이벤트(예: `success`, `failure`)의 결과입니다.' - domain: 이벤트 + type: string +- description: '이벤트의 결과입니다(예: `success`, `failure`).' + domain: Events name: evt.outcome product_source: - icon-log - type: 문자열 -- description: 에포크에서 이벤트 시작 시간(밀리초). - domain: RUM 핵심 속성 - name: 날짜 + type: string +- description: 에포크 기준 이벤트 시작 시각(밀리초 단위)입니다. + domain: RUM core attributes + name: date product_source: - icon-rum - android - ios - roku - type: 정수 -- description: '이벤트 유형 (예: `view` 또는 `resource`).' - domain: RUM 핵심 속성 - name: 유형 + type: integer +- description: '이벤트 유형입니다(예: `view` 또는 `resource`).' + domain: RUM core attributes + name: type product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: RUM 애플리케이션을 만들 때 생성되는 Datadog 애플리케이션 ID. - domain: RUM 핵심 속성 + type: string +- description: RUM 애플리케이션을 만들 때 생성되는 Datadog 애플리케이션 ID입니다. + domain: RUM core attributes name: application.id product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: Datadog 애플리케이션 이름. - domain: RUM 핵심 속성 + type: string +- description: Datadog 애플리케이션 이름입니다. + domain: RUM core attributes name: application.name product_source: - icon-rum - android - - 브라우저 + - browser - ios - type: 문자열 -- description: 디바이스에서 보고한 디바이스 유형 (System User-Agent). - domain: 장치(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 장치 유형입니다(시스템 User-Agent). + domain: Device (Android, iOS, Roku) name: device.type product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스에서 보고한 디바이스 브랜드 (System User-Agent). - domain: 장치(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 장치 브랜드입니다(시스템 User-Agent). + domain: Device (Android, iOS, Roku) name: device.brand product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스에서 보고한 디바이스 모델 (System User-Agent). - domain: 장치(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 장치 모델입니다(시스템 User-Agent). + domain: Device (Android, iOS, Roku) name: device.model product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스에서 보고한 디바이스 이름 (System User-Agent). - domain: 장치(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 장치 이름입니다(시스템 User-Agent). + domain: Device (Android, iOS, Roku) name: device.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스 네트워크 도달 가능성 상태 (`connected`, `not connected` 또는 `maybe`). - domain: 연결성(Android, iOS) + type: string +- description: 장치 네트워크 도달 가능성 상태입니다(`connected`, `not connected` 또는 `maybe`). + domain: Connectivity (Android, iOS) name: connectivity.status product_source: - icon-rum - android - ios - type: 문자열 -- description: '사용 가능한 네트워크 인터페이스 목록 (예: `bluetooth`, `cellular`, `ethernet`, 또는 `wifi`).' - domain: 연결성(Android, iOS) + type: string +- description: '사용 가능한 네트워크 인터페이스 목록입니다(예: `bluetooth`, `cellular`, `ethernet` 또는 + `wifi`).' + domain: Connectivity (Android, iOS) name: connectivity.interfaces product_source: - icon-rum - android - ios - type: 문자열 -- description: 셀룰러 연결에 사용되는 무선 기술의 유형. - domain: 연결성(Android, iOS) + type: string +- description: 셀룰러 연결에 사용되는 무선 기술의 유형입니다. + domain: Connectivity (Android, iOS) name: connectivity.cellular.technology product_source: - icon-rum - android - ios - type: 문자열 -- description: SIM 캐리어의 이름. - domain: 연결성(Android, iOS) + type: string +- description: SIM 캐리어 이름입니다. + domain: Connectivity (Android, iOS) name: connectivity.cellular.carrier_name product_source: - icon-rum - android - ios - type: 문자열 -- description: 디바이스에서 보고한 OS 이름 (System User-Agent). - domain: 운영 체제(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 OS 이름입니다(시스템 User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스에서 보고한 OS 버전 (System User-Agent). - domain: 운영 체제(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 OS 버전입니다(시스템 User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.version product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 디바이스에서 보고한 주요 OS 버전 (System User-Agent). - domain: 운영 체제(Android, iOS, 로쿠(Roku)) + type: string +- description: 장치에서 보고한 OS 주요 버전입니다(시스템 User-Agent). + domain: Operating System (Android, iOS, Roku) name: os.version_major product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 국가 이름. - domain: 지리적 위치 + type: string +- description: 국가 이름입니다. + domain: Geolocation name: geo.country product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 + type: string - description: '해당 국가의 [ISO 코드](https://en.wikipedia.org/wiki/List_of_ISO_3166_country_codes)(예: - 미국의 경우 `US`, 프랑스의 경우 `FR` ).' - domain: 지리적 위치 + 미국의 경우 `US`, 프랑스의 경우 `FR` )입니다.' + domain: Geolocation name: geo.country_iso_code product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: '국가의 첫 번째 세분 수준 이름 (예: 미국에서 `California` 또는 프랑스에서 `Sarthe` 부서).' - domain: 지리적 위치 + type: string +- description: '국가의 첫 번째 하위 행정 구역 이름입니다(예: 미국의 `California` 또는 프랑스의 `Sarthe` 데파르트망).' + domain: Geolocation name: geo.country_subdivision product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 대륙의 ISO 코드 (`EU`, `AS`, `NA`, `AF`, `AN`, `SA`, 또는 `OC`). - domain: 지리적 위치 + type: string +- description: 대륙의 ISO 코드(`EU`, `AS`, `NA`, `AF`, `AN`, `SA` 또는 `OC`)입니다. + domain: Geolocation name: geo.continent_code product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 대륙 이름 (`Europe`, `Australia`, `North America`, `Africa`, `Antarctica`, - `South America`, 또는 `Oceania`). - domain: 지리적 위치 + type: string +- description: 대륙의 이름(`Europe`, `Australia`, `North America`, `Africa`, `Antarctica`, + `South America` 또는 `Oceania`)입니다. + domain: Geolocation name: geo.continent product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: '도시 이름 (예: `San Francisco`, `Paris`, 또는 `New York`).' - domain: 지리적 위치 + type: string +- description: '도시 이름입니다(예: `San Francisco`, `Paris` 또는 `New York`).' + domain: Geolocation name: geo.city product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 사용자의 식별자. - domain: RUM 사용자 속성(Android, 로쿠(Roku)) + type: string +- description: 사용자의 식별자입니다. + domain: RUM user attributes (Android, Roku) name: user.id product_source: - icon-rum - android - roku - type: 문자열 -- description: 사용자의 식별자. - domain: RUM 사용자 속성(iOS, 브라우저) + type: string +- description: 사용자의 식별자입니다. + domain: RUM user attributes (iOS, Browser) name: usr.id product_source: - icon-rum - ios - - 브라우저 - type: 문자열 -- description: 사용자의 이름. - domain: 글로벌 사용자 속성(Android, iOS, 브라우저, Roku) + - browser + type: string +- description: 사용자 이름입니다. + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.name product_source: - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 -- description: 사용자의 이메일. - domain: 글로벌 사용자 속성(Android, iOS, 브라우저, Roku) + type: string +- description: 사용자의 이메일입니다. + domain: Global user attributes (Android, iOS, Browser, Roku) name: usr.email product_source: - icon-rum - android - ios - - 브라우저 + - browser - roku - type: 문자열 -- description: 세션의 고유 ID. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 세션의 고유 ID입니다. + domain: Session (Android events, iOS events, Roku events) name: session.id product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 세션 유형 (`user`). - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) - name: 세션 유형 + type: string +- description: 세션 유형입니다(`user`). + domain: Session (Android events, iOS events, Roku events) + name: session.type product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 세션이 현재 활성 상태인지 여부를 나타냅니다. 사용자가 애플리케이션에서 벗어나 탐색하거나 브라우저 창을 닫으면 세션이 종료되며, - 4시간 동안 활동 후 또는 15분 동안 활동하지 않을 시 만료됩니다. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 세션이 현재 활성 상태인지 여부를 나타냅니다. 사용자가 애플리케이션에서 벗어나거나 브라우저 창을 닫으면 세션이 종료되며, + 4시간 동안 활동하거나 15분 동안 활동하지 않으면 만료됩니다. + domain: Session (Android events, iOS events, Roku events) name: session.is_active product_source: - icon-rum @@ -638,1002 +639,1000 @@ attributes: - ios - roku type: boolean -- description: 세션의 초기 보기 URL. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) +- description: 세션 초기 조회의 URL입니다. + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.url product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 세션의 초기 보기 이름. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 세션 초기 조회의 이름입니다. + domain: Session (Android events, iOS events, Roku events) name: session.initial_view.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 세션의 마지막 보기 URL. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 세션 마지막 조회의 URL입니다. + domain: Session (Android events, iOS events, Roku events) name: session.last_view.url product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 세션의 마지막 보기 이름. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 세션 마지막 조회의 이름입니다. + domain: Session (Android events, iOS events, Roku events) name: session.last_view.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 인테이크의 TCP 연결에서 추출한 세션의 IP 주소입니다. 이 속성 수집을 중지하려면 [애플리케이션 세부 정보](/data_security/real_user_monitoring/#ip-address)에서 + type: string +- description: 입력의 TCP 연결에서 추출된 세션의 IP 주소입니다. 이 속성 수집을 중지하려면 [애플리케이션 세부 정보](/data_security/real_user_monitoring/#ip-address)에서 설정을 변경하세요. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + domain: Session (Android events, iOS events, Roku events) name: session.ip product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 시스템 `User-Agent` 정보를 통해 장치 정보를 해석합니다. - domain: 세션(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 장치 정보를 해석하는 시스템 `User-Agent` 정보입니다. + domain: Session (Android events, iOS events, Roku events) name: session.useragent product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 이벤트에 해당하는 초기 보기의 고유 ID. - domain: 보기(Android 이벤트, iOS 이벤트, 로쿠(Roku) 이벤트) + type: string +- description: 이벤트에 해당하는 초기 조회의 고유 ID입니다. + domain: View (Android events, iOS events, Roku events) name: view.id product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 이벤트에 해당하는 클래스의 정식 이름입니다. iOS의 경우 이벤트 에 해당하는 `UIViewController` 클래스의 + type: string +- description: 이벤트에 해당하는 클래스의 정식 이름입니다. iOS의 경우 이벤트에 해당하는 `UIViewController` 클래스의 URL입니다. - domain: 보기(Android 이벤트, iOS 이벤트, 로쿠(Roku) 이벤트) + domain: View (Android events, iOS events, Roku events) name: view.url product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 이벤트에 해당하는 보기의 사용자 지정 이름. - domain: 보기(Android 이벤트, iOS 이벤트, 로쿠(Roku) 이벤트) + type: string +- description: 이벤트에 해당하는 조회의 사용자 지정 가능한 이름입니다. + domain: View (Android events, iOS events, Roku events) name: view.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스의 고유 식별자. - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 리소스의 고유 식별자입니다. + domain: Resource (Android events, iOS events, Roku events) name: resource.id product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: '수집 중인 리소스 유형 (예: `xhr`, `image`, `font`, `css`, 또는 `js`).' - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: '수집 중인 리소스의 유형입니다(예: `xhr`, `image`, `font`, `css` 또는 `js`).' + domain: Resource (Android events, iOS events, Roku events) name: resource.type product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 'HTTP 메서드 (예: `POST`, `GET`, `PATCH`, 또는 `DELETE`).' - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 'HTTP 메서드(예: `POST`, `GET`, `PATCH` 또는 `DELETE`)입니다.' + domain: Resource (Android events, iOS events, Roku events) name: resource.method product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 응답 상태 코드. - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 응답 상태 코드입니다. + domain: Resource (Android events, iOS events, Roku events) name: resource.status_code product_source: - icon-rum - android - ios - roku - type: 숫자 -- description: 리소스 URL. - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: number +- description: 리소스 URL입니다. + domain: Resource (Android events, iOS events, Roku events) name: resource.url product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스 공급자 이름. 기본값은 `unknown`. - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 리소스 제공자 이름입니다. 기본값은 `unknown`입니다. + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스 공급자 도메인. - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: 리소스 공급자 도메인입니다. + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.domain product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: '리소스 공급자 유형 (예: `first-party`, `cdn`, `ad`, 또는 `analytics`).' - domain: 리소스(Android 이벤트, iOS 이벤트, Roku 이벤트) + type: string +- description: '리소스 공급자 유형입니다(예: `first-party`, `cdn`, `ad` 또는 `analytics`).' + domain: Resource (Android events, iOS events, Roku events) name: resource.provider.type product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: '오류가 발생하는 곳 (예: `webview`, `logger`, 또는 `network`).' - domain: 오류(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: '오류가 발생하는 곳입니다(예: `webview`, `logger` 또는 `network`).' + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.source product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 오류 유형(또는 경우에 따라 오류 코드). - domain: 오류(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 오류 유형(또는 경우에 따라 오류 코드)입니다. + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.type product_source: - icon-apm - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 이벤트를 설명하는 간결하고 사람이 읽을 수 있는 한 줄 메시지. - domain: 오류(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 이벤트를 설명하는 간결하고 사람이 읽을 수 있는 한 줄짜리 메시지입니다. + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.message product_source: - icon-apm - icon-log - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 스택 트레이스 또는 오류에 대한 보완 정보. - domain: 오류(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 스택 트레이스(stack trace) 또는 오류에 대한 보완 정보입니다. + domain: Error (Browser events, Android events, iOS events, Roku events) name: error.stack product_source: - icon-apm - icon-log - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 스택 트레이스 또는 오류에 대한 보완 정보. - domain: 네트워크 오류(Android 이벤트, iOS 이벤트, 로쿠(Roku) 이벤트) + type: string +- description: 스택 트레이스(stack trace) 또는 오류에 대한 보완 정보입니다. + domain: Error (Android events, iOS events, Roku events) name: error.issue_id product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 응답 상태 코드. - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 응답 상태 코드입니다. + domain: Network error (Android events, iOS events, Roku events) name: error.resource.status_code product_source: - icon-rum - android - ios - roku - type: 숫자 -- description: 'HTTP 메서드 (예: `POST` 또는 `GET`).' - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: number +- description: 'HTTP 메서드입니다(예: `POST` 또는 `GET`).' + domain: Network error (Android events, iOS events, Roku events) name: error.resource.method product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스 URL. - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 리소스 URL입니다. + domain: Network error (Android events, iOS events, Roku events) name: error.resource.url product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스 공급자 이름. 기본값은 `unknown`. - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 리소스 제공자 이름입니다. 기본값은 `unknown`입니다. + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.name product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 리소스 공급자 도메인. - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 리소스 공급자 도메인입니다. + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.domain product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: '리소스 공급자 유형 (예: `first-party`, `cdn`, `ad`, 또는 `analytics`).' - domain: 네트워크 오류 (안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: '리소스 공급자 유형입니다(예: `first-party`, `cdn`, `ad` 또는 `analytics`).' + domain: Network error (Android events, iOS events, Roku events) name: error.resource.provider.type product_source: - icon-rum - android - ios - roku - type: 문자열 -- description: 사용자 액션의 UUID. - domain: 액션(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 사용자 액션의 UUID입니다. + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.id product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: '사용자 작업 유형(예: `tap` 또는 `application_start`)입니다. 사용자 지정 브라우저 사용자 작업](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)의 + type: string +- description: '사용자 액션의 유형입니다(예: `tap`또는 `application_start`). [커스텀 브라우저 사용자 액션](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)의 경우 `custom`으로 설정됩니다.' - domain: 액션(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.type product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: '사용자 친화적인 이름(예: `Click on checkout`). 사용자 지정 브라우저 사용자 작업](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)의 - 경우, API 호출에 지정된 작업 이름입니다.' - domain: 액션(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: '사용자 친화적인 이름(예: `Click on checkout`)입니다. [커스텀 브라우저 사용자 액션](/real_user_monitoring/application_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions)의 + 경우, API 호출에 지정된 액션 이름입니다.' + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.name product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 사용자가 상호 작용한 요소. 자동으로 수집된 액션에만 해당합니다. - domain: 액션(브라우저 이벤트, 안드로이드 이벤트, iOS 이벤트, 로쿠 이벤트) + type: string +- description: 사용자가 상호작용한 요소입니다. 자동으로 수집된 액션에만 해당합니다. + domain: Action (Browser events, Android events, iOS events, Roku events) name: action.target.name product_source: - icon-rum - android - - 브라우저 + - browser - ios - roku - type: 문자열 -- description: 각 페이지 뷰에 대해 임의로 생성된 ID. - domain: 보기(브라우저) + type: string +- description: 각 페이지 뷰에 대해 임의로 생성된 ID입니다. + domain: View (Browser) name: view.id product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 페이지 로드 유형으로, `initial_load` 또는 `route_change`입니다. 자세한 내용은 [단일 페이지 애플리케이션 - 지원 설명서](/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#monitoring-single-Page-applications-spa)를 + - browser + type: string +- description: 페이지 로드 유형, `initial_load` 또는 `route_change`입니다. 자세한 내용은 [단일 페이지 애플리케이션 + 지원 문서](/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#monitoring-single-page-applications-spa)를 참조하세요. - domain: 보기(브라우저) + domain: View (Browser) name: view.loading_type product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 현재 요청된 페이지로 연결되는 링크를 따라간 이전 웹 페이지의 URL. - domain: 보기(브라우저) + - browser + type: string +- description: 현재 요청된 페이지로 연결된 링크가 포함되어 있던 이전 웹 페이지의 URL입니다. + domain: View (Browser) name: view.referrer product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 보기 URL. - domain: 보기(브라우저) + - browser + type: string +- description: 조회 URL입니다. + domain: View (Browser) name: view.url product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 해시 부분. - domain: 보기(브라우저) + - browser + type: string +- description: URL의 해시 부분입니다. + domain: View (Browser) name: view.url_hash product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 호스트 부분. - domain: 보기(브라우저) + - browser + type: string +- description: URL의 호스트 부분입니다. + domain: View (Browser) name: view.url_host product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 경로 부분. - domain: 보기(브라우저) + - browser + type: string +- description: URL의 경로 부분입니다. + domain: View (Browser) name: view.url_path product_source: - icon-rum - - 브라우저 - type: 문자열 + - browser + type: string - description: '유사한 URL(예: `/dashboard/123`및 `/dashboard/456`의 경우 `/dashboard/?`)에 - 대해 생성된 자동 URL 그룹.' - domain: 보기(브라우저) + 대해 생성된 자동 URL 그룹입니다.' + domain: View (Browser) name: view.url_path_group product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 쿼리 문자열 부분이 쿼리 파라미터 키/값 속성으로 분해됩니다. - domain: 보기(브라우저) + - browser + type: string +- description: URL의 쿼리 문자열 부분을 쿼리 파라미터의 키/값 속성으로 분해한 것입니다. + domain: View (Browser) name: view.url_query product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: URL의 스키마 부분. - domain: 보기(브라우저) + - browser + type: object +- description: URL의 스키마 부분입니다. + domain: View (Browser) name: view.url_scheme product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: 디바이스에서 보고한 디바이스 유형 (User-Agent HTTP 헤더). - domain: 디바이스(브라우저) + - browser + type: object +- description: 장치에서 보고한 장치 유형입니다(User-Agent HTTP 헤더). + domain: Device (Browser) name: device.type product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 디바이스 브랜드 (User-Agent HTTP 헤더). - domain: 디바이스(브라우저) + - browser + type: string +- description: 장치에서 보고한 장치 브랜드입니다(User-Agent HTTP 헤더). + domain: Device (Browser) name: device.brand product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 디바이스 모델 (User-Agent HTTP 헤더). - domain: 디바이스(브라우저) + - browser + type: string +- description: 장치에서 보고한 장치 모델입니다(User-Agent HTTP 헤더). + domain: Device (Browser) name: device.model product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 디바이스 이름 (User-Agent HTTP 헤더). - domain: 디바이스(브라우저) + - browser + type: string +- description: 장치에서 보고한 장치입니다(User-Agent HTTP 헤더). + domain: Device (Browser) name: device.name product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 OS 이름 (User-Agent HTTP 헤더). - domain: 운영 체제(브라우저) + - browser + type: string +- description: 장치에서 보고한 OS 이름입니다(User-Agent HTTP 헤더). + domain: Operating system (Browser) name: os.name product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 OS 버전 (User-Agent HTTP 헤더). - domain: 운영 체제(브라우저) + - browser + type: string +- description: 장치에서 보고한 OS 버전입니다(User-Agent HTTP 헤더). + domain: Operating system (Browser) name: os.version product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 디바이스에서 보고한 OS 버전 (User-Agent HTTP 헤더). - domain: 운영 체제(브라우저) + - browser + type: string +- description: 장치에서 보고한 OS 주요 버전입니다(User-Agent HTTP 헤더). + domain: Operating system (Browser) name: os.version_major product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 각 세션에 대해 임의로 생성된 ID. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: 각 세션에 대해 임의로 생성된 ID입니다. + domain: Session (Browser events) name: session.id product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 클라이언트 IP 주소. 이 속성 수집을 중지하려면 [애플리케이션 세부 정보](/data_security/real_user_monitoring/#ip-address)에서 + - browser + type: string +- description: 클라이언트 IP 주소입니다. 이 속성 수집을 중지하려면 [애플리케이션 세부 정보](/data_security/real_user_monitoring/#ip-address)에서 설정을 변경하세요. - domain: 세션 (브라우저 이벤트) + domain: Session (Browser events) name: session.ip product_source: - icon-rum - - 브라우저 - type: 문자열 + - browser + type: string - description: 세션이 현재 활성 상태인지 여부를 나타냅니다. 세션은 4시간 동안 활동하거나 15분 동안 활동하지 않으면 종료됩니다. - domain: 세션 (브라우저 이벤트) + domain: Session (Browser events) name: session.is_active product_source: - icon-rum - - 브라우저 + - browser type: boolean -- description: 세션 유형, `user` 또는 `synthetics`입니다. [신서틱(Synthetic) 브라우저 테스트](/synthetics/browser_tests/)의 - 세션은 빌링 에서 제외됩니다. - domain: 세션 (브라우저 이벤트) - name: 세션 유형 +- description: 세션의 유형, `user` 또는 `synthetics`입니다. [Synthetic Browser Tests](/synthetics/browser_tests/)의 + 세션은 청구에서 제외됩니다. + domain: Session (Browser events) + name: session.type product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 현재 요청된 페이지로 연결되는 링크를 따라간 이전 웹 페이지의 URL. - domain: 세션 (브라우저 이벤트) - name: 세션.참조자 + - browser + type: string +- description: 현재 요청된 페이지로 연결된 링크가 포함되어 있던 이전 웹 페이지의 URL입니다. + domain: Session (Browser events) + name: session.referrer product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 사용자가 생성한 첫 번째 RUM 보기의 ID. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: 사용자가 생성한 첫 번째 RUM 조회의 ID입니다. + domain: Session (Browser events) name: session.initial_view.id product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 호스트 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 호스트 부분입니다. + domain: Session (Browser events) name: session.initial_view.url_host product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 경로 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 경로 부분입니다. + domain: Session (Browser events) name: session.initial_view.url_path product_source: - icon-rum - - 브라우저 - type: 문자열 + - browser + type: string - description: '유사한 URL(예: `/dashboard/123`및 `/dashboard/456`의 경우 `/dashboard/?`)에 - 대해 생성된 자동 URL 그룹.' - domain: 세션 (브라우저 이벤트) + 대해 생성된 자동 URL 그룹입니다.' + domain: Session (Browser events) name: session.initial_view.url_path_group product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 쿼리 문자열 부분이 쿼리 파라미터 키/값 속성으로 분해됩니다. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 쿼리 문자열 부분을 쿼리 파라미터의 키/값 속성으로 분해한 것입니다. + domain: Session (Browser events) name: session.initial_view.url_query product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: URL의 스키마 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: object +- description: URL의 스키마 부분입니다. + domain: Session (Browser events) name: session.initial_view.url_scheme product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: 사용자가 생성한 마지막 RUM 보기의 ID. - domain: 세션 (브라우저 이벤트) + - browser + type: object +- description: 사용자가 생성한 마지막 RUM 조회의 ID입니다. + domain: Session (Browser events) name: session.last_view.id product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 호스트 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 호스트 부분입니다. + domain: Session (Browser events) name: session.last_view.url_host product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 경로 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 경로 부분입니다. + domain: Session (Browser events) name: session.last_view.url_path product_source: - icon-rum - - 브라우저 - type: 문자열 + - browser + type: string - description: '유사한 URL(예: `/dashboard/123`및 `/dashboard/456`의 경우 `/dashboard/?`)에 - 대해 생성된 자동 URL 그룹.' - domain: 세션 (브라우저 이벤트) + 대해 생성된 자동 URL 그룹입니다.' + domain: Session (Browser events) name: session.last_view.url_path_group product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 쿼리 문자열 부분이 쿼리 파라미터 키/값 속성으로 분해됩니다. - domain: 세션 (브라우저 이벤트) + - browser + type: string +- description: URL의 쿼리 문자열 부분을 쿼리 파라미터의 키/값 속성으로 분해한 것입니다. + domain: Session (Browser events) name: session.last_view.url_query product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: URL의 스키마 부분. - domain: 세션 (브라우저 이벤트) + - browser + type: object +- description: URL의 스키마 부분입니다. + domain: Session (Browser events) name: session.last_view.url_scheme product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: '수집 중인 리소스 유형 (예: `css`, `javascript`, `media`, `XHR`, 또는 `image`).' - domain: 리소스(브라우저 이벤트) + - browser + type: object +- description: '수집 중인 리소스의 유형입니다(예: `css`, `javascript`, `media`, `XHR` 또는 `image`).' + domain: Resource (Browser events) name: resource.type product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 'HTTP 메서드 (예: `POST` 또는 `GET`).' - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: 'HTTP 메서드입니다(예: `POST` 또는 `GET`).' + domain: Resource (Browser events) name: resource.method product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 응답 상태 코드. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: 응답 상태 코드입니다. + domain: Resource (Browser events) name: resource.status_code product_source: - icon-rum - - 브라우저 - type: 숫자 -- description: 리소스 URL. - domain: 리소스(브라우저 이벤트) + - browser + type: number +- description: 리소스 URL입니다. + domain: Resource (Browser events) name: resource.url product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 호스트 부분. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: URL의 호스트 부분입니다. + domain: Resource (Browser events) name: resource.url_host product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 경로 부분. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: URL의 경로 부분입니다. + domain: Resource (Browser events) name: resource.url_path product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: URL의 쿼리 문자열 부분이 쿼리 파라미터 키/값 속성으로 분해됩니다. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: URL의 쿼리 문자열 부분을 쿼리 파라미터의 키/값 속성으로 분해한 것입니다. + domain: Resource (Browser events) name: resource.url_query product_source: - icon-rum - - 브라우저 - type: 오브젝트 -- description: URL의 프로토콜 이름(HTTP 또는 HTTPS). - domain: 리소스(브라우저 이벤트) + - browser + type: object +- description: URL의 프로토콜 이름입니다(HTTP 또는 HTTPS). + domain: Resource (Browser events) name: resource.url_scheme product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 리소스 공급자 이름. 기본값은 `unknown`. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: 리소스 제공자 이름입니다. 기본값은 `unknown`입니다. + domain: Resource (Browser events) name: resource.provider.name product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 리소스 공급자 도메인. - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: 리소스 공급자 도메인입니다. + domain: Resource (Browser events) name: resource.provider.domain product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: '리소스 공급자 유형 (예: `first-party`, `cdn`, `ad`, 또는 `analytics`).' - domain: 리소스(브라우저 이벤트) + - browser + type: string +- description: '리소스 공급자 유형입니다(예: `first-party`, `cdn`, `ad` 또는 `analytics`).' + domain: Resource (Browser events) name: resource.provider.type product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: RUM Browser SDK에서 감지한 데드 클릭 수. - domain: 좌절 신호(브라우저 이벤트) + - browser + type: string +- description: RUM Browser SDK에서 감지한 데드 클릭 수입니다. + domain: Frustration signals (Browser events) name: action.frustration.type:dead_click product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: RUM Browser SDK에서 감지한 레이지 클릭 수. - domain: 좌절 신호(브라우저 이벤트) + - browser + type: string +- description: RUM Browser SDK에서 감지한 레이지 클릭 수입니다. + domain: Frustration signals (Browser events) name: action.frustration.type:rage_click product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: RUM Browser SDK에서 감지한 오류 클릭 수. - domain: 좌절 신호(브라우저 이벤트) + - browser + type: string +- description: RUM Browser SDK에서 감지한 오류 클릭 수입니다. + domain: Frustration signals (Browser events) name: action.frustration.type:error_click product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 트래픽의 원본을 추적하는 URL의 파라미터. - domain: UTM(브라우저 이벤트) + - browser + type: string +- description: 트래픽의 소스를 추적하는 URL의 파라미터입니다. + domain: UTM (Browser events) name: view.url_query.utm_source product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 트래픽이 전송되는 채널을 추적하는 URL의 파라미터. - domain: UTM(브라우저 이벤트) + - browser + type: string +- description: 트래픽 유입 채널을 추적하는 URL의 파라미터입니다. + domain: UTM (Browser events) name: view.url_query.utm_medium product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 해당 뷰에 연결된 특정 마케팅 캠페인을 식별하는 URL의 파라미터입니다. - domain: UTM(브라우저 이벤트) + - browser + type: string +- description: 해당 조회에 연결된 특정 마케팅 캠페인을 식별하는 URL의 파라미터입니다. + domain: UTM (Browser events) name: view.url_query.utm_campaign product_source: - icon-rum - - 브라우저 - type: 문자열 + - browser + type: string - description: 마케팅 캠페인 내에서 사용자가 클릭한 특정 요소를 식별하는 URL의 파라미터입니다. - domain: UTM(브라우저 이벤트) + domain: UTM (Browser events) name: view.url_query.utm_content product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 특정 캠페인을 트리거하기 위해 사용자가 검색한 키워드를 추적하는 URL의 파라미터. - domain: UTM(브라우저 이벤트) + - browser + type: string +- description: 사용자가 지정된 캠페인을 트리거하기 위해 검색한 키워드를 추적하는 URL의 파라미터입니다. + domain: UTM (Browser events) name: view.url_query.utm_term product_source: - icon-rum - - 브라우저 - type: 문자열 -- description: 스팬(span) 을 생성하는 데 사용되는 클라이언트 SDK 언어는 `cpp`, `dotnet`, `go`, `jvm`, - `javascript`, `php`, `python`, `ruby` 중 하나 일 수 있습니다 . - domain: 애플리케이션 성능 모니터링(APM) 핵심 + - browser + type: string +- description: 스팬을 생성하는 데 사용된 클라이언트 SDK 언어입니다. `cpp`, `dotnet`, `go`, `jvm`, `javascript`, + `php`, `python`, `ruby` 중 하나일 수 있습니다. + domain: APM core name: 언어 product_source: - icon-apm - type: 문자열 -- description: 실행 중인 프로세스에 대한 `DD_ENV` 환경 변수 또는 사용자 정의 `env` 의 값입니다. - domain: 애플리케이션 성능 모니터링(APM) 핵심(예약됨) + type: string +- description: 실행 중인 프로세스에 대한 `DD_ENV` 환경 변수 또는 사용자 정의 `env`의 값입니다. + domain: APM core (Reserved) name: env product_source: - icon-apm - type: 문자열 -- description: 실행 중인 프로세스 에 대한 `DD_VERSION` 환경 변수 또는 사용자 정의 `version` 의 값입니다. - domain: 애플리케이션 성능 모니터링(APM) 핵심(예약됨) - name: 버전 + type: string +- description: 실행 중인 프로세스에 대한 `DD_VERSION` 환경 변수 또는 사용자 정의 `version`의 값입니다. + domain: APM core (Reserved) + name: version product_source: - icon-apm - type: 문자열 -- description: 스팬(span)에서 처리하는 작업 단위의 유형을 나타내는 문자열입니다. 서버, 클라이언트, 생산자, 소비자 또는 내부 중 - 하나일 수 있습니다. 자세한 내용은 [OpenTelemetry SpanKind 문서](https://opentelemetry.io/docs/specs/otel/추적하다/API/#spankind)를 - 참조하세요. - domain: 애플리케이션 성능 모니터링(APM) 핵심 + type: string +- description: 스팬이 처리하는 작업 단위의 유형을 나타내는 문자열입니다. 서버, 클라이언트, 프로듀서, 소비자 또는 내부 중 하나일 수 + 있습니다. 자세한 내용은 [OpenTelemetry SpanKind 문서](https://opentelemetry.io/docs/specs/otel/trace/api/#spankind)를 + 참조하십시오. + domain: APM core name: span.kind product_source: - icon-apm - type: 문자열 -- description: 스팬(span)을 생성한 라이브러리 또는 통합의 이름입니다. - domain: 애플리케이션 성능 모니터링(APM) 핵심 - name: 구성 요소 + type: string +- description: 스팬을 생성한 라이브러리 또는 통합의 이름입니다. + domain: APM core + name: component product_source: - icon-apm - type: 문자열 -- description: 인바운드 연결을 시작한 클라이언트의 IP 주소. - domain: 네트워크 통신 + type: string +- description: 인바운드 연결을 시작한 클라이언트의 IP 주소입니다. + domain: Network communications name: network.client.ip product_source: - icon-apm - icon-log - type: 문자열 -- description: 아웃바운드 연결이 이루어지는 IP 주소. - domain: 네트워크 통신 + type: string +- description: 아웃바운드 연결이 이루어지는 IP 주소입니다. + domain: Network communications name: network.destination.ip product_source: - icon-apm - icon-log - type: 문자열 -- description: 로컬 호스트 IP 주소. - domain: 네트워크 통신 + type: string +- description: 로컬 호스트 IP 주소입니다. + domain: Network communications name: network.host.ip product_source: - icon-apm - type: 문자열 -- description: 연결을 시작한 클라이언트의 포트. - domain: 네트워크 통신 + type: string +- description: 연결을 시작한 클라이언트의 포트입니다. + domain: Network communications name: network.client.port product_source: - icon-apm - icon-log - type: 숫자 -- description: 아웃바운드 연결의 원격 포트 번호. - domain: 네트워크 통신 + type: number +- description: 아웃바운드 연결의 원격 포트 번호입니다. + domain: Network communications name: network.destination.port product_source: - icon-apm - icon-log - type: 숫자 -- description: 인바운드 연결을 시작한 클라이언트의 호스트 이름. - domain: 네트워크 통신 + type: number +- description: 인바운드 연결을 시작한 클라이언트의 호스트 이름입니다. + domain: Network communications name: network.client.name product_source: - icon-apm - type: 문자열 -- description: 로컬 호스트 이름. - domain: 네트워크 통신 + type: string +- description: 로컬 호스트 이름입니다. + domain: Network communications name: network.host.name product_source: - icon-apm - type: 문자열 -- description: 인바운드 연결을 만드는 데 사용되는 전송 프로토콜. - domain: 네트워크 통신 + type: string +- description: 인바운드 연결을 만드는 데 사용되는 전송 프로토콜입니다. + domain: Network communications name: network.client.transport product_source: - icon-apm - type: 문자열 -- description: 아웃바운드 연결을 만드는 데 사용되는 전송 프로토콜. - domain: 네트워크 통신 + type: string +- description: 아웃바운드 연결을 만드는 데 사용되는 전송 프로토콜입니다. + domain: Network communications name: network.destination.transport product_source: - icon-apm - type: 문자열 + type: string - description: HTTP 응답 상태 코드입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.status_code product_source: - icon-apm - icon-log - type: 문자열 -- description: 난독화된 쿼리 문자열을 포함하는 HTTP 요청의 URL입니다. 난독화에 관한 자세한 내용은 [데이터 보안 구성](https://docs.datadoghq.com/tracing/configure_data_security/)을 - 참조하세요. - domain: HTTP 요청 + type: string +- description: HTTP 요청의 URL로, 난독화된 쿼리 문자열을 포함합니다. 난독화에 대한 자세한 내용은 [데이터 보안 구성](https://docs.datadoghq.com/tracing/configure_data_security/)을 + 참조하십시오. + domain: HTTP requests name: http.url product_source: - icon-apm - icon-log - type: 문자열 + type: string - description: 요청에 사용된 HTTP 버전입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.version product_source: - icon-apm - icon-log - type: 문자열 -- description: 연결을 시작한 클라이언트의 포트. - domain: HTTP 요청 + type: string +- description: 연결을 시작한 클라이언트의 포트입니다. + domain: HTTP requests name: http.method product_source: - icon-apm - icon-log - type: 문자열 -- description: '일치하는 경로(경로 템플릿)입니다. 예: `/users/:userID`.' - domain: HTTP 요청 + type: string +- description: 일치하는 경로(경로 템플릿)입니다. 예를 들어, `/users/:userID`입니다. + domain: HTTP requests name: http.route product_source: - icon-apm - type: 문자열 -- description: 모든 프록시 뒤에 있는 원본 클라이언트 의 IP 주소(알려진 경우)입니다. `X-Forwarded-For`와 같은 헤더에서 - 발견됩니다. - domain: HTTP 요청 + type: string +- description: 모든 프록시 뒤에 있는 원래 클라이언트의 IP 주소입니다. 알려진 경우에 한합니다. `X-Forwarded-For`와 같은 + 헤더에서 발견됩니다. + domain: HTTP requests name: http.client_ip product_source: - icon-apm - type: 문자열 + type: string - description: 요청과 함께 수신된 `User-Agent` 헤더입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.useragent product_source: - icon-apm - icon-log - type: 문자열 + type: string - description: 요청 페이로드 본문의 바이트 단위 크기입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.request.content_length product_source: - icon-apm - type: 숫자 + type: number - description: 응답 페이로드 본문의 바이트 단위 크기입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.response.content_length product_source: - icon-apm - type: 숫자 + type: number - description: 전송 디코딩 후 압축되지 않은 요청 페이로드 본문의 크기입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.request.content_length_uncompressed product_source: - icon-apm - type: 숫자 + type: number - description: 전송 디코딩 후 압축되지 않은 응답 페이로드 본문의 크기입니다. - domain: HTTP 요청 + domain: HTTP requests name: http.response.content_length_uncompressed product_source: - icon-apm - type: 숫자 -- description: 요청 HTTP 헤더. 기본적으로 수집되는 헤더는 없지만 `DD_TRACE_HEADER_TAGS`를 사용하여 선택적으로 설정할 - 수 있습니다. - domain: HTTP 요청 + type: number +- description: 요청 HTTP 헤더입니다. 기본적으로 수집되는 헤더는 없지만 `DD_TRACE_HEADER_TAGS`를 사용하여 선택적으로 + 설정할 수 있습니다. + domain: HTTP requests name: http.request.headers.* product_source: - icon-apm - type: 문자열 + type: string - description: 사용 중인 데이터베이스 관리 시스템(DBMS) 제품의 식별자입니다. - domain: 데이터베이스 스팬(span) + domain: Database spans name: db.system product_source: - icon-apm - type: 문자열 + type: string - description: 응답 HTTP 헤더입니다. 기본적으로 수집되는 헤더는 없지만 `DD_TRACE_HEADER_TAGS`를 사용하여 선택적으로 - 구성할 수 있습니다. - domain: HTTP 요청 + 설정할 수 있습니다. + domain: HTTP requests name: http.response.headers.* product_source: - icon-apm - type: 문자열 -- description: 데이터베이스 연결에 사용되는 연결 문자열. - domain: 데이터베이스 스팬(span) + type: string +- description: 데이터베이스 연결에 사용되는 연결 문자열입니다. + domain: Database spans name: db.connection_string product_source: - icon-apm - type: 문자열 -- description: '실행 중인 작업의 이름입니다. 예: `SELECT`, `findAndModify`, `HMSET`.' - domain: 데이터베이스 스팬(span) + type: string +- description: 실행 중인 작업의 이름입니다. 예를 들어, `SELECT`, `findAndModify`, `HMSET`입니다. + domain: Database spans name: db.operation product_source: - icon-apm - icon-log - type: 문자열 -- description: 데이터베이스 이름(해당되는 경우)을 포함하여 작업이 수행되는 기본 테이블의 이름. - domain: 데이터베이스 스팬(span) + type: string +- description: 데이터베이스 이름(해당되는 경우)을 포함하여 작업이 수행되는 기본 테이블의 이름입니다. + domain: Database spans name: db.sql.table product_source: - icon-apm - type: 문자열 -- description: 쿼리 또는 작업의 행/결과 수. - domain: 데이터베이스 스팬(span) + type: string +- description: 쿼리 또는 작업의 행/결과 수입니다. + domain: Database spans name: db.row_count product_source: - icon-apm - type: 숫자 -- description: 메시징 시스템의 식별자. - domain: 메시지 대기 스팬(span) + type: number +- description: 메시징 시스템의 식별자입니다. + domain: Message queue spans name: messaging.system product_source: - icon-apm - type: 문자열 -- description: 메시지 대상 이름. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시지 대상 이름입니다. + domain: Message queue spans name: messaging.destination product_source: - icon-apm - type: 문자열 -- description: 메시지 대상의 종류. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시지 대상의 종류입니다. + domain: Message queue spans name: messaging.destination_kind product_source: - icon-apm - type: 문자열 -- description: 전송 프로토콜의 이름. - domain: 메시지 대기 스팬(span) + type: string +- description: 전송 프로토콜의 이름입니다. + domain: Message queue spans name: messaging.protocol product_source: - icon-apm - type: 문자열 -- description: 전송 프로토콜의 버전. - domain: 메시지 대기 스팬(span) + type: string +- description: 전송 프로토콜의 버전입니다. + domain: Message queue spans name: messaging.protocol_version product_source: - icon-apm - type: 문자열 -- description: 메시징 시스템에 대한 연결 문자열. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시징 시스템에 대한 연결 문자열입니다. + domain: Message queue spans name: messaging.url product_source: - icon-apm - type: 문자열 -- description: 메시징 시스템에서 메시지 식별자로 사용하는 값으로, 문자열로 표시됨. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시징 시스템에서 메시지 식별자로 사용하는 값으로, 문자열로 표시됩니다. + domain: Message queue spans name: messaging.message_id product_source: - icon-apm - type: 문자열 -- description: 메시지가 속한 대화를 식별하는 대화 ID로, 문자열로 표시됨. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시지가 속한 대화를 식별하는 대화 ID로, 문자열로 표시됩니다. + domain: Message queue spans name: messaging.conversation_id product_source: - icon-apm - type: 문자열 -- description: 압축되지 않은 메시지 페이로드의 크기(바이트). - domain: 메시지 대기 스팬(span) + type: string +- description: 압축되지 않은 메시지 페이로드의 크기(바이트)입니다. + domain: Message queue spans name: messaging.message_payload_size product_source: - icon-apm - type: 숫자 -- description: 메시지 소비량 유형을 식별하는 문자열입니다. 예를 들어 `send`(생산자에게 보낸 메시지), `receive` (소비자가 - 메시지를 수신함) 또는 `process`(이전에 수신한 메시지를 소비자가 처리함)입니다. - domain: 메시지 대기 스팬(span) + type: number +- description: 메시지 소비의 종류를 식별하는 문자열입니다. 예를 들어, `send` (생산자에게 전송된 메시지), `receive` (소비자가 + 수신한 메시지), 또는 `process` (이전에 수신한 메시지를 소비자가 처리한 경우)입니다. + domain: Message queue spans name: messaging.operation product_source: - icon-apm - type: 문자열 -- description: 메시지를 받는 소비자의 식별자. - domain: 메시지 대기 스팬(span) + type: string +- description: 메시지를 받는 소비자의 식별자입니다. + domain: Message queue spans name: messaging.consumer_id product_source: - icon-apm - type: 문자열 -- description: 원격 시스템의 식별자. - domain: 원격 프로시저 호출 + type: string +- description: 원격 시스템의 식별자입니다. + domain: Remote procedure calls name: rpc.system product_source: - icon-apm - type: 문자열 -- description: 호출되는 서비스의 이름. - domain: 원격 프로시저 호출 + type: string +- description: 호출되는 서비스의 이름입니다. + domain: Remote procedure calls name: rpc.service product_source: - icon-apm - type: 문자열 -- description: 호출되는 메서드의 이름. - domain: 원격 프로시저 호출 + type: string +- description: 호출되는 메서드의 이름입니다. + domain: Remote procedure calls name: rpc.method product_source: - icon-apm - type: 문자열 -content: 다음 표에는 데이터 도메인에 해당하는 각 RUM, 로그, 애플리케이션 성능 모니터링(APM) 제품에 의해 에이전트 에서 Datadog로 - 전송된 데이터에 자동으로 적용되는 속성이 나열되어 있습니다. 선택적으로 제품별로 목록을 필터링하거나 키워드나 설명 텍스트로 검색하여 관심 있는 - 속성을 찾을 수 있습니다. -description: Agent가 Datadog으로 전송하는 데이터에 각각의 RUM, Logs, APM 제품별로 (해당 데이터 도메인에) 자동 적용되는 - 속성들의 표입니다. + type: string +content: The following table lists the attributes automatically applied to data sent + to Datadog by the Agent by each of the RUM, Logs, and APM products, as applicable + to the data domain. Optionally, filter the list by product or search by keyword + or description text to find the attributes you're interested in. +description: RUM, 로그 및 APM 제품에 의해 Agent가 Datadog에 전송하는 데이터에 자동으로 적용되는 속성의 표로, 데이터 + 도메인에 따라 다릅니다. disable_sidebar: true -filter_all: 전체 +filter_all: All further_reading: - link: /data_security/ - tag: 설명서 + tag: Documentation text: Datadog에 전송되는 데이터 보안 보장 - link: /tracing/trace_collection/tracing_naming_convention/ - tag: 설명서 + tag: Documentation text: 스팬 태그 시맨틱 -title: 기본 표준 속성 +title: 기본 표준 특성 --- - - - -## 참고 자료 +## 추가 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ko/synthetics/_index.md b/content/ko/synthetics/_index.md index 888b35f3ed4..e8757f3a8ff 100644 --- a/content/ko/synthetics/_index.md +++ b/content/ko/synthetics/_index.md @@ -8,103 +8,144 @@ cascade: algolia: rank: 70 description: 자동화된 테스트를 사용하여 전 세계 여러 위치에서 시스템과 애플리케이션의 가장 중요한 부분이 가동되고 실행되는지 확인하세요. -disable_sidebar: true further_reading: -- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring - tag: 릴리스 노트 - text: 최신 Datadog Synthetic Monitoring 릴리스를 확인해 보세요! (앱 로그인 필요) -- link: https://www.datadoghq.com/blog/introducing-synthetic-monitoring/ - tag: 블로그 - text: Datadog Synthetic Monitoring 소개 -- link: https://www.datadoghq.com/blog/monitor-cdn-performance-with-synthetic-testing/ - tag: 블로그 - text: Synthetic 테스트 내에서 CDN 성능 모니터링 -- link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ - tag: 블로그 - text: 정적 웹 애플리케이션 모니터링 모범 사례 -- link: https://www.datadoghq.com/blog/api-test-coverage-monitoring-datadog-synthetics/ - tag: 블로그 - text: Datadog 신서틱(Synthetic) 모니터링을 사용해 API 테스트 범위 개선 -- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing - tag: 학습 센터 - text: 'Datadog 학습 센터: 신서틱 브라우저 테스팅 시작하기' - link: /synthetics/guide/ - tag: 설명서 - text: Synthetic 모니터링 가이드 + tag: Documentation + text: Synthetic Monitoring 가이드 +- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing + tag: Learning Center + text: 'Datadog 학습 센터: Synthetic 브라우저 테스트 시작하기' - link: https://dtdg.co/fe - tag: \u0008기초 구축 - text: 대화형 세션에 참여하여 synthetic 테스트 역량을 강화하세요. -title: 신서틱(Synthetic) 테스트 및 모니터링 + tag: Foundation Enablement + text: 대화형 세션에 참여하여 Synthetic 테스트 역량 강화 +- link: https://www.datadoghq.com/blog/http-security-headers-synthetic-tests/ + tag: Blog + text: Synthetic 테스트로 HTTP 헤더를 보호하는 방법 +- link: https://www.datadoghq.com/blog/synthetic-monitoring-updates/ + tag: Blog + text: Datadog Synthetic Monitoring을 통해 사용자 경험에 대한 주요 통찰력을 더 빠르게 얻으세요 +- link: https://www.datadoghq.com/blog/smoke-testing-synthetic-monitoring/ + tag: Blog + text: Synthetic Monitoring으로 효율적인 UX 스모크 테스트를 만드는 방법 +- link: https://www.datadoghq.com/blog/slo-synthetic-monitoring/ + tag: Blog + text: Datadog Synthetic Monitoring으로 SLO 정확도와 성능을 향상시키세요 +- link: https://www.datadoghq.com/blog/mobile-apps-synthetic-tests/ + tag: Blog + text: 모바일 앱을 위한 신뢰할 수 있고 정확한 Synthetic 테스트를 구축하는 방법 +- link: https://www.datadoghq.com/blog/ambassador-browser-tests/ + tag: Blog + text: Datadog을 사용하여 클라이언트의 브라우저 테스트를 확장하는 데 도움을 준 방법 +- link: https://www.datadoghq.com/blog/datadog-terraform-synthetic-testing/ + tag: Blog + text: Datadog Synthetic Monitoring과 Terraform을 사용하여 Synthetic 테스트 인프라를 자동화하기 +- link: https://www.datadoghq.com/blog/simplifying-troubleshooting-with-synthetic-monitoring + tag: Blog + text: Datadog Synthetic Monitoring으로 사용자 여정 전반에 걸쳐 문제 해결을 간소화하기 +- link: https://www.datadoghq.com/blog/rum-product-analytics-bridging-teams + tag: Blog + text: '성능에서 영향까지: 공유된 맥락을 통해 프론트엔드 팀을 연결하기' +- link: https://app.datadoghq.com/release-notes?category=Synthetic%20Monitoring + tag: Release Notes + text: 최신 Datadog Synthetic Monitoring 릴리스를 확인해 보세요! (앱 로그인 필요) +title: Synthetic Testing 및 모니터링 --- - -{{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/447241955/rendition/1080p/file.mp4?loc=external&signature=47f0bf6adc93cbbd62e4939228c964c19227a2e0aec2d61822417cd2af985c97" poster="/images/poster/synthetics.png" >}} - -
    - - -{{< learning-center-callout header="Join an enablement webinar session" hide_image="true" btn_title="Sign Up" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} - 기본 활성화 세션을 알아보고 등록하세요. Datadog Synthetic Monitoring은 선도적인 모니터링 솔루션으로, 코드 없는 API, 브라우저, 모바일 테스트를 할 수 있어 자동으로 사용자 흐름과 요청을 애플리케이션, 핵심 엔드포인트, 네트워크 레이어에서 시뮬레이션할 수 있습니다. +{{< learning-center-callout header="활성화 웨비나 세션에 참가하기" hide_image="true" btn_title="가입하기" btn_url="https://www.datadoghq.com/technical-enablement/session/synthetics/">}} + 기반 활성화 세션을 탐색하고 등록하세요. Datadog Synthetic Monitoring이 코드 없는 API, 브라우저 및 모바일 테스트를 생성해 사용자 흐름과 요청을 자동으로 시뮬레이션하는 능동적인 모니터링 솔루션임을 알아보세요. {{< /learning-center-callout >}} -Synthetic 테스트를 통해 **전 세계에서 전송된 요청과 액션을 시뮬레이션**하여 시스템과 애플리케이션의 성능을 파악할 수 있습니다. Datadog은 안정적으로 관리되는 방식을 통해 웹페이지와 API의 백엔드부터 프론트엔드까지, 또한 다양한 네트워크 수준에서(`HTTP`, `SSL`, `DNS`, `WebSocket`, `TCP`, `UDP`, `ICMP`, `gRPC`) 성능을 추적합니다. 또한 회귀, 기능의 고장, 응답 속도 지연, 예상하지 못한 상태 코드 등의 문제가 발생했을 때 경고를 보냅니다. +Synthetic 테스트를 통해 전 세계에서 **시뮬레이션된 요청과 액션**을 사용하여 시스템과 애플리케이션의 성능을 관찰할 수 있습니다. Datadog은 백엔드에서 프론트엔드까지, 그리고 다양한 네트워크 수준(`HTTP`, `SSL`, `DNS`, `WebSocket`, `TCP`, `UDP`, `ICMP`, `gRPC`)에서 웹페이지와 API의 성능을 통제되고 안정적인 방식으로 추적하며, 회귀, 오작동하는 기능, 높은 응답 시간 및 예상치 못한 상태 코드와 같은 잘못된 동작에 대해 경고합니다. -주요 엔드포인트와 사용자 여정에 대해 **SLO를 계산**하면 애플리케이션 성능 목표를 더 쉽게 달성하고 궁극적으로 일관된 고객 경험을 제공할 수 있습니다. +**주요 엔드포인트와 사용자 여정에서 SLO를 산정**하면 애플리케이션 성능 목표를 보다 쉽게 준수하고 궁극적으로 일관된 고객 경험을 제공할 수 있습니다. [Datadog 애플리케이션][1], [API][2] 또는 [Terraform][3]에서 Synthetic 테스트를 생성할 수 있습니다. -## API 테스트 및 다단계 API 테스트 설정하기 +## API 테스트 및 다단계 API 테스트 설정하기 {#set-up-api-tests-and-multistep-api-tests} -API 테스트를 사용하면 [단일][4] 또는 [연쇄][5] 요청을 실행하여 다양한 네트워크 수준에서 주요 시스템에 대한 검증을 수행할 수 있습니다: [HTTP 테스트][6], [SSL 테스트][7], [DNS 테스트][8], [WebSocket 테스트][9], [TCP 테스트][10], [UDP 테스트][11], [ICMP 테스트][12], [gRPC 테스트][13]. +API 테스트를 사용하면 [단일][4] 또는 [연쇄][5] 요청을 실행하여 다양한 네트워크 수준에서 주요 시스템에 대한 검증을 수행할 수 있습니다: [HTTP 테스트][6], [SSL 테스트][7], [DNS 테스트][8], [WebSocket 테스트][9], [TCP 테스트][10], [UDP 테스트][11], [ICMP 테스트][12] 및 [gRPC 테스트][13]. {{< img src="synthetics/api_test.png" alt="API 테스트" style="width:100%;">}} -## 브라우저 테스트 기록 +## 브라우저 테스트 기록 {#record-browser-tests} [Synthetic 브라우저 테스트][14]를 사용하여 전 세계에서 고객이 웹페이지를 엔드투엔드로 경험하는 방식을 모니터링하세요. -{{< img src="synthetics/browser_test.mp4" alt="Browser 테스트" video=true style="width:100%;">}} +{{< img src="synthetics/browser_test.mp4" alt="브라우저 테스트" video=true style="width:100%;">}} + +## 모바일 애플리케이션 테스트 기록 {#record-mobile-application-tests} + +[Synthetic 모바일 애플리케이션 테스트][21]를 사용하여 고객이 다양한 장치 유형에서 iOS 및 Android 애플리케이션을 엔드투엔드 방식으로 경험하는 방식을 모니터링하세요. -## 모바일 애플리케이션 테스트 기록 +{{< img src="synthetics/mobile_app_tests.png" alt="Synthetic 모바일 테스트의 녹화 워크플로 예시" style="width:100%;">}} -[Synthetic 모바일 애플리케이션 테스트][21]를 사용하여 고객이 다양한 기기 유형에서 iOS 및 Android 애플리케이션을 엔드투엔드 방식으로 경험하는 방식을 모니터링하세요. +## 네트워크 경로 테스트 생성 {#create-network-path-tests} -{{< img src="synthetics/mobile_app_tests.png" alt="신서틱 모바일 테스트의 레코딩 워크플로우 예시" style="width:100%;">}} +관리되는 위치에서 [Synthetic 네트워크 경로 테스트][25]를 생성하여 TCP, UDP 및 ICMP 검사를 수행하고 전 세계 엔드포인트에서 패킷 경로를 시각화합니다. -## 프라이빗 위치 사용하기 +{{< img src="synthetics/network_tests/syn_network_path.png" alt="Synthetic TCP 네트워크 테스트의 예시" style="width:100%;">}} +## 테스트 모음 {#test-suites} -[Synthetic 프라이빗 위치][15]를 사용하여 내부 API 및 웹사이트를 모니터링하거나 비즈니스에 필수적인 영역에 커스텀 위치를 만들 수 있습니다. +[Synthetic 테스트 모음][26]를 사용하여 여러 테스트를 사용자 여정, 환경, 위치, 서비스 또는 팀별로 그룹화하여 논리적 컬렉션으로 구성하여 관리 및 문제 해결을 간소화합니다. -{{< img src="synthetics/private_locations.png" alt="프라이빗 위치" style="width:100%;">}} +{{< img src="synthetics/test_suites/test_suite_summary.png" alt="Synthetic Monitoring 테스트 모음 요약 페이지" style="width:100%;">}} -## 데이터와 트레이스 연결 +## 프라이빗 위치 시작하기 {#launch-private-locations} + +[Synthetic 프라이빗 위치][15]를 사용하여 내부 API 및 웹사이트를 모니터링하거나 비즈니스에 필수적인 영역에 사용자 지정 위치를 만들 수 있습니다. + +{{< img src="synthetics/private_locations.png" alt="비공개 위치" style="width:100%;">}} + +## 데이터 및 트레이스 연결하기 {#connect-data-and-traces} [Synthetic 테스트와 APM 트레이스 간의 통합][16]을 사용하여 프론트엔드, 네트워크, 백엔드 요청 전반에서 장애의 근본 원인을 찾습니다. {{< img src="synthetics/synthetics_traces.mp4" alt="Synthetic Monitoring" video=true style="width:100%;">}} -## 즉시 사용 가능한 대시보드 액세스 +## 즉시 사용 가능한 대시보드에 접근하기 {#access-out-of-the-box-dashboards} + +[즉시 사용 가능한 Synthetic 대시보드][17]를 사용하여 API 테스트, 다단계 API 테스트, 브라우저 테스트, 비공개 위치, Datadog 이벤트에 대한 성능 정보를 분석합니다. + +{{< img src="synthetics/dashboards/test_dashboard.png" alt="Synthetic Monitoring 및 Continuous Testing 요약 대시보드" style="width:100%;">}} + +## Synthetic Monitoring 및 Synthetic 테스트 결과 탐색기 사용 {#use-the-synthetic-monitoring-testing-results-explorer} + +Synthetic 테스트 실행 또는 CI/CD 파이프라인에서 실행되는 테스트 배치에 대한 [검색 쿼리 및 시각화][20]를 만듭니다. + +{{< img src="continuous_testing/explorer_ci_batches_1.png" alt="Continuous Testing 탐색기" style="width:100%;">}} + +## 테스트 커버리지 추적하기 {#track-testing-coverage} + +[애플리케이션의 가장 중요한 워크플로가 테스트되고 있는지 확인]하여 테스트 모음을 최적화합니다[22]. + +{{< img src="synthetics/test_coverage/test_coverage.png" alt="Continuous Testing 탐색기" style="width:100%;">}} + +## Synthetic Monitoring 알림 {#synthetic-monitoring-notifications} -[즉시 사용 가능한 Synthetic 대시보드][17]를 사용하여 API 테스트, 다단계 API 테스트, 브라우저 테스트, 프라이빗 위치, Datadog 이벤트에 대한 성능 정보를 분석하세요. +Synthetic 모니터를 사용하고 확장하여 Synthetic Monitoring 테스트가 실패할 때 경보를 전송할 수 있습니다. 다음 기능을 사용할 수 있습니다: -{{< img src="synthetics/dashboards/test_dashboard.png" alt="Synthetic Monitoring & Continuous Testing Summary Dashboard" style="width:100%;">}} +미리 채워진 모니터 메시지 +: 미리 채워진 모니터링 메시지는 Synthetic 테스트 경보를 위한 구조화된 시작점을 제공합니다. 각 메시지는 표준화된 제목, 요약 및 테스트 메타데이터가 포함된 바닥글을 포함하여 경보를 한눈에 이해하기 쉽게 만듭니다. -## 신서틱 모니터링 및 테스팅 결과 탐색기 사용 +템플릿 변수 +템플릿 변수를 사용하면 모니터링 경보에 테스트별 데이터를 동적으로 주입할 수 있습니다. 이 변수는 `synthetics.attributes` 객체에서 가져옵니다. -Synthetic 테스트 실행 또는 CI/CD 파이프라인에서 실행되는 테스트 배치에 대한 [검색 쿼리 및 시각화][20]를 만듭니다. +고급 사용 +고급 사용법에는 더 깊은 테스트 통찰력을 드러내거나 핸들바 템플릿을 사용하여 복잡한 메시지를 구성하는 기술이 포함됩니다. -{{< img src="continuous_testing/explorer_ci_batches_1.png" alt="연속 테스트 탐색기" style="width:100%;">}} +조건부 경보 +: 조건부 경보를 사용하면 특정 테스트 결과나 실패 조건에 따라 모니터링 경보의 내용을 변경할 수 있습니다. -## 테스트 커버리지 추적하기 +자세한 내용은 [Synthetic Monitoring 경보][24]를 참조하세요. -[애플리케이션의 가장 중요한 워크플로가 테스트되고 있는지 확인]하여 테스트 스위트를 최적화하세요[22] +## 버전 기록 {#version-history} -{{< img src="synthetics/test_coverage/test_coverage.png" alt="연속 테스트 탐색기" style="width:100%;">}} +[Synthetic Monitoring의 버전 기록][23]을 사용하여 테스트의 이전 버전을 실행하거나, 테스트를 저장된 버전으로 복원하거나, 버전을 복제하여 새로운 Synthetic Monitoring 테스트를 생성할 수 있습니다. -## 시작할 준비가 되셨나요? +## 시작할 준비가 되셨나요? {#ready-to-start} -Synthetic 테스트 생성 및 웹 애플리케이션 모니터링에 대한 지침은 [Synthetic 모니터링 시작하기][18]를 참조하세요. 그런 다음 [프라이빗 위치 시작하기][19]를 참조하여 프라이빗 위치를 생성하고 프라이빗 위치로 Synthetic 테스트를 실행하는 방법을 알아보세요. +[Synthetic Monitoring 시작하기][18]를 참조하여 첫 번째 Synthetic 테스트를 생성하고 웹 애플리케이션을 모니터링하는 방법에 대한 지침을 확인하세요. 그런 다음, [개인 위치 시작하기][19]를 탐색하여 개인 위치를 생성하고 개인 위치에서 Synthetic 테스트를 실행하는 방법에 대한 지침을 확인하세요. -## 참고 자료 +## 추가 자료 {#further-reading} {{< partial name="whats-next/whats-next.html" >}} @@ -130,4 +171,8 @@ Synthetic 테스트 생성 및 웹 애플리케이션 모니터링에 대한 지 [19]: /ko/getting_started/synthetics/private_location [20]: /ko/continuous_testing/explorer/ [21]: /ko/mobile_testing -[22]: /ko/synthetics/test_coverage \ No newline at end of file +[22]: /ko/synthetics/test_coverage +[23]: /ko/synthetics/guide/version_history/ +[24]: /ko/synthetics/notifications/ +[25]: /ko/synthetics/network_path_tests/ +[26]: /ko/synthetics/test_suites/ \ No newline at end of file diff --git a/data/partials/home.es.yaml b/data/partials/home.es.yaml index 75e3d56a84a..d9ce6ef32de 100644 --- a/data/partials/home.es.yaml +++ b/data/partials/home.es.yaml @@ -1,215 +1,302 @@ +heading: ¡Bienvenido a la documentación de Datadog! + guides: -- desc: Recopila eventos y métricas de los hosts que envían datos a Datadog. - link: getting_started/agent/ - link_text: Empezando con el Agent - title: Instalar el Agent -- desc: Recopila métricas, trazas y logs con más de 1000 integraciones incorporadas - para enviarlos a Datadog. - link: getting_started/integrations/ - link_text: Empezando con las integraciones - title: Configurar integraciones -- desc: Visualiza los datos recopilados en Datadog y crea dashboards, alertas, monitores - y más. - link: getting_started/application/ - link_text: Empezando en Datadog - title: Empezar a usar la aplicación -heading: ¡Te damos la bienvenida a la documentación de Datadog! + # There can be only 3 guides in this section + - title: Instalar el Agente + desc: Recopila eventos y métricas de tus servidores que envían datos a Datadog. + link_text: Introducción al Agente + link: getting_started/agent/ + - title: Configurar Integraciones + desc: "Reúne métricas, trazas y registros con más de 1,000 integraciones incorporadas para enviar a Datadog." + link_text: Introducción a las Integraciones + link: getting_started/integrations/ + - title: Comenzar en la Aplicación + desc: "Visualiza los datos recopilados en Datadog y crea dashboards, alertas, monitores y más." + link_text: Introducción en Datadog + link: getting_started/application/ + nav_sections: -- nav_section: - - name: Servicios de la plataforma - - navtiles: - - desc: Instalar y configurar el Agent para recopilar y enviar datos - icon: agent-fill - link: agent/ - title: Agent - - desc: Recopilar datos sobre tus aplicaciones, servicios y sistemas - icon: integrations - link: integrations/ - title: Integraciones - - desc: Canalizar tus métricas, logs y trazas (traces) de OpenTelemetry a Datadog - icon: open-telemetry - link: opentelemetry/ - title: OpenTelemetry - - desc: Visualizar, analizar y generar información clave sobre tus datos - icon: dashboard - link: dashboards/ - title: Dashboards - - desc: Crear, editar y gestionar tus monitores y notificaciones - icon: monitor - link: monitors/ - title: Monitores y alertas - - desc: Detectar y mostrar anomalías de la aplicación e infraestructura - icon: watchdog - link: watchdog/ - title: Datadog Watchdog - - desc: Ver alertas de Datadog, incidentes y más en tu dispositivo móvil - icon: mobile - link: mobile/ - title: Aplicación móvil - - desc: Identificar, analizar y mitigar incidencias críticas en tu organización - icon: incidents - link: service_management/incident_management - title: Gestión de incidencias - - desc: Dar seguimiento a los cambios y alertas en tus aplicaciones e infraestructura - icon: events - link: events/ - title: Eventos - - desc: Automatizar y orquestar procesos en todo tu stack tecnológico - icon: workflows - link: service_management/workflows/ - title: Automatización de flujos de trabajo - - desc: Cree aplicaciones de bajo código para agilizar sus herramientas internas - icon: app-builder - link: service_management/app_builder/ - title: Creador de aplicaciones -- nav_section: - - name: Productos - - navtiles: - - desc: Supervisar tus hosts, contenedores, procesos y funciones serverless - icon: host-map - link: infrastructure/ - title: Infraestructura - - desc: Detectar y solucionar problemas de rendimiento en tus aplicaciones serverless - icon: serverless - link: serverless/ - title: Serverless - - desc: Usar objetos etiquetados para recopilar y generar gráficos de datos sobre - el tráfico de tu red - icon: network - link: network_monitoring/ - title: Monitorización de red - - desc: Controla tu gasto en la nube con datos unificados sobre observabilidad - y costos - icon: cloud-cost-management - link: cloud_cost_management/ - title: Gestión de costos en la nube - - desc: Explorar dashboards de rendimiento listos para usar y trazas distribuidas - icon: apm - link: tracing/ - title: APM - - desc: Comparar snapshots de rendimiento e investigar cuellos de botella - icon: profiling-1 - link: profiler/ - title: Continuous Profiler - - desc: Explorar dashboards enriquecidos, métricas de consultas y ejemplos de - consultas - icon: database-2 - link: database_monitoring/ - title: Monitorización de bases de datos - - desc: Rastrear y mejorar el rendimiento de tus pipelines de streaming de datos - icon: datastreams-monitoring - link: data_streams/ - title: Data Streams Monitoring - - desc: Monitorizar y optimizar tus trabajos de procesamiento de datos - icon: data-jobs-monitoring - link: data_jobs/ - title: Monitorización de trabajos de datos - - desc: Descubrir, asignar y monitorizar servicios sin cambiar el código - icon: usm - link: universal_service_monitoring/ - title: Universal Service Monitoring - - desc: Garantizar el tiempo de actividad, avisar de problemas regionales y probar - el rendimiento de aplicaciones - icon: synthetics - link: synthetics/ - title: Monitorización Synthetic - - desc: Identificar los errores críticos y acelerar la resolución en la web, los - dispositivos móviles y el backend. - icon: error-tracking - link: error_tracking/ - title: Rastreo de errores - - desc: Capturar, observar y analizar la experiencia del usuario de tus aplicaciones - icon: rum - link: real_user_monitoring/ - title: Real User Monitoring - - desc: Obtener información sobre el comportamiento de los usuarios y tomar decisiones - de productos impulsadas por datos - icon: product-analytics - link: product_analytics/ - title: Análisis de productos - - desc: Monitorizar recorridos del usuario y transacciones comerciales en aplicaciones - móviles - icon: mobile - link: mobile_app_testing/ - title: Test de aplicaciones móviles - - desc: Hacer tests de un extremo a otro y de integración sin código con proveedores - de CI/CD - icon: continuous-testing - link: continuous_testing/ - title: Tests continuos - - desc: Monitorizar el mantenimiento y el rendimiento de tus pipelines de CI - icon: ci - link: continuous_integration/ - title: CI Visibility - - desc: Detectar tests defectuosos e identificar confirmaciones que introduzcan - tests defectuosos - icon: ci - link: tests/ - title: Optimización de tests - - desc: Detectar amenazas, vulnerabilidades y errores de configuración - icon: security-platform - link: security/ - title: Seguridad - - desc: Explorar, buscar y crear distribuciones para tus métricas - icon: metric - link: metrics/ - title: Métricas - - desc: Procesar, monitorizar y archivar tus logs ingeridos - icon: log - link: logs/ - title: Gestión de logs - - desc: Gestionar y monitorizar tus pipelines de telemetría - icon: pipelines - link: observability_pipelines/ - title: Pipelines de observabilidad - - desc: Rastrear, monitorizar y asegurar tus solicitudes de LLM - icon: llm-observability - link: llm_observability/ - title: Observabilidad de LLM - - desc: Unificar la telemetría, los metadatos y los flujos de trabajo para acelerar - la entrega - icon: internal-developer-portal-wui - link: internal_developer_portal - title: Portal interno para desarrolladores - - desc: Gestiona los avisos, la escalada y los horarios de guardia en una sola - plataforma - icon: on-call - link: service_management/on-call/ - title: On-Call -- nav_section: - - name: Configuración - - navtiles: - - desc: Probar la API de Datadog - icon: api - link: api/latest/ - title: API - - desc: Acceder a la configuración y la facturación basadas en la organización - icon: cog-2 - link: account_management/ - title: Gestión de cuentas - - desc: Descubrir cómo Datadog protege tus datos - icon: security-lock - link: data_security/ - title: Seguridad de los datos - - desc: Desarrollar en la plataforma Datadog - icon: dev-code - link: developers/ - title: Desarrolladores - - desc: Conoce las prácticas recomendadas y empieza a monitorizar los entornos - de tus clientes. - icon: colab - link: partners/ - title: Socios + # For a better rendering, sections should include sub-sections with multiple of 4. + - nav_section: + - name: 'Observabilidad' + - navtiles: + - title: Infraestructura + link: infrastructure/ + icon: host-map + desc: Visualiza la salud y el rendimiento de tus servidores y componentes de infraestructura + - title: Métricas + link: metrics/ + icon: metric + desc: "Explora, busca y crea distribuciones para tus métricas" + - title: Container Monitoring + link: containers/ + icon: container + desc: "Monitorea la salud, el rendimiento y la seguridad de tus entornos de contenedores" + - title: Serverless + link: serverless/ + icon: serverless + desc: Detecta y resuelve problemas de rendimiento en tus aplicaciones Serverless + - title: Network Monitoring + link: network_monitoring/ + icon: network + desc: Utiliza objetos etiquetados para recopilar y graficar datos sobre el tráfico de tu red + - title: Cloud Cost Management + link: cloud_cost_management/ + icon: cloud-cost-management + desc: Toma el control de tu gasto en la nube con observabilidad unificada y datos de costos. + - title: Cloudcraft + link: cloudcraft/ + icon: cloudcraft + desc: Visualiza y diagrama tu infraestructura en la nube en tiempo real + - title: Gestión de Almacenamiento + link: infrastructure/storage_management/ + icon: file-wui + desc: "Optimiza y soluciona problemas de tus gastos, uso y frescura de datos en la nube" + - title: APM + link: tracing/ + icon: apm + desc: Explora paneles de rendimiento listos para usar y trazas distribuidas + - title: Monitoreo de Servicios Universales + link: universal_service_monitoring/ + icon: usm + desc: "Descubre, mapea y monitorea servicios sin cambiar el código" + - title: Continuous Profiler + link: profiler/ + icon: profiling-1 + desc: Compara instantáneas de rendimiento e investiga cuellos de botella + - title: Database Monitoring + link: database_monitoring/ + icon: database-2 + desc: "Explora paneles enriquecidos, métricas de consultas y muestras de consultas" + - title: Data Streams Monitoring + link: data_streams/ + icon: datastreams-monitoring + desc: Rastrea y mejora el rendimiento de tus canalizaciones de transmisión de datos + - title: Data Observability + link: data_observability/ + icon: data-observability-wui + desc: "Monitorea la calidad de los datos, el rendimiento y el costo para detectar anomalías y prevenir problemas posteriores" + - title: Log Management + link: logs/ + icon: log + desc: "Procesa, monitorea y archiva tus registros ingeridos" + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "Detecta y oculta datos sensibles como PII, claves de API y números de tarjetas de crédito en tu telemetría." + - title: Observability Pipelines + link: observability_pipelines/ + icon: pipelines + desc: Gestiona y monitorea tus canalizaciones de telemetría + - title: Error Tracking + link: error_tracking/ + icon: error-tracking + desc: "Identifica errores críticos y acelera la resolución en web, móvil y backend" + - nav_section: + - name: 'IA' + - navtiles: + - title: Bits AI Agents + link: bits_ai/ + icon: bits-ai + desc: "Tu compañero de equipo que automatiza flujos de trabajo de desarrollo, seguridad y operaciones." + - title: Watchdog + link: watchdog/ + icon: watchdog + desc: Detecta y muestra anomalías en aplicaciones e infraestructura + - title: Observabilidad de LLM + link: llm_observability/ + icon: llm-observability + desc: "Rastrea, monitorea y asegura tus aplicaciones de LLM" + - nav_section: + - name: 'Experiencia Digital' + - navtiles: + - title: Real User Monitoring + link: real_user_monitoring/ + icon: rum + desc: "Captura, observa y analiza la experiencia del usuario de tus aplicaciones" + - title: Product Analytics + link: product_analytics/ + icon: product-analytics + desc: Obtén información sobre el comportamiento del usuario y toma decisiones de producto basadas en datos + - title: Reproducción de sesión + link: session_replay/ + icon: session-replay + desc: Captura y reproduce visualmente la experiencia de tus usuarios + - title: Synthetic Monitoring + link: synthetics/ + icon: synthetics + desc: "Asegura el tiempo de actividad, señala problemas regionales y prueba el rendimiento de la aplicación" + - title: Mobile App Testing + link: mobile_app_testing/ + icon: mobile + desc: Monitorea los recorridos de los usuarios y las transacciones comerciales en aplicaciones móviles + - nav_section: + - name: 'Entrega de Software' + - navtiles: + - title: Portal Interno para Desarrolladores + link: internal_developer_portal/ + icon: internal-developer-portal-wui + desc: "Unifica la telemetría, los metadatos y los flujos de trabajo para acelerar la entrega" + - title: CI Visibility + link: continuous_integration/ + icon: ci + desc: Monitorea la salud y el rendimiento de tus canalizaciones de CI + - title: Test Optimization + link: tests/ + icon: flaky-test-wui + desc: Detecta pruebas inestables e identifica los commits que introducen pruebas inestables + - title: Continuous Testing + link: continuous_testing/ + icon: continuous-testing + desc: Realiza pruebas de integración sin código y pruebas de extremo a extremo con proveedores de CI/CD + - title: IDE Plugins + link: ide_plugins/ + icon: ide + desc: Interactúa con los servicios de Datadog directamente desde tu IDE mientras codificas + - title: DORA Metrics + link: dora_metrics/ + icon: ci + desc: Mide y mejora los procesos de entrega de software de tu organización + - title: Feature Flags + link: feature_flags/ + icon: signpost + desc: "Activa características, realiza pruebas A/B y despliega funcionalidad gradualmente sin implementaciones de código" + - title: Code Coverage + link: code_coverage/ + icon: code-3 + desc: Visualiza las tendencias de datos de cobertura y bloquea las fusiones de PR basadas en los umbrales de cobertura + - nav_section: + - name: 'Seguridad' + - navtiles: + - title: Cloud SIEM + link: security/cloud_siem/ + icon: siem + desc: "Detecta, investiga y responde a amenazas de seguridad en tus sistemas en la nube y locales" + - title: Seguridad del Código + link: security/code_security/ + icon: security-code-security + desc: "Detecta y corrige vulnerabilidades en tu código, dependencias e infraestructura como código" + - title: Seguridad en la Nube + link: security/cloud_security_management/ + icon: cloud-security-management + desc: "Audita continuamente configuraciones, evalúa riesgos de identidad y detecta amenazas en tu infraestructura en la nube" + - title: Protección de Aplicaciones y API + link: security/application_security/ + icon: app-sec + desc: Detecta y bloquea amenazas que apuntan a tus aplicaciones de producción y APIs en tiempo real + - title: Workload Protection + link: security/workload_protection/ + icon: security-workload-security + desc: "Monitorea la actividad de archivos, red y procesos para detectar amenazas en tiempo real a tu infraestructura" + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "Detecta y oculta datos sensibles como PII, claves de API y números de tarjetas de crédito en tu telemetría" + - nav_section: + - name: 'Service Management' + - navtiles: + - title: Incident Management + link: service_management/incident_management + icon: incidents + desc: "Identifica, analiza y mitiga incidentes disruptivos en tu organización" + - title: De Guardia + link: incident_response/on-call/ + icon: on-call + desc: Dirige y escala alertas a los miembros del equipo adecuados con horarios de guardia y paginación + - title: Páginas de Estado + link: incident_response/status_pages/ + icon: status-page-wui + desc: Comunica la disponibilidad del servicio y actualizaciones de incidentes a tus usuarios y partes interesadas + - title: Service Level Objectives + link: service_level_objectives/ + icon: slos + desc: Definir y rastrear objetivos de rendimiento para ofrecer una experiencia al cliente consistente + - title: Case Management + link: incident_response/case_management/ + icon: case-management + desc: "Clasificar, rastrear y remediar problemas con propiedad centralizada y colaboración del equipo" + - title: Workflow Automation + link: service_management/workflows/ + icon: workflows + desc: Automatiza y orquesta procesos a través de tu pila tecnológica. + - title: App Builder + link: service_management/app_builder/ + icon: app-builder + desc: Crea aplicaciones de bajo código para optimizar tus herramientas internas. + - nav_section: + - name: 'Capacidades de la Plataforma y Extensión de Datadog' + - navtiles: + - title: Monitores y Alertas + link: monitors/ + icon: monitor + desc: "Crea, edita y gestiona tus monitores y notificaciones." + - title: Dashboards + link: dashboards/ + icon: dashboard + desc: "Visualiza, analiza y genera información sobre tus datos." + - title: Notebooks + link: notebooks/ + icon: notebook + desc: "Crea documentos de texto enriquecido con gráficos en vivo para investigaciones, análisis postmortem y runbooks." + - title: Aplicación Móvil + link: mobile/ + icon: mobile + desc: "Ver alertas, incidentes y más de Datadog en tu dispositivo móvil." + - title: Fleet Automation + link: agent/fleet_automation/ + icon: fleet-automation-wui + desc: "Configura, actualiza y gestiona tus Agentes de forma remota y a gran escala." + - title: gestión de cuentas + link: account_management/ + icon: cog-2 + desc: "Administra la configuración basada en la organización, la facturación y los controles de acceso a los datos." + - title: Event Management + link: events/ + icon: events + desc: Rastrea cambios notables y alertas en tus aplicaciones e infraestructura + - title: CoScreen + link: coscreen/ + icon: coscreen + desc: Comparte e interactúa con las ventanas de las aplicaciones para la programación en pareja y la gestión de incidentes + - title: OpenTelemetry + link: opentelemetry/ + icon: open-telemetry + desc: "Canaliza tus métricas, registros y trazas de OpenTelemetry a Datadog" + - title: Integrations + link: integrations/ + icon: integrations + desc: "Reúne datos sobre tus aplicaciones, servicios y sistemas" + - title: API + link: api/latest/ + icon: api + desc: Prueba la API de Datadog + - title: Seguridad de Datos + link: data_security/ + icon: security-lock + desc: Aprende cómo Datadog protege tus datos + - title: SDKs de Cliente + link: client_sdks/ + icon: building-block + desc: Instala y configura el SDK de Datadog para tu plataforma + - title: Extiende Datadog + link: extend/ + icon: dev-code + desc: Extiende la plataforma de Datadog + - title: Socios + link: partners/ + icon: colab + desc: Aprende sobre las mejores prácticas y comienza a monitorear los entornos de tus clientes. + popular_searches: -- link: api/ - title: documentación de API - weight: 10 -- link: getting_started/agent/ - title: instalación del Agent - weight: 20 -- link: logs/log_collection/ - title: recopilación de logs - weight: 30 -- link: integrations/ - title: configuración de integraciones - weight: 40 + - title: Documentación de la API + link: api/ + weight: 10 + - title: Instalación del Agente + link: getting_started/agent/ + weight: 20 + - title: Recolección de Registros + link: logs/log_collection/ + weight: 30 + - title: Configuración de Integración + link: integrations/ + weight: 40 diff --git a/data/partials/home.fr.yaml b/data/partials/home.fr.yaml index b58b0853ce5..7661d306345 100644 --- a/data/partials/home.fr.yaml +++ b/data/partials/home.fr.yaml @@ -1,339 +1,302 @@ -guides: -- desc: Recueillez des événements et des métriques à partir de vos hosts qui transmettent - des données à Datadog. - link: getting_started/agent/ - link_text: Débuter avec l'Agent - title: Installer l'Agent -- desc: Récupérez des métriques, des traces et des logs grâce à plus de 1 000 intégrations - afin de les envoyer à Datadog. - link: getting_started/integrations/ - link_text: Débuter avec les intégrations - title: Configurer des intégrations -- desc: Visualisez les données recueillies dans Datadog et créez des dashboards, des - alertes, des monitors, et plus encore. - link: getting_started/application/ - link_text: Débuter avec Datadog - title: Débuter avec Datadog heading: Bienvenue dans la documentation de Datadog ! + +guides: + # There can be only 3 guides in this section + - title: "Installation de l'Agent" + desc: Recueillez des événements et des métriques à partir de vos hosts qui transmettent des données à Datadog. + link_text: "Débuter avec l'Agent" + link: getting_started/agent/ + - title: Configurer des intégrations + desc: "Rassemblez des métriques, des traces et des journaux avec plus de 1 000 intégrations natives pour les envoyer à Datadog." + link_text: Débuter avec les intégrations + link: getting_started/integrations/ + - title: Débuter avec Datadog + desc: "Visualisez les données recueillies dans Datadog et créez des dashboards, des alertes, des monitors, et plus encore." + link_text: Débuter avec Datadog + link: getting_started/application/ + nav_sections: -- nav_section: - - name: Observabilité - - navtiles: - - desc: Afficher l'état de santé et les performances de vos hosts et composants - d'infrastructure - icon: host-map - link: infrastructure/ - title: Infrastructure - - desc: Explorez, recherchez et créez des distributions pour vos métriques. - icon: metric - link: metrics/ - title: Métriques - - desc: Surveiller l'état de santé, les performances et la sécurité de vos environnements - conteneurisés - icon: container - link: containers/ - title: Surveillance des conteneurs - - desc: Détectez et résolvez les problèmes de performance de vos applications - sans serveur. - icon: serverless - link: serverless/ - title: Serverless - - desc: Utilisez des objets tagués pour recueillir et représenter des données - à propos de votre trafic réseau. - icon: network - link: network_monitoring/ - title: Surveillance du réseau - - desc: Maîtrisez vos dépenses liées au cloud avec l'observabilité unifiée et - les données de coût. - icon: cloud-cost-management - link: cloud_cost_management/ - title: Cloud Cost Management - - desc: Visualiser et représenter votre infrastructure cloud en temps réel - icon: cloudcraft - link: cloudcraft/ - title: Cloudcraft - - desc: Optimisez et résolvez les problèmes liés aux coûts, à l'utilisation et - à la fraîcheur des données de votre stockage cloud. - icon: file-wui - link: infrastructure/storage_management/ - title: Gestion du stockage - - desc: Explorez des dashboards prêts à l'emploi sur les performances et activez - le tracing distribué. - icon: apm - link: tracing/ - title: APM - - desc: Découvrez, mappez et surveillez des services sans modification du code. - icon: usm - link: universal_service_monitoring/ - title: Universal Service Monitoring - - desc: Comparez des snapshots des performances et analysez les goulots d'étranglement. - icon: profiling-1 - link: profiler/ - title: Profileur en continu - - desc: Parcourez des dashboards enrichis, des métriques de requête et des échantillons - de requêtes. - icon: database-2 - link: database_monitoring/ - title: Database Monitoring - - desc: Surveillez et optimisez les performances de vos pipelines de diffusion - de données. - icon: datastreams-monitoring - link: data_streams/ - title: Data Streams Monitoring - - desc: Surveiller la qualité des données, les performances et les coûts pour - détecter les anomalies et éviter les problèmes en aval - icon: data-observability-wui - link: data_observability/ - title: Observabilité des données - - desc: Traitez, surveillez et archivez vos logs ingérés. - icon: log - link: logs/ - title: Log Management - - desc: Détecter et masquer les données sensibles telles que les informations - personnelles, les clés d'API et les numéros de carte de crédit dans vos données - de télémétrie - icon: sensitive-data-scanner - link: security/sensitive_data_scanner/ - title: Scanner de données sensibles - - desc: Gérez et surveillez vos pipelines de télémétrie. - icon: pipelines - link: observability_pipelines/ - title: Observability Pipelines - - desc: Identifier les erreurs critiques et accélérer leur résolution sur le web, - les applications mobiles et le backend - icon: error-tracking - link: error_tracking/ - title: Error Tracking -- nav_section: - - name: AI - - navtiles: - - desc: Votre coéquipier agentique qui automatise les workflows de développement, - de sécurité et opérationnels - icon: bits-ai - link: bits_ai/ - title: Bits AI Agents - - desc: Détectez et visualisez des anomalies liées à vos applications et votre - infrastructure. - icon: watchdog - link: watchdog/ - title: Watchdog - - desc: Tracer, surveiller et sécuriser vos applications LLM - icon: llm-observability - link: llm_observability/ - title: LLM Observability -- nav_section: - - name: Digital Experience - - navtiles: - - desc: Enregistrez, observez et analysez l'expérience utilisateur de vos applications. - icon: rum - link: real_user_monitoring/ - title: Real User Monitoring - - desc: Obtenez des informations pertinentes sur le comportement de vos utilisateurs - et prenez des décisions éclairées pour vos produits. - icon: product-analytics - link: product_analytics/ - title: Analyse des produits - - desc: Capturer et rejouer visuellement l'expérience utilisateur de vos utilisateurs - icon: session-replay - link: session_replay/ - title: Session Replay - - desc: Vérifiez la disponibilité de vos services, identifiez les problèmes régionaux - et testez les performances de vos applications. - icon: synthetics - link: synthetics/ - title: Surveillance Synthetic - - desc: Surveillez des parcours utilisateur et des transactions opérationnelles - dans des applications mobiles. - icon: mobile - link: mobile_app_testing/ - title: Tests d'application mobile -- nav_section: - - name: Software Delivery - - navtiles: - - desc: Unifier les données de télémétrie, les métadonnées et les workflows pour - accélérer la livraison - icon: internal-developer-portal-wui - link: internal_developer_portal/ - title: Portail interne des développeurs - - desc: Surveillez les performances et la santé de vos pipelines de CI. - icon: ci - link: continuous_integration/ - title: CI Visibility - - desc: Détecter les tests défaillants et identifier les commits introduisant - des tests défaillants - icon: flaky-test-wui - link: tests/ - title: Test Optimization - - desc: Mettez en place des intégrations sans code et des tests en continu grâce - aux fournisseurs CI/CD. - icon: continuous-testing - link: continuous_testing/ - title: Tests continus - - desc: Interagir avec les services Datadog directement depuis votre IDE pendant - le développement - icon: ide - link: ide_plugins/ - title: Plugins IDE - - desc: Mesurer et améliorer les processus de livraison logicielle de votre organisation - icon: ci - link: dora_metrics/ - title: Métriques DORA - - desc: Activer ou désactiver des fonctionnalités, exécuter des tests A/B et déployer - progressivement des fonctionnalités sans déploiement de code - icon: signpost - link: feature_flags/ - title: Feature Flags - - desc: Visualiser les tendances des données de couverture et bloquer les fusions - de PR en fonction des seuils de couverture - icon: code-3 - link: code_coverage/ - title: Couverture du code -- nav_section: - - name: Sécurité - - navtiles: - - desc: Détecter, investiguer et répondre aux menaces de sécurité sur vos systèmes - cloud et on-premises - icon: siem - link: security/cloud_siem/ - title: Cloud SIEM - - desc: Détecter et corriger les vulnérabilités dans votre code, vos dépendances - et votre infrastructure as code - icon: security-code-security - link: security/code_security/ - title: Sécurité du code - - desc: Auditer en continu les configurations, évaluer les risques d'identité - et détecter les menaces sur l'ensemble de votre infrastructure cloud - icon: cloud-security-management - link: security/cloud_security_management/ - title: Cloud Security - - desc: Détecter et bloquer les menaces ciblant vos applications de production - et vos API en temps réel - icon: app-sec - link: security/application_security/ - title: Protection des applications et des API - - desc: Surveiller l'activité des fichiers, du réseau et des processus pour détecter - les menaces en temps réel pesant sur votre infrastructure - icon: security-workload-security - link: security/workload_protection/ - title: Workload Protection - - desc: Détecter et masquer les données sensibles telles que les informations - personnelles, les clés d'API et les numéros de carte de crédit dans vos données - de télémétrie - icon: sensitive-data-scanner - link: security/sensitive_data_scanner/ - title: Scanner de données sensibles -- nav_section: - - name: Gestion des services - - navtiles: - - desc: Identifier, analyser et atténuer les incidents perturbateurs dans votre - organisation - icon: incidents - link: service_management/incident_management - title: Incident Management - - desc: Acheminer et escalader les alertes vers les bons membres de l'équipe avec - des programmes d'astreinte et des notifications - icon: on-call - link: incident_response/on-call/ - title: On-Call - - desc: Communiquer la disponibilité des services et les mises à jour d'incidents - à vos utilisateurs et parties prenantes - icon: status-page-wui - link: incident_response/status_pages/ - title: Pages d'état - - desc: Définir et suivre les objectifs de performance pour offrir une expérience - client cohérente - icon: slos - link: service_level_objectives/ - title: Service Level Objectives - - desc: Trier, suivre et corriger les problèmes avec une propriété centralisée - et la collaboration d'équipe - icon: case-management - link: incident_response/case_management/ - title: Case Management - - desc: Automatisez et orchestrez des processus dans toute votre pile technologique. - icon: workflows - link: service_management/workflows/ - title: Automatisation de workflows - - desc: Créer des applications low-code pour rationaliser vos outils internes - icon: app-builder - link: service_management/app_builder/ - title: App Builder -- nav_section: - - name: Fonctionnalités de la plateforme et extension de Datadog - - navtiles: - - desc: Créez, modifiez et gérez vos monitors et notifications. - icon: monitor - link: monitors/ - title: Monitors et alertes - - desc: Visualisez, analysez et générez des insights à propos de vos données. - icon: dashboard - link: dashboards/ - title: Dashboards - - desc: Créer des documents en texte enrichi avec des graphiques en direct pour - les investigations, les post-mortems et les runbooks - icon: notebook - link: notebooks/ - title: Notebooks - - desc: Consultez les alertes, les incidents et d'autres insights Datadog depuis - votre appareil mobile. - icon: mobile - link: mobile/ - title: Application mobile - - desc: Configurer, mettre à niveau et gérer vos Agents à distance et à grande - échelle - icon: fleet-automation-wui - link: agent/fleet_automation/ - title: Fleet Automation - - desc: Gérer les paramètres organisationnels, la facturation et les contrôles - d'accès aux données - icon: cog-2 - link: account_management/ - title: Gestion de compte - - desc: Recevez une alerte en cas de changement important dans vos applications - et votre infrastructure. - icon: events - link: events/ - title: Gestion des événements - - desc: Partager et interagir avec les fenêtres d'application pour le pair programming - et la gestion des incidents - icon: coscreen - link: coscreen/ - title: CoScreen - - desc: Acheminez vos métriques, logs et traces OpenTelemetry vers Datadog. - icon: open-telemetry - link: opentelemetry/ - title: OpenTelemetry - - desc: Recueillez des données à propos de vos applications, services et systèmes. - icon: integrations - link: integrations/ - title: Intégrations - - desc: Testez l'API Datadog. - icon: api - link: api/latest/ - title: API - - desc: Découvrez comment Datadog protège vos données. - icon: security-lock - link: data_security/ - title: Sécurité des données - - desc: Étendre la plateforme Datadog - icon: dev-code - link: extend/ - title: Étendre Datadog - - desc: Découvrez les meilleures pratiques et commencez à surveiller les environnements - de vos clients. - icon: colab - link: partners/ - title: Partenaires + # For a better rendering, sections should include sub-sections with multiple of 4. + - nav_section: + - name: 'Observabilité' + - navtiles: + - title: Infrastructure + link: infrastructure/ + icon: host-map + desc: "Visualisez la santé et la performance de vos hôtes et composants d'infrastructure" + - title: Metrics + link: metrics/ + icon: metric + desc: "Explorez, recherchez et créez des distributions pour vos métriques." + - title: Surveillance des conteneurs + link: containers/ + icon: container + desc: "Surveillez la santé, la performance et la sécurité de vos environnements conteneurisés" + - title: Environnement sans serveur + link: serverless/ + icon: serverless + desc: Détectez et résolvez les problèmes de performance de vos applications sans serveur. + - title: Surveillance réseau + link: network_monitoring/ + icon: network + desc: Utilisez des objets tagués pour recueillir et représenter des données à propos de votre trafic réseau. + - title: Cloud Cost Management + link: cloud_cost_management/ + icon: cloud-cost-management + desc: "Maîtrisez vos dépenses liées au cloud avec l'observabilité unifiée et les données de coût." + - title: Cloudcraft + link: cloudcraft/ + icon: cloudcraft + desc: Visualisez et diagrammez votre infrastructure cloud en temps réel + - title: Gestion du stockage + link: infrastructure/storage_management/ + icon: file-wui + desc: "Optimisez et dépannez vos dépenses de stockage cloud, votre utilisation et la fraîcheur des données" + - title: APM + link: tracing/ + icon: apm + desc: "Explorez des dashboards prêts à l'emploi sur les performances et activez le tracing distribué." + - title: Universal Service Monitoring + link: universal_service_monitoring/ + icon: usm + desc: "Découvrez, mappez et surveillez des services sans modification du code." + - title: Profiler en continu + link: profiler/ + icon: profiling-1 + desc: "Comparez des snapshots des performances et analysez les goulots d'étranglement." + - title: Database Monitoring + link: database_monitoring/ + icon: database-2 + desc: "Parcourez des dashboards enrichis, des métriques de requête et des échantillons de requêtes." + - title: Data Streams Monitoring + link: data_streams/ + icon: datastreams-monitoring + desc: Surveillez et optimisez les performances de vos pipelines de diffusion de données. + - title: Observabilité des données + link: data_observability/ + icon: data-observability-wui + desc: "Surveillez la qualité des données, la performance et le coût pour détecter les anomalies et prévenir les problèmes en aval" + - title: Log Management + link: logs/ + icon: log + desc: "Traitez, surveillez et archivez vos logs ingérés." + - title: Scanner de données sensibles + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "Détectez et masquez les données sensibles telles que les données personnelles, les clés API et les numéros de carte de crédit dans votre télémétrie." + - title: "Pipelines d'observabilité" + link: observability_pipelines/ + icon: pipelines + desc: Gérez et surveillez vos pipelines de télémétrie. + - title: Suivi des erreurs + link: error_tracking/ + icon: error-tracking + desc: "Identifiez les erreurs critiques et accélérez la résolution sur le web, mobile et backend" + - nav_section: + - name: 'IA' + - navtiles: + - title: Bits AI Agents + link: bits_ai/ + icon: bits-ai + desc: "Votre collaborateur automatisé qui optimise le développement, la sécurité et les workflows opérationnels" + - title: Watchdog + link: watchdog/ + icon: watchdog + desc: Détectez et visualisez des anomalies liées à vos applications et votre infrastructure. + - title: LLM Observability + link: llm_observability/ + icon: llm-observability + desc: "Tracez, surveillez et sécurisez vos applications LLM" + - nav_section: + - name: 'Digital Experience' + - navtiles: + - title: Real User Monitoring + link: real_user_monitoring/ + icon: rum + desc: "Enregistrez, observez et analysez l'expérience utilisateur de vos applications." + - title: Analyse des produits + link: product_analytics/ + icon: product-analytics + desc: Obtenez des informations pertinentes sur le comportement de vos utilisateurs et prenez des décisions éclairées pour vos produits. + - title: Session Replay + link: session_replay/ + icon: session-replay + desc: "Capturez et rejouez visuellement l'expérience de vos utilisateurs" + - title: Surveillance Synthetics + link: synthetics/ + icon: synthetics + desc: "Vérifiez la disponibilité de vos services, identifiez les problèmes régionaux et testez les performances de vos applications." + - title: "Tests d'application mobile" + link: mobile_app_testing/ + icon: mobile + desc: Surveillez des parcours utilisateur et des transactions opérationnelles dans des applications mobiles. + - nav_section: + - name: 'Software Delivery' + - navtiles: + - title: Portail développeur interne + link: internal_developer_portal/ + icon: internal-developer-portal-wui + desc: "Unifiez la télémétrie, les métadonnées et les flux de travail pour accélérer la livraison" + - title: Visibilité CI + link: continuous_integration/ + icon: ci + desc: Surveillez les performances et la santé de vos pipelines de CI. + - title: Optimisation des tests + link: tests/ + icon: flaky-test-wui + desc: Détecter les tests défaillants et identifier les commits introduisant des tests défaillants + - title: Tests continus + link: continuous_testing/ + icon: continuous-testing + desc: Mettez en place des intégrations sans code et des tests en continu grâce aux fournisseurs CI/CD. + - title: Plugins IDE + link: ide_plugins/ + icon: ide + desc: Interagissez directement avec les services Datadog depuis votre IDE pendant que vous codez + - title: Métriques DORA + link: dora_metrics/ + icon: ci + desc: Mesurez et améliorez les processus de livraison de logiciels de votre organisation + - title: Drapeaux de fonctionnalités + link: feature_flags/ + icon: signpost + desc: "Activez des fonctionnalités, réalisez des tests A/B et déployez progressivement des fonctionnalités sans déploiements de code" + - title: Couverture du code + link: code_coverage/ + icon: code-3 + desc: Visualisez les tendances des données de couverture et bloquez les fusions de PR en fonction des seuils de couverture + - nav_section: + - name: 'Security' + - navtiles: + - title: Cloud SIEM + link: security/cloud_siem/ + icon: siem + desc: "Détectez, enquêtez et répondez aux menaces de sécurité sur vos systèmes cloud et sur site" + - title: Sécurité du code + link: security/code_security/ + icon: security-code-security + desc: "Détectez et corrigez les vulnérabilités dans votre code, vos dépendances et votre infrastructure en tant que code" + - title: Cloud Security + link: security/cloud_security_management/ + icon: cloud-security-management + desc: "Auditez en continu les configurations, évaluez les risques d'identité et détectez les menaces sur votre infrastructure cloud" + - title: Protection des applications et des API + link: security/application_security/ + icon: app-sec + desc: Détectez et bloquez les menaces ciblant vos applications de production et vos API en temps réel + - title: Protection des charges de travail + link: security/workload_protection/ + icon: security-workload-security + desc: "Surveillez l'activité des fichiers, du réseau et des processus pour détecter les menaces en temps réel sur votre infrastructure" + - title: Scanner de données sensibles + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "Détectez et masquez les données sensibles telles que les données personnelles, les clés API et les numéros de carte de crédit dans votre télémétrie." + - nav_section: + - name: 'Gestion des services' + - navtiles: + - title: Gestion des incidents + link: service_management/incident_management + icon: incidents + desc: "Identifier, analyser et atténuer les incidents perturbateurs dans votre organisation" + - title: En astreinte + link: incident_response/on-call/ + icon: on-call + desc: "Dirigez et escaladez les alertes vers les bons membres de l'équipe avec des plannings d'astreinte et des notifications" + - title: Pages de statut + link: incident_response/status_pages/ + icon: status-page-wui + desc: Communiquez la disponibilité des services et les mises à jour des incidents à vos utilisateurs et parties prenantes + - title: Service Level Objectives + link: service_level_objectives/ + icon: slos + desc: Définissez et suivez des objectifs de performance pour offrir une expérience client cohérente + - title: Gestion des cas + link: incident_response/case_management/ + icon: case-management + desc: "Triagez, suivez et remédiez aux problèmes avec une responsabilité centralisée et une collaboration d'équipe" + - title: Workflow Automation + link: service_management/workflows/ + icon: workflows + desc: Automatisez et orchestrez des processus dans toute votre pile technologique. + - title: App Builder + link: service_management/app_builder/ + icon: app-builder + desc: Créez des applications à faible code pour rationaliser vos outils internes + - nav_section: + - name: 'Capacités de la plateforme et extension de Datadog' + - navtiles: + - title: Monitors et alertes + link: monitors/ + icon: monitor + desc: "Créez, modifiez et gérez vos monitors et notifications." + - title: Dashboards + link: dashboards/ + icon: dashboard + desc: "Visualisez, analysez et générez des insights à propos de vos données." + - title: Notebooks + link: notebooks/ + icon: notebook + desc: "Créez des documents en texte enrichi avec des graphiques en direct pour les enquêtes, les post-mortems et les runbooks" + - title: Application mobile + link: mobile/ + icon: mobile + desc: "Consultez les alertes, les incidents et d'autres insights Datadog depuis votre appareil mobile." + - title: Fleet Automation + link: agent/fleet_automation/ + icon: fleet-automation-wui + desc: "Configurez, mettez à niveau et gérez vos agents à distance à grande échelle." + - title: Gestion de compte + link: account_management/ + icon: cog-2 + desc: "Gérez les paramètres basés sur l'organisation, la facturation et les contrôles d'accès aux données." + - title: Gestion des événements + link: events/ + icon: events + desc: Recevez une alerte en cas de changement important dans vos applications et votre infrastructure. + - title: CoScreen + link: coscreen/ + icon: coscreen + desc: "Partagez et interagissez avec les fenêtres d'application pour la programmation en binôme et la gestion des incidents" + - title: OpenTelemetry + link: opentelemetry/ + icon: open-telemetry + desc: "Acheminez vos métriques, logs et traces OpenTelemetry vers Datadog." + - title: Les intégrations + link: integrations/ + icon: integrations + desc: "Recueillez des données à propos de vos applications, services et systèmes." + - title: API + link: api/latest/ + icon: api + desc: "Testez l'API Datadog." + - title: Sécurité des données + link: data_security/ + icon: security-lock + desc: Découvrez comment Datadog protège vos données. + - title: SDKs clients + link: client_sdks/ + icon: building-block + desc: Installez et configurez le SDK Datadog pour votre plateforme + - title: Étendez Datadog + link: extend/ + icon: dev-code + desc: Étendez la plateforme Datadog + - title: Partenaires + link: partners/ + icon: colab + desc: Découvrez les meilleures pratiques et commencez à surveiller les environnements de vos clients. + popular_searches: -- link: api/ - title: Documentation sur l'API - weight: 10 -- link: getting_started/agent/ - title: Installation de l'Agent - weight: 20 -- link: logs/log_collection/ - title: Collecte de logs - weight: 30 -- link: integrations/ - title: Configuration d'intégrations - weight: 40 + - title: "Documentation sur l'API" + link: api/ + weight: 10 + - title: "Installation de l'Agent" + link: getting_started/agent/ + weight: 20 + - title: Collecte de logs + link: logs/log_collection/ + weight: 30 + - title: "Configuration d'intégrations" + link: integrations/ + weight: 40 diff --git a/data/partials/home.ja.yaml b/data/partials/home.ja.yaml index 5bf43807341..e662c1ee8b9 100644 --- a/data/partials/home.ja.yaml +++ b/data/partials/home.ja.yaml @@ -1,197 +1,302 @@ +heading: Datadog について + guides: -- desc: Datadog にデータを送信するホストからイベントとメトリクスを収集します。 - link: getting_started/agent/ - link_text: Agent の概要 - title: Agent のインストール -- desc: 850 以上のビルトイン インテグレーションでメトリクス、トレース、ログを収集し、Datadog に送信します。 - link: getting_started/integrations/ - link_text: インテグレーションの概要 - title: インテグレーションをセットアップ -- desc: Datadog で収集したデータを可視化し、ダッシュボード、アラート、モニターなどを作成することができます。 - link: getting_started/application/ - link_text: Datadog で始める - title: アプリで始める -heading: Datadog ドキュメントへようこそ! + # There can be only 3 guides in this section + - title: Agent のインストール + desc: Datadog にデータを送信するホストからイベントとメトリクスを収集します。 + link_text: Agent の概要 + link: getting_started/agent/ + - title: Integrations のセットアップ + desc: "1,000 以上のビルトインインテグレーションにより、メトリクス、トレース、ログを収集し、Datadog に送信することができます。" + link_text: Integrations の概要 + link: getting_started/integrations/ + - title: アプリで始める + desc: Datadog で収集したデータを可視化し、ダッシュボード、アラート、モニターなどを作成することができます。 + link_text: Datadog の開始 + link: getting_started/application/ + nav_sections: -- nav_section: - - name: プラットフォームサービス - - navtiles: - - desc: Datadog Agent をインストールして構成し、データを収集、送信 - icon: agent-fill - link: agent/ - title: Agent - - desc: アプリケーション、サービス、システムに関するデータを収集 - icon: integrations - link: integrations/ - title: インテグレーション - - desc: OpenTelemetry のメトリクス、ログ、トレースを Datadog に取り込む - icon: open-telemetry - link: opentelemetry/ - title: OpenTelemetry - - desc: データの可視化、分析、インサイト生成 - icon: dashboard - link: dashboards/ - title: ダッシュボード - - desc: モニターや通知の作成、編集、管理 - icon: monitor - link: monitors/ - title: モニターとアラート設定 - - desc: アプリケーションとインフラストラクチャーの異常を検出し、表面化する - icon: watchdog - link: watchdog/ - title: Datadog Watchdog - - desc: Datadog のアラート、インシデントなどをモバイルデバイスで閲覧 - icon: mobile - link: mobile/ - title: Mobile Application - - desc: 組織における破壊的インシデントの特定、分析、緩和 - icon: incidents - link: service_management/incident_management - title: Incident Management - - desc: アプリケーションとインフラストラクチャーの注目すべき変化やアラートを追跡 - icon: events - link: events/ - title: イベント - - desc: 技術スタック全体のプロセスの自動化とオーケストレーション - icon: workflows - link: service_management/workflows/ - title: Workflow Automation - - desc: 社内ツールを効率化するロー コード アプリケーションを作成 - icon: app-builder - link: service_management/app_builder/ - title: アプリビルダー -- nav_section: - - name: 製品 - - navtiles: - - desc: ホスト、コンテナ、プロセス、サーバーレス関数を追跡 - icon: host-map - link: infrastructure/ - title: インフラストラクチャー - - desc: サーバーレスアプリケーションにおけるパフォーマンスの問題を検出し、解決 - icon: serverless - link: serverless/ - title: サーバーレス - - desc: タグ付きオブジェクトを使用して、ネットワークトラフィックに関するデータを収集し、グラフ化 - icon: network - link: network_monitoring/ - title: Network Monitoring - - desc: 統合された可観測性とコストデータでクラウド支出を管理 - icon: cloud-cost-management - link: cloud_cost_management/ - title: Cloud Cost Management - - desc: すぐに使えるパフォーマンスダッシュボードと分散型トレースを探る - icon: apm - link: tracing/ - title: APM - - desc: パフォーマンススナップショットの比較とボトルネックの調査 - icon: profiling-1 - link: profiler/ - title: Continuous Profiler - - desc: 充実したダッシュボード、クエリメトリクス、クエリサンプルを調べる - icon: database-2 - link: database_monitoring/ - title: Database Monitoring - - desc: データストリーミングパイプラインのパフォーマンスを追跡し、改善する - icon: datastreams-monitoring - link: data_streams/ - title: Data Streams Monitoring - - desc: データ処理ジョブを監視し、最適化する - icon: data-jobs-monitoring - link: data_jobs/ - title: データジョブのモニタリング - - desc: コードを変更せずにサービスを発見、マッピング、監視する - icon: usm - link: universal_service_monitoring/ - title: Universal Service Monitoring - - desc: アップタイムの確保、地域ごとの問題点の指摘、アプリケーションのパフォーマンステスト - icon: synthetics - link: synthetics/ - title: Synthetic Monitoring - - desc: Web、モバイル、バックエンド全体で重大なエラーを特定し、解決を加速 - icon: error-tracking - link: error_tracking/ - title: Error Tracking - - desc: アプリケーションのユーザーエクスペリエンスを把握、観察、分析 - icon: rum - link: real_user_monitoring/ - title: Real User Monitoring - - desc: ユーザーの行動に関する洞察を得て、データに基づく製品の決定を行う - icon: product-analytics - link: product_analytics/ - title: 製品分析 - - desc: モバイルアプリケーションにおけるユーザージャーニーとビジネストランザクションの監視 - icon: mobile - link: mobile_app_testing/ - title: モバイルアプリケーションテスト - - desc: CI/CD プロバイダーでコードレスインテグレーションとエンドツーエンドテストを実施 - icon: continuous-testing - link: continuous_testing/ - title: Continuous Testing - - desc: CI パイプラインの健全性とパフォーマンスを監視 - icon: ci - link: continuous_integration/ - title: CI Visibility - - desc: 不安定なテストの検出と、不安定なテストをもたらしたコミットの特定 - icon: ci - link: tests/ - title: テストの最適化 - - desc: 脅威、脆弱性、誤構成の検出 - icon: security-platform - link: security/ - title: セキュリティ - - desc: メトリクスの探索、検索、および分布の作成 - icon: metric - link: metrics/ - title: メトリクス - - desc: 取り込んだログを処理し、監視し、アーカイブ - icon: log - link: logs/ - title: Log Management - - desc: テレメトリーパイプラインの管理と監視 - icon: pipelines - link: observability_pipelines/ - title: Observability Pipelines - - desc: LLM アプリケーションを追跡、監視、保護する - icon: llm-observability - link: llm_observability/ - title: LLM Observability - - desc: デリバリーを加速するために、テレメトリー、メタデータ、ワークフローを統合 - icon: internal-developer-portal-wui - link: internal_developer_portal - title: 内部開発者ポータル -- nav_section: - - name: 構成 - - navtiles: - - desc: Datadog API を試す - icon: api - link: api/latest/ - title: API - - desc: 組織ベースの設定と請求にアクセス - icon: cog-2 - link: account_management/ - title: アカウントの管理 - - desc: Datadog のデータ保護方法について - icon: security-lock - link: data_security/ - title: データセキュリティ - - desc: Datadog プラットフォーム上での開発 - icon: dev-code - link: developers/ - title: 開発者 - - desc: ベストプラクティスを学び、クライアント環境の監視を始めましょう。 - icon: colab - link: partners/ - title: パートナー + # For a better rendering, sections should include sub-sections with multiple of 4. + - nav_section: + - name: 'Observability' + - navtiles: + - title: インフラストラクチャー + link: infrastructure/ + icon: host-map + desc: ホストとインフラストラクチャーコンポーネントの健康状態とパフォーマンスを確認します。 + - title: メトリクス + link: metrics/ + icon: metric + desc: メトリクスの探索、検索、および分布の作成 + - title: Container Monitoring + link: containers/ + icon: container + desc: コンテナ化された環境の健康状態、パフォーマンス、およびセキュリティを監視します。 + - title: Serverless + link: serverless/ + icon: serverless + desc: サーバーレスアプリケーションにおけるパフォーマンスの問題を検出し、解決 + - title: Network Monitoring + link: network_monitoring/ + icon: network + desc: タグ付きオブジェクトを使用して、ネットワークトラフィックに関するデータを収集し、グラフ化 + - title: Cloud Cost Management + link: cloud_cost_management/ + icon: cloud-cost-management + desc: 観測可能性とコストデータを統合し、クラウド費用をコントロールする + - title: Cloudcraft + link: cloudcraft/ + icon: cloudcraft + desc: クラウドインフラストラクチャーをリアルタイムで視覚化し、図示します。 + - title: ストレージ管理 + link: infrastructure/storage_management/ + icon: file-wui + desc: クラウドストレージの支出、使用状況、およびデータの新鮮さを最適化し、トラブルシューティングします。 + - title: APM + link: tracing/ + icon: apm + desc: すぐに使えるパフォーマンスダッシュボードと分散型トレースを探ります。 + - title: Universal Service Monitoring + link: universal_service_monitoring/ + icon: usm + desc: コードを変更することなく、サービスを発見、マッピング、監視する + - title: Continuous Profiler + link: profiler/ + icon: profiling-1 + desc: パフォーマンススナップショットの比較とボトルネックの調査 + - title: Database Monitoring + link: database_monitoring/ + icon: database-2 + desc: 充実したダッシュボード、クエリメトリクス、クエリサンプルを参照 + - title: Data Streams Monitoring + link: data_streams/ + icon: datastreams-monitoring + desc: データストリーミングパイプラインのパフォーマンスを追跡、改善 + - title: Data Observability + link: data_observability/ + icon: data-observability-wui + desc: データの品質、パフォーマンス、およびコストを監視し、異常を検出して下流の問題を防ぎます。 + - title: Log Management + link: logs/ + icon: log + desc: 取り込んだログを処理し、監視し、アーカイブ + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: テレメトリ全体で PII、API キー、クレジットカード番号などの機密データを検出し、マスキングします。 + - title: Observability Pipelines + link: observability_pipelines/ + icon: pipelines + desc: テレメトリパイプラインの管理・監視 + - title: Error Tracking + link: error_tracking/ + icon: error-tracking + desc: Web、モバイル、バックエンド全体で重大なエラーを特定し、解決を加速 + - nav_section: + - name: 'AI' + - navtiles: + - title: Bits AI Agent + link: bits_ai/ + icon: bits-ai + desc: 開発、セキュリティ、および運用ワークフローを自動化する、あなたのエージェントのようなチームメイトです。 + - title: Watchdog + link: watchdog/ + icon: watchdog + desc: アプリケーションとインフラストラクチャーの異常を検出し、表面化する + - title: LLM Observability + link: llm_observability/ + icon: llm-observability + desc: LLM アプリケーションを追跡、監視、保護する + - nav_section: + - name: 'Digital Experience' + - navtiles: + - title: Real User Monitoring + link: real_user_monitoring/ + icon: rum + desc: アプリケーションのユーザーエクスペリエンスを把握、観察、分析 + - title: Product Analytics + link: product_analytics/ + icon: product-analytics + desc: ユーザーの行動に関する洞察を得て、データに基づく製品の決定を行います。 + - title: セッションリプレイ + link: session_replay/ + icon: session-replay + desc: ユーザーエクスペリエンスをキャプチャし、視覚的に再生します。 + - title: Synthetic Monitoring + link: synthetics/ + icon: synthetics + desc: アップタイムの確保、地域ごとの問題点の指摘、アプリケーションのパフォーマンステスト + - title: Mobile App Testing + link: mobile_app_testing/ + icon: mobile + desc: モバイルアプリケーションにおけるユーザージャーニーとビジネストランザクションの監視 + - nav_section: + - name: 'Software Delivery' + - navtiles: + - title: Internal Developer Portal + link: internal_developer_portal/ + icon: internal-developer-portal-wui + desc: テレメトリ、メタデータ、ワークフローを統合してデリバリーを加速します。 + - title: CI Visibility + link: continuous_integration/ + icon: ci + desc: CI パイプラインの健全性とパフォーマンスを監視 + - title: Test Optimization + link: tests/ + icon: flaky-test-wui + desc: 不安定なテストの検出と、不安定なテストをもたらしたコミットの特定 + - title: Continuous Testing + link: continuous_testing/ + icon: continuous-testing + desc: CI/CD プロバイダーでコードレスインテグレーションとエンドツーエンドテストを実施します。 + - title: IDE Plugins + link: ide_plugins/ + icon: ide + desc: コーディング中に IDE から直接 Datadog サービスと対話します。 + - title: DORA Metrics + link: dora_metrics/ + icon: ci + desc: 組織のソフトウェアデリバリープロセスを測定し、改善します。 + - title: Feature Flag + link: feature_flags/ + icon: signpost + desc: 機能を切り替え、A/B テストを実行し、コードのデプロイなしで機能を段階的に展開します。 + - title: Code Coverage + link: code_coverage/ + icon: code-3 + desc: カバレッジデータのトレンドを視覚化し、カバレッジの閾値に基づいて PR マージをブロックします。 + - nav_section: + - name: 'Security' + - navtiles: + - title: Cloud SIEM + link: security/cloud_siem/ + icon: siem + desc: クラウドおよびオンプレミスシステム全体でセキュリティの脅威を検出、調査、対応します。 + - title: Code Security + link: security/code_security/ + icon: security-code-security + desc: コード、依存関係、インフラストラクチャーの脆弱性を検出し、修正します。 + - title: Cloud Security + link: security/cloud_security_management/ + icon: cloud-security-management + desc: 構成を継続的に監査し、アイデンティティリスクを評価し、クラウドインフラストラクチャー全体で脅威を検出します。 + - title: App and API Protection + link: security/application_security/ + icon: app-sec + desc: 本番アプリケーションとAPIをリアルタイムで狙った脅威を検出し、ブロックします。 + - title: Workload Protection + link: security/workload_protection/ + icon: security-workload-security + desc: ファイル、ネットワーク、プロセスの活動を監視し、インフラストラクチャーへのリアルタイムの脅威を検出します。 + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: テレメトリ全体で PII、API キー、クレジットカード番号などの機密データを検出し、マスキングします。 + - nav_section: + - name: 'Service Management' + - navtiles: + - title: Incident Management + link: service_management/incident_management + icon: incidents + desc: 組織における破壊的インシデントの特定、分析、緩和 + - title: オンコール + link: incident_response/on-call/ + icon: on-call + desc: オンコールスケジュールとページングを使用して、適切なチームメンバーにアラートをルーティングし、エスカレーションします。 + - title: ステータスページ + link: incident_response/status_pages/ + icon: status-page-wui + desc: サービスの可用性とインシデントの更新をユーザーやステークホルダーに伝えます。 + - title: Service Level Objectives + link: service_level_objectives/ + icon: slos + desc: 一貫した顧客体験を提供するために、パフォーマンス目標を定義し、追跡します。 + - title: Case Management + link: incident_response/case_management/ + icon: case-management + desc: 一元的な責任とチームのコラボレーションで問題をトリアージし、追跡し、修正します。 + - title: Workflow Automation + link: service_management/workflows/ + icon: workflows + desc: 技術スタック全体のプロセスの自動化とオーケストレーション + - title: App Builder + link: service_management/app_builder/ + icon: app-builder + desc: 内部ツールを効率化するために、ローコードアプリケーションを作成します。 + - nav_section: + - name: 'Platform Capabilities and Extending Datadog' + - navtiles: + - title: モニターとアラート設定 + link: monitors/ + icon: monitor + desc: モニターや通知の作成、編集、管理 + - title: ダッシュボード + link: dashboards/ + icon: dashboard + desc: データの可視化、分析、インサイト生成 + - title: ノートブック + link: notebooks/ + icon: notebook + desc: 調査、ポストモーテム、ランブック用のライブグラフを持つリッチテキストドキュメントを作成します。 + - title: モバイルアプリ + link: mobile/ + icon: mobile + desc: Datadog のアラート、インシデントなどをモバイルデバイスで閲覧 + - title: Fleet Automation + link: agent/fleet_automation/ + icon: fleet-automation-wui + desc: リモートでエージェントを大規模に構成、アップグレード、管理します。 + - title: Account Management + link: account_management/ + icon: cog-2 + desc: 組織ベースの設定、請求、データアクセス制御を管理します。 + - title: Event Management + link: events/ + icon: events + desc: アプリケーションとインフラストラクチャーの注目すべき変化やアラートを追跡 + - title: CoScreen + link: coscreen/ + icon: coscreen + desc: ペアプログラミングやインシデント管理のために、アプリケーションウィンドウを共有し、相互作用します。 + - title: OpenTelemetry + link: opentelemetry/ + icon: open-telemetry + desc: OpenTelemetry のメトリクス、ログ、トレースを Datadog に取り込む + - title: Integrations + link: integrations/ + icon: integrations + desc: アプリケーション、サービス、システムに関するデータを収集 + - title: API + link: api/latest/ + icon: api + desc: Datadog API を試す + - title: Data Security + link: data_security/ + icon: security-lock + desc: Datadog のデータ保護方法について + - title: クライアント SDK + link: client_sdks/ + icon: building-block + desc: プラットフォーム用のDatadog SDKをインストールし、構成します。 + - title: Datadogを拡張します。 + link: extend/ + icon: dev-code + desc: Datadogプラットフォームを拡張します。 + - title: パートナー + link: partners/ + icon: colab + desc: ベストプラクティスを学び、クライアント環境の監視を始めましょう。 + popular_searches: -- link: api/ - title: API ドキュメント - weight: 10 -- link: getting_started/agent/ - title: Agent のインストール - weight: 20 -- link: logs/log_collection/ - title: ログの収集 - weight: 30 -- link: integrations/ - title: インテグレーションのセットアップ - weight: 40 + - title: APIドキュメント + link: api/ + weight: 10 + - title: Agent のインストール + link: getting_started/agent/ + weight: 20 + - title: ログ収集 + link: logs/log_collection/ + weight: 30 + - title: インテグレーションのセットアップ + link: integrations/ + weight: 40 diff --git a/data/partials/home.ko.yaml b/data/partials/home.ko.yaml index c811ba77ba1..a3853074640 100644 --- a/data/partials/home.ko.yaml +++ b/data/partials/home.ko.yaml @@ -1,197 +1,302 @@ -guides: -- desc: Datadog으로 데이터를 전송하는 호스트에서 이벤트와 메트릭을 수집합니다. - link: getting_started/agent/ - link_text: 에이전트 시작하기 - title: 에이전트 설치하기 -- desc: 850개 이상의 내장 통합을 통해 메트릭, 트레이스 및 로그를 수집하여 Datadog으로 전송하세요. - link: getting_started/integrations/ - link_text: 통합 시작하기 - title: 통합 설정하기 -- desc: Datadog에서 수집한 데이터를 시각화하고 대시보드, 알림, 모니터 등을 생성합니다. - link: getting_started/application/ - link_text: Datadog 시작하기 - title: App에서 시작하기 heading: Datadog 설명서에 오신 것을 환영합니다. + +guides: + # There can be only 3 guides in this section + - title: Agent 설치하기 + desc: Datadog으로 데이터를 전송하는 호스트에서 이벤트와 메트릭을 수집합니다. + link_text: Agent 시작하기 + link: getting_started/agent/ + - title: Integrations 설정하기 + desc: "1,000개 이상의 내장 통합을 통해 메트릭, 트레이스 및 로그를 수집하여 Datadog으로 전송하세요." + link_text: Integrations 시작하기 + link: getting_started/integrations/ + - title: 앱에서 시작하기 + desc: "Datadog에서 수집한 데이터를 시각화하고 대시보드, 경보, 모니터링 등을 생성합니다." + link_text: Datadog에서 시작하기 + link: getting_started/application/ + nav_sections: -- nav_section: - - name: 플랫폼 서비스 - - navtiles: - - desc: 데이터 수집 및 전송을 위한 Datadog 에이전트를 설치하고 설정합니다. - icon: agent-fill - link: agent/ - title: 에이전트 - - desc: 애플리케이션, 서비스, 시스템에 관한 데이터를 수집합니다. - icon: integrations - link: integrations/ - title: 통합 - - desc: OpenTelemetry 메트릭, 로그, 트레이스를 Datadog으로 전송합니다. - icon: open-telemetry - link: opentelemetry/ - title: OpenTelemetry - - desc: 데이터를 시각화하고 분석하여 인사이트를 생성합니다. - icon: dashboard - link: dashboards/ - title: 대시보드 - - desc: 모니터와 알림을 생성, 편집 및 관리합니다. - icon: monitor - link: monitors/ - title: 모니터 및 알람 - - desc: 애플리케이션 및 인프라스트럭처의 이상 징후를 감지하고 표면화합니다. - icon: watchdog - link: watchdog/ - title: Datadog Watchdog - - desc: 모바일 기기에서 Datadog 알림, 인시던트 등을 확인합니다. - icon: mobile - link: mobile/ - title: 모바일 애플리케이션 - - desc: 위험 요소가 있는 조직의 인시던트 식별, 분석 및 완화 - icon: incidents - link: service_management/incident_management - title: '인시던트 관리 ' - - desc: 애플리케이션 및 인프라스트럭처에서 중요한 변경 사항 및 알림을 추적합니다. - icon: events - link: events/ - title: 이벤트 - - desc: 기술 스택 전반에서 프로세스 자동화 및 오케스트레이션 - icon: workflows - link: service_management/workflows/ - title: 워크플로 자동화 - - desc: 로우코드 애플리케이션으로 내부 도구 간소화하기 - icon: app-builder - link: service_management/app_builder/ - title: 앱 빌더 -- nav_section: - - name: 제품 - - navtiles: - - desc: 호스트, 컨테이너, 프로세스 및 서버리스 기능을 추적합니다. - icon: host-map - link: infrastructure/ - title: 인프라스트럭처 - - desc: 서버리스 애플리케이션의 성능 문제를 감지하고 해결합니다. - icon: serverless - link: serverless/ - title: 서버리스 - - desc: 태그가 지정된 개체를 통해 네트워크 트래픽에 대한 데이터를 수집하고 그래프로 표시합니다. - icon: network - link: network_monitoring/ - title: 네트워크 모니터링 - - desc: 통합된 관찰 가능성 및 비용 데이터로 클라우드 지출을 관리합니다. - icon: cloud-cost-management - link: cloud_cost_management/ - title: 클라우드 비용 관리 - - desc: 즉시 사용 가능한 성능 대시보드 및 분산된 트레이스를 탐색합니다. - icon: apm - link: tracing/ - title: APM - - desc: 성능 스냅샷을 비교하고 병목 현상에 대해 자세히 살펴봅니다. - icon: profiling-1 - link: profiler/ - title: 지속적 프로파일러 - - desc: 강화된 대시보드, 쿼리 메트릭 및 쿼리 샘플을 확인합니다. - icon: database-2 - link: database_monitoring/ - title: 데이터베이스 모니터링 - - desc: 데이터 스트리밍 파이프라인의 성능 추적 및 개선 - icon: datastreams-monitoring - link: data_streams/ - title: 데이터 스트림 모니터링 - - desc: 데이터 처리 작업 모니터링 및 최적화 - icon: data-jobs-monitoring - link: data_jobs/ - title: 데이터 작업 모니터링 - - desc: 코드 변경 없이 서비스를 검색하고 매핑하며, 모니터링합니다. - icon: usm - link: universal_service_monitoring/ - title: 범용 서비스 모니터링 - - desc: 가동 시간을 보장하고, 지역적 문제를 제기하며, 애플리케이션 성능을 테스트합니다. - icon: synthetics - link: synthetics/ - title: 신서틱(Synthetic) 모니터링 - - desc: 웹, 모바일, 백엔드에서 크리티컬한 오류를 파악하고 해결하는 속도 높이기 - icon: error-tracking - link: error_tracking/ - title: 오류 추적 - - desc: 애플리케이션 사용자 경험을 수집하고 관찰 및 분석합니다. - icon: rum - link: real_user_monitoring/ - title: 실제 사용자 모니터링 - - desc: 사용자 행동에 대한 인사이트를 확보하고 데이터 기반 제품 의사 결정을 내리세요 - icon: product-analytics - link: product_analytics/ - title: 제품 분석 - - desc: 모바일 애플리케이션의 사용자 여정 및 비즈니스 거래 모니터링 - icon: mobile - link: mobile_app_testing/ - title: 모바일 애플리케이션 테스팅 - - desc: CI/CD 제공 업체와 코딩 없는 통합 및 end-to-end 테스트를 수행합니다. - icon: continuous-testing - link: continuous_testing/ - title: 지속적인 테스트 - - desc: CI 파이프라인의 상태 및 성능 모니터링 - icon: ci - link: continuous_integration/ - title: CI 가시성 - - desc: 취약한 테스트를 감지하고 취약한 테스트를 기져오는 커밋 식별 - icon: ci - link: tests/ - title: 테스트 최적화 - - desc: 위협, 취약성 및 오설정 탐지 - icon: security-platform - link: security/ - title: 보안 - - desc: 메트릭에 대한 배포를 탐색하고 생성합니다. - icon: metric - link: metrics/ - title: 메트릭 - - desc: 수집된 로그를 처리하고 모니터링 및 보관합니다. - icon: log - link: logs/ - title: 로그 관리 - - desc: 텔레메트리 파이프라인을 관리하고 모니터링합니다. - icon: pipelines - link: observability_pipelines/ - title: 관측 가능성 파이프라인 - - desc: LLM 애플리케이션 추적 및 모니터링하고 보안 유지하기 - icon: llm-observability - link: llm_observability/ - title: LLM 관찰 가능성 - - desc: 원격 측정, 메타데이터, 워크플로를 통합하여 신속하게 전달하세요 - icon: internal-developer-portal-wui - link: internal_developer_portal - title: 내부 개발자 포털 -- nav_section: - - name: 구성 - - navtiles: - - desc: Datadog API를 사용해 보세요. - icon: api - link: api/latest/ - title: API - - desc: 조직 기반 설정 및 빌링에 액세스합니다. - icon: cog-2 - link: account_management/ - title: 계정 관리 - - desc: Datadog의 데이터 보호에 대해 알아보세요. - icon: security-lock - link: data_security/ - title: 데이터 보안 - - desc: Datadog 플랫폼에서 개발합니다. - icon: dev-code - link: developers/ - title: 개발자 - - desc: 모범 사례에 대해 알아보고 고객 환경 모니터링 시작하기 - icon: colab - link: partners/ - title: 파트너 + # For a better rendering, sections should include sub-sections with multiple of 4. + - nav_section: + - name: 'Observability' + - navtiles: + - title: Infrastructure + link: infrastructure/ + icon: host-map + desc: 호스트 및 인프라 구성 요소의 상태와 성능을 확인하세요. + - title: Metrics + link: metrics/ + icon: metric + desc: "메트릭에 대한 배포를 탐색, 검색 및 생성합니다." + - title: Container Monitoring + link: containers/ + icon: container + desc: "컨테이너화된 환경의 상태, 성능 및 보안을 모니터링하세요." + - title: Serverless + link: serverless/ + icon: serverless + desc: 서버리스 애플리케이션의 성능 문제를 감지하고 해결합니다. + - title: Network Monitoring + link: network_monitoring/ + icon: network + desc: 태그가 지정된 개체를 사용해 네트워크 트래픽에 대한 데이터를 수집하고 그래프로 표시합니다. + - title: Cloud Cost Management + link: cloud_cost_management/ + icon: cloud-cost-management + desc: 통합된 관찰 가능성 및 비용 데이터로 클라우드 지출을 관리합니다. + - title: Cloudcraft + link: cloudcraft/ + icon: cloudcraft + desc: 클라우드 인프라스트럭처를 실시간으로 시각화하고 다이어그램으로 표현합니다. + - title: 스토리지 관리 + link: infrastructure/storage_management/ + icon: file-wui + desc: "클라우드 스토리지 비용, 사용량 및 데이터 신선도를 최적화하고 문제를 해결하세요." + - title: APM + link: tracing/ + icon: apm + desc: 즉시 사용 가능한 성능 대시보드 및 분산된 트레이스를 탐색하세요. + - title: Universal Service Monitoring + link: universal_service_monitoring/ + icon: usm + desc: 코드 변경 없이 서비스를 검색하고 매핑하며 모니터링합니다. + - title: Continuous Profiler + link: profiler/ + icon: profiling-1 + desc: 성능 스냅샷을 비교하고 병목 현상에 대해 자세히 살펴봅니다. + - title: Database Monitoring + link: database_monitoring/ + icon: database-2 + desc: "강화된 대시보드, 쿼리 메트릭 및 쿼리 샘플을 확인합니다." + - title: Data Streams Monitoring + link: data_streams/ + icon: datastreams-monitoring + desc: 데이터 스트리밍 파이프라인의 성능을 추적 및 개선합니다. + - title: Data Observability + link: data_observability/ + icon: data-observability-wui + desc: "데이터 품질, 성능 및 비용을 모니터링하여 이상을 감지하고 하류 문제를 예방하세요." + - title: Log Management + link: logs/ + icon: log + desc: 수집된 로그를 처리하고 모니터링 및 보관합니다. + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "텔레메트리 전반에 걸쳐 PII, API 키, 신용 카드 번호 등 민감한 데이터를 탐지하고 익명화 처리하세요." + - title: Observability Pipelines + link: observability_pipelines/ + icon: pipelines + desc: 텔레메트리 파이프라인을 관리하고 모니터링합니다. + - title: Error Tracking + link: error_tracking/ + icon: error-tracking + desc: "웹, 모바일 및 백엔드에서 크리티컬한 오류를 파악하고 문제 해결 속도를 높입니다." + - nav_section: + - name: 'AI' + - navtiles: + - title: Bits AI Agent + link: bits_ai/ + icon: bits-ai + desc: "개발, 보안 및 운영 워크플로를 자동화하는 에이전틱 동료입니다." + - title: Watchdog + link: watchdog/ + icon: watchdog + desc: 애플리케이션 및 인프라스트럭처의 이상 징후를 감지하고 표면화합니다. + - title: LLM Observability + link: llm_observability/ + icon: llm-observability + desc: "LLM 애플리케이션을 트레이스, 모니터링하고 보안을 유지합니다." + - nav_section: + - name: 'Digital Experience' + - navtiles: + - title: Real User Monitoring + link: real_user_monitoring/ + icon: rum + desc: "애플리케이션 사용자 경험을 수집, 관찰 및 분석합니다." + - title: Product Analytics + link: product_analytics/ + icon: product-analytics + desc: 사용자 행동에 대한 인사이트를 확보하고 데이터 기반 제품 의사 결정을 내리세요. + - title: 세션 리플레이 + link: session_replay/ + icon: session-replay + desc: 사용자 경험을 캡처하고 시각적으로 재생하세요. + - title: Synthetic Monitoring + link: synthetics/ + icon: synthetics + desc: "가동 시간을 보장하고, 지역적 문제를 제기하며, 애플리케이션 성능을 테스트합니다." + - title: Mobile App Testing + link: mobile_app_testing/ + icon: mobile + desc: 모바일 애플리케이션의 사용자 여정 및 비즈니스 트랜잭션을 모니터링합니다. + - nav_section: + - name: 'Software Delivery' + - navtiles: + - title: Internal Developer Portal + link: internal_developer_portal/ + icon: internal-developer-portal-wui + desc: "텔레메트리, 메타데이터 및 워크플로를 통합해 전달 속도를 높입니다." + - title: CI Visibility + link: continuous_integration/ + icon: ci + desc: CI 파이프라인의 상태와 성능을 모니터링합니다. + - title: Test Optimization + link: tests/ + icon: flaky-test-wui + desc: 취약한 테스트를 감지하고 취약한 테스트를 가져오는 커밋을 식별합니다. + - title: Continuous Testing + link: continuous_testing/ + icon: continuous-testing + desc: CI/CD 제공업체와 코딩 없는 통합 및 엔드투엔드 테스트를 수행합니다. + - title: IDE Plugins + link: ide_plugins/ + icon: ide + desc: 코딩하는 동안 IDE에서 Datadog 서비스와 직접 상호작용하세요. + - title: DORA Metrics + link: dora_metrics/ + icon: ci + desc: 조직의 소프트웨어 배포 프로세스를 측정하고 개선하세요. + - title: Feature Flag + link: feature_flags/ + icon: signpost + desc: 기능을 전환하고 A/B 테스트를 실행하며 코드 배포 없이 기능을 점진적으로 출시하세요. + - title: Code Coverage + link: code_coverage/ + icon: code-3 + desc: 커버리지 데이터 추세를 시각화하고 커버리지 기준에 따라 PR 병합을 차단하세요. + - nav_section: + - name: 'Security' + - navtiles: + - title: Cloud SIEM + link: security/cloud_siem/ + icon: siem + desc: "클라우드 및 온프레미스 시스템 전반에 걸쳐 보안 위협을 탐지, 조사 및 대응하세요." + - title: Code Security + link: security/code_security/ + icon: security-code-security + desc: "코드, 종속성 및 인프라 코드에서 취약점을 탐지하고 수정하세요." + - title: Cloud Security + link: security/cloud_security_management/ + icon: cloud-security-management + desc: "구성을 지속적으로 감사하고, 신원 위험을 평가하며, 클라우드 인프라 전반에 걸쳐 위협을 탐지하세요." + - title: App and API Protection + link: security/application_security/ + icon: app-sec + desc: 실시간으로 프로덕션 애플리케이션과 API를 대상으로 하는 위협을 탐지하고 차단하세요. + - title: Workload Protection + link: security/workload_protection/ + icon: security-workload-security + desc: "파일, 네트워크 및 프로세스 활동을 모니터링하여 인프라에 대한 실시간 위협을 탐지하세요." + - title: Sensitive Data Scanner + link: security/sensitive_data_scanner/ + icon: sensitive-data-scanner + desc: "텔레메트리 전반에 걸쳐 PII, API 키, 신용 카드 번호 등 민감한 데이터를 탐지하고 익명화 처리하세요." + - nav_section: + - name: 'Service Management' + - navtiles: + - title: Incident Management + link: service_management/incident_management + icon: incidents + desc: "위험 요소가 있는 조직의 인시던트를 식별, 분석 및 완화합니다." + - title: 온콜 + link: incident_response/on-call/ + icon: on-call + desc: 온콜 일정과 페이징을 통해 경보를 적절한 팀원에게 라우팅하고 에스컬레이션합니다. + - title: Status Pages + link: incident_response/status_pages/ + icon: status-page-wui + desc: 서비스 가용성과 인시던트 업데이트를 사용자 및 이해관계자에게 전달하세요. + - title: Service Level Objectives + link: service_level_objectives/ + icon: slos + desc: 일관된 고객 경험을 제공하기 위해 성과 목표를 정의하고 추적하세요. + - title: Case Management + link: incident_response/case_management/ + icon: case-management + desc: 중앙 집중식 소유권과 팀 협업을 통해 문제를 분류하고 추적하며 수정하세요. + - title: Workflow Automation + link: service_management/workflows/ + icon: workflows + desc: 기술 스택 전반에서 프로세스를 자동화 및 오케스트레이션합니다. + - title: App Builder + link: service_management/app_builder/ + icon: app-builder + desc: 로우코드 애플리케이션을 생성하여 내부 도구를 간소화하세요. + - nav_section: + - name: 'Platform Capabilities and Extending Datadog' + - navtiles: + - title: 모니터링 및 경보 + link: monitors/ + icon: monitor + desc: "모니터링과 알림을 생성, 편집 및 관리합니다." + - title: Dashboards + link: dashboards/ + icon: dashboard + desc: 데이터를 시각화하고 분석하여 인사이트를 생성합니다. + - title: Notebooks + link: notebooks/ + icon: notebook + desc: "조사, 사후 분석 및 운영 문서를 위한 실시간 그래프가 포함된 리치 텍스트 문서를 생성하세요." + - title: 모바일 앱 + link: mobile/ + icon: mobile + desc: "모바일 장치에서 Datadog 경보, 인시던트 등을 조회합니다." + - title: Fleet Automation + link: agent/fleet_automation/ + icon: fleet-automation-wui + desc: "원격으로 Agent를 대규모로 구성, 업그레이드 및 관리하세요." + - title: 계정 관리 + link: account_management/ + icon: cog-2 + desc: "조직 기반 설정, 청구 및 데이터 접근 제어를 관리하세요." + - title: Event Management + link: events/ + icon: events + desc: 애플리케이션 및 인프라스트럭처에서 중요한 변경 사항 및 경보를 추적합니다. + - title: CoScreen + link: coscreen/ + icon: coscreen + desc: 페어 프로그래밍 및 인시던트 관리를 위해 애플리케이션 창을 공유하고 상호작용하세요. + - title: OpenTelemetry + link: opentelemetry/ + icon: open-telemetry + desc: "OpenTelemetry 메트릭, 로그 및 트레이스를 Datadog으로 전송합니다." + - title: Integrations + link: integrations/ + icon: integrations + desc: "애플리케이션, 서비스 및 시스템에 관한 데이터를 수집합니다." + - title: API + link: api/latest/ + icon: api + desc: Datadog API를 사용해 보세요. + - title: 데이터 보안 + link: data_security/ + icon: security-lock + desc: Datadog의 데이터 보호에 대해 알아보세요. + - title: 클라이언트 SDK + link: client_sdks/ + icon: building-block + desc: Datadog SDK를 귀하의 플랫폼에 맞게 설치하고 구성하세요. + - title: Datadog을 확장하세요. + link: extend/ + icon: dev-code + desc: Datadog 플랫폼을 확장하세요. + - title: 파트너 + link: partners/ + icon: colab + desc: 모범 사례에 대해 알아보고 고객 환경 모니터링을 시작하세요. + popular_searches: -- link: api/ - title: "API \b설명서" - weight: 10 -- link: getting_started/agent/ - title: 에이전트 설치 - weight: 20 -- link: logs/log_collection/ - title: 로그 수집 - weight: 30 -- link: integrations/ - title: 통합 설정 - weight: 40 + - title: API 설명서 + link: api/ + weight: 10 + - title: Agent 설치 + link: getting_started/agent/ + weight: 20 + - title: 로그 수집 + link: logs/log_collection/ + weight: 30 + - title: 통합 설정 + link: integrations/ + weight: 40