From e485a14307a2e33b4adcbcab10b52e190c5cf2d0 Mon Sep 17 00:00:00 2001 From: guacbot Date: Tue, 19 Nov 2024 19:43:24 -0500 Subject: [PATCH] Translation Pipeline PR (#26331) * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * updating translations * updating translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * adding translations * adding translations * adding translations * Deleting translations of content/ja/account_management/billing/rum_units.md * Deleting translations of content/fr/account_management/billing/rum_units.md * Deleting translations of content/es/account_management/billing/rum_units.md * Deleting translations of content/ko/account_management/billing/rum_units.md * adding translations * adding translations * updating translations * adding translations * adding translations * adding translations * adding translations * updating translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * updating translations * updating translations * updating translations * adding translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * updating translations * adding translations --------- Co-authored-by: Heston Hoffman --- .../account_management/billing/rum_units.md | 17 - .../continuous_integration/troubleshooting.md | 75 ++ .../es/dashboards/change_overlays/_index.md | 9 +- .../es/database_monitoring/troubleshooting.md | 73 ++ content/es/integrations/aerospike.md | 220 ++++++ content/es/integrations/agent_metrics.md | 104 +++ content/es/integrations/akamai_mpulse.md | 96 +++ content/es/integrations/alcide.md | 57 ++ content/es/integrations/amazon_appsync.md | 84 +++ content/es/integrations/amazon_athena.md | 64 ++ content/es/integrations/amazon_backup.md | 65 ++ .../amazon_certificate_manager.md | 66 ++ content/es/integrations/amazon_cloudhsm.md | 53 ++ content/es/integrations/amazon_codebuild.md | 93 +++ content/es/integrations/amazon_cognito.md | 89 +++ content/es/integrations/amazon_connect.md | 83 +++ content/es/integrations/amazon_dms.md | 84 +++ content/es/integrations/amazon_documentdb.md | 92 +++ content/es/integrations/amazon_ec2_spot.md | 71 ++ .../integrations/amazon_elastic_transcoder.md | 83 +++ content/es/integrations/amazon_elasticache.md | 13 +- content/es/integrations/amazon_fsx.md | 98 +++ content/es/integrations/amazon_gamelift.md | 84 +++ content/es/integrations/amazon_glue.md | 83 +++ content/es/integrations/amazon_guardduty.md | 54 ++ content/es/integrations/amazon_inspector.md | 84 +++ content/es/integrations/amazon_kafka.md | 7 +- content/es/integrations/amazon_keyspaces.md | 65 ++ .../amazon_kinesis_data_analytics.md | 67 ++ content/es/integrations/amazon_lex.md | 83 +++ .../es/integrations/amazon_mediaconnect.md | 83 +++ .../es/integrations/amazon_mediaconvert.md | 119 ++++ .../es/integrations/amazon_mediapackage.md | 83 +++ content/es/integrations/amazon_mediatailor.md | 83 +++ .../integrations/azure_public_ip_address.md | 58 ++ .../es/integrations/azure_queue_storage.md | 59 ++ .../azure_recovery_service_vault.md | 61 ++ content/es/integrations/azure_redis_cache.md | 62 ++ content/es/integrations/azure_relay.md | 57 ++ content/es/integrations/azure_search.md | 56 ++ content/es/integrations/azure_service_bus.md | 59 ++ .../es/integrations/azure_service_fabric.md | 89 +++ content/es/integrations/azure_sql_database.md | 61 ++ .../es/integrations/azure_sql_elastic_pool.md | 61 ++ .../azure_sql_managed_instance.md | 56 ++ .../es/integrations/azure_stream_analytics.md | 58 ++ .../es/integrations/azure_table_storage.md | 60 ++ .../es/integrations/azure_usage_and_quotas.md | 61 ++ .../es/integrations/azure_virtual_networks.md | 62 ++ content/es/integrations/azure_vm.md | 146 ++++ content/es/integrations/superwise.md | 134 ++++ content/es/integrations/syncthing.md | 133 ++++ content/es/integrations/syntheticemail.md | 107 +++ content/es/integrations/syslog_ng.md | 103 +++ content/es/integrations/systemd.md | 179 +++++ content/es/integrations/tcp_queue_length.md | 164 +++++ content/es/integrations/tcp_rtt.md | 107 +++ content/es/integrations/tenable.md | 129 ++++ content/es/integrations/terraform.md | 174 +++++ content/es/integrations/tidb.md | 251 +++++++ content/es/integrations/tidb_cloud.md | 104 +++ content/es/integrations/tls.md | 146 ++++ content/es/integrations/travis_ci.md | 75 ++ content/es/integrations/twenty_forty_eight.md | 71 ++ content/es/integrations/twistlock.md | 237 +++++++ content/es/integrations/webhooks.md | 410 +++++++++++ content/es/integrations/win32_event_log.md | 653 ++++++++++++++++++ content/es/metrics/summary.md | 253 +++++++ .../devices/troubleshooting.md | 102 +++ .../tracing/trace_explorer/trace_queries.md | 8 +- .../account_management/billing/rum_units.md | 16 - .../billing/apm_tracing_profiler.md | 2 +- content/ja/account_management/billing/aws.md | 5 +- .../ja/account_management/billing/azure.md | 2 +- .../billing/custom_metrics.md | 6 +- .../account_management/billing/rum_units.md | 17 - content/ja/account_management/saml/okta.md | 152 ++-- content/ja/agent/basic_agent_usage/chef.md | 22 +- content/ja/agent/basic_agent_usage/deb.md | 2 +- content/ja/agent/basic_agent_usage/heroku.md | 36 +- content/ja/agent/basic_agent_usage/suse.md | 2 +- content/ja/agent/basic_agent_usage/ubuntu.md | 2 +- content/ja/agent/fleet_automation/_index.md | 81 +++ .../ja/agent/troubleshooting/debug_mode.md | 5 +- content/ja/dashboards/functions/exclusion.md | 4 + .../database_monitoring/setup_mysql/aurora.md | 39 +- .../database_monitoring/setup_mysql/azure.md | 10 +- .../database_monitoring/setup_mysql/gcsql.md | 59 +- .../setup_postgres/aurora.md | 31 +- .../setup_postgres/azure.md | 10 +- .../setup_postgres/gcsql.md | 6 +- .../setup_sql_server/azure.md | 49 +- .../setup_sql_server/gcsql.md | 18 +- content/ja/developers/guide/dogwrap.md | 2 +- .../ja/getting_started/integrations/aws.md | 15 +- .../getting_started/tagging/assigning_tags.md | 11 +- content/ja/integrations/apache.md | 10 +- content/ja/integrations/azure.md | 77 +-- content/ja/integrations/azure_frontdoor.md | 9 +- content/ja/integrations/azure_iot_edge.md | 14 +- content/ja/integrations/azure_vm.md | 75 +- content/ja/integrations/bigpanda_saas.md | 4 +- content/ja/integrations/cassandra.md | 8 +- content/ja/integrations/ceph.md | 6 +- content/ja/integrations/cisco_aci.md | 25 +- content/ja/integrations/citrix_hypervisor.md | 12 +- content/ja/integrations/cloudflare.md | 62 +- content/ja/integrations/cockroachdb.md | 6 +- content/ja/integrations/confluent_cloud.md | 53 +- content/ja/integrations/coredns.md | 5 +- content/ja/integrations/couch.md | 6 +- content/ja/integrations/couchbase.md | 6 +- .../crest_data_systems_dell_emc_isilon.md | 12 +- content/ja/integrations/databricks.md | 80 ++- .../ja/integrations/datadog_cluster_agent.md | 30 +- content/ja/integrations/docker_daemon.md | 4 +- content/ja/integrations/dyn.md | 14 +- content/ja/integrations/ecs_fargate.md | 18 +- content/ja/integrations/eks_anywhere.md | 4 +- content/ja/integrations/elastic.md | 20 +- content/ja/integrations/embrace_mobile.md | 26 +- content/ja/integrations/etcd.md | 6 +- content/ja/integrations/fairwinds_insights.md | 6 +- content/ja/integrations/fastly.md | 14 +- content/ja/integrations/fluentbit.md | 8 +- content/ja/integrations/fluentd.md | 6 +- content/ja/integrations/github.md | 38 +- content/ja/integrations/go_expvar.md | 6 +- .../ja/integrations/google_cloud_dataproc.md | 10 +- content/ja/integrations/google_cloud_tpu.md | 83 ++- .../google_workspace_alert_center.md | 12 +- ...tric-streams-with-kinesis-data-firehose.md | 49 +- content/ja/integrations/gunicorn.md | 8 +- content/ja/integrations/haproxy.md | 34 +- content/ja/integrations/honeybadger.md | 6 +- content/ja/integrations/http_check.md | 6 +- content/ja/integrations/hyperv.md | 10 +- content/ja/integrations/iis.md | 14 +- content/ja/integrations/logstash.md | 6 +- content/ja/integrations/openshift.md | 108 +-- .../oracle_cloud_infrastructure.md | 310 ++++++++- content/ja/integrations/windows_registry.md | 6 +- content/ja/integrations/winkmem.md | 6 +- content/ja/logs/explorer/facets.md | 15 +- .../logs/guide/control-sensitive-logs-data.md | 4 +- ...r-logs-collection-troubleshooting-guide.md | 4 +- ...shooting-with-cross-product-correlation.md | 8 +- content/ja/logs/guide/forwarder.md | 17 +- .../ja/logs/guide/how-to-set-up-only-logs.md | 54 +- content/ja/logs/log_configuration/archives.md | 44 +- .../attributes_naming_convention.md | 68 +- .../dogstatsd_metrics_submission.md | 2 +- content/ja/metrics/distributions.md | 22 +- .../guide/how-to-set-up-rbac-for-monitors.md | 79 +-- .../browser/collecting_browser_errors.md | 38 +- .../serverless/libraries_integrations/cli.md | 4 +- .../libraries_integrations/extension.md | 2 +- content/ja/synthetics/api_tests/dns_tests.md | 4 +- content/ja/synthetics/api_tests/errors.md | 4 +- content/ja/synthetics/api_tests/grpc_tests.md | 32 +- content/ja/synthetics/api_tests/http_tests.md | 29 +- .../account_management/billing/rum_units.md | 16 - .../tracing/trace_explorer/trace_queries.md | 1 - data/partials/platforms.ja.yaml | 1 + data/partials/platforms.ko.yaml | 1 + i18n/ja.json | 2 +- 166 files changed, 8632 insertions(+), 951 deletions(-) delete mode 100644 content/es/account_management/billing/rum_units.md create mode 100644 content/es/continuous_integration/troubleshooting.md create mode 100644 content/es/database_monitoring/troubleshooting.md create mode 100644 content/es/integrations/aerospike.md create mode 100644 content/es/integrations/agent_metrics.md create mode 100644 content/es/integrations/akamai_mpulse.md create mode 100644 content/es/integrations/alcide.md create mode 100644 content/es/integrations/amazon_appsync.md create mode 100644 content/es/integrations/amazon_athena.md create mode 100644 content/es/integrations/amazon_backup.md create mode 100644 content/es/integrations/amazon_certificate_manager.md create mode 100644 content/es/integrations/amazon_cloudhsm.md create mode 100644 content/es/integrations/amazon_codebuild.md create mode 100644 content/es/integrations/amazon_cognito.md create mode 100644 content/es/integrations/amazon_connect.md create mode 100644 content/es/integrations/amazon_dms.md create mode 100644 content/es/integrations/amazon_documentdb.md create mode 100644 content/es/integrations/amazon_ec2_spot.md create mode 100644 content/es/integrations/amazon_elastic_transcoder.md create mode 100644 content/es/integrations/amazon_fsx.md create mode 100644 content/es/integrations/amazon_gamelift.md create mode 100644 content/es/integrations/amazon_glue.md create mode 100644 content/es/integrations/amazon_guardduty.md create mode 100644 content/es/integrations/amazon_inspector.md create mode 100644 content/es/integrations/amazon_keyspaces.md create mode 100644 content/es/integrations/amazon_kinesis_data_analytics.md create mode 100644 content/es/integrations/amazon_lex.md create mode 100644 content/es/integrations/amazon_mediaconnect.md create mode 100644 content/es/integrations/amazon_mediaconvert.md create mode 100644 content/es/integrations/amazon_mediapackage.md create mode 100644 content/es/integrations/amazon_mediatailor.md create mode 100644 content/es/integrations/azure_public_ip_address.md create mode 100644 content/es/integrations/azure_queue_storage.md create mode 100644 content/es/integrations/azure_recovery_service_vault.md create mode 100644 content/es/integrations/azure_redis_cache.md create mode 100644 content/es/integrations/azure_relay.md create mode 100644 content/es/integrations/azure_search.md create mode 100644 content/es/integrations/azure_service_bus.md create mode 100644 content/es/integrations/azure_service_fabric.md create mode 100644 content/es/integrations/azure_sql_database.md create mode 100644 content/es/integrations/azure_sql_elastic_pool.md create mode 100644 content/es/integrations/azure_sql_managed_instance.md create mode 100644 content/es/integrations/azure_stream_analytics.md create mode 100644 content/es/integrations/azure_table_storage.md create mode 100644 content/es/integrations/azure_usage_and_quotas.md create mode 100644 content/es/integrations/azure_virtual_networks.md create mode 100644 content/es/integrations/azure_vm.md create mode 100644 content/es/integrations/superwise.md create mode 100644 content/es/integrations/syncthing.md create mode 100644 content/es/integrations/syntheticemail.md create mode 100644 content/es/integrations/syslog_ng.md create mode 100644 content/es/integrations/systemd.md create mode 100644 content/es/integrations/tcp_queue_length.md create mode 100644 content/es/integrations/tcp_rtt.md create mode 100644 content/es/integrations/tenable.md create mode 100644 content/es/integrations/terraform.md create mode 100644 content/es/integrations/tidb.md create mode 100644 content/es/integrations/tidb_cloud.md create mode 100644 content/es/integrations/tls.md create mode 100644 content/es/integrations/travis_ci.md create mode 100644 content/es/integrations/twenty_forty_eight.md create mode 100644 content/es/integrations/twistlock.md create mode 100644 content/es/integrations/webhooks.md create mode 100644 content/es/integrations/win32_event_log.md create mode 100644 content/es/metrics/summary.md create mode 100644 content/es/network_monitoring/devices/troubleshooting.md delete mode 100644 content/fr/account_management/billing/rum_units.md delete mode 100644 content/ja/account_management/billing/rum_units.md create mode 100644 content/ja/agent/fleet_automation/_index.md delete mode 100644 content/ko/account_management/billing/rum_units.md diff --git a/content/es/account_management/billing/rum_units.md b/content/es/account_management/billing/rum_units.md deleted file mode 100644 index a0d9aeb8aec2f..0000000000000 --- a/content/es/account_management/billing/rum_units.md +++ /dev/null @@ -1,17 +0,0 @@ ---- -beta: true -private: true -title: Detalles de facturación de RUM ---- - -
-Las funciones que se mencionan esta página están en fase beta privada. Ponte en contacto con tu asesor de clientes para obtener más información. -
- -Una **sesión** es el recorrido que hace un usuario por tu aplicación web. Caduca tras 15 minutos de inactividad o tras 4 horas de actividad continua. - -**Mobile RUM Session** (Sesión RUM para móvil): Datadog recopila todas las pantallas visitadas por los usuarios finales en tus aplicaciones para móviles (Android, iOS, React Native), junto con la telemetría importante: errores y fallos de móviles y carga de recursos (XHR, imágenes, archivos CSS, scripts JS, etc). Todo esto se incluye en la sesión RUM para móvil. - -**RUM Lite Session** (Sesión RUM reducida): Datadog recopila todas las páginas visitadas por los usuarios finales en tus aplicaciones de navegador, junto con la telemetría importante: errores de frontend y métricas de rendimiento. Todo esto se incluye en la sesión RUM reducida. - -**RUM Replay Session** (Sesión de reproducción de RUM): Datadog recopila todas las páginas visitadas por los usuarios finales en tus aplicaciones de navegador, junto con la telemetría importante: errores de frontend, métricas de rendimiento, carga de recursos (XHR, imágenes, archivos CSS, scripts JS, etc). Además, puedes recopilar una reproducción de las acciones de tus usuarios al representar su experiencia en formato de película. Todo esto se incluye en la sesión de reproducción de RUM. \ No newline at end of file diff --git a/content/es/continuous_integration/troubleshooting.md b/content/es/continuous_integration/troubleshooting.md new file mode 100644 index 0000000000000..681ba8e2f9c3d --- /dev/null +++ b/content/es/continuous_integration/troubleshooting.md @@ -0,0 +1,75 @@ +--- +further_reading: +- link: /continuous_integration/tests + tag: Documentación + text: Aprender a monitorizar tus tests CI +- link: /continuous_integration/pipelines + tag: Documentación + text: Aprender a monitorizar tus procesos CI +- link: /tests/test_impact_analysis + tag: Documentación + text: Más información sobre Test Impact Analyzer +title: Solucionar problemas de CI Visibility +--- + +{{< site-region region="gov" >}} +
CI Visibility no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.
+{{< /site-region >}} + +## Información general + +Esta página proporciona información para ayudarte a solucionar problemas con CI Visibility. Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][2]. + +## Tu instancia de Jenkins está instrumentada, pero Datadog no muestra ningún dato + +1. Asegúrate de que al menos un pipeline haya terminado de ejecutarse. La información sobre la ejecución del pipeline sólo se envía una vez que el pipeline ha finalizado. +2. Asegúrate de que el host del Datadog Agent está configurado correctamente y es accesible por el complemento Datadog. Puedes probar la conectividad haciendo clic en el botón **Check connectivity with the Datadog Agent** (Probar conectividad con el Datadog Agent), en la interfaz de usuario (UI) de configuración del complemento Jenkins. +3. Verifica si hay errores en los logs de Jenkins. Puedes habilitar logs de nivel de depuración para el complemento Datadog [creando un archivo `logging.properties`][1] y añadiendo la línea `org.datadog.level = ALL`. + +## Pipeline no encontrado + +Se muestra un mensaje "Pipeline not found" (No se encontró el pipeline) cuando se hace clic en datos incompletos procedentes de un pipeline en curso para aquellos [proveedores de CI que no admiten pipelines `running`][15]. Los datos se reciben progresivamente para etapas, tareas o comandos personalizados. Espera hasta que el pipeline haya finalizado e inténtalo nuevamente. + +## Faltan pipelines en la página de pipelines + +La página de pipelines sólo muestra pipelines sin información Git o pipelines con información Git que pertenecen a la rama por defecto del repositorio Git. + +## Faltan etapas o tareas en los cuadros de resumen + +La falta de etapas o tareas en la página _Detalles del pipeline_ puede deberse a un error de configuración. Asegúrate de que el nombre del pipeline almacenado en las ejecuciones de etapas o tareas coincide con el **mismo** nombre de tu pipeline principal. Si utilizas pipelines personalizados, consulta la [especificación del endpoint de la API pública][15]. + +## Faltan variables en los pipelines de Gitlab + +[Las variables definidas por el usuario en Gitlab][16] deben ser informadas en el campo `@ci.parameters` en CI Visibility. Sin embargo, esta información sólo está presente en algunos casos, como los pipelines aguas abajo, y puede faltar en el resto de los casos, ya que Gitlab [no siempre proporciona esta información][17] a Datadog. + +### Limitaciones en la ejecución de pipelines + +#### La entrega de eventos de webhook no está garantizada por los proveedores de CI + +El soporte para la ejecución de pipelines depende de los datos enviados por los proveedores de CI, indicando el estado de la ejecución. Si estos datos no están disponibles, es posible que las ejecuciones marcadas como `Running` en Datadog ya hayan finalizado. + +#### Duración máxima de la ejecución de un pipeline + +Una ejecución de pipeline puede conservar el estado `Running` durante un máximo de tres días. Si sigue en ejecución después de ese tiempo, la ejecución del pipeline no aparece en CI Visibility. Si una ejecución de pipeline finaliza después de tres días, la ejecución del pipeline finalizada aparece en CI Visibility con su correspondiente estado final (`Success`, `Error`, `Canceled`, `Skipped`) y con la duración correcta. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://www.jenkins.io/doc/book/system-administration/viewing-logs/ +[2]: /es/help/ +[3]: /es/continuous_integration/tests/ +[4]: https://app.datadoghq.com/ci/test-runs +[5]: https://app.datadoghq.com/ci/test-services +[6]: /es/tracing/troubleshooting/tracer_debug_logs +[7]: /es/continuous_integration/tests/containers/ +[8]: /es/continuous_integration/tests/junit_upload/?tabs=linux#collecting-environment-configuration-metadata +[9]: https://app.datadoghq.com/ci/settings/repository +[10]: /es/tests/test_impact_analysis +[11]: https://developer.harness.io/kb/continuous-integration/articles/using_git_credentials_from_codebase_connector_in_ci_pipelines_run_step/ +[12]: https://docs.github.com/en/pull-requests/collaborating-with-pull-requests/working-with-forks/syncing-a-fork#syncing-a-fork-branch-from-the-web-ui +[13]: /es/api/latest/ci-visibility-pipelines/#send-pipeline-event +[14]: /es/continuous_integration/tests/#supported-features +[15]: /es/continuous_integration/pipelines/#supported-features +[16]: https://docs.gitlab.com/ee/ci/variables/#define-a-cicd-variable-in-the-gitlab-ciyml-file +[17]: https://gitlab.com/gitlab-org/gitlab/-/issues/29539 \ No newline at end of file diff --git a/content/es/dashboards/change_overlays/_index.md b/content/es/dashboards/change_overlays/_index.md index 8870184f9059a..d57a34fb06228 100644 --- a/content/es/dashboards/change_overlays/_index.md +++ b/content/es/dashboards/change_overlays/_index.md @@ -18,7 +18,7 @@ further_reading: text: Empezando con el seguimiento de implementaciones RUM - link: https://www.datadoghq.com/blog/datadog-rum-deployment-tracking/ tag: Blog - text: Solución de problemas en implantaciones frontend fallidas con el seguimiento + text: Solución de problemas en implementaciones frontend fallidas con el seguimiento de implementaciones en RUM - link: https://www.datadoghq.com/blog/change-overlays/ tag: Blog @@ -26,10 +26,6 @@ further_reading: de cambios title: Cambiar superposiciones --- -
- La función de superposición de cambios está en fase beta. -
- ## Información general @@ -76,10 +72,11 @@ En las implementaciones de APM, las superposiciones aparecen en gráficos de ser ### ¿Cuál es el alcance de las implementaciones? En las implementaciones de APM debe especificarse `env`. Si tienes una variable de plantilla `env` o `datacenter` establecida en tu dashboard, las implementaciones se filtran para que coincidan con la selección. De lo contrario, `env` cambia por defecto a `prod`. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} + [1]: /es/tracing/services/deployment_tracking/ [2]: /es/watchdog/faulty_deployment_detection/ [3]: /es/dashboards/widgets/ diff --git a/content/es/database_monitoring/troubleshooting.md b/content/es/database_monitoring/troubleshooting.md new file mode 100644 index 0000000000000..fd60388695e05 --- /dev/null +++ b/content/es/database_monitoring/troubleshooting.md @@ -0,0 +1,73 @@ +--- +description: Configurar la resolución de problemas de monitorización de bases de datos +title: Solucionar problemas de monitorización de bases de datos +--- + +Esta página detalla los problemas comunes de configuración y uso de la monitorización de bases de datos y cómo resolverlos. Datadog recomienda permanecer en la última versión estable del Agent y adherirse a la última [documentación de configuración][1], ya que puede cambiar con las versiones del Agent. + +Para solucionar los problemas de configuración de bases de datos, utiliza la página de resolución de problemas correspondiente: + +* [Solucionar problemas de configuración de MySQL][2] +* [Solucionar problemas de configuración de Oracle][8] +* [Solucionar problemas de configuración de Postgres][3] +* [Solucionar problemas de configuración de SQL Server][4] +* [Solucionar problemas de configuración de MongoDB][9] + +## Diagnóstico de problemas comunes +### No se pueden visualizar los parámetros de Bind Query + +En este momento, los parámetros de Bind Query sin procesar están ofuscados para Query Samples y Explain Plans, y se sustituyen por un carácter `?`. + + +### Límite de hosts de DBM + +Dependiendo de lo complejas que sean las bases de datos que se están monitorizando, la presencia de demasiados hosts de DBM en un Agent podría sobrecargar el Agent y provocar retrasos en la recopilación de datos. Si el Agent se sobrecarga, es posible que aparezcan advertencias como `Job loop stopping due to check inactivity in the Agent logs`. + +Se recomienda tener un único monitor del Datadog Agent, como máximo 10 hosts de DBM. Si tienes más de 10 hosts de DBM, deberías considerar repartirlos en varios Datadog Agents. + + +### No hay datos de DBM visibles en Datadog: ¿Problemas de conexión? + +Si crees que tu configuración es correcta, pero no estás viendo datos en tus páginas de DBM, es posible que tu Agent no pueda enviar datos a los endpoints de recopilación de datos de Datadog. Para diagnosticar problemas de conexión, realiza los siguientes pasos para solucionar problemas de conexión desde la localización donde se ejecuta el Agent. + +1. Prueba la conectividad TCP en los endpoints de recopilación de DBM: + +``` +telnet dbm-metrics-intake.datadoghq.com 443 +telnet dbquery-intake.datadoghq.com 443 +``` + +2. Prueba publicar una carga útil vacía con una clave de API no válida en ambos endpoints de DBM. +Estos comandos deberían fallar con el código HTTP `403: Forbidden`. + +``` +curl -vvv -X POST "https://dbm-metrics-intake.datadoghq.com/api/v2/databasequery" \ +-H "Accept: application/json" \ +-H "Content-Type: application/json" \ +-H "DD-API-KEY: NONE" \ +-d "[{}]" + +curl -vvv -X POST "https://dbquery-intake.datadoghq.com/api/v2/databasequery" \ +-H "Accept: application/json" \ +-H "Content-Type: application/json" \ +-H "DD-API-KEY: NONE" \ +-d "[{}]" +``` + +Las respuestas deben contener `{"status":"error","code":403,"errors":["Forbidden"],...}` si las solicitudes se enviaron correctamente y se recibió una respuesta. + +Algunas causas comunes de fallos de conexión incluyen las [configuraciones de proxy][7] y los cortafuegos, que envían el tráfico saliente a endpoints de Datadog. Si tienes un proxy o un cortafuegos, asegúrate de que las direcciones IP de los endpoints de DBM estén autorizadas. Estas direcciones se encuentran en el bloque APM en `https://ip-ranges.`{{< region-param key="dd_site" code="true" >}}. + +## ¿Necesitas más ayuda? + +Si sigues teniendo problemas, ponte en contacto con el [servicio de asistencia de Datadog][5] para recibir ayuda. + + +[1]: /es/database_monitoring/#getting-started +[2]: /es/database_monitoring/setup_mysql/troubleshooting/ +[3]: /es/database_monitoring/setup_postgres/troubleshooting/ +[4]: /es/database_monitoring/setup_sql_server/troubleshooting/ +[5]: /es/help/ +[7]: /es/agent/configuration/proxy/?tab=linux +[8]: /es/database_monitoring/setup_oracle/troubleshooting/ +[9]: /es/database_monitoring/setup_mongodb/troubleshooting/ \ No newline at end of file diff --git a/content/es/integrations/aerospike.md b/content/es/integrations/aerospike.md new file mode 100644 index 0000000000000..aaa1bfd04d6ec --- /dev/null +++ b/content/es/integrations/aerospike.md @@ -0,0 +1,220 @@ +--- +app_id: aerospike +app_uuid: 68799442-b764-489c-8bbd-44cb11a15f4e +assets: + dashboards: + Aerospike Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - aerospike.uptime + - aerospike.namespace.memory_free_pct + metadata_path: metadata.csv + prefix: aerospike. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10067 + source_type_name: Aerospike +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- data stores +- log collection +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/aerospike/README.md +display_on_public_website: true +draft: false +git_integration_title: aerospike +integration_id: aerospike +integration_title: Aerospike +integration_version: 4.0.0 +is_public: true +manifest_version: 2.0.0 +name: aerospike +public_title: Aerospike +short_description: Recopila las estadísticas de clúster y espacios de nombres de la + base de datos de Aerospike +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Category::Data Stores + - Category::Log Collection + - Offering::Integration + configuration: README.md#Setup + description: Recopila las estadísticas de clúster y espacios de nombres de la base + de datos de Aerospike + media: [] + overview: README.md#Overview + support: README.md#Support + title: Aerospike +--- + + + + +## Información general + +Obtén métricas de la base de datos de Aerospike en tiempo real para: + +- Visualizar y monitorizar estados de Aerospike. +- Recibir notificaciones sobre los fallos y eventos de Aerospike. + +## Configuración + +NOTA: La integración de Aerospike actual solo es compatible con el servidor Aerospike v4.9 o posterior, consulta las [notas de versión de la biblioteca de cliente de Python][1] de Aerospike para obtener más información. +Si utilizas una versión anterior del servidor Aerospike, todavía es posible monitorizar la versión 7.29.0 o inferior del Datadog Agent. + +### Instalación + +El check de Aerospike está incluido en el paquete del [Datadog Agent][2]. +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +##### Recopilación de métricas +Para configurar este check para un Agent que se ejecuta en un host: + +1. Instala y configura el [Aerospike Prometheus Exporter][1] (consulta la [documentación de Aerospike][2] para más detalles). + +2. Edita el archivo `aerospike.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Aerospike. Consulta el [aerospike.d/conf.yaml de ejemplo][3] para ver todas las opciones disponibles de configuración. + +3. [Reinicia el Agent][4]. + +**Nota**: La versión 1.16.0+ de este check utiliza [OpenMetrics][5] para la recopilación de métricas, que requiere Python 3. Para los hosts que no puedan utilizar Python 3, o si deseas utilizar una versión legacy de este check, consulta el [ejemplo de configuración][6]. + +##### Recopilación de logs + + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent, debes activarla en `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `aerospike.d/conf.yaml` para empezar a recopilar tus logs de Aerospike: + + ```yaml + logs: + - type: file + path: /var/log/aerospike/aerospike.log + source: aerospike + ``` + + Cambia el valor de los parámetros `path` y configúralos para tu entorno. Consulta el [aerospike.d/conf.yaml de ejemplo][3] para ver todas las opciones disponibles de configuración. + +3. [Reinicia el Agent][4]. + +[1]: https://github.com/aerospike/aerospike-prometheus-exporter +[2]: https://docs.aerospike.com/monitorstack/new/installing-components +[3]: https://github.com/DataDog/integrations-core/blob/master/aerospike/datadog_checks/aerospike/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/integrations/openmetrics/ +[6]: https://github.com/DataDog/integrations-core/blob/7.36.x/aerospike/datadog_checks/aerospike/data/conf.yaml.example +{{% /tab %}} +{{% tab "Contenedorizado" %}} + + +#### Contenedores + +Para entornos en contenedores, consulta [Configurar integraciones con Autodiscovery en Kubernetes][1] o [Configurar integraciones con Autodiscovery en Docker][2] para obtener orientación sobre la aplicación de los parámetros a continuación. Consulta el [aerospike.d/conf.yaml de ejemplo][3] para ver todas las opciones disponibles de configuración. + +##### Recopilación de métricas + +| Parámetro | Valor | +| -------------------- | ------------------------------------ | +| `` | `aerospike` | +| `` | en blanco o `{}` | +| `` | `{"openmetrics_endpoint": "http://%%host%%:9145/metrics"}` | + +**Ejemplo** + +Aplica la siguiente anotación a tu pod, donde `` es el nombre del contenedor de Aerospike o un [identificador personalizado][4]: + +``` +ad.datadoghq.com/.checks: | + { + "aerospike": { + "init_config": {}, + "instances": [{"openmetrics_endpoint": "http://%%host%%:9145/metrics"}] + } + } +``` + + +##### Recopilación de logs + +_Disponible para la versión 6.0 o posteriores del Agent_ + +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][5]. + +| Parámetro | Valor | +| -------------- | --------------------------------------------------- | +| `` | `{"source": "aerospike", "service": ""}` | + +**Ejemplo** + +Aplica la siguiente anotación a tu pod, donde `` es el nombre del contenedor de Aerospike o un [identificador personalizado][4]: + +``` +ad.datadoghq.com/.logs: | + [ + { + "type": "file", + "path": "/var/log/aerospike/aerospike.log", + "source": "aerospike" + } + ] +``` +[1]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/es/containers/docker/integrations/ +[3]: https://github.com/DataDog/integrations-core/blob/master/aerospike/datadog_checks/aerospike/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/containers/guide/ad_identifiers/ +[5]: https://docs.datadoghq.com/es/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][3] y busca `aerospike` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "aerospike" >}} + + +### Checks de servicio + +**aerospike.can_connect** +**aerospike.cluster_up** + +### Eventos + +Aerospike no incluye ningún evento. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. + + +[1]: https://download.aerospike.com/download/client/python/notes.html#5.0.0 +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/agent_metrics.md b/content/es/integrations/agent_metrics.md new file mode 100644 index 0000000000000..5e80571cc8804 --- /dev/null +++ b/content/es/integrations/agent_metrics.md @@ -0,0 +1,104 @@ +--- +app_id: datadog-agent +app_uuid: 4af17310-84ad-4bac-b05d-85917bc378cb +assets: + integration: + configuration: {} + events: + creates_events: false + metrics: + check: [] + metadata_path: metadata.csv + prefix: datadog.agent. + service_checks: + metadata_path: assets/service_checks.json + source_type_name: Métricas del Agent +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: [] +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/agent_metrics/README.md +display_on_public_website: true +draft: false +git_integration_title: agent_metrics +integration_id: datadog-agent +integration_title: Métricas del Agent +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: agent_metrics +public_title: Métricas del Agent +short_description: descripción de agent_metrics. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Offering::Integration + configuration: README.md#Setup + description: descripción de agent_metrics. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Métricas del Agent +--- + + + + +## Información general + +Obtén métricas internas del Datadog Agent para crear visualizaciones y monitores en Datadog. + +**Nota:** La lista de métricas recopiladas por esta integración puede cambiar entre versiones secundarias del Agent. Es posible que dichos cambios no se mencionen en el registro de cambios del Agent. + +## Configuración + +### Instalación + +La integración de métricas del Agent, basada en el check [go_expvar][1], está incluida en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus servidores. + +### Configuración + +1. Cambia el nombre del archivo [`go_expvar.d/agent_stats.yaml.example`][3], en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][4], a `go_expvar.d/agent_stats.yaml`. + +2. [Reinicia el Agent][5]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `go_expvar` en la sección Checks. + +## Datos recopilados + +### Métricas + +La integración de métricas del Agent recopila las métricas definidas en [`agent_stats.yaml.example`][3]. + +### Eventos + +La integración de métricas del Agent no incluye ningún evento. + +### Checks de servicio + +La integración de métricas del Agent no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. + +[1]: https://docs.datadoghq.com/es/integrations/go_expvar/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/go_expvar.d/agent_stats.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/akamai_mpulse.md b/content/es/integrations/akamai_mpulse.md new file mode 100644 index 0000000000000..3317e2a431cf5 --- /dev/null +++ b/content/es/integrations/akamai_mpulse.md @@ -0,0 +1,96 @@ +--- +categories: +- nube +dependencies: [] +description: Integra Akamai mPulse con Datadog. +doc_link: https://docs.datadoghq.com/integrations/akamai_mpulse/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/integrate-akamai-mpulse-real-user-monitoring-with-datadog/ + tag: Blog + text: Integrar Real User Monitoring de Akamai mPulse con Datadog +git_integration_title: akamai_mpulse +has_logo: true +integration_id: akamai-mpulse +integration_title: Akamai mPulse +integration_version: '' +is_public: true +manifest_version: '1.0' +name: akamai_mpulse +public_title: Datadog-Akamai mPulse +short_description: Integra Akamai mPulse con Datadog. +team: web-integrations +version: '1.0' +--- + + +## Información general + +Conecta Datadog con Akamai mPulse para recopilar métricas de Real User Monitoring (RUM) y obtener visibilidad sobre cómo perciben los usuarios finales el rendimiento de un sitio web. Obtén una visibilidad completa de todo tu stack tecnológico web al analizar y correlacionar métricas de RUM con los datos de rendimiento de tu CDN e infraestructura de backend. + +Utiliza el dashboard predefinido de Datadog y monitores para: +- Obtener una visión general de métricas clave como la tasa de rebote, las sesiones de usuario y los tiempos de carga de la página. +- Investigar el origen de la ralentización a la que se enfrenta el usuario, ya sea frontend o backend. +- Monitorizar los tiempos de carga y grupos de páginas + +Correlaciona métricas con datos en tiempo real de [Akamai DataStream 2][1], [NGINX][2], [MYSQL][3] y más de otras 600 tecnologías para obtener una visión de frontend a backend de tu stack tecnológico web. + +## Ajuste + +### Instalación + +Instala la integración con el [cuadro de integración de Akamai mPulse][4] en Datadog. + +### Configuración + +Se necesitan `apiKey` y `apiToken` para configurar la integración de Akamai mPulse. + +#### Generar una clave de API + +La `apiKey` es un valor autogenerado que identifica de forma única los datos de tu sitio (balizas) que se encuentran en tu portal de mPulse. + +
+La opción de menú "Apps" (Aplicaciones) y el atributo `apiKey` solo son visibles para los administradores de aplicaciones. +
+ +1. Encuentra tu `apiKey` navegando hasta la página "Central". +2. Haz clic en **Apps** (Aplicaciones) en el panel izquierdo. +3. Selecciona el nombre de la aplicación que deseas monitorizar para abrir una página de configuración que contenga tu `apiKey`. + +#### Generar un token de API + +Consulta la [documentación de Akamai sobre el token de API][5] y a continuación: + +1. Inicia sesión en `mpulse.soasta.com`. +2. Ve a My Settings (Mis ajustes) en el panel de la izquierda. +3. Haz clic en "Generate" (Generar) en el área de token de API. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "akamai_mpulse" >}} + + +### Eventos + +La integración de Akamai mPulse no incluye ningún evento. + +### Checks de servicios + +La integración de Akamai mPulse no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://docs.datadoghq.com/es/integrations/akamai_datastream_2/ +[2]: https://docs.datadoghq.com/es/integrations/nginx/ +[3]: https://docs.datadoghq.com/es/integrations/mysql/ +[4]: https://app.datadoghq.com/integrations/akamai-mpulse +[5]: https://community.akamai.com/customers/s/article/mPulse-API-Login-Changes?language=en_US +[6]: https://github.com/DataDog/dogweb/blob/prod/integration/akamai_mpulse/akamai_mpulse_metadata.csv +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/alcide.md b/content/es/integrations/alcide.md new file mode 100644 index 0000000000000..bec6c02ffb862 --- /dev/null +++ b/content/es/integrations/alcide.md @@ -0,0 +1,57 @@ +--- +categories: +- recopilación de logs +- Seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/documentation/blob/master/content/en/integrations/alcide.md +description: Ingesta y proceso de tus logs de Alcide +doc_link: https://docs.datadoghq.com/integrations/alcide/ +has_logo: true +integration_id: alcide +integration_title: Alcide +is_public: true +name: alcide +public_title: Integración de Datadog y Alcide +short_description: Ingesta y proceso de tus logs de Alcide +version: '1.0' +--- + +## Información general + +Alcide brinda servicios de auditoría y monitorización de anomalías en Kubernetes. Esta integración permite a Datadog ingerir y procesar logs de Alcide. + +## Configuración + +### Instalación + +Datadog habilita automáticamente un pipeline de procesamiento de logs cuando se detectan logs de Alcide. No se requiere ningún paso de instalación. + +### Configuración + +En Alcide, selecciona la pestaña _Integrations_ (Integraciones) y ve a la sección _Detections Integrations Configuration_ (Configuración de las integraciones de detección), que se utiliza para configurar integraciones para los logs de información de amenazas. + +1. Selecciona **HTTP API** (API HTTP) como destino. + +2. En la casilla URL, introduce `https://http-intake.logs./api/v2/logs?dd-api-key=&ddsource=alcide`. Sustituye el valor del parámetro `` por `datadoghq.com` para el sitio de EE. UU., o por `datadoghq.eu` para el sitio de la UE. Sustituye el valor del parámetro `` por su [clave de API de Datadog][1]. + +3. En _Entities Types_ (Tipos de entidades), selecciona los tipos sobre los que deseas reenviar información de amenazas. Datadog recomienda seleccionarlos todos. + +4. En _Detection Categories_ (Categorías de detección), selecciona las categorías que desea reenviar. Datadog recomienda seleccionar tanto _incidents_ (incidencias) como _anomalies_ (anomalías). + +5. En _Detection Confidence_ (Confianza de detección), selecciona los niveles de confianza deseados. Datadog recomienda seleccionar al menos _high_ (alto) y _medium_ (medio). + +6. Opcionalmente, puedes crear filtros de inclusión y exclusión de entidades utilizando las casillas _Entities Matching_ y _Entities Not Matching_ (Entidades coincidentes y Entidades no coincidentes). + +A continuación, ve a la sección _Selected Audit Entries Integration Configuration_ (Configuración de la integración de entradas de auditoría seleccionadas), situada debajo de la sección anterior. Esta sección se utiliza para configurar integraciones para los logs de auditoría. + +1. Selecciona **HTTP API** (API HTTP) como destino. + +2. En la casilla URL, introduce `https://http-intake.logs./api/v2/logs?dd-api-key=&ddsource=alcide`. Sustituye el valor del parámetro `` por `datadoghq.com` para el sitio de EE. UU., o por `datadoghq.eu` para el sitio de la UE. Sustituye el valor del parámetro `` por su [clave de API de Datadog][1]. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][2]. + +[1]: https://app.datadoghq.com/organization-settings/api-keys +[2]: /es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_appsync.md b/content/es/integrations/amazon_appsync.md new file mode 100644 index 0000000000000..a1ca554c3af62 --- /dev/null +++ b/content/es/integrations/amazon_appsync.md @@ -0,0 +1,84 @@ +--- +categories: +- aws +- nube +- almacenes de datos +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS AppSync. +doc_link: https://docs.datadoghq.com/integrations/amazon_appsync/ +draft: false +git_integration_title: amazon_appsync +has_logo: true +integration_id: '' +integration_title: AWS AppSync +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_appsync +public_title: Integración de Datadog y AWS AppSync +short_description: Rastrea métricas clave de AWS AppSync. +version: '1.0' +--- + + +## Información general + +AWS AppSync simplifica el desarrollo de aplicaciones permitiéndote crear una API flexible para acceder, manipular y combinar datos de una o varias fuentes de datos de forma segura. + +Activa esta integración para ver todas tus métricas de AppSync en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de integración de AWS][2], asegúrate de que `AppSync` está activada en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS AppSync][3]. + +### APM + +#### Activar logging + +Configura AWS AppSync para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_appsync` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS AppSync en la consola AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_appsync" >}} + + +### Eventos + +La integración de AWS AppSync no incluye ningún evento. + +### Checks de servicio + +La integración de AWS AppSync no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-appsync +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_appsync/amazon_appsync_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_athena.md b/content/es/integrations/amazon_athena.md new file mode 100644 index 0000000000000..a122cf28d8904 --- /dev/null +++ b/content/es/integrations/amazon_athena.md @@ -0,0 +1,64 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Athena. +doc_link: https://docs.datadoghq.com/integrations/amazon_athena/ +draft: false +git_integration_title: amazon_athena +has_logo: true +integration_id: '' +integration_title: Amazon Athena +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_athena +public_title: Integración de Datadog y Amazon Atenea +short_description: Rastrea métricas clave de Amazon Athena. +version: '1.0' +--- + + +## Información general + +Amazon Athena es un servicio de consulta interactivo que facilita el análisis de datos directamente en Amazon Simple Storage Service (Amazon S3) mediante SQL estándar. + +Activa esta integración para ver todas tus métricas de Athena en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de integración de AWS][2], asegúrate de que `Athena` está activada en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Athena][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_athena" >}} + + +### Eventos + +La integración de Amazon Athena no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Athena no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-athena +[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_athena/amazon_athena_metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_backup.md b/content/es/integrations/amazon_backup.md new file mode 100644 index 0000000000000..8211eae0eb9d7 --- /dev/null +++ b/content/es/integrations/amazon_backup.md @@ -0,0 +1,65 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Backup. +doc_link: https://docs.datadoghq.com/integrations/amazon_backup/ +draft: false +git_integration_title: amazon_backup +has_logo: true +integration_id: '' +integration_title: AWS Backup +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_backup +public_title: Integración de Datadog y AWS Backup +short_description: Rastrea métricas clave de AWS Backup. +version: '1.0' +--- + + +## Información general + +AWS Backup te permite centralizar y automatizar la protección de datos entre servicios de AWS +y cargas de trabajo híbridas. + +Activa esa integración para ver tus métricas de Backup en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura [la integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Backup` está activada en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Backup][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_backup" >}} + + +### Eventos + +La integración de AWS Backup no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Backup no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-backup +[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_backup/amazon_backup_metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_certificate_manager.md b/content/es/integrations/amazon_certificate_manager.md new file mode 100644 index 0000000000000..d0374b2f03823 --- /dev/null +++ b/content/es/integrations/amazon_certificate_manager.md @@ -0,0 +1,66 @@ +--- +categories: +- aws +- nube +- configuración y despliegue +- recopilación de logs +- suministro +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Certificate Manager. +doc_link: https://docs.datadoghq.com/integrations/amazon_certificate_manager/ +draft: false +git_integration_title: amazon_certificate_manager +has_logo: true +integration_id: '' +integration_title: AWS Certificate Manager +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_certificate_manager +public_title: Integración de Datadog y AWS Certificate Manager +short_description: Rastrea métricas clave de AWS Certificate Manager. +version: '1.0' +--- + + +## Información general + +AWS Certificate Manager te permite aprovisionar, gestionar y desplegar certificados SSL/TLS para su uso con servicios de AWS y recursos internos conectados. + +Activa esta integración para ver todas tus métricas de Certificate Manager en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de integración de AWS][2], asegúrate de que `CertificateManager` está activada en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Certificate Manager][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_certificate_manager" >}} + + +### Eventos + +La integración de AWS Certificate Manager admite la caducidad de certificados y los eventos de cambio de estado de EventBridge. + +### Checks de servicio + +La integración de AWS Certificate Manager no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-certificate-manager +[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_certificate_manager/amazon_certificate_manager_metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_cloudhsm.md b/content/es/integrations/amazon_cloudhsm.md new file mode 100644 index 0000000000000..8a809cdc3463c --- /dev/null +++ b/content/es/integrations/amazon_cloudhsm.md @@ -0,0 +1,53 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/documentation/blob/master/content/en/integrations/amazon_cloudhsm.md +description: Recopila tus logs de auditoría de HSM en tu organización de Datadog. +has_logo: true +integration_id: amazon-cloudhsm +integration_title: AWS CloudHSM +is_public: true +name: amazon_cloudhsm +public_title: Integración de Datadog y AWS CloudHSM +short_description: Recopila tus logs de auditoría de HSM en tu organización de Datadog. +--- + +## Información general + +Cuando un HSM de tu cuenta recibe un comando de las herramientas de línea de comandos o de bibliotecas de software de AWS CloudHSM, registra su ejecución del comando en forma de log de auditoría. Los logs de auditoría del HSM incluyen todos los comandos de gestión iniciados por el cliente, incluidos los que crean y eliminan el HSM, los que entran y salen del HSM, y los que gestionan usuarios y claves. Estos logs proporcionan un registro fiable de las acciones que han cambiado el estado del HSM. + +Datadog se integra con AWS CloudHSM a través de una función de Lambda que envía logs de CloudHSM logs a la solución Log Management de Datadog. + +## Configuración + +### Recopilación de logs + +#### Activar logs + +Los logs de auditoría están habilitados por defecto para CloudHSM. + +#### Enviar tus logs a Datadog + +1. Si aún no lo has hecho, configura la [función Lambda del Datadog Forwarder][1] en tu cuenta de AWS. +2. Una vez configurada, ve a la función de Lambda del Datadog Forwarder. En la sección Información general de la función, haz clic en **Add Trigger** (Añadir activador). +3. Selecciona el activador **CloudWatch Logs** en la Trigger Configuration (Configuración del activador). +4. Selecciona el grupo de logs de CloudWatch que contiene tus logs de CloudHSM. +5. Introduce un nombre para el filtro. +6. Haz clic en **Add** (Añadir) para añadir el activador a tu Lambda. + +Ve al [Log Explorer][2] para empezar a explorar tus logs. + +Para más información sobre la recopilación de logs de servicios de AWS, consulta [Enviar logs de servicios de AWS con la función Lambda de Datadog][3]. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. + +[1]: /es/logs/guide/forwarder/ +[2]: https://app.datadoghq.com/logs +[3]: /es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ +[4]: /es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_codebuild.md b/content/es/integrations/amazon_codebuild.md new file mode 100644 index 0000000000000..7b61157862d4a --- /dev/null +++ b/content/es/integrations/amazon_codebuild.md @@ -0,0 +1,93 @@ +--- +aliases: +- /es/integrations/awscodebuild/ +categories: +- aws +- nube +- configuración y despliegue +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Ve los despliegues a medida que se producen y controla el tiempo que + tardan. +doc_link: https://docs.datadoghq.com/integrations/amazon_codebuild/ +draft: false +git_integration_title: amazon_codebuild +has_logo: true +integration_id: '' +integration_title: AWS CodeBuild +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_codebuild +public_title: Integración de Datadog y AWS CodeBuild +short_description: Ve los despliegues a medida que se producen y controla el tiempo + que tardan. +version: '1.0' +--- + + +## Información general + +AWS CodeBuild es un servicio de compilación que compila el código fuente, ejecuta tests y genera paquetes de software listos para su despliegue. + +Instala la integración de Datadog y AWS CodeBuild para: + +- Rastrear las compilaciones por proyecto +- Recopilar métricas sobre tus compilaciones +- Correlacionar las compilaciones con el resto de tus métricas de Datadog + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `CodeBuild` está habilitado en la pestaña `Metric Collection`. + +2. Instala la [integración de Datadog y AWS CodeBuild][3]. + +### APM + +#### Activar logging + +Configura AWS CodeBuild para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_codebuild` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS CodeBuild en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_codebuild" >}} + + +### Eventos + +La integración de AWS CodeBuild no incluye ningún evento. + +### Checks de servicio + +La integración de AWS CodeBuild no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-codebuild +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_codebuild/amazon_codebuild_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_cognito.md b/content/es/integrations/amazon_cognito.md new file mode 100644 index 0000000000000..97fcb8b0e6cef --- /dev/null +++ b/content/es/integrations/amazon_cognito.md @@ -0,0 +1,89 @@ +--- +categories: +- aws +- nube +- recopilación de logs +- mobile +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Cognito. +doc_link: https://docs.datadoghq.com/integrations/amazon_cognito/ +draft: false +git_integration_title: amazon_cognito +has_logo: true +integration_id: '' +integration_title: Amazon Cognito +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_cognito +public_title: Integración de Datadog y Amazon Cognito +short_description: Rastrea métricas clave de Amazon Cognito. +version: '1.0' +--- + + +## Información general + +Amazon Cognito es un servicio que puedes utilizar para crear identidades únicas para tus usuarios, autenticar estas identidades con proveedores de identidad y guardar los datos de los usuarios móviles en la nube de AWS. + +Habilita esta integración para ver tus métricas de Cognito Advanced Security en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Cognito` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Cognito][3]. + +**Nota**: Advanced Security debe estar activado en AWS. Consulta la documentación de AWS para añadir [Advanced Security a un grupo de usuarios][4]. + +### APM + +#### Activar logging + +Configura Amazon Cognito para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Solo se pueden enviar logs del grupo de usuarios. Amazon no admite el envío de otros logs de Cognito. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_cognito` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][5]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Cognito en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][6] + - [Añadir un activador manual en el grupo de logs de CloudWatch][7] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_cognito" >}} + + +### Eventos + +La integración de Amazon Cognito no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Cognito no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-cognito +[4]: https://docs.aws.amazon.com/cognito/latest/developerguide/cognito-user-pool-settings-advanced-security.html +[5]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[7]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[8]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_cognito/amazon_cognito_metadata.csv +[9]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_connect.md b/content/es/integrations/amazon_connect.md new file mode 100644 index 0000000000000..006affe756091 --- /dev/null +++ b/content/es/integrations/amazon_connect.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Amazon Connect. +doc_link: https://docs.datadoghq.com/integrations/amazon_connect/ +draft: false +git_integration_title: amazon_connect +has_logo: true +integration_id: '' +integration_title: Amazon Connect +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_connect +public_title: Integración de Datadog y Amazon Connect +short_description: Rastrea las métricas clave de Amazon Connect. +version: '1.0' +--- + + +## Información general + +Amazon Connect ofrece una configuración autogestionada y permite una interacción dinámica, personal y natural con el cliente. + +Activa esta integración para ver todas tus métricas de Connect en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Connect` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Connect][3]. + +### APM + +#### Activar logging + +Configura Amazon Connect para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_connect` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Connect en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_connect" >}} + + +### Eventos + +La integración de Amazon Connect no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Connect no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-connect +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_connect/amazon_connect_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_dms.md b/content/es/integrations/amazon_dms.md new file mode 100644 index 0000000000000..0adaaac9a6eb0 --- /dev/null +++ b/content/es/integrations/amazon_dms.md @@ -0,0 +1,84 @@ +--- +categories: +- aws +- nube +- almacenes de datos +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Database Migration Service (DMS). +doc_link: https://docs.datadoghq.com/integrations/amazon_dms/ +draft: false +git_integration_title: amazon_dms +has_logo: true +integration_id: '' +integration_title: AWS Database Migration Service (DMS) +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_dms +public_title: Integración de Datadog y AWS Database Migration Service (DMS) +short_description: Rastrea métricas clave de AWS Database Migration Service (DMS). +version: '1.0' +--- + + +## Información general + +AWS Database Migration Service (DMS) es un servicio en la nube que facilita la migración de bases de datos relacionales, almacenes de datos, bases de datos NoSQL y otros tipos de almacenes de datos. + +Activa esta integración para ver todas tus métricas de DMS en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Database Migration Service` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Database Migration Service (DMS)][3]. + +### APM + +#### Activar logging + +Configura AWS Database Migration Service para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_dms` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS DMS en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_dms" >}} + + +### Eventos + +La integración de AWS Database Migration Service (DMS) no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Database Migration Service (DMS) no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-dms +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_dms/amazon_dms_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_documentdb.md b/content/es/integrations/amazon_documentdb.md new file mode 100644 index 0000000000000..5ae7d02756179 --- /dev/null +++ b/content/es/integrations/amazon_documentdb.md @@ -0,0 +1,92 @@ +--- +categories: +- nube +- almacenes de datos +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Monitoriza métricas y logs de Amazon DocumentDB. +doc_link: https://docs.datadoghq.com/integrations/amazon_documentdb/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitor-documentdb-with-datadog/ + tag: Blog + text: Recopila métricas y logs de Amazon DocumentDB con Datadog +git_integration_title: amazon_documentdb +has_logo: true +integration_id: '' +integration_title: Amazon DocumentDB +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_documentdb +public_title: Integración de Datadog y Amazon DocumentDB +short_description: Monitoriza métricas y logs de Amazon DocumentDB. +version: '1.0' +--- + + +## Información general + +Amazon DocumentDB es un servicio de base de datos de documentos rápida, escalable, de alta disponibilidad y totalmente gestionada que admite cargas de trabajo de MongoDB. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `DocumentDB` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon DocumentDB][3]. + +### APM + +#### Activar logging + +Configura Amazon DocumentDB para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_documentdb` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon DocumentDB en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_documentdb" >}} + + +A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas (tags) que aparece en la consola de AWS, incluyendo dbinstanceidentifier, dbclusteridentifier, entre otras. + +### Eventos + +La integración de Amazon DocumentDB no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon DocumentDB no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-documentdb +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_documentdb/amazon_documentdb_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_ec2_spot.md b/content/es/integrations/amazon_ec2_spot.md new file mode 100644 index 0000000000000..b8a6a4091dad4 --- /dev/null +++ b/content/es/integrations/amazon_ec2_spot.md @@ -0,0 +1,71 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Amazon EC2 Spot. +doc_link: https://docs.datadoghq.com/integrations/amazon_ec2_spot/ +draft: false +git_integration_title: amazon_ec2_spot +has_logo: true +integration_id: '' +integration_title: Amazon EC2 Spot +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_ec2_spot +public_title: Integración de Datadog y Amazon EC2 Spot +short_description: Rastrea las métricas clave de Amazon EC2 Spot. +version: '1.0' +--- + + +## Información general + +Las instancias de Amazon EC2 Spot te permiten aprovechar la capacidad de EC2 no utilizada en la nube de AWS. + +Habilita esta integración para ver todas tus [métricas de flota][1] de EC2 Spot en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][2]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][3], asegúrate de que `EC2 Spot` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon EC2 Spot][4]. + +### APM + +Utiliza el [Datadog Agent][5] u otro remitente de logs como [Rsyslog][6] para enviar tus logs a Datadog. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_ec2_spot" >}} + + +### Eventos + +La integración de Amazon EC2 Spot no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon EC2 Spot no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-fleet-cloudwatch-metrics.html +[2]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[3]: https://app.datadoghq.com/integrations/amazon-web-services +[4]: https://app.datadoghq.com/integrations/amazon-ec2-spot +[5]: https://docs.datadoghq.com/es/agent/logs/ +[6]: https://docs.datadoghq.com/es/integrations/rsyslog/ +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_ec2_spot/amazon_ec2_spot_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_elastic_transcoder.md b/content/es/integrations/amazon_elastic_transcoder.md new file mode 100644 index 0000000000000..ce9bbf2422fd0 --- /dev/null +++ b/content/es/integrations/amazon_elastic_transcoder.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Elastic Transcoder. +doc_link: https://docs.datadoghq.com/integrations/amazon_elastic_transcoder/ +draft: false +git_integration_title: amazon_elastic_transcoder +has_logo: true +integration_id: '' +integration_title: Amazon Elastic Transcoder +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_elastic_transcoder +public_title: Integración de Datadog y Amazon Elastic Transcoder +short_description: Rastrea métricas clave de Amazon Elastic Transcoder. +version: '1.0' +--- + + +## Información general + +Amazon Elastic Transcoder permite convertir archivos multimedia almacenados en Amazon S3 en formatos de archivo multimedia requeridos por los dispositivos de reproducción del usuario. + +Habilita esta integración para ver todas tus métricas de Elastic Transcoder en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Elastic Transcoder` está activado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Elastic Transcoder][3]. + +### APM + +#### Activar logging + +Configura Amazon Elastic Transcoder para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_elastic_transcoder` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Elastic Transcoder en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_elastic_transcoder" >}} + + +### Eventos + +La integración de Amazon Elastic Transcoder no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Elastic Transcoder no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-elastic-transcoder +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_elastic_transcoder/amazon_elastic_transcoder_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_elasticache.md b/content/es/integrations/amazon_elasticache.md index 8ff431b6672aa..af3a0e79b5c7e 100644 --- a/content/es/integrations/amazon_elasticache.md +++ b/content/es/integrations/amazon_elasticache.md @@ -8,7 +8,7 @@ categories: - cloud - configuration & deployment - log collection -custom_kind: integration +custom_kind: integración dependencies: [] description: Seguimiento de métricas clave de Amazon ElasicCache. doc_link: https://docs.datadoghq.com/integrations/amazon_elasticache/ @@ -112,21 +112,26 @@ A continuación se muestra un ejemplo de configuración de un gráfico para comb A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas que aparecen en la consola de AWS, incluidos, entre otros, el nombre del host y los grupos de seguridad. +**Nota**: Las métricas para despliegues de ElastiCache Serverless se informan en el mismo espacio de nombres `aws.elasticache`. Estas métricas pueden distinguirse por etiquetas (tags): + + - Las métricas de ElastiCache existentes para cachés de diseño propio utilizan la etiqueta cacheclusterid para identificar una caché individual. + - Las métricas de caché serverless utilizan la etiqueta clusterid para identificar las cachés individuales + ### Eventos La integración Amazon ElastiCache incluye eventos para clúster, grupos de seguridad de caché y grupos de parámetros de caché. Consulta los siguientes ejemplos de eventos: {{< img src="integrations/amazon_elasticache/aws_elasticache_events.png" alt="Eventos Amazon ElastiCache" >}} -### Checks de servicios +### Checks de servicio La integración Amazon ElastiCache no incluye checks de servicios. -## Resolución de problemas +## Solucionar problemas ¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10]. -## Leer más +## Referencias adicionales - [Monitorización de métricas de rendimiento de ElastiCache con Redis o Memcached][1] - [Recopilación de métricas ElastiCache + sus métricas Redis/Memcached][11] diff --git a/content/es/integrations/amazon_fsx.md b/content/es/integrations/amazon_fsx.md new file mode 100644 index 0000000000000..d06ee070418f3 --- /dev/null +++ b/content/es/integrations/amazon_fsx.md @@ -0,0 +1,98 @@ +--- +categories: +- aws +- nube +- almacenes de datos +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon FSx. +doc_link: https://docs.datadoghq.com/integrations/amazon_fsx/ +draft: false +git_integration_title: amazon_fsx +has_logo: true +integration_id: '' +integration_title: Amazon FSx +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_fsx +public_title: Integración de Datadog y Amazon FSx +short_description: Rastrea métricas clave de Amazon FSx. +version: '1.0' +--- + + +## Información general + +Amazon FSx es un servicio totalmente gestionado que proporciona almacenamiento escalable para sistemas de archivos NetApp ONTAP, OpenZFS, Windows File Server y Lustre. + +Activa esta integración para ver todas tus métricas de FSx en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `FSx` está habilitado en la pestaña `Metric Collection`. +2. Añade los siguientes permisos a tu [política de IAM de Datadog][3] con el fin de recopilar métricas de Amazon FSx. + + | Permiso de AWS | Descripción | + | --------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | + | `fsx:ListTagsForResource` | Se utiliza para añadir etiquetas (tags) personalizadas de FSx. | + | `fsx:DescribeFileSystems` | Se utiliza para proporcionar capacidad de almacenamiento y rendimiento. | + +2. Instala la [integración de Datadog y Amazon FSx][4]. + + +### APM + +#### Logs de eventos de auditoría para FSx para Windows File Server +Para rastrear todos los accesos de usuarios a archivos individuales, carpetas y archivos compartidos, integra los logs de eventos de auditoría desde tu FSx para Windows File Server: + +1. [Habilita la característica de auditoría del acceso a archivos][5] para tus sistemas de archivos y envía los logs a CloudWatch. +2. Si aún no lo has hecho, configura la [función de AWS Lambda de recopilación de logs de Datadog[4] (versión 3.35.0+). +3. Una vez instalada la función de Lambda, añade manualmente un activador en el grupo de logs de CloudWatch `/aws/fsx/windows` en la consola de AWS: + {{< img src="integrations/amazon_cloudwatch/cloudwatch_log_collection_1.png" alt="grupo de logs de CloudWatch" popup="true" style="width:70%;">}} + Selecciona el grupo de logs de CloudWatch correspondiente, añade un nombre de filtro (o deja el filtro vacío) y añade el activador: + {{< img src="integrations/amazon_cloudwatch/cloudwatch_log_collection_2.png" alt="Activador de CloudWatch" popup="true" style="width:70%;">}} +4. Ve a la [sección de Logs de Datadog][6] para empezar a explorar tus logs. + +**Nota**: También puedes enviar estos logs a Datadog con [Amazon Data Firehose][7], pero debes crear un [procesador][8] de logs personalizados para obtener la misma funcionalidad de parseo de logs y experiencia de búsqueda. + + +#### Actividad de la API de FSx + +Amazon FSx está integrado con AWS CloudTrail, que realiza un rastreo de todas las acciones de FSx realizadas por un usuario, rol o servicio de AWS. +Habilita la [integración de CloudTrail][9] de Datadog para monitorizar todas las llamadas a la API de FSx en tu cuenta de AWS. + +### Métricas +{{< get-metrics-from-git "amazon_fsx" >}} + + +### Eventos + +La integración de Amazon FSx no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon FSx no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://docs.datadoghq.com/es/integrations/amazon_web_services/#installation +[4]: https://app.datadoghq.com/integrations/amazon-fsx +[5]: https://docs.aws.amazon.com/fsx/latest/WindowsGuide/file-access-auditing.html#faa-log-destinations +[6]: https://app.datadoghq.com/logs +[7]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-kinesis-firehose-destination/?tab=amazondatafirehosedeliverystream +[8]: https://docs.datadoghq.com/es/logs/log_configuration/processors/?tab=ui +[9]: https://docs.datadoghq.com/es/integrations/amazon_cloudtrail/#log-collection +[10]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_fsx/amazon_fsx_metadata.csv +[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_gamelift.md b/content/es/integrations/amazon_gamelift.md new file mode 100644 index 0000000000000..dae8fe174bc39 --- /dev/null +++ b/content/es/integrations/amazon_gamelift.md @@ -0,0 +1,84 @@ +--- +categories: +- aws +- nube +- configuración y despliegue +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Gamelift. +doc_link: https://docs.datadoghq.com/integrations/amazon_gamelift/ +draft: false +git_integration_title: amazon_gamelift +has_logo: true +integration_id: '' +integration_title: Amazon Gamelift +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_gamelift +public_title: Integración de Datadog y Amazon Gamelift +short_description: Rastrea métricas clave de Amazon Gamelift. +version: '1.0' +--- + + +## Información general + +Amazon GameLift es un servicio totalmente gestionado para desplegar, operar y escalar tus servidores de juegos multijugador basados en sesiones en la nube. + +Habilita esta integración para ver todas tus métricas de Gamelift en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración AWS][2], asegúrate de que `Game Lift` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon GameLift][3]. + +### APM + +#### Activar logging + +Configura Amazon GameLift para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_gamelift` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de Amazon GameLift en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_gamelift" >}} + + +### Eventos + +La integración de Amazon GameLift no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon GameLift no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-gamelift +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_gamelift/amazon_gamelift_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_glue.md b/content/es/integrations/amazon_glue.md new file mode 100644 index 0000000000000..abda59ae96908 --- /dev/null +++ b/content/es/integrations/amazon_glue.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Glue. +doc_link: https://docs.datadoghq.com/integrations/amazon_glue/ +draft: false +git_integration_title: amazon_glue +has_logo: true +integration_id: '' +integration_title: AWS Glue +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_glue +public_title: Integración de Datadog y AWS Glue +short_description: Rastrea métricas clave de AWS Glue. +version: '1.0' +--- + + +## Información general + +AWS Glue es un servicio de ETL (extracción, transformación y carga) totalmente gestionado que hace más simple y rentable la categorización, limpieza, mejora y traslado fiable de datos entre varios almacenes de datos. + +Habilita esta integración para ver todas tus métricas de Glue en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Glue` está activado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Glue][3]. + +### APM + +#### Activar logging + +Configura AWS Glue para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_glue` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS Glue en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_glue" >}} + + +### Eventos + +La integración de AWS Glue no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Glue no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-glue +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_glue/amazon_glue_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_guardduty.md b/content/es/integrations/amazon_guardduty.md new file mode 100644 index 0000000000000..44e7ab930f200 --- /dev/null +++ b/content/es/integrations/amazon_guardduty.md @@ -0,0 +1,54 @@ +--- +categories: +- cloud +- aws +- log collection +- security +custom_kind: integración +dependencies: +- https://github.com/DataDog/documentation/blob/master/content/en/integrations/amazon_guardduty.md +description: Recopila tus logs de Amazon GuardDuty. +doc_link: /integrations/amazon_guardduty/ +has_logo: true +integration_id: amazon-guardduty +integration_title: Amazon GuardDuty +is_public: true +name: amazon_guardduty +public_title: Integración de Datadog y Amazon GuardDuty +short_description: Recopila tus logs de Amazon GuardDuty. +version: '1.0' +--- + +## Información general + +Datadog se integra con Amazon GuardDuty a través de una función de Lambda que envía los hallazgos de GuardDuty a la solución de Log Management de Datadog. + +## Configuración + +### Recopilación de logs + +#### Activar logging + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][1]. + +2. Crea una nueva regla en [Amazon EventBridge][2]. Dale un nombre a la regla y selecciona **Rule with an event pattern** (Regla con un patrón de eventos). Haz clic en **Next** (Siguiente). + +3. Crea el patrón de eventos para que coincida con tus hallazgos de GuardDuty. En la sección **Event source** (Fuente del evento), selecciona `AWS events or EventBridge partner events`. En la sección **Event pattern** (Patrón de eventos), especifica `AWS services` para la fuente, `GuardDuty` para el servicio y `GuardDuty Finding` como el tipo. Haz clic en **Next** (Siguiente). + +4. Selecciona el Datadog Forwarder como destino. Establece `AWS service` como tipo de destino, `Lambda function` como destino y elige Datadog Forwarder en el menú desplegable `Function`. Haz clic en **Next** (Siguiente). + +5. Configura las etiquetas (tags) deseadas y haz clic en **Create rule** (Crear regla). + +#### Enviar tus logs a Datadog + +1. En la consola de AWS, ve a **Lambda**. + +2. Haz clic en **Functions** (Funciones) y selecciona Datadog Forwarder. + +3. En la sección Function Overview (Información general de la función), haz clic en **Add Trigger** (Añadir activador). Selecciona **EventBridge (CloudWatch Events)** (EventBridge [Eventos de CloudWatch]) en el menú desplegable y especifica la regla creada en la sección [enable logging (habilitar registro)](#enable-logging). + +4. Consulta los nuevos hallazgos de GuardDuty en el [Datadog Log Explorer][3]. + +[1]: /es/logs/guide/forwarder/ +[2]: https://console.aws.amazon.com/events/home +[3]: https://app.datadoghq.com/logs \ No newline at end of file diff --git a/content/es/integrations/amazon_inspector.md b/content/es/integrations/amazon_inspector.md new file mode 100644 index 0000000000000..822ef9ccf8045 --- /dev/null +++ b/content/es/integrations/amazon_inspector.md @@ -0,0 +1,84 @@ +--- +categories: +- aws +- nube +- conformidad +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Inspector. +doc_link: https://docs.datadoghq.com/integrations/amazon_inspector/ +draft: false +git_integration_title: amazon_inspector +has_logo: true +integration_id: '' +integration_title: Amazon Inspector +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_inspector +public_title: Integración de Datadog y Amazon Inspector +short_description: Rastrea métricas clave de Amazon Inspector. +version: '1.0' +--- + + +## Información general + +Amazon Inspector es un servicio de evaluación de vulnerabilidades de seguridad que ayuda a mejorar la seguridad y la conformidad de tus recursos de AWS. + +Habilita esta integración para ver todas tus métricas de Inspector en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Inspector` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Inspector][3]. + +### APM + +#### Activar logging + +Configura Amazon Inspector para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_inspector` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Inspector en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_inspector" >}} + + +### Eventos + +La integración de Amazon Inspector no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Inspector no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-inspector +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/?tab=awsconsole#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/?tab=awsconsole#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_inspector/amazon_inspector_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_kafka.md b/content/es/integrations/amazon_kafka.md index 2e5e18d53ed33..aeef0afb68c8c 100644 --- a/content/es/integrations/amazon_kafka.md +++ b/content/es/integrations/amazon_kafka.md @@ -25,7 +25,7 @@ author: support_email: help@datadoghq.com categories: - aws -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/amazon_msk/README.md display_on_public_website: true @@ -33,7 +33,7 @@ draft: false git_integration_title: amazon_kafka integration_id: amazon-kafka integration_title: Amazon MSK (Agent) -integration_version: 4.11.0 +integration_version: 6.0.0 is_public: true manifest_version: 2.0.0 name: amazon_kafka @@ -51,6 +51,7 @@ tile: - Sistema operativo compatible::Windows - Sistema operativo compatible::macOS - Oferta::Integración + - Product::Data Streams Monitoring configuration: README.md#Configuración description: Monitoriza el estado y el rendimiento de tus clústeres Amazon MSK. media: [] @@ -116,7 +117,7 @@ Esta integración basada en OpenMetrics tiene un modo más reciente (`use_openme El check de Amazon MSK no incluye eventos. -### Checks de servicio +### Checks de servicios Para ver una lista de los checks de servicios proporcionados por esta integración, consulta [service_checks.json][17]. diff --git a/content/es/integrations/amazon_keyspaces.md b/content/es/integrations/amazon_keyspaces.md new file mode 100644 index 0000000000000..99488ea7d0f69 --- /dev/null +++ b/content/es/integrations/amazon_keyspaces.md @@ -0,0 +1,65 @@ +--- +categories: +- aws +- nube +- configuración y despliegue +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Keyspaces. +doc_link: https://docs.datadoghq.com/integrations/amazon_keyspaces/ +draft: false +git_integration_title: amazon_keyspaces +has_logo: true +integration_id: '' +integration_title: Amazon Keyspaces (para Apache Cassandra) +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_keyspaces +public_title: Integración de Datadog y Amazon Keyspaces (para Apache Cassandra) +short_description: Rastrea métricas clave de Amazon Keyspaces. +version: '1.0' +--- + + +## Información general + +Amazon Keyspaces (para Apache Cassandra) es un servicio de base de datos escalable, de alta disponibilidad y administrada, compatible con Apache Cassandra. Con Amazon Keyspaces, puedes ejecutar tus cargas de trabajo de Cassandra en AWS utilizando el mismo código de aplicación de Cassandra y herramientas de desarrollo que utilizas actualmente. + +Habilita esta integración para ver todas tus métricas de Keyspaces en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Cassandra` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Keyspaces (para Apache Cassandra)][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_keyspaces" >}} + + +### Eventos + +La integración de Amazon Keyspaces no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Keyspaces no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-keyspaces +[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_keyspaces/amazon_certificate_manager_metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_kinesis_data_analytics.md b/content/es/integrations/amazon_kinesis_data_analytics.md new file mode 100644 index 0000000000000..b7c549a0199cf --- /dev/null +++ b/content/es/integrations/amazon_kinesis_data_analytics.md @@ -0,0 +1,67 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Kinesis Data Analytics. +doc_link: https://docs.datadoghq.com/integrations/amazon_kinesis_data_analytics/ +draft: false +git_integration_title: amazon_kinesis_data_analytics +has_logo: true +integration_id: '' +integration_title: Amazon Kinesis Data Analytics +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_kinesis_data_analytics +public_title: Integración de Datadog y Amazon Kinesis Data Analytics +short_description: Rastrea métricas clave de Amazon Kinesis Data Analytics. +version: '1.0' +--- + + +## Información general + +Amazon Kinesis Data Analytics te permite transformar, consultar y analizar fácilmente +datos de streaming en tiempo real con Apache Flink. + +Habilita esta integración para ver todas tus métricas de Amazon Kinesis Data Analitycs en +Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Kinesis Analytics` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Kinesis Data Analytics][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_kinesis_data_analytics" >}} + + +### Eventos + +La integración de Amazon Kinesis Data Analytics no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Kinesis Data Analytics no incluye ningún check de +servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-kinesis-data-analytics +[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_kinesis_data_analytics/amazon_kinesis_data_analytics_metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_lex.md b/content/es/integrations/amazon_lex.md new file mode 100644 index 0000000000000..d127dae990d97 --- /dev/null +++ b/content/es/integrations/amazon_lex.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de Amazon Lex. +doc_link: https://docs.datadoghq.com/integrations/amazon_lex/ +draft: false +git_integration_title: amazon_lex +has_logo: true +integration_id: '' +integration_title: Amazon Lex +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_lex +public_title: Integración de Datadog y Amazon Lex +short_description: Rastrea métricas clave de Amazon Lex. +version: '1.0' +--- + + +## Información general + +Amazon Lex es un servicio para crear interfaces conversacionales en aplicaciones que utilizan voz y texto. + +Habilita esta integración para ver todas tus métricas de Lex en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Lex` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon Lex][3]. + +### APM + +#### Activar logging + +Configura Amazon Lex para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_lex` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de Amazon Lex en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_lex" >}} + + +### Eventos + +La integración de Amazon Lex no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Lex no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-lex +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_lex/amazon_lex_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_mediaconnect.md b/content/es/integrations/amazon_mediaconnect.md new file mode 100644 index 0000000000000..ab2bf9fe49465 --- /dev/null +++ b/content/es/integrations/amazon_mediaconnect.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Elemental MediaConnect. +doc_link: https://docs.datadoghq.com/integrations/amazon_mediaconnect/ +draft: false +git_integration_title: amazon_mediaconnect +has_logo: true +integration_id: '' +integration_title: AWS Elemental MediaConnect +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_mediaconnect +public_title: Integración de Datadog y AWS Elemental MediaConnect +short_description: Rastrea métricas clave de AWS Elemental MediaConnect. +version: '1.0' +--- + + +## Información general + +AWS Elemental MediaConnect es un servicio de transporte para vídeos en directo. + +Habilita esta integración para ver todas tus métricas de Elemental MediaConnect en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `MediaConnect` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Elemental MediaConnect][3]. + +### APM + +#### Activar logging + +Configura AWS Elemental MediaConnect para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_mediaconnect` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de AWS Elemental MediaConnect en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_mediaconnect" >}} + + +### Eventos + +La integración de AWS Elemental MediaConnect no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Elemental MediaConnect no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-mediaconnect +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mediaconnect/amazon_mediaconnect_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_mediaconvert.md b/content/es/integrations/amazon_mediaconvert.md new file mode 100644 index 0000000000000..690a598fffc67 --- /dev/null +++ b/content/es/integrations/amazon_mediaconvert.md @@ -0,0 +1,119 @@ +--- +app_id: amazon-mediaconvert +app_uuid: 9ec40305-4c25-41ee-afd8-cc6cc820dc36 +assets: + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - aws.mediaconvert.hdoutput_duration + metadata_path: metadata.csv + prefix: aws.mediaconvert. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 245 + source_type_name: Amazon MediaConvert +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- aws +- métricas +- recopilación de logs +- nube +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: amazon_mediaconvert +integration_id: amazon-mediaconvert +integration_title: Amazon MediaConvert +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: amazon_mediaconvert +public_title: Amazon MediaConvert +short_description: Formatea y comprime contenidos de vídeo para televisores y dispositivos + conectados +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::AWS + - Category::Metrics + - Category::Log Collection + - Category::Cloud + - Offering::Integration + configuration: README.md#Setup + description: Formatea y comprime contenidos de vídeo para televisores y dispositivos + conectados + media: [] + overview: README.md#Overview + support: README.md#Support + title: Amazon MediaConvert +--- + + +## Información general + +AWS Elemental MediaConvert es un servicio que formatea y comprime contenidos de vídeo fuera de línea para su envío a televisores o dispositivos conectados. + +Habilita esta integración para ver todas tus métricas de Elemental MediaConvert en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `MediaConvert` está habilitado en la pestaña `Metric Collection`. +2. Instala el [integración de Datadog y AWS Elemental MediaConvert][3]. + +### Recopilación de logs + +#### Activar logging + +Configura AWS Elemental MediaConvert para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_mediaconvert` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de AWS Elemental MediaConvert en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_mediaconvert" >}} + + +### Eventos + +La integración de AWS Elemental MediaConvert no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Elemental MediaConvert no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-mediaconvert +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mediaconvert/amazon_mediaconvert_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_mediapackage.md b/content/es/integrations/amazon_mediapackage.md new file mode 100644 index 0000000000000..207391dfe4c50 --- /dev/null +++ b/content/es/integrations/amazon_mediapackage.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Elemental MediaPackage. +doc_link: https://docs.datadoghq.com/integrations/amazon_mediapackage/ +draft: false +git_integration_title: amazon_mediapackage +has_logo: true +integration_id: '' +integration_title: AWS Elemental MediaPackage +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_mediapackage +public_title: Integración de Datadog y AWS Elemental MediaPackage +short_description: Rastrea métricas clave de AWS Elemental MediaPackage. +version: '1.0' +--- + + +## Información general + +AWS Elemental MediaPackage es un servicio de empaquetado y originación de vídeos justo a tiempo que ofrece flujos de vídeo de gran seguridad, escalabilidad y fiabilidad a una amplia variedad de dispositivos de reproducción. + +Habilita esta integración para ver todas tus métricas de Elemental MediaPackage en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `MediaPackage` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Elemental MediaPackage][3]. + +### APM + +#### Activar logging + +Configura AWS Elemental MediaPackage para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_mediapackage` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de AWS Elemental MediaPackage en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_mediapackage" >}} + + +### Eventos + +La integración de AWS Elemental MediaPackage no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Elemental MediaPackage no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-mediapackage +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mediapackage/amazon_mediapackage_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_mediatailor.md b/content/es/integrations/amazon_mediatailor.md new file mode 100644 index 0000000000000..857922ddbf145 --- /dev/null +++ b/content/es/integrations/amazon_mediatailor.md @@ -0,0 +1,83 @@ +--- +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +dependencies: [] +description: Rastrea métricas clave de AWS Elemental MediaTailor. +doc_link: https://docs.datadoghq.com/integrations/amazon_mediatailor/ +draft: false +git_integration_title: amazon_mediatailor +has_logo: true +integration_id: '' +integration_title: AWS Elemental MediaTailor +integration_version: '' +is_public: true +manifest_version: '1.0' +name: amazon_mediatailor +public_title: Integración de Datadog y AWS Elemental MediaTailor +short_description: Rastrea métricas clave de AWS Elemental MediaTailor. +version: '1.0' +--- + + +## Información general + +AWS Elemental MediaTailor es un servicio de personalización y monetización que permite la inserción escalable de anuncios en el servidor. + +Habilita esta integración para ver todas tus métricas de Elemental MediaTailor en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `MediaTailor` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Elemental MediaTailor][3]. + +### APM + +#### Activar logging + +Configura AWS Elemental MediaTailor para enviar logs ya sea a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_mediatailor` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de AWS Elemental MediaTailor en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_mediatailor" >}} + + +### Eventos + +La integración de AWS Elemental MediaTailor no incluye ningún evento. + +### Checks de servicio + +La integración de AWS Elemental MediaTailor no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-mediatailor +[4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mediatailor/amazon_mediatailor_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_public_ip_address.md b/content/es/integrations/azure_public_ip_address.md new file mode 100644 index 0000000000000..38cec1ded35b7 --- /dev/null +++ b/content/es/integrations/azure_public_ip_address.md @@ -0,0 +1,58 @@ +--- +aliases: +- /es/integrations/azure_publicipaddress +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure Public IP Address. +doc_link: https://docs.datadoghq.com/integrations/azure_public_ip_address/ +draft: false +git_integration_title: azure_public_ip_address +has_logo: true +integration_id: azure-publicipaddress +integration_title: Microsoft Azure Public IP Address +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_public_ip_address +public_title: Integración de Datadog y Microsoft Azure Public IP Address +short_description: Rastrea las métricas principales de Azure Public IP Address. +version: '1.0' +--- + + +## Información general + +Cuando se asigna una dirección IP pública de Azure a un recurso, habilita la comunicación entrante y la conectividad saliente desde Internet. + +Utiliza la integración de Azure con Datadog para recopilar métricas de Azure Public IP Address. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_public_ip_address" >}} + + +### Eventos + +La integración Azure Public IP Address no incluye ningún evento. + +### Checks de servicios + +La integración Azure Public IP Address no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_public_ip_address/azure_public_ip_address_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_queue_storage.md b/content/es/integrations/azure_queue_storage.md new file mode 100644 index 0000000000000..fba540a4bfc93 --- /dev/null +++ b/content/es/integrations/azure_queue_storage.md @@ -0,0 +1,59 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure Queue Storage. +doc_link: https://docs.datadoghq.com/integrations/azure_queue_storage/ +draft: false +git_integration_title: azure_queue_storage +has_logo: true +integration_id: azure-queue-storage +integration_title: Microsoft Azure Queue Storage +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_queue_storage +public_title: Integración de Datadog y Microsoft Azure Queue Storage +short_description: Rastrea las métricas clave de Azure Queue Storage. +version: '1.0' +--- + + +## Información general + +Azure Queue Storage es un servicio para almacenar grandes cantidades de mensajes a los que se puede acceder desde cualquier parte del mundo con llamadas autenticadas mediante HTTP o HTTPS. + +Obtén métricas de Azure Queue Storage para: + +- Visualizar el rendimiento de tu Queue Storage. +- Correlacionar el rendimiento de tu Queue Storage con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_queue_storage" >}} + + +### Eventos + +La integración Azure Queue Storage no incluye eventos. + +### Checks de servicios + +La integración Azure Queue Storage no incluye checks de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_queue_storage/azure_queue_storage_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_recovery_service_vault.md b/content/es/integrations/azure_recovery_service_vault.md new file mode 100644 index 0000000000000..56e2bcd090927 --- /dev/null +++ b/content/es/integrations/azure_recovery_service_vault.md @@ -0,0 +1,61 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure Recovery Service Vault. +doc_link: https://docs.datadoghq.com/integrations/azure_recovery_service_vault/ +draft: false +git_integration_title: azure_recovery_service_vault +has_logo: true +integration_id: '' +integration_title: Azure Recovery Service Vault +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_recovery_service_vault +public_title: Integración de Datadog y Azure Recovery Service Vault +short_description: Rastrea las métricas principales de Azure Recovery Service Vault. +version: '1.0' +--- + + +## Información general + +La integración Azure Recovery Service Vault te ayuda a monitorizar el estado de una bóveda de servicio de recuperación que se ejecuta en Microsoft Azure. + +La integración de Azure con Datadog puede recopilar métricas de Azure Recovery Service Vault, pero se [recomienda][1] que instales el Datadog Agent en tus máquinas virtuales. Si tu organización se encuentra en el sitio US3 de Datadog y has configurado el recurso de Datadog en Azure, utiliza las instrucciones de la [Guía de configuración manual de la integración nativa de Azure][2]. Se pueden utilizar las instrucciones de la [Guía de configuración manual de la integración de Azure][3] o la [Guía de gestión programática de Azure][4] con **todos los sitios**. + +## Configuración + +### Instalación + +Si aún no lo has hecho, primero configura la [integración Microsoft Azure][5]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_recovery_service_vault" >}} + + +### Eventos + +La integración Azure Recovery Service Vault no incluye ningún evento. + +### Checks de servicios + +La integración Azure Recovery Service Vault no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. + + +[1]: https://www.datadoghq.com/blog/dont-fear-the-agent/ +[2]: https://docs.datadoghq.com/es/integrations/guide/azure-native-manual-setup/#deploy-the-datadog-agent +[3]: https://docs.datadoghq.com/es/integrations/guide/azure-manual-setup/#agent-installation +[4]: https://docs.datadoghq.com/es/integrations/guide/azure-programmatic-management/#datadog-azure-vm-extension +[5]: https://docs.datadoghq.com/es/integrations/azure/ +[6]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_recovery_service_vault/azure_recovery_service_vault_metadata.csv +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_redis_cache.md b/content/es/integrations/azure_redis_cache.md new file mode 100644 index 0000000000000..0e2f3cf4d713e --- /dev/null +++ b/content/es/integrations/azure_redis_cache.md @@ -0,0 +1,62 @@ +--- +categories: +- azure +- caching +- cloud +custom_kind: integración +dependencies: [] +description: Rastrea los aciertos y errores de caché, los desalojos, los clientes + conectados y mucho más. +doc_link: https://docs.datadoghq.com/integrations/azure_redis_cache/ +draft: false +git_integration_title: azure_redis_cache +has_logo: true +integration_id: azure-redis-cache +integration_title: Microsoft Azure Redis Cache +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_redis_cache +public_title: Integración de Datadog y Microsoft Azure Redis Cache +short_description: Rastrea los aciertos y errores de caché, los desalojos, los clientes + conectados y mucho más. +version: '1.0' +--- + + +## Información general + +Azure Redis Cache es una caché de datos gestionados para tus aplicaciones de Azure. + +Obtén métricas de Azure Redis Cache para: + +- Visualizar el rendimiento de tus Redis Caches. +- Correlacionar el rendimiento de tus Redis Caches con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_redis_cache" >}} + + +### Eventos + +La integración Azure Redis Cache no incluye ningún evento. + +### Checks de servicios + +La integración Azure Redis Cache no incluye checks de servicios. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_redis_cache/azure_redis_cache_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_relay.md b/content/es/integrations/azure_relay.md new file mode 100644 index 0000000000000..24ddab4591e6c --- /dev/null +++ b/content/es/integrations/azure_relay.md @@ -0,0 +1,57 @@ +--- +categories: +- azure +- nube +- la red +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure Relay. +doc_link: https://docs.datadoghq.com/integrations/azure_relay/ +draft: false +git_integration_title: azure_relay +has_logo: true +integration_id: azure-relay +integration_title: Microsoft Azure Relay +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_relay +public_title: Integración de Datadog y Microsoft Azure Relay +short_description: Rastrea las métricas principales de Azure Relay. +version: '1.0' +--- + + +## Información general + +El servicio Azure Relay te permite exponer de forma segura los servicios que se ejecutan en tu red corporativa a la nube pública sin abrir un puerto en tu firewall ni realizar cambios intrusivos en la infraestructura de tu red corporativa. + +Utiliza la integración de Azure con Datadog para recopilar métricas de Azure Relay. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_relay" >}} + + +### Eventos + +La integración Azure Relay no incluye eventos. + +### Checks de servicios + +La integración de Azure Relay no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_relay/azure_relay_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_search.md b/content/es/integrations/azure_search.md new file mode 100644 index 0000000000000..00c4be3bb8f31 --- /dev/null +++ b/content/es/integrations/azure_search.md @@ -0,0 +1,56 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure Cognitive Search. +doc_link: https://docs.datadoghq.com/integrations/azure_search/ +draft: false +git_integration_title: azure_search +has_logo: true +integration_id: azure-search +integration_title: Microsoft Azure Cognitive Search +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_search +public_title: Integración de Datadog y Microsoft Azure Cognitive Search +short_description: Rastrea las métricas clave de Azure Cognitive Search. +version: '1.0' +--- + + +## Información general + +Azure Cognitive Search es una solución en la nube de búsqueda como servicio que brinda a los desarrolladores API y herramientas para añadir una experiencia de búsqueda enriquecida sobre contenido privado y heterogéneo en aplicaciones web, móviles y empresariales. + +Utiliza la integración de Azure con Datadog para recopilar métricas de Azure Cognitive Search. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_search" >}} + + +### Eventos + +La integración Azure Cognitive Search no incluye eventos. + +### Checks de servicios + +La integración Azure Cognitive Search no incluye checks de servicios. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_search/azure_search_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_service_bus.md b/content/es/integrations/azure_service_bus.md new file mode 100644 index 0000000000000..cc13dd65dc634 --- /dev/null +++ b/content/es/integrations/azure_service_bus.md @@ -0,0 +1,59 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure Service Bus. +doc_link: https://docs.datadoghq.com/integrations/azure_service_bus/ +draft: false +git_integration_title: azure_service_bus +has_logo: true +integration_id: azure-service-bus +integration_title: Microsoft Azure Service Bus +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_service_bus +public_title: Integración de Datadog y Microsoft Azure Service Bus +short_description: Rastrea las métricas principales de Azure Service Bus. +version: '1.0' +--- + + +## Información general + +Microsoft Azure Service Bus es un agente de mensajes de integración empresarial totalmente gestionado. + +Obtén métricas de Azure Service Bus para: + +- Visualizar el rendimiento de tus Service Buses. +- Correlacionar el rendimiento de tus Service Buses con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_service_bus" >}} + + +### Eventos + +La integración Azure Service Bus no incluye ningún evento. + +### Checks de servicios + +La integración Azure Service Bus no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_service_bus/azure_service_bus_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_service_fabric.md b/content/es/integrations/azure_service_fabric.md new file mode 100644 index 0000000000000..9bb82808e88cf --- /dev/null +++ b/content/es/integrations/azure_service_fabric.md @@ -0,0 +1,89 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrear las métricas de Azure Service Fabric +doc_link: https://docs.datadoghq.com/integrations/azure_service_fabric/ +draft: false +git_integration_title: azure_service_fabric +has_logo: true +integration_id: azure-service-fabric +integration_title: Microsoft Azure Service Fabric +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_service_fabric +public_title: Integración de Datadog y Microsoft Azure Service Fabric +short_description: Rastrear las métricas de Azure Service Fabric +version: '1.0' +--- + + +## Información general + +Azure Service Fabric es una plataforma de sistemas distribuidos que se utiliza para empaquetar, desplegar y gestionar microservicios y contenedores escalables y confiables. + +## Configuración +### Instalación + +Si todavía no lo hiciste, configura primero la [integración de Microsoft Azure][1]. + +Monitoriza el estado de tu clúster de Azure Service Fabric en Datadog ejecutando un comando en la [interfaz de línea de comandos de Azure][2]. + +Para ejecutar el comando de instalación, toma nota de lo siguiente: + +- El sistema operativo que utiliza tu clúster (Windows o Linux) +- El grupo de recursos para tu clúster +- El nombre del conjunto de escala de máquinas virtuales (VMSS) que administra los nodos subyacentes en el clúster +- Tu [clave de API Datadog][3] + +Actualiza el siguiente comando según la información recopilada: + +{{< tabs >}} +{{% tab "Windows" %}} + +```shell +az vmss extension set --name DatadogWindowsAgent --publisher Datadog.Agent --resource-group --vmss-name --protected-settings "{'api_key':''}" +``` + +{{% /tab %}} +{{% tab "Linux" %}} + +```shell +az vmss extension set --name DatadogLinuxAgent --publisher Datadog.Agent --resource-group --vmss-name --protected-settings "{'api_key':''}" +``` + +{{% /tab %}} +{{< /tabs >}} + +Inicia sesión en la CLI de Azure y ejecuta el comando actualizado para desplegar el Datadog Agent en los nodos de tu clúster. + +### Extensión de VM + +Un método de instalación alternativo es añadir la extensión Azure Virtual Machine de Datadog directamente a la [plantilla ARM][4] de tu clúster de Service Fabric. + +## Datos recopilados +### Métricas + +Debido a que el Datadog Agent está instalado en los nodos de tu clúster de Service Fabric, las métricas se informan a Datadog desde los [checks principales][5] del Agent. + +Si estás ejecutando aplicaciones en contenedores en Service Fabric, el Agent informa [métricas de Service Fabric Mesh][6]. + +### Eventos +La integración Azure Service Fabric no incluye ningún evento. + +### Checks de servicios +La integración Azure Service Fabric no incluye ningún check de servicio. + +## Resolución de problemas +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://docs.microsoft.com/en-us/cli/azure/?view=azure-cli-latest +[3]: https://app.datadoghq.com/organization-settings/api-keys +[4]: https://github.com/DataDog/service-fabric-datadog +[5]: https://docs.datadoghq.com/es/getting_started/agent/#checks +[6]: https://docs.microsoft.com/en-us/azure/azure-monitor/essentials/metrics-supported#microsoftservicefabricmeshapplications +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_sql_database.md b/content/es/integrations/azure_sql_database.md new file mode 100644 index 0000000000000..b6c7f35908a25 --- /dev/null +++ b/content/es/integrations/azure_sql_database.md @@ -0,0 +1,61 @@ +--- +categories: +- cloud +- data stores +- caching +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure SQL Database. +doc_link: https://docs.datadoghq.com/integrations/azure_sql_database/ +draft: false +git_integration_title: azure_sql_database +has_logo: true +integration_id: azure-sql-database +integration_title: Microsoft Azure SQL Database +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_sql_database +public_title: Integración de Datadog y Microsoft Azure SQL Database +short_description: Rastrea las métricas principales de Azure SQL Database. +version: '1.0' +--- + + +## Información general + +Azure SQL Database te brinda un almacén de datos sólido con la flexibilidad de escalar para satisfacer la demanda. + +Obtén métricas de Azure SQL Database para: + +- Visualizar el rendimiento de tu SQL Database. +- Correlacionar el rendimiento de tu SQL Database con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_sql_database" >}} + + +### Eventos + +La integración Azure SQL Database no incluye eventos. + +### Checks de servicios + +La integración Azure SQL Database no incluye checks de servicios. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_sql_database/azure_sql_database_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_sql_elastic_pool.md b/content/es/integrations/azure_sql_elastic_pool.md new file mode 100644 index 0000000000000..def0383223747 --- /dev/null +++ b/content/es/integrations/azure_sql_elastic_pool.md @@ -0,0 +1,61 @@ +--- +categories: +- azure +- cloud +- data stores +- provisioning +custom_kind: integración +dependencies: [] +description: Rastrea las métricas principales de Azure SQL Elastic Pool. +doc_link: https://docs.datadoghq.com/integrations/azure_sql_elastic_pool/ +draft: false +git_integration_title: azure_sql_elastic_pool +has_logo: true +integration_id: azure-sql-elastic-pool +integration_title: Microsoft Azure SQL Elastic Pool +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_sql_elastic_pool +public_title: Integración de Datadog y Microsoft Azure SQL Elastic Pool +short_description: Rastrea las métricas principales de Azure SQL Elastic Pool. +version: '1.0' +--- + + +## Información general + +Los pools elásticos proporcionan una solución simple y rentable para gestionar el rendimiento de múltiples bases de datos. + +Obtén métricas de Azure SQL Elastic Pool para: + +- Visualizar el rendimiento de tus SQL Elastic Pools. +- Correlacionar el rendimiento de tus SQL Elastic Pools con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_sql_elastic_pool" >}} + + +### Eventos + +La integración Azure SQL Elastic Pools no incluye eventos. + +### Checks de servicios + +La integración Azure SQL Elastic Pools no incluye checks de servicios. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_sql_elastic_pool/azure_sql_elastic_pool_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_sql_managed_instance.md b/content/es/integrations/azure_sql_managed_instance.md new file mode 100644 index 0000000000000..a1d1b7f5d145a --- /dev/null +++ b/content/es/integrations/azure_sql_managed_instance.md @@ -0,0 +1,56 @@ +--- +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure SQL Managed Instance. +doc_link: https://docs.datadoghq.com/integrations/azure_sql_managed_instance/ +draft: false +git_integration_title: azure_sql_managed_instance +has_logo: true +integration_id: azure-sql-managed-instance +integration_title: Microsoft Azure SQL Managed Instance +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_sql_managed_instance +public_title: Integración de Datadog y Microsoft Azure SQL Managed Instance +short_description: Rastrea las métricas clave de Azure SQL Managed Instance. +version: '1.0' +--- + + +## Información general + +Azure SQL Managed Instance es un servicio de base de datos en la nube escalable que combina la más amplia compatibilidad del motor SQL Server con los beneficios de una plataforma totalmente gestionada como servicio. + +Utiliza la integración de Azure con Datadog para recopilar métricas de SQL Managed Instance. + +## Configuración +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados +### Métricas +{{< get-metrics-from-git "azure_sql_managed_instance" >}} + + +### Eventos +La integración Azure SQL Managed Instance no incluye eventos. + +### Checks de servicios +La integración Azure SQL Managed Instance no incluye checks de servicios. + +## Resolución de problemas +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +## Leer más + +- [https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/][4] + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_sql_managed_instance/azure_sql_managed_instance_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ +[4]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ \ No newline at end of file diff --git a/content/es/integrations/azure_stream_analytics.md b/content/es/integrations/azure_stream_analytics.md new file mode 100644 index 0000000000000..85bf04c8cff80 --- /dev/null +++ b/content/es/integrations/azure_stream_analytics.md @@ -0,0 +1,58 @@ +--- +aliases: +- /es/integrations/azure_streamanalytics +categories: +- nube +- azure +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure Stream Analytics. +doc_link: https://docs.datadoghq.com/integrations/azure_stream_analytics/ +draft: false +git_integration_title: azure_stream_analytics +has_logo: true +integration_id: azure-streamanalytics +integration_title: Microsoft Azure Stream Analytics +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_stream_analytics +public_title: Integración de Datadog y Microsoft Azure Stream Analytics +short_description: Rastrea las métricas clave de Azure Stream Analytics. +version: '1.0' +--- + + +## Información general + +Azure Stream Analytics es un motor de procesamiento de eventos que te permite examinar grandes volúmenes de transmisión de datos procedentes de dispositivos. + +Utiliza la integración de Azure con Datadog para recopilar métricas de Azure Stream Analytics. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_stream_analytics" >}} + + +### Eventos + +La integración Azure Stream Analytics no incluye eventos. + +### Checks de servicios + +La integración Azure Stream Analytics no incluye checks de servicios. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_stream_analytics/azure_stream_analytics_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_table_storage.md b/content/es/integrations/azure_table_storage.md new file mode 100644 index 0000000000000..88220e23a1c42 --- /dev/null +++ b/content/es/integrations/azure_table_storage.md @@ -0,0 +1,60 @@ +--- +categories: +- azure +- nube +- almacenes de datos +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure Table Storage. +doc_link: https://docs.datadoghq.com/integrations/azure_table_storage/ +draft: false +git_integration_title: azure_table_storage +has_logo: true +integration_id: azure-table-storage +integration_title: Microsoft Azure Table Storage +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_table_storage +public_title: Integración de Datadog y Microsoft Azure Table Storage +short_description: Rastrea las métricas clave de Azure Table Storage. +version: '1.0' +--- + + +## Información general + +Azure Table Storage es un almacén de clave-valor NoSQL para un desarrollo rápido mediante conjuntos de datos semiestructurados masivos. + +Obtén métricas de Azure Table Storage para: + +- Visualizar el rendimiento de tu Table Storage. +- Correlacionar el rendimiento de tu Table Storage con tus aplicaciones. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_table_storage" >}} + + +### Eventos + +La integración Azure Table Storage no incluye eventos. + +### Checks de servicios + +La integración Azure Table Storage no incluye checks de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_table_storage/azure_table_storage_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_usage_and_quotas.md b/content/es/integrations/azure_usage_and_quotas.md new file mode 100644 index 0000000000000..0103a9ef83c63 --- /dev/null +++ b/content/es/integrations/azure_usage_and_quotas.md @@ -0,0 +1,61 @@ +--- +categories: +- azure +- nube +- gestión de costes +- la red +custom_kind: integración +dependencies: [] +description: Rastrea el uso en comparación con los límites preconfigurados de los + recursos de computación, red y almacenamiento de Azure para tu suscripción. +doc_link: https://docs.datadoghq.com/integrations/azure_usage_and_quotas/ +draft: false +git_integration_title: azure_usage_and_quotas +has_logo: true +integration_id: azure-usage-and-quotas +integration_title: Microsoft Azure Usage and Quotas +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_usage_and_quotas +public_title: Integración de Datadog y Microsoft Azure Usage and Quotas +short_description: Rastrea el uso en comparación con los límites preconfigurados en + Azure. +version: '1.0' +--- + + +## Información general + +Azure establece límites preconfigurados para los recursos de tu suscripción. Para evitar errores de aprovisionamiento inesperados, ten en cuenta estos límites al diseñar y escalar tu entorno de Azure. Obtén métricas de Azure Usage and Quotas para: + +- Visualizar la utilización de los recursos de computación, red y almacenamiento en comparación con tu cuota. +- Comprender y evitar que los errores de aprovisionamiento alcancen los límites de cuota. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Microsoft Azure][1]. No es necesario realizar ningún otro paso de instalación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "azure_usage_and_quotas" >}} + + +### Eventos + +La integración Azure Quota no incluye eventos. + +### Checks de servicios + +La integración de Azure Quota no incluye ningún check de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_usage_and_quotas/azure_usage_and_quotas_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_virtual_networks.md b/content/es/integrations/azure_virtual_networks.md new file mode 100644 index 0000000000000..9349bcec92eca --- /dev/null +++ b/content/es/integrations/azure_virtual_networks.md @@ -0,0 +1,62 @@ +--- +categories: +- azure +- nube +- la red +custom_kind: integración +dependencies: [] +description: Rastrea las métricas clave de Azure Virtual Network. +doc_link: https://docs.datadoghq.com/integrations/azure_virtual_networks/ +draft: false +git_integration_title: azure_virtual_networks +has_logo: true +integration_id: '' +integration_title: Microsoft Azure Virtual Network +integration_version: '' +is_public: true +manifest_version: '1.0' +name: azure_virtual_networks +public_title: Integración de Datadog y Microsoft Azure Virtual Network +short_description: Rastrea las métricas clave de Azure Virtual Network. +version: '1.0' +--- + + +## Información general + +Azure Virtual Network es el componente fundamental de tu red privada en Azure. Virtual Network permite que muchos tipos de recursos de Azure, como Azure Virtual Machines, se comuniquen de forma segura entre sí, con Internet y con las redes locales. Usa Datadog para monitorizar el espacio de direcciones disponible y evitar quedarte sin espacio en momentos críticos. + +Obtén métricas de Azure Virtual Network para: + +* Monitorizar la cantidad de direcciones asignadas y no asignadas para tus redes virtuales. +* Rastrear el número de interconexiones de red totales y conectadas. +* Rastrear el número de direcciones disponibles frente a las asignadas dentro de tus subredes. +* Evitar quedarte sin espacio de direcciones en momentos críticos. + +**Las métricas de esta integración no están disponibles en Azure Monitor**. Datadog las genera consultando las API de metadatos de Azure y convirtiendo las respuestas en puntos de datos de series temporales. Se proporcionan en Datadog como métricas estándar de la integración de Azure. + +## Configuración + +**Nota**: Azure no admite el uso de subredes de gateway y devuelve un valor de (-1) tanto para el espacio de direcciones disponible como para el asignado. Asegúrate de tener esto en cuenta al analizar el uso agregado en las redes virtuales que contienen subredes de gateway. + +### Instalación + +Si aún no lo has hecho, configura primero [Microsoft Azure integración][1]. No hay otros pasos de instalación. + +## Datos recopilados +### Métricas +{{< get-metrics-from-git "azure_virtual_networks" >}} + + +### Eventos +La integración Azure Virtual Network no incluye eventos. + +### Checks de servicios +La integración Azure Virtual Network no incluye checks de servicios. + +## Resolución de problemas +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_virtual_networks/azure_virtual_networks_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/azure_vm.md b/content/es/integrations/azure_vm.md new file mode 100644 index 0000000000000..f19253dce4563 --- /dev/null +++ b/content/es/integrations/azure_vm.md @@ -0,0 +1,146 @@ +--- +app_id: azure-vm +app_uuid: 2bcae6e7-13df-45c2-8085-ae9fc5ba0b09 +assets: + dashboards: + azure_vm: assets/dashboards/azure_vm.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - azure.vm.percentage_cpu + - azure.vm.processor_total_pct_user_time + metadata_path: metadata.csv + prefix: azure.vm + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 139 + source_type_name: Azure VM +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- azure +- cloud +- configuration & deployment +- os & system +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: azure_vm +integration_id: azure-vm +integration_title: Azure VM +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: azure_vm +public_title: Azure VM +short_description: Microsoft Azure VM es un servicio que te permite crear máquinas + virtuales Linux y Windows en minutos +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Azure + - Category::Nube + - Category::Configuración y despliegue + - Category::Sistema operativo y sistema + - Offering::Integración + configuration: README.md#Configuración + description: Microsoft Azure VM es un servicio que te permite crear máquinas virtuales + Linux y Windows en minutos + media: + - caption: Dashboard de información general de Azure VM + image_url: images/1_azure_vm_overview_dashboard.png + media_type: imagen + - caption: Plantilla de monitorización del estado de Azure VM + image_url: images/2_azure_vm_health_monitor_template.png + media_type: imagen + overview: README.md#Overview + resources: + - resource_type: documentación + url: https://docs.datadoghq.com/integrations/azure + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-azure-arm-vms-datadog + - resource_type: blog + url: https://www.datadoghq.com/blog/dash-2024-new-feature-roundup-infrastructure + support: README.md#Support + title: Azure VM +--- + + +## Información general + +Azure Virtual Machine te permite ejecutar de forma flexible entornos virtualizados con la capacidad de escalar bajo demanda. + +Obtén métricas de Azure VM para: + +- Visualizar el rendimiento de tus VM. +- Correlacionar el rendimiento de tus VM con tus aplicaciones. + +## Configuración + +### Instalación + +Si todavía no lo hiciste, configura primero la [integración de Microsoft Azure][1]. + +En el caso de las máquinas virtuales desplegadas con **ARM**, debes activar los diagnósticos y seleccionar las métricas de la VM que deseas recopilar. Consulta [Habilitar diagnósticos][2] para obtener instrucciones. + +### Silenciamiento automático de monitores + +Datadog puede silenciar de forma proactiva los monitores relacionados con el apagado o la finalización de las VM de Azure, ya sea que el apagado se haya activado de forma manual o mediante el escalado automático de Azure, en función de los estados de mantenimiento disponibles a través de la [API de estado de recursos de Azure][3]. Al silenciar los monitores para los apagados esperados de las VM de Azure, puedes reducir el ruido de las alertas innecesarias. + +Las máquinas virtuales silenciadas automáticamente aparecen en la página [Gestionar la caída del sistema][4] al habilitar **Show automatically muted hosts**. La integración de Azure debe estar instalada para que el silenciamiento automático surta efecto. + +Para silenciar los monitores en VM de Azure apagadas o finalizadas, marca la casilla **Azure automuting** en el cuadro de integración de Azure. + +Para crear monitores de métricas que se puedan silenciar automáticamente, asegúrate de activarlos en función de la etiqueta (tag) `host`. Los monitores de métricas que no incluyen la etiqueta `host` en el grupo monitorizado no se silencian automáticamente. + +{{< img src="integrations/azure_vm/azure_vm_automute2.png" alt="Un monitor que alerta sobre una consulta que incluye la etiqueta de host" >}} + +**Nota:** Si no estás ejecutando el Datadog Agent, la etiqueta `host` en su VM de Azure es un GUID. Usa la variable de plantilla de mensaje `{{host.name_tag}}` en la respuesta de notificación para incluir también el nombre legible para humanos. + +## Datos recopilados + +
La métrica azure.vm.statusestá obsoleta y ya no se completa para las organizaciones de Datadog recién creadas. Para los usuarios existentes, esta métrica se deshabilitó el 1 de junio de 2023. . + +Ante cualquier duda, ponte en contacto con el equipo de asistencia de Datadog.
+ +### Métricas +{{< get-metrics-from-git "azure_vm" >}} + + +### Eventos + +La integración Azure Virtual Machine no incluye eventos. + +### Checks de servicio + +La integración Azure Virtual Machine no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6]. + +## Referencias adicionales + +- [Cómo monitorizar VM de Microsoft Azure][7] +- [Cómo recopilar métricas de Azure][8] +- [Monitorizar VM de Azure con Datadog][9] +- [Hacer una estrategia para tu migración de Azure para cargas de trabajo de SQL con Datadog][10] + +[1]: https://docs.datadoghq.com/es/integrations/azure/ +[2]: https://docs.datadoghq.com/es/integrations/guide/azure-troubleshooting/#enable-diagnostics +[3]: https://docs.microsoft.com/en-us/rest/api/resourcehealth/ +[4]: https://app.datadoghq.com/monitors/downtimes +[5]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_vm/azure_vm_metadata.csv +[6]: https://docs.datadoghq.com/es/help/ +[7]: https://www.datadoghq.com/blog/how-to-monitor-microsoft-azure-vms +[8]: https://www.datadoghq.com/blog/how-to-collect-azure-metrics +[9]: https://www.datadoghq.com/blog/monitor-azure-vms-using-datadog +[10]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ \ No newline at end of file diff --git a/content/es/integrations/superwise.md b/content/es/integrations/superwise.md new file mode 100644 index 0000000000000..9deeb6a3a7ee9 --- /dev/null +++ b/content/es/integrations/superwise.md @@ -0,0 +1,134 @@ +--- +app_id: superwise +app_uuid: 814d45d4-bf11-46c9-98a2-5fab9c997c94 +assets: + dashboards: + Superwise: assets/dashboards/superwise.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: superwise.metric.overall.quantity + metadata_path: metadata.csv + prefix: superwise. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10246 + source_type_name: Superwise +author: + homepage: https://github.com/DataDog/integrations-extras + name: Superwise + sales_email: support@superwise.ai + support_email: support@superwise.ai +categories: +- rum +- ia/ml +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/superwise/README.md +display_on_public_website: true +draft: false +git_integration_title: superwise +integration_id: superwise +integration_title: Superwise +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: superwise +public_title: Superwise +short_description: Plataforma de observabilidad de modelos de Machine Learning en + producción +supported_os: +- Linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Incidentes + - Categoría::IA/ML + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Oferta::Integración + configuration: README.md#Configuración + description: Plataforma de observabilidad de modelos de Machine Learning en producción + media: [] + overview: README.md#Información general + resources: + - resource_type: Blog + url: https://www.datadoghq.com/blog/superwise-datadog-marketplace/ + support: README.md#Soporte + title: Superwise +--- + + + + +## Información general +[Superwise][1] proporciona una observabilidad de los modelos para operaciones de Machine Learning (ML) de gran escala. +La observabilidad de los modelos de Superwise te ofrece una visibilidad y un contexto de los comportamientos de tus modelos, para que puedas monitorizar fácilmente los riesgos de los modelos en función de los distintos casos de uso. Con Superwise, los científicos de datos, los ingenieros de ML y las operaciones empresariales logran una observabilidad de los modelos sin fatiga de alertas, para que puedas confiar en la gestión de tus modelos. + +![Dashboard de Superwise][2] + +Las métricas de modelos y la integración de los incidentes de Superwise envía métricas de modelos predefinidas, incluyendo deriva, actividad, incidentes y métricas personalizadas, directamente a Datadog. Podrás obtener información general de qué modelos no están prediciendo los resultados esperados, algo que puede configurarse para cualquier caso de uso, lógica, segmentación, umbral y sensibilidad. + +Con la integración Datadog configurada en Superwise, las métricas de modelos estándar se envían a Datadog y los usuarios obtienen dashboards de observabilidad de modelos en Datadog. Puedes configurar cualquier métrica de modelo específica y política de incidentes y enviarlas a Datadog para obtener una observabilidad del modelo adaptada a tu caso de uso. + +## Configuración + +1. Ve al [portal Superwise][3] y selecciona **Integrations** (Integraciones). + +2. Haz clic en **Create a new channel** (Crear un nuevo canal) y selecciona **Datadog**. + + ![Superwise - Añadir nueva integración][4] + +3. Introduce tu Datadog y tus claves de la aplicación API y haz clic en **Test**. Se enviará una solicitud de test a tu cuenta de Datadog para validar la integración. Si la solicitud se ha enviado correctamente, aparecerá un mensaje en Superwise indicando que el test se ha realizado correctamente. Para finalizar la configuración, haz clic en **Create channel** (Crear canal). + + ![Superwise - Añadir nuevo canal de Datadog][5] + +4. Una vez finalizada la configuración, estará disponible el widget de la nueva integración Datadog: + + ![Integración Superwise][6] + +### Validación +En Datadog, ve al **Explorador de métricas** y busca la métrica `superwise.integration.test` para verificar que la integración entre Superwise y Datadog funciona correctamente. + +![Gráfica de superwise.integration.test en Datadog][7] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "superwise" >}} + + +### Eventos + +La integración Superwise no incluye eventos. + +### Checks de servicio + +La integración Superwise no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Consulta la [documentación de Superwise][9]. + +## Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Monitorización del rendimiento de modelos con la oferta de Superwise en el Marketplace de Datadog][10] + +[1]: https://www.superwise.ai/ +[2]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/superwise/images/5.png +[3]: https://portal.superwise.ai/ +[4]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/superwise/images/2.png +[5]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/superwise/images/6.png +[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/superwise/images/3.png +[7]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/superwise/images/4.png +[8]: https://github.com/DataDog/integrations-extras/blob/master/superwise/metadata.csv +[9]: https://docs.superwise.ai +[10]: https://www.datadoghq.com/blog/superwise-datadog-marketplace/ \ No newline at end of file diff --git a/content/es/integrations/syncthing.md b/content/es/integrations/syncthing.md new file mode 100644 index 0000000000000..141ec315b1085 --- /dev/null +++ b/content/es/integrations/syncthing.md @@ -0,0 +1,133 @@ +--- +app_id: syncthing +app_uuid: a61c3428-6898-45be-8a20-89f4c039a56d +assets: + dashboards: + Syncthing Overview: assets/dashboards/syncthing_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: syncthing.connections.count + metadata_path: metadata.csv + prefix: syncthing. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10276 + source_type_name: Syncthing + monitors: + Device is not connected: assets/monitors/syncthing_device_not_connected.json + Files out of sync: assets/monitors/syncthing_out_of_sync.json + Folder errors: assets/monitors/syncthing_folder_error.json + No active connections: assets/monitors/syncthing_disconnected.json + Service is failed: assets/monitors/syncthing_service_error.json + System errors: assets/monitors/syncthing_system_error.json +author: + homepage: https://github.com/DataDog/integrations-extras + name: Comunidad + sales_email: Alexander@Bushnev.pro + support_email: Alexander@Bushnev.pro +categories: +- colaboración +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/syncthing/README.md +display_on_public_website: true +draft: false +git_integration_title: syncthing +integration_id: syncthing +integration_title: Syncthing +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: syncthing +public_title: Syncthing +short_description: Seguimiento de las estadísticas generales de tu instancia de Syncthing +supported_os: +- Linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Categoría::Colaboración + - Categoría::Seguridad + - Sistema operativo compatible::macOS + - Oferta::Integración + configuration: README.md#Configuración + description: Seguimiento de las estadísticas generales de tu instancia de Syncthing + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Syncthing +--- + + + + +## Información general + +Syncthing sincroniza archivos entre dos o más ordenadores en tiempo real. Esta integración te permite monitorizar [Syncthing][1] utilizando Datadog. + +## Configuración + +El check de Syncthing no está incluido en el paquete del [Datadog Agent][2], por lo que es necesario instalarlo. + +### Instalación + +Para versiones 7.21/6.21 o posteriores del Agent, sigue las siguientes instrucciones para instalar el check de Syncthing en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][3]. + +1. Ejecuta el siguiente comando para instalar la integración del Agent: + + ```shell + datadog-agent integration install -t datadog-syncthing== + ``` + +2. Configura tu integración como si fuese una [integración][4] de base. + +### Configuración + +1. Edita el archivo `syncthing.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][5], para empezar a recopilar tus [métricas](#metrics) de Syncthing. Para conocer todas las opciones de configuración disponibles, consulta el [syncthing.d/conf.yaml de ejemplo][6]. + +2. [Reinicia el Agent][7]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][8] y busca `syncthing` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "syncthing" >}} + + +### Eventos + +Syncthing no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "syncthing" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. + + +[1]: https://syncthing.net/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/ +[4]: https://docs.datadoghq.com/es/getting_started/integrations/ +[5]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[6]: https://github.com/DataDog/integrations-extras/blob/master/syncthing/datadog_checks/syncthing/data/conf.yaml.example +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#service-status +[9]: https://github.com/DataDog/integrations-extras/blob/master/syncthing/metadata.csv +[10]: https://github.com/DataDog/integrations-extras/blob/master/syncthing/assets/service_checks.json +[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/syntheticemail.md b/content/es/integrations/syntheticemail.md new file mode 100644 index 0000000000000..6a44202030fce --- /dev/null +++ b/content/es/integrations/syntheticemail.md @@ -0,0 +1,107 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: rapdev-syntheticemail +app_uuid: c3b29bd1-fb32-44ed-aaf5-34d6b8d84bbb +assets: + dashboards: + Synthetic Email: assets/dashboards/synthetic_email.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.syntheticemail.rtt + metadata_path: metadata.csv + prefix: rapdev.syntheticemail. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10111 + source_type_name: Correo electrónico Synthetic + monitors: + Hop-count is changing: assets/monitors/hop_count_change.json + RTT time is experiencing degradation: assets/monitors/performance_degraded.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: syntheticemail +integration_id: rapdev-syntheticemail +integration_title: Correo electrónico Synthetic +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: syntheticemail +pricing: +- billing_type: recuento_etiquetas + includes_assets: true + metric: datadog.marketplace.rapdev.syntheticemail + product_id: syntheticemail + short_description: Precio unitario por buzón + tag: buzón + unit_label: Buzón + unit_price: 350.0 +public_title: Correo electrónico Synthetic +short_description: Monitorización del rendimiento de buzones de correo electrónico + de ida y vuelta en todo el mundo +supported_os: +- Linux +- macOS +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Sistema operativo compatible::Windows + - Category::Marketplace + - Oferta::Integración + - Tipo de datos enviados::Métricas + configuration: README.md#Configuración + description: Monitorización del rendimiento de buzones de correo electrónico de + ida y vuelta en todo el mundo + media: + - caption: Introducción al correo electrónico Synthetic + image_url: images/video.png + media_type: vídeo + vimeo_id: 630489712 + - caption: Correo electrónico Synthetic y tiempos de respuesta + image_url: images/1.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Correo electrónico Synthetic + uninstallation: README.md#Desinstalación +--- + + +## Información general + +Esta integración monitoriza los buzones de correo electrónico y mide las entregas completas de mensajes de envío-recepción Synthetic. La integración utiliza tres orígenes geográficos para las entregas de correos electrónicos Synthetic: Virginia (EE.UU.), Frankfurt (UE) y Sydney (AP). El check funciona enviando un correo electrónico de test desde la dirección `probe@synth-rapdev.io` y luego esperando una respuesta automática de tu buzón de salida. La integración mide el número de saltos, el tiempo de ida y vuelta y los resultados del test (correcto/incorrecto). + +## Agent +Para obtener asistencia o realizar solicitudes de funciones, ponte en contacto con RapDev.io a través de los siguientes canales: + + - Correo electrónico: support@rapdev.io + - Chat: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - Teléfono: 855-857-0222 + +--- +Hecho con ❤️ en Boston + +*¿Esta no es la integración que estás buscando? ¿Falta una función esencial para tu organización? Envíanos una [nota](mailto:support@rapdev.io) y la crearemos.* + +--- +Esta aplicación está disponible a través del Marketplace de Datadog y cuenta con el respaldo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/syslog_ng.md b/content/es/integrations/syslog_ng.md new file mode 100644 index 0000000000000..4d8fc2bee10f4 --- /dev/null +++ b/content/es/integrations/syslog_ng.md @@ -0,0 +1,103 @@ +--- +aliases: +- /es/logs/log_collection/syslog_ng +categories: +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/documentation/blob/master/content/en/integrations/syslog_ng.md +description: Configura Syslog-ng para recopilar logs de tus hosts, contenedores y + servicios. +doc_link: /integrations/syslog_ng/ +has_logo: true +integration_id: syslog_ng +integration_title: syslog_ng +is_public: true +name: syslog_ng +public_title: Integración de Datadog y Syslog-ng +short_description: Configura Syslog-ng para recopilar logs de tus hosts, contenedores + y servicios. +supported_os: +- Linux +- Windows +title: Syslog-ng +--- + +## Información general + +Configura Syslog-ng para recopilar logs de tus hosts, contenedores y servicios. + +{{< site-region region="us3,ap1" >}} +
La recopilación de logs de syslog-ng no está disponible para el sitio Datadog seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +## Configuración + +### Recopilación de logs + +1. Recopila logs del sistema y archivos de logs en `/etc/syslog-ng/syslog-ng.conf` y asegúrate de que la fuente esté correctamente definida: + + ```conf + source s_src { + system(); + internal(); + + }; + ``` + + Si quieres monitorizar archivos, añade la siguiente fuente: + + ```conf + ######################### + # Sources + ######################### + + ... + + source s_files { + file("path/to/your/file1.log",flags(no-parse),follow_freq(1),program_override("")); + file("path/to/your/file2.log",flags(no-parse),follow_freq(1),program_override("")); + + }; + ``` + +2. Define el formato de log correcto: + + ```conf + ######################### + # Destination + ######################### + + ... + + # For Datadog platform: + destination d_datadog { + http( + url("https://http-intake.logs.{{< region-param key="dd_site" code="true" >}}/api/v2/logs?ddsource=&ddtags=") + method("POST") + headers("Content-Type: application/json", "Accept: application/json", "DD-API-KEY: ") + body("<${PRI}>1 ${ISODATE} ${HOST:--} ${PROGRAM:--} ${PID:--} ${MSGID:--} ${SDATA:--} $MSG\n") + ); + }; + ``` + +3. Define la salida en la sección de la ruta: + + ```conf + ######################### + # Log Path + ######################### + + ... + + log { source(s_src); source(s_files); destination(d_datadog); }; + ``` + +4. Reinicia syslog-ng. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][2]. + +[1]: https://syslog-ng.com/documents/html/syslog-ng-ose-latest-guides/en/syslog-ng-ose-guide-admin/html/tlsoptions.html +[2]: /es/help/ \ No newline at end of file diff --git a/content/es/integrations/systemd.md b/content/es/integrations/systemd.md new file mode 100644 index 0000000000000..d173d73178a87 --- /dev/null +++ b/content/es/integrations/systemd.md @@ -0,0 +1,179 @@ +--- +app_id: systemd +app_uuid: a18dccd2-35c0-40e2-9c0a-7a01a5daf5f3 +assets: + dashboards: + Systemd Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: systemd.units_by_state + metadata_path: metadata.csv + prefix: systemd. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10066 + source_type_name: Systemd +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- sistema operativo y sistema +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/systemd/README.md +display_on_public_website: true +draft: false +git_integration_title: systemd +integration_id: systemd +integration_title: Systemd +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: systemd +public_title: Systemd +short_description: Obtener métricas sobre Systemd y unidades gestionadas por Systemd +supported_os: +- Linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Categoría::Sistema operativo y sistema + - Oferta::Integración + configuration: README.md#Configuración + description: Obtener métricas sobre Systemd y unidades gestionadas por Systemd + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Systemd +--- + + + + +## Información general + +Este check monitoriza [Systemd][1] y las unidades que gestiona a través del Datadog Agent. + +- Seguimiento del estado de tu Systemd +- Monitorización de las unidades, los servicios y los sockets gestionados por Systemd + +## Configuración + +### Instalación + +El check de Systemd está incluido en el paquete del [Datadog Agent][2]. No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `systemd.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del + directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Systemd. + Para conocer todas las opciones de configuración disponibles, consulta el [systemd.d/conf.yaml de ejemplo][1]. + +2. [Reinicia el Agent][2]. + +[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/systemd.d/conf.yaml.example +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### En contenedores + +Para entornos en contenedores, instala la carpeta `/run/systemd/`, que contiene el socket `/run/systemd/private` necesario para recuperar los datos de Systemd. Por ejemplo: + +```bash +docker run -d -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup/:ro \ + -v /run/systemd/:/host/run/systemd/:ro \ + -e DD_API_KEY= \ + datadog/agent:latest +``` + +#### Helm + +Para configuraciones Helm, puedes configurar el Datadog Agent para monitorizar unidades de Systemd (como: `kubelet.service` y `ssh.service`) definiendo instalaciones de volúmenes y volúmenes para acceder a archivos y directorios relacionados con Systemd dentro de los contenedores. Por ejemplo: + +```bash +datadog: + #(...) + confd: + # Archivo de configuración personalizado para SystemD + # Ejemplo: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/systemd.d/conf.yaml.example + + systemd.yaml: |- + init_config: + instances: + - unit_names: + - kubelet.service + - ssh.service + +agents: + # Instalaciones personalizadas para el socket SystemD (/run/systemd/private) + volumeMounts: + - name: systemd + mountPath: /host/run/systemd/ # ruta dentro del contenedor donde se instalará el volumen + + volumes: + - name: systemd + hostPath: + path: /run/systemd/ # ruta en la máquina host que se instalará dentro del contenedor. +``` + + +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][3] y busca `systemd` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "systemd" >}} + + +Algunas métricas sólo se notifican si están activadas las respectivas configuraciones: + +- `systemd.service.cpu_time_consumed` requiere la activación de la configuración de Systemd `CPUAccounting` +- `systemd.service.memory_usage` requiere la activación de la configuración de Systemd`MemoryAccounting` +- `systemd.service.task_count` requiere la activación de la configuración de Systemd `TasksAccounting` + +Algunas métricas sólo están disponibles a partir de una versión específica de Systemd: + +- `systemd.service.cpu_time_consumed` requiere Systemd v220 +- `systemd.service.restart_count` requiere Systemd v235 +- `systemd.socket.connection_refused_count` requiere Systemd v239 + +### Eventos + +El check de Systemd no incluye eventos. + +### Checks de servicios +{{< get-service-checks-from-git "systemd" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. + + + +[1]: https://www.freedesktop.org/wiki/Software/systemd/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tcp_queue_length.md b/content/es/integrations/tcp_queue_length.md new file mode 100644 index 0000000000000..df6a3513641d5 --- /dev/null +++ b/content/es/integrations/tcp_queue_length.md @@ -0,0 +1,164 @@ +--- +app_id: tcp-queue-length +app_uuid: 2c48a360-9fbb-4cd6-9316-0e9afd9926c8 +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: tcp_queue.read_buffer_max_usage_pct + metadata_path: metadata.csv + prefix: tcp_queue. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10295 + source_type_name: TCP Queue Length +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- herramientas para desarrolladores +- la red +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/tcp_queue_length/README.md +display_on_public_website: true +draft: false +git_integration_title: tcp_queue_length +integration_id: tcp-queue-length +integration_title: TCP Queue Length +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: tcp_queue_length +public_title: TCP Queue Length +short_description: Realiza un seguimiento del tamaño de los buffers TCP con Datadog. +supported_os: +- Linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Herramientas para desarrolladores + - Categoría::Red + - Sistema operativo compatible::Linux + - Oferta::Integración + configuration: README.md#Configuración + description: Realiza un seguimiento del tamaño de los buffers TCP con Datadog. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: TCP Queue Length +--- + + + + +## Información general + +Este check monitoriza el uso de las colas de recepción y envío TCP de Linux. Puede detectar si una cola de recepción o envío TCP está llena en contenedores individuales. + +## Configuración + +### Instalación + +`tcp_queue_length` es un check núcleo del Agent 6/7 que se basa en una parte eBPF implementada en `system-probe`. Se requiere una versión del Agent 7.24.1/6.24.1 o posterior. + +El programa eBPF utilizado por `system-probe` se compila en el tiempo de ejecución y requiere que tengas acceso a las cabeceras de kernel adecuadas. + +En distribuciones de tipo Debian, instala las cabeceras de kernel de la siguiente manera: +```sh +apt install -y linux-headers-$(uname -r) +``` + +En distribuciones de tipo RHEL, instala las cabeceras de kernel de la siguiente manera: +```sh +yum install -y kernel-headers-$(uname -r) +yum install -y kernel-devel-$(uname -r) +``` + +**Nota**: Las versiones de Windows y CentOS/RHEL anteriores a la v8 no son compatibles. + +### Configuración + +La activación de la integración `tcp_queue_length` requiere que tanto `system-probe` como el Agent núcleo tengan activada la opción de configuración. + +Dentro del archivo de configuración `system-probe.yaml`, deben configurarse los siguientes parámetros: +```yaml +system_probe_config: + enable_tcp_queue_length: true +``` + +1. Edita el archivo `tcp_queue_length.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del + directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de tcp_queue_length. + Para conocer todas las opciones de configuración disponibles, consulta el [tcp_queue_length.d/conf.yaml de ejemplo][1]. + +2. [Reinicia el Agent][2]. + + +### Configuración con Helm + +Con el [Datadog Helm chart][3], el `system-probe` debe activarse configurando `datadog.systemProbe.enabled` como `true` en el archivo `values.yaml`. +A continuación, el check puede activarse configurando el parámetro `datadog.systemProbe.enableTCPQueueLength`. + +### Configuración con el Operator (v1.0.0 o posterior) + +Configura el parámetro `features.tcpQueueLength.enabled` en el manifiesto del Datadog Agent: +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + features: + tcpQueueLength: + enabled: true +``` + +**Nota**: Cuando utilices COS (Contenedor Optimized OS), anula el volumen `src` en el Agent del nodo: +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + features: + tcpQueueLength: + enabled: true + override: + nodeAgent: + volumes: + - emptyDir: {} + name: src +``` + +### Validación + +[Ejecuta el subcomando `status` del Agent][2] y busca `tcp_queue_length` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tcp_queue_length" >}} + + +### Checks de servicio + +El check de TCP Queue Length no incluye checks de servicio. + +### Eventos + +El check de TCP Queue Length no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/tcp_queue_length.d/conf.yaml.example +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[3]: https://github.com/DataDog/helm-charts +[4]: https://github.com/DataDog/integrations-core/blob/master/tcp_queue_length/metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tcp_rtt.md b/content/es/integrations/tcp_rtt.md new file mode 100644 index 0000000000000..76b0b569fb5dd --- /dev/null +++ b/content/es/integrations/tcp_rtt.md @@ -0,0 +1,107 @@ +--- +aliases: +- /es/integrations/tcprtt +categories: +- red +custom_kind: integración +dependencies: +- https://github.com/DataDog/documentation/blob/master/content/en/integrations/tcp_rtt.md +integration_id: tcp-rtt +integration_title: TCP RTT +is_public: true +name: tcp_rtt +newhlevel: true +public_title: Integración de Datadog y TCP RTT +short_description: Monitoriza la conectividad TCP a hosts remotos. +--- + +## Información general + +El check de TCP RTT informa sobre los tiempos de ida y vuelta entre el host del Agent y cualquier host con el que se esté comunicando. Este check es pasivo y sólo informa sobre los tiempos RTT de los paquetes que se envían y reciben desde fuera del check. El propio check no envía ningún paquete. + +Este check sólo se entrega con los paquetes DEB y RPM de 64 bits del Datadog Agent v5. Para otras versiones del Agent, consulta el [uso de Datadog/go-metro][1] para obtener instrucciones sobre cómo compilar el binario go-metro. + +## Configuración + +### Instalación + +El check utiliza las marcas de tiempo proporcionadas por la biblioteca PCAP para calcular el tiempo transcurrido entre cualquier paquete saliente y el acuse de recibo TCP correspondiente. La biblioteca PCAP debe estar instalada y configurada. + +Los sistemas basados en Debian deben utilizar una de las siguientes opciones: + +```text +$ sudo apt-get install libcap +$ sudo apt-get install libcap2-bin +``` + +Los sistemas basados en Redhat deben utilizar una de las siguientes opciones: + +```text +$ sudo yum install libcap +$ sudo yum install compat-libcap1 +``` + +Por último, configura PCAP: + +```text +$ sudo setcap cap_net_raw+ep /opt/datadog-agent/bin/go-metro +``` + +### Configuración + +Edita el archivo `go-metro.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][2]. Para conocer todas las opciones de configuración disponibles, consulta el [go-metro.d/conf.yaml de ejemplo][3]: + +El siguiente ejemplo recupera los tiempos RTT TCP para `app.datadoghq.com` y `192.168.0.22`: + +```yaml +init_config: + snaplen: 512 + idle_ttl: 300 + exp_ttl: 60 + statsd_ip: 127.0.0.1 + statsd_port: 8125 + log_to_file: true + log_level: info + +instances: + - interface: eth0 + tags: + - env:prod + ips: + - 45.33.125.153 + hosts: + - app.datadoghq.com +``` + +### Validación + +Para confirmar que el check se está ejecutando correctamente, deberías ver métricas`system.net.tcp.rtt` en la interfaz de Datadog. Además, si ejecutas `sudo /etc/init.d/datadog-agent status`, deberías ver algo similar a lo siguiente: + +```bash +datadog-agent.service - "Datadog Agent" + Loaded: loaded (/lib/...datadog-agent.service; enabled; vendor preset: enabled) + Active: active (running) since Thu 2016-03-31 20:35:27 UTC; 42min ago + Process: 10016 ExecStop=/opt/.../supervisorctl -c /etc/dd-....conf shutdown (code=exited, status=0/SUCCESS) + Process: 10021 ExecStart=/opt/.../start_agent.sh (code=exited, status=0/SUCCESS) +Main PID: 10025 (supervisord) + CGroup: /system.slice/datadog-agent.service + ├─10025 /opt/datadog-...python /opt/datadog-agent/bin/supervisord -c /etc/dd-agent/supervisor.conf + ├─10043 /opt/datadog-...python /opt/datadog-agent/agent/dogstatsd.py --use-local-forwarder + ├─10044 /opt/datadog-agent/bin/go-metro -cfg=/etc/dd-agent/conf.d/go-metro.yaml + ├─10046 /opt/datadog-.../python /opt/datadog-agent/agent/ddagent.py + └─10047 /opt/datadog-.../python /opt/datadog-agent/agent/agent.py foreground --use-local-forwarder +``` + +Si el check de TCP RTT se ha iniciado, deberías ver algo similar a la línea go-metro anterior. + +Se trata de un check pasivo, por lo que no se informan métricas, a menos que se envíen paquetes activamente a los hosts mencionados en el archivo yaml. + +## Datos recopilados + +### Métricas + +{{< get-metrics-from-git "system" "system.net.tcp.rtt" >}} + +[1]: https://github.com/DataDog/go-metro#usage +[2]: /es/agent/guide/agent-configuration-files/#agent-configuration-directory +[3]: https://github.com/DataDog/integrations-core/blob/master/go-metro/datadog_checks/go-metro/data/conf.yaml.example \ No newline at end of file diff --git a/content/es/integrations/tenable.md b/content/es/integrations/tenable.md new file mode 100644 index 0000000000000..9a2b27e01286e --- /dev/null +++ b/content/es/integrations/tenable.md @@ -0,0 +1,129 @@ +--- +app_id: tenable +app_uuid: 09a46b1b-a940-4aba-8e9f-bde9e5ae2c3f +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10089 + source_type_name: Tenable +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/tenable/README.md +display_on_public_website: true +draft: false +git_integration_title: tenable +integration_id: tenable +integration_title: Tenable Nessus +integration_version: 3.0.0 +is_public: true +manifest_version: 2.0.0 +name: tenable +public_title: Tenable Nessus +short_description: Seguimiento de backends de Nessus y logs de servidor web +supported_os: +- Linux +- macOS +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Sistema operativo compatible::Windows + - Categoría::Recopilación de logs + - Oferta::Integración + configuration: README.md#Configuración + description: Seguimiento de backends de Nessus y logs de servidor web + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Tenable Nessus +--- + + +## Información general + +Esta integración monitoriza logs de [Tenable Nessus][1] a través del Datadog Agent. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar esta integración para un Agent que se ejecuta en un host. + +### Instalación + +Para instalar la configuración de la integración Tenable en tu Agent: + +**Nota**: Este paso no es necesario para el Agent v7.18.0 o posterior. + +1. [Instala][2] la versión 1.0 (`tenable==1.0.0`). + +### Configuración + +El Agent rastrea los logs `webserver` y `backend` de Tenable Nessus para recopilar datos de los análisis de Nessus. + +#### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Descomenta y edita este bloque de configuración en la parte inferior de tu `tenable.d/conf.yaml`: + + Para conocer todas las opciones de configuración disponibles, consulta el [tenable.d/conf.yaml de ejemplo][3]. + + ```yaml + logs: + - type: file + path: /opt/nessus/var/nessus/logs/backend.log + service: nessus_backend + source: tenable + + - type: file + path: /opt/nessus/var/nessus/logs/www_server.log + service: nessus_webserver + source: tenable + ``` + + Personaliza los valores de los parámetros `path` y `service` si es necesario para tu entorno. + +3. [Reinicia el Agent][4]. + +#### Datos de logs recopilados + +1. Los logs del backend de Nessus recopilan datos sobre los nombres de los análisis, la hora de inicio, la hora de finalización, la duración y los objetivos. +2. Los logs del servidor web de Nessus recopilan datos sobre los logs de acceso al servidor web de Nessus, incluidas las IP de los clientes, los Agents de usuarios y los intentos/fracasos/éxitos de inicio de sesión. + +### Métricas + +Esta integración no incluye métricas. + +### Eventos + +Esta integración no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://www.tenable.com/products/nessus +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/#install +[3]: https://github.com/DataDog/integrations-core/blob/master/tenable/datadog_checks/tenable/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/terraform.md b/content/es/integrations/terraform.md new file mode 100644 index 0000000000000..2eb572402d71a --- /dev/null +++ b/content/es/integrations/terraform.md @@ -0,0 +1,174 @@ +--- +app_id: terraform +app_uuid: 05198ed5-6fe5-417b-8711-e124718e9715 +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10153 + source_type_name: terraform +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- configuración y despliegue +- herramientas para desarrolladores +- orquestación +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/terraform/README.md +display_on_public_website: true +draft: false +git_integration_title: terraform +integration_id: terraform +integration_title: Terraform +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: terraform +public_title: Terraform +short_description: Gestionar tu cuenta de Datadog con Terraform +supported_os: +- Linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Configuración y despliegue + - Categoría::Herramientas para desarrolladores + - Categoría::Orquestación + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Oferta::Integración + configuration: README.md#Configuración + description: Gestionar tu cuenta de Datadog con Terraform + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Terraform +--- + + + + +## Información general + +El proveedor Terraform Datadog te permite interactuar con la API Datadog a través de una configuración Terraform. Con esta configuración puedes gestionar tus recursos Datadog, como dashboards, monitores, configuraciones de logs, etc. + +## Configuración + +### Instalación + +El proveedor Terraform Datadog está disponible a través del [Registro de Terraform][1]. + +### Configuración + +1. [Instala Terraform][2]. +2. Crea un directorio para contener los archivos de configuración de Terraform, por ejemplo: `terraform_config/`. +3. Crea un archivo `main.tf` en el directorio `terraform_config/` con el siguiente contenido: + ``` + terraform { + required_providers { + datadog = { + source = "DataDog/datadog" + } + } + } + + # Configure the Datadog provider + provider "datadog" { + api_key = var.datadog_api_key + app_key = var.datadog_app_key + } + ``` + + **Nota**: Si no utilizas el sitio Datadog US1, debes configurar el [parámetro opcional][3] `api_url` con tu [sitio Datadog][4]. Asegúrate de que el selector del sitio de la documentación a la derecha de la página está configurado con tu sitio Datadog correcto y luego utiliza la siguiente URL como valor del parámetro `api_url`: + + + ``` + https://api.{{< region-param key="dd_site" code="true" >}}/ + ``` + + +4. Ejecuta `terraform init`. Esto inicializa el directorio que se va a utilizar con Terraform y extrae el proveedor Datadog. +5. Crea cualquier archivo `.tf` en el directorio `terraform_config/` y comienza a crear recursos Datadog. + +## Crear un monitor + +Este ejemplo muestra un archivo `monitor.tf` que crea un [monitor de procesos en directo][5]. + + ``` + # monitor.tf + resource "datadog_monitor" "process_alert_example" { + name = "Process Alert Monitor" + type = "process alert" + message = "Multiple Java processes running on example-tag" + query = "processes('java').over('example-tag').rollup('count').last('10m') > 1" + monitor_thresholds { + critical = 1.0 + critical_recovery = 0.0 + } + + notify_no_data = false + renotify_interval = 60 + } + ``` + +Ejecuta `terraform apply` para crear este monitor en tu cuenta de Datadog. + +## Enviar eventos a Datadog + +Al instalar `datadogpy`, tienes acceso a la herramienta de línea de comandos Dogwrap, que puedes utilizar para envolver cualquier comando Terraform y vincularlo a un evento personalizado. + +Instala `datadogpy`: + ``` + pip install datadog + ``` + +Para obtener más información, consulta la [biblioteca Python Datadog][6]. + +Envía un evento `terraform apply`: + + ``` + dogwrap -n "terraform apply" -k $DD_API_KEY --submit_mode all --tags="source:terraform" "terraform apply -no-color" + ``` + +Envíe un evento `terraform destroy`: + + ``` + dogwrap -n "terraform destroy" -k $DD_API_KEY --submit_mode all --tags="source:terraform" "terraform destroy -no-color" + ``` + +## Datos recopilados + +### Métricas + +Terraform no incluye métricas. + +### Checks de servicio + +Terraform no incluye checks de servicio. + +### Eventos + +Terraform no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. + +[1]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs +[2]: https://learn.hashicorp.com/tutorials/terraform/install-cli +[3]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs#optional +[4]: https://docs.datadoghq.com/es/getting_started/site/ +[5]: https://docs.datadoghq.com/es/monitors/types/process/ +[6]: https://github.com/DataDog/datadogpy +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tidb.md b/content/es/integrations/tidb.md new file mode 100644 index 0000000000000..8f577bb0dcced --- /dev/null +++ b/content/es/integrations/tidb.md @@ -0,0 +1,251 @@ +--- +app_id: tidb +app_uuid: 79e5c6d7-c494-4df7-98bc-c639e211c0b8 +assets: + dashboards: + TiDB Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: tidb_cluster.tidb_executor_statement_total + metadata_path: metadata.csv + prefix: tidb_cluster + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10172 + source_type_name: TiDB + logs: + source: tidb +author: + homepage: https://github.com/DataDog/integrations-extras + name: PingCAP + sales_email: xuyifan02@pingcap.com + support_email: xuyifan02@pingcap.com +categories: +- almacenes de datos +- nube +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/tidb/README.md +display_on_public_website: true +draft: false +git_integration_title: tidb +integration_id: tidb +integration_title: TiDB +integration_version: 2.1.0 +is_public: true +manifest_version: 2.0.0 +name: tidb +public_title: TiDB +short_description: Integración para el clúster TiDB +supported_os: +- Linux +- macOS +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Sistema operativo compatible::Windows + - Categoría::Almacenes de datos + - Categoría::Nube + - Categoría::Recopilación de logs + - Oferta::Integración + configuration: README.md#Configuración + description: Integración para el clúster TiDB + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: TiDB +--- + + + + +## Información general + +Conecta el clúster [TiDB][1] a Datadog para: + +- Recopilar métricas TiDB clave de tu clúster. +- Recopilar logs de tu clúster, como logs TiDB/TiKV/TiFlash y logs de consultas lentas. +- Visualizar el rendimiento del clúster en el dashboard proporcionado. + +> **Nota**: +> +> - Se requiere TiDB v4.0 o posterior para esta integración. +> - Para TiDB Cloud, consulta la [integración TiDB Cloud][2]. + +## Configuración + +### Instalación + +En primer lugar, [descarga e inicia el Datadog Agent][3]. + +A continuación, instala manualmente el check de TiDB. [Las instrucciones varían en función del entorno][4]. + +Ejecuta `datadog-agent integration install -t datadog-tidb==`. + +### Configuración + +##### Recopilación de métricas + +1. Edita el archivo `tidb.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para empezar a recopilar los datos de rendimiento de tu TiDB. Para conocer todas las opciones de configuración disponibles, consulta el [tidb.d/conf.yaml de ejemplo][5]. + + El [tidb.d/conf.yaml de ejemplo][5] sólo configura la instancia PD. Es necesario configurar manualmente las otras instancias en el clúster TiDB así: + + ```yaml + init_config: + + instances: + + - pd_metric_url: http://localhost:2379/metrics + send_distribution_buckets: true + tags: + - cluster_name:cluster01 + + - tidb_metric_url: http://localhost:10080/metrics + send_distribution_buckets: true + tags: + - cluster_name:cluster01 + + - tikv_metric_url: http://localhost:20180/metrics + send_distribution_buckets: true + tags: + - cluster_name:cluster01 + + - tiflash_metric_url: http://localhost:8234/metrics + send_distribution_buckets: true + tags: + - cluster_name:cluster01 + + - tiflash_proxy_metric_url: http://localhost:20292/metrics + send_distribution_buckets: true + tags: + - cluster_name:cluster01 + ``` + +3. [Reinicia el Agent][6]. + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `tidb.d/conf.yaml` para empezar a recopilar tus logs de TiDB: + + ```yaml + logs: + # pd log + - type: file + path: "/tidb-deploy/pd-2379/log/pd*.log" + service: "tidb-cluster" + source: "pd" + + # tikv log + - type: file + path: "/tidb-deploy/tikv-20160/log/tikv*.log" + service: "tidb-cluster" + source: "tikv" + + # tidb log + - type: file + path: "/tidb-deploy/tidb-4000/log/tidb*.log" + service: "tidb-cluster" + source: "tidb" + exclude_paths: + - /tidb-deploy/tidb-4000/log/tidb_slow_query.log + - type: file + path: "/tidb-deploy/tidb-4000/log/tidb_slow_query*.log" + service: "tidb-cluster" + source: "tidb" + log_processing_rules: + - type: multi_line + name: new_log_start_with_datetime + pattern: '#\sTime:' + tags: + - "custom_format:tidb_slow_query" + + # tiflash log + - type: file + path: "/tidb-deploy/tiflash-9000/log/tiflash*.log" + service: "tidb-cluster" + source: "tiflash" + ``` + + Cambia la `path` y el `service` según la configuración de tu clúster. + + Utiliza estos comandos para mostrar la ruta de todos los logs: + + ```shell + # show deploying directories + tiup cluster display + # find specific logging file path by command arguments + ps -fwwp + ``` + +3. [Reinicia el Agent][6]. + +### Validación + +Ejecuta el [subcomando de estado del Agent][7] y busca `tidb` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tidb" >}} + + +> Es posible utilizar la opción de configuración `metrics` para recopilar métricas adicionales de un clúster TiDB. + +### Eventos + +El check de TiDB no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "tidb" >}} + + +## Solucionar problemas + +### Faltan métricas de CPU y memoria para las instancias TiKV y TiFlash en macOS + +Las métricas de CPU y memoria no se proporcionan para las instancias TiKV y TiFlash en los siguientes casos: + +- Ejecución de instancias TiKV o TiFlash con [tiup playground][10] en macOS. +- Ejecución de instancias TiKV o TiFlash con [docker-compose up][11] en una nueva máquina Apple M1. + +### Demasiadas métricas + +El check de TiDB habilita por defecto el tipo de métrica `distribution` de Datadog. Esta parte de los datos es bastante grande y puede consumir muchos recursos. Puedes modificar este comportamiento en el archivo `tidb.yml`: + +- `send_distribution_buckets: false` + +Debido a que en un clúster TiDB hay muchas métricas, el check de TiDB define `max_returned_metrics` en `10000` por defecto. Si es necesario, puedes reducir `max_returned_metrics` en el archivo `tidb.yml`: + +- `max_returned_metrics: 1000` + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][12]. + +[1]: https://docs.pingcap.com/tidb/stable +[2]: https://docs.datadoghq.com/es/integrations/tidb_cloud/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/es/agent/guide/community-integrations-installation-with-docker-agent +[5]: https://github.com/DataDog/integrations-extras/blob/master/tidb/datadog_checks/tidb/data/conf.yaml.example +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#restart-the-agent +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-extras/blob/master/tidb/metadata.csv +[9]: https://github.com/DataDog/integrations-extras/blob/master/tidb/assets/service_checks.json +[10]: https://docs.pingcap.com/tidb/stable/tiup-playground +[11]: https://github.com/DataDog/integrations-extras/tree/master/tidb/tests/compose +[12]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tidb_cloud.md b/content/es/integrations/tidb_cloud.md new file mode 100644 index 0000000000000..1f0547e07d8e9 --- /dev/null +++ b/content/es/integrations/tidb_cloud.md @@ -0,0 +1,104 @@ +--- +app_id: tidb-cloud +app_uuid: 9ed710d3-49d4-41fa-a304-0b27f289bdb7 +assets: + dashboards: + TiDB Cloud Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: true + metrics: + check: tidb_cloud.db_queries_total + metadata_path: metadata.csv + prefix: tidb_cloud. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10247 + source_type_name: TiDB Cloud +author: + homepage: https://github.com/DataDog/integrations-extras + name: PingCAP + sales_email: xuyifan02@pingcap.com + support_email: xuyifan02@pingcap.com +categories: +- nube +- almacenes de datos +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/tidb_cloud/README.md +display_on_public_website: true +draft: false +git_integration_title: tidb_cloud +integration_id: tidb-cloud +integration_title: TiDB Cloud +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: tidb_cloud +public_title: TiDB Cloud +short_description: Monitorización de clústeres TiDB Cloud con Datadog +supported_os: +- Linux +- macOS +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Sistema operativo compatible::Windows + - Categoría::Nube + - Categoría::Almacenes de datos + - Oferta::Integración + configuration: README.md#Configuración + description: Monitorización de clústeres TiDB Cloud con Datadog + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: TiDB Cloud +--- + + + + +## Información general + +[TiDB Cloud][1] es un servicio de nube de TiDB totalmente gestionado y una base de datos de código abierto. + +Utiliza la integración TiDB Cloud en Datadog para exportar métricas desde clústeres TiDB Cloud a Datadog. + +> **Nota:** +> +> - Para clústeres TiDB on premises, consulta la [integración TiDB][2]. + +## Configuración + +Para configurar la integración TiDB Cloud en Datadog para tu clúster, proporciona una clave de API Datadog y una región a TiDB Cloud. + +Para configurar la integración Datadog para tu proyecto TiDB Cloud, consulta [Preferencias de TiDB Cloud][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tidb_cloud" >}} + + +### Checks de servicio + +La integración TiDB Cloud no incluye checks de servicio. + +### Eventos + +La integración TiDB Cloud no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://tidbcloud.com +[2]: https://docs.datadoghq.com/es/integrations/tidb/ +[3]: https://tidbcloud.com/console/preferences +[4]: https://github.com/DataDog/integrations-extras/blob/master/tidb_cloud/metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tls.md b/content/es/integrations/tls.md new file mode 100644 index 0000000000000..d310fcdaa8675 --- /dev/null +++ b/content/es/integrations/tls.md @@ -0,0 +1,146 @@ +--- +app_id: tls +app_uuid: 347d6721-fe59-4215-a4f6-415feb4dda0c +assets: + dashboards: + TLS Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: tls.seconds_left + metadata_path: metadata.csv + prefix: tls. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10058 + source_type_name: TLS +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- herramientas para desarrolladores +- la red +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/tls/README.md +display_on_public_website: true +draft: false +git_integration_title: tls +integration_id: tls +integration_title: TLS +integration_version: 4.0.0 +is_public: true +manifest_version: 2.0.0 +name: tls +public_title: TLS +short_description: Monitoriza TLS para ver versiones de protocolo, y caducidad y validez + de certificados, etc. +supported_os: +- Linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Herramientas para desarrolladores + - Categoría::Red + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Oferta::Integración + configuration: README.md#Configuración + description: Monitoriza TLS para ver versiones de protocolo, y caducidad y validez + de certificados, etc. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: TLS +--- + + + + +## Información general + +Este check monitoriza las versiones de protocolo y la caducidad y la validez de certificados, etc. + +**Notas**: + +1. Sólo se admite TCP. +2. Sólo se verifican los certificados de leaf/usuario final (no los certificados intermedios y raíz). + +## Configuración + +### Instalación + +El check de TLS está incluido en el paquete del [Datadog Agent][2]. +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `tls.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para empezar a recopilar los datos de rendimiento de tu TLS. Para conocer todas las opciones de configuración disponibles, consulta el [tls.d/conf.yaml de ejemplo][1]. + +2. [Reinicia el Agent][2]. + +[1]: https://github.com/DataDog/integrations-core/blob/master/tls/datadog_checks/tls/data/conf.yaml.example +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### En contenedores + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | -------------------------------------- | +| `` | `tls` | +| `` | en blanco o `{}` | +| `` | `{"server": "%%host%%", "port":"443"}` | + +**Nota**: Si utilizas certificados internos que no proceden de una autoridad de certificación (CA) conocida y de confianza, es posible que determinadas métricas no sean notificadas a Datadog. Utiliza `tls_verify: false` en tu plantilla de integración para notificar todas las métricas de esta instancia. + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][3] y busca `tls` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tls" >}} + + +### Eventos + +TLS no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "tls" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. + + + +[1]: https://en.wikipedia.org/wiki/Transport_Layer_Security +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/travis_ci.md b/content/es/integrations/travis_ci.md new file mode 100644 index 0000000000000..89bbe74d9a825 --- /dev/null +++ b/content/es/integrations/travis_ci.md @@ -0,0 +1,75 @@ +--- +categories: +- automatización +- nube +- configuración y despliegue +- herramientas para desarrolladores +- métricas +custom_kind: integración +dependencies: [] +description: Conéctate a Travis CI para ver métricas de tiempos de compilación, estados + de compilaciones, tareas y más. +doc_link: https://docs.datadoghq.com/integrations/travis_ci/ +draft: false +git_integration_title: travis_ci +has_logo: true +integration_id: '' +integration_title: Travis CI +integration_version: '' +is_public: true +manifest_version: '1.0' +name: travis_ci +public_title: Integración de Datadog y Travis CI +short_description: Conéctate a Travis CI para ver métricas de tiempos de compilación, + estados de compilaciones, tareas y más. +team: integraciones-web +version: '1.0' +--- + + +## Información general + +Travis CI es un servicio de integración continuo y alojado que se utiliza para crear y probar proyectos de software. Conéctate a Travis CI para ver métricas de tiempos de compilación, estados de compilaciones, tareas y más. + +## Configuración + +### Instalación + +Puedes instalar la integración Travis CI con su [cuadro de integración][1]. + +### Configuración + +1. Añade tu nombre de cuenta, el token de API (que encontrarás en la pestaña del perfil en Travis CI) y el tipo de proyecto. Los tipos de proyectos se determinan de la siguiente manera: + + - _Open source_ (Código abierto) se refiere a los repositorios conectados a travis-ci.org + - _Private_ (Privado) se refiere a los repositorios conectados a travis-ci.co + - _Enterprise_ (Empresa) se refiere a los repositorios conectados a un dominio Travis CI personalizado + +2. Si la cuenta está bajo Travis CI Enterprise, introduce tu dominio personalizado. +3. Si es necesario, añade varias cuentas haciendo clic en "Add row" (Añadir fila). +4. Haz clic en 'Install' (Instalar) (sólo instalación inicial). +5. Añade la organización y los repositorios de los que quieres recopilar métricas con la clave de API correspondiente. +6. Para recopilar métricas para todos los repositorios de una organización, escribe `/*` en Proyecto. +7. Haz clic en 'Update Configuration' (Actualizar configuración). + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "travis_ci" >}} + + +### Eventos + +La integración Travis CI no incluye eventos. + +### Checks de servicio + +La integración Travis CI no incluye checks de servicio. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://app.datadoghq.com/integrations/travis_ci +[2]: https://github.com/DataDog/dogweb/blob/prod/integration/travis_ci/travis_ci_metadata.csv +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/twenty_forty_eight.md b/content/es/integrations/twenty_forty_eight.md new file mode 100644 index 0000000000000..4018c892ce9af --- /dev/null +++ b/content/es/integrations/twenty_forty_eight.md @@ -0,0 +1,71 @@ +--- +app_id: twenty-forty-eight +app_uuid: 2f131079-67b3-444a-8f82-5a7fc7178795 +assets: {} +author: + homepage: https://datadoghq.com + name: Datadog + sales_email: sales@datadog.com + support_email: help@datadoghq.com +categories: [] +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/twenty_forty_eight/README.md +display_on_public_website: true +draft: false +git_integration_title: twenty_forty_eight +integration_id: twenty-forty-eight +integration_title: Twenty Forty Eight +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: twenty_forty_eight +public_title: Twenty Forty Eight +short_description: Un divertido juego de puzzle para añadir a tus dashboards de Datadog +supported_os: +- Linux +- macOS +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Sistema operativo compatible::Windows + - Oferta::Extensión de la interfaz de usuario + configuration: README.md#Configuración + description: Un divertido juego de puzzle para añadir a tus dashboards de Datadog + media: + - caption: Twenty Forty Eight + image_url: images/twenty-forty-eight.jpg + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Twenty Forty Eight +--- + + + + +## Información general + +Twenty Forty Eight es un divertido juego que puedes añadir a tus dashboards de Datadog. Esta extensión es posible gracias a las [aplicaciones Datadog][1], que amplían la interfaz de usuario con contenidos de terceros no compatibles de forma nativa. Si interesa ampliar tu experiencia en Datadog para tus negocios o por diversión, puedes [crear tu propia aplicación o juego][1]. + +### Cómo jugar + +Haz clic en widget para activar la aplicación, luego usa tus **flechas** para mover los cuadros. Los cuadros con el mismo número **se fusionan en uno** cuando se tocan. ¡Súmalos para llegar a 2048 y más! + +## Configuración + +1. En tu cuenta de Datadog, ve a Dashboards. Selecciona el dashboard al que quieres añadir el juego o [crea un nuevo dashboard][2]. + +2. En el dashboard, haz clic en **+Add Widgets** (+Añadir widgets) a la derecha del título del dashboard. Desplázate hacia la derecha por los widgets y, a continuación, arrastra y suelta el widget de **Twenty Forty Eight** en la posición elegida en tu dashboard. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + + +[1]: https://docs.datadoghq.com/es/developers/datadog_apps +[2]: https://docs.datadoghq.com/es/dashboards/#new-dashboard +[3]: https://www.datadoghq.com/support/ \ No newline at end of file diff --git a/content/es/integrations/twistlock.md b/content/es/integrations/twistlock.md new file mode 100644 index 0000000000000..c8928d26d9396 --- /dev/null +++ b/content/es/integrations/twistlock.md @@ -0,0 +1,237 @@ +--- +app_id: twistlock +app_uuid: b10f1447-4e25-4c76-ab05-911cde5df5c6 +assets: + dashboards: + Twistlock: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: twistlock.images.cve.details + metadata_path: metadata.csv + prefix: twistlock. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10052 + source_type_name: Twistlock +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- conformidad +- contenedores +- recopilación de logs +- la red +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/twistlock/README.md +display_on_public_website: true +draft: false +git_integration_title: twistlock +integration_id: twistlock +integration_title: Prisma Cloud Compute Edition +integration_version: 5.0.0 +is_public: true +manifest_version: 2.0.0 +name: twistlock +public_title: Prisma Cloud Compute Edition +short_description: Twistlock es un escáner de seguridad de contenedores +supported_os: +- Linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Cumplimiento + - Categoría::Contenedores + - Categoría::Recopilación de logs + - Categoría::Red + - Categoría::Seguridad + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Oferta::Integración + configuration: README.md#Configuración + description: Twistlock es un escáner de seguridad de contenedores + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Prisma Cloud Compute Edition +--- + + + + +## Información general + +[Prisma Cloud Compute Edition][1] es un escáner de seguridad. Analiza contenedores, hosts y paquetes para detectar vulnerabilidades y problemas de cumplimiento. + +## Configuración + +### Instalación + +El check de Prisma Cloud Compute Edition está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tu servidor. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +##### Recopilación de métricas + +1. Edita el archivo `twistlock.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para empezar a recopilar los datos de rendimiento de tu Twistlock. Para conocer todas las opciones de configuración disponibles, consulta el [twistlock.d/conf.yaml de ejemplo][1]. + +2. [Reinicia el Agent][2]. + +[1]: https://github.com/DataDog/integrations-core/blob/master/twistlock/datadog_checks/twistlock/data/conf.yaml.example +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### En contenedores + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +##### Recopilación de métricas + +| Parámetro | Valor | +| -------------------- | ----------------------------------------------------------------------------------- | +| `` | `twistlock` | +| `` | en blanco o `{}` | +| `` | `{"url":"http://%%host%%:8083", "username":"", "password": ""}` | + +###### Kubernetes + +Si utilizas Kubernetes, añade la configuración a la sección del controlador de replicación de twistlock_console.yaml antes del despliegue: + +```yaml +apiVersion: v1 +kind: ReplicationController +metadata: + name: twistlock-console + namespace: twistlock +spec: + replicas: 1 + selector: + name: twistlock-console + template: + metadata: + annotations: + ad.datadoghq.com/twistlock-console.check_names: '["twistlock"]' + ad.datadoghq.com/twistlock-console.init_configs: "[{}]" + ad.datadoghq.com/twistlock-console.instances: '[{"url":"http://%%host%%:8083", "username":"", "password": ""}]' + ad.datadoghq.com/twistlock-console.logs: '[{"source": "twistlock", "service": "twistlock"}]' + name: twistlock-console + namespace: twistlock + labels: + name: twistlock-console +``` + +##### Recopilación de logs + + +{{< site-region region="us3" >}} +**La recopilación de logs no es compatible con el sitio Datadog {{< region-param key="dd_site_name" >}}**. +{{< /site-region >}} + + +_Disponible para la versión 6.0 o posteriores del Agent_ + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][2]. + +| Parámetro | Valor | +| -------------- | ------------------------------------------------- | +| `` | `{"source": "twistlock", "service": "twistlock"}` | + +###### Kubernetes + +1. La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Agent. Habilítala en tu [configuración de DaemonSet][3]: + + ```yaml + #(...) + env: + #(...) + - name: DD_LOGS_ENABLED + value: "true" + - name: DD_LOGS_CONFIG_CONTAINER_COLLECT_ALL + value: "true" + #(...) + ``` + +2. Instala el socket Docker en el Datadog Agent. Consulta los [manifiestos de ejemplo][4] de Datadog Kubernetes. + +3. Asegúrate de que la sección de logs está incluida en la anotación de Pod del defensor, donde el nombre del contenedor se puede encontrar justo debajo en la especificación del pod: + + ```yaml + ad.datadoghq.com/.logs: '[{"source": "twistlock", "service": "twistlock"}]' + ``` + +4. [Reinicia el Agent][5]. + +###### Docker + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala con la variable de entorno: + + ```shell + DD_LOGS_ENABLED=true + ``` + +2. Añade una etiqueta (tag) en el contenedor del defensor: + + ```yaml + ad.datadoghq.com/.logs: '[{"source": "twistlock", "service": "twistlock"}]' + ``` + +3. Instala el socket Docker en el Datadog Agent. Para obtener más información sobre la configuración necesaria para recopilar logs con el Datadog Agent, consulta [Recopilación de logs de Docker][6]. + +4. [Reinicia el Agent][5]. + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=containerinstallation#setup +[3]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/#log-collection +[4]: https://docs.datadoghq.com/es/agent/kubernetes/?tab=daemonset +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation +{{% /tab %}} +{{< /tabs >}} + +### Validación + +Ejecuta el [subcomando de estado del Agent][3] y busca `twistlock` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "twistlock" >}} + + +### Eventos + +Prisma Cloud Compute Edition envía un evento cuando se encuentra un nuevo CVE. + +### Checks de servicio +{{< get-service-checks-from-git "twistlock" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. + + + +[1]: https://www.paloaltonetworks.com/prisma/cloud +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/webhooks.md b/content/es/integrations/webhooks.md new file mode 100644 index 0000000000000..ced444bf84b25 --- /dev/null +++ b/content/es/integrations/webhooks.md @@ -0,0 +1,410 @@ +--- +categories: +- developer tools +- notifications +custom_kind: integración +dependencies: [] +description: Utiliza cualquier webhook como canal de notificación en alertas y eventos + de Datadog. +doc_link: https://docs.datadoghq.com/integrations/webhooks/ +draft: false +further_reading: +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/webhook + tag: Terraform + text: Crear y gestionar webhooks con Terraform +git_integration_title: webhooks +has_logo: true +integration_id: '' +integration_title: Webhooks +integration_version: '' +is_public: true +manifest_version: '1.0' +name: webhooks +public_title: Integración de webhooks en Datadog. +short_description: Utiliza cualquier webhook como canal de notificación en alertas + y eventos de Datadog. +version: '1.0' +--- + + +## Información general + +Los webhooks te permiten: + +- Conectarte a tus servicios. +- Alertar a tus servicios cuando se activa una alerta de métrica. + +## Configuración + +Ve al [cuadro de la integración de webhooks][1] e introduce la URL y el nombre del webhook que quieres utilizar. + +## Uso + +Para utilizar tu webhook, añade `@webhook-` en el texto de la alerta de métrica que quieres que active el webhook. Este activa una solicitud POST a la URL que defines con el siguiente contenido en formato JSON. El tiempo de espera para cualquier solicitud individual es de 15 segundos. Datadog sólo emite un reintento si se produce un error interno (mensaje de notificación mal formado) o si Datadog recibe una respuesta 5XX del endpoint del webhook. Las conexiones perdidas se reintentan 5 veces. + +**Nota**: Las cabeceras personalizadas deben estar en formato JSON. + +Para añadir tus propios campos personalizados a la solicitud, también puedes especificar tu propia carga útil en el campo Carga útil. Si quieres que tu carga útil esté codificada como URL, selecciona la casilla **Encode as form** (Codificar como formulario) y especifica tu carga útil en formato JSON. Utiliza las variables de la sección siguiente. + +### Variables + +$AGGREG_KEY +: ID para agregar eventos que deben estar juntos.
+**Ejemplo**: `9bd4ac313a4d1e8fae2482df7b77628` + +$ALERT_CYCLE_KEY +: ID para vincular eventos desde que se activa una alerta hasta que se resuelve. + +$ALERT_ID +: ID del monitor que emite alertas.
+**Ejemplo**: `1234` + +$ALERT_METRIC +: Nombre de la métrica si se trata de una alerta.
+**Ejemplo**: `system.load.1` + +$ALERT_PRIORITY +: Prioridad del monitor que emite alertas.
+**Ejemplo**: `P1`, `P2` + +$ALERT_QUERY +: Consulta del monitor que activó el webhook. + +$ALERT_SCOPE +: Lista de etiquetas (tags) separada por comas que activa la alerta.
+**Ejemplo**: `availability-zone:us-east-1a, role:computing-node` + +$ALERT_STATUS +: Resumen del estado de la alerta.
+**Ejemplo**: `system.load.1 over host:my-host was > 0 at least once during the last 1m` +**Nota**: Para rellenar esta variable en las cargas útiles del webhook a partir de alertas del monitor de logs, `$ALERT_STATUS` debe añadirse manualmente en el cuadro de la integración del webhook. + +$ALERT_TITLE +: Título de la alerta.
+**Ejemplo**: `[Triggered on {host:ip-012345}] Host is Down` + +$ALERT_TRANSITION +: Tipo de notificación de alerta.
+**Ejemplo**: `Recovered`, `Triggered`/`Re-Triggered`, `No Data`/`Re-No Data`, `Warn`/`Re-Warn`, `Renotify` + +$ALERT_TYPE +: Tipo de la alerta.
+**Ejemplo**: `error`, `warning`, `success`, `info` + +$DATE +: Fecha _(epoch)_ en la que ocurrió el evento.
+**Ejemplo**: `1406662672000` + +$EMAIL +: Correo electrónico del usuario que publicó el evento que activó el webhook. + +$EVENT_MSG +: Texto del evento.
+**Ejemplo**: `@webhook-url Sending to the webhook` + +$EVENT_TITLE +: Título del evento.
+**Ejemplo**: `[Triggered] [Memory Alert]` + +$EVENT_TYPE +: Tipo de evento.
+Consulta la lista de [tipos de eventos](#event-types) en [Ejemplos](#examples) + +$HOSTNAME +: Nombre de host del servidor asociado al evento, si existe uno. + +$ID +: ID del evento.
+**Ejemplo**: `1234567` + +$INCIDENT_ATTACHMENTS +: Lista de objetos JSON con los adjuntos del incidente, como postmortem y documentos.
+**Ejemplo**: `[{"attachment_type": "postmortem", "attachment": {"documentUrl": "https://app.datadoghq.com/notebook/123","title": "Postmortem IR-1"}}]` + +$INCIDENT_COMMANDER +: Objeto JSON con el indicador, el uuid, el nombre, el correo electrónico y el icono del gestor de incidentes. + +$INCIDENT_CUSTOMER_IMPACT +: Objeto JSON con el estado del impacto, la duración y el contexto del cliente de un incidente.
+**Ejemplo**: `{"customer_impacted": true, "customer_impact_duration": 300 ,"customer_impact_scope": "scope here"}` + +$INCIDENT_FIELDS +: Objeto JSON que asigna cada uno de los campos de un incidente a sus valores.
+**Ejemplo**: `{"state": "active", "datacenter": ["eu1", "us1"]}` + +$INCIDENT_INTEGRATIONS +: Lista de objetos JSON con las integraciones del incidente, como Slack y Jira.
+**Ejemplo**: `[{"uuid": "11a15def-eb08-52c8-84cd-714e6651829b", "integration_type": 1, "status": 2, "metadata": {"channels": [{"channel_name": "#incident-1", "channel_id": "", "team_id": "", "redirect_url": ""}]}}]` + +$INCIDENT_MSG +: Mensaje de notificación del incidente.
+ +$INCIDENT_PUBLIC_ID +: ID público del incidente asociado.
+**Ejemplo**: `123` + +$INCIDENT_SEVERITY +: Gravedad del incidente. + +$INCIDENT_STATUS +: Estado del incidente. + +$INCIDENT_TITLE +: Título del incidente. + +$INCIDENT_TODOS +: Lista de objetos JSON con las tareas de reparación del incidente.
+**Ejemplo**: `[{"uuid": "01c03111-172a-50c7-8df3-d61e64b0e74b", "content": "task description", "due_date": "2022-12-02T05:00:00+00:00", "completed": "2022-12-01T20:15:00.112207+00:00", "assignees": []}]` + +$INCIDENT_URL +: URL del incidente.
+**Ejemplo**: `https://app.datadoghq.com/incidents/1` + +$INCIDENT_UUID +: UUID del incidente asociado.
+**Ejemplo**: `01c03111-172a-50c7-8df3-d61e64b0e74b` + +$LAST_UPDATED +: Fecha de la última actualización del evento. + +$LINK +: URL del evento.
+**Ejemplo**: `https://app.datadoghq.com/event/jump_to?event_id=123456` + +$LOGS_SAMPLE +: Objeto JSON que contiene una muestra de logs de las alertas de monitores de logs. La longitud máxima del mensaje de muestra es de 500 caracteres.
+**Example**:
+: {{< code-block lang="json">}} +{ + "columns": [ + "Time", + "Host" + ], + "label": "Sample Logs", + "rows": [ + { + "items": [ + "15:21:18 UTC", + "web" + ], + "message": "[14/Feb/2023:15:21:18 +0000] \"GET / HTTP/1.1\" 200" + }, + { + "items": [ + "15:21:13 UTC", + "web00" + ], + "message": "[14/Feb/2023:15:21:13 +0000] \"GET / HTTP/1.1\" 200" + } + ] +} +{{< /code-block >}} + +$METRIC_NAMESPACE +: Espacio de nombres de la métrica si se trata de una alerta. + +$ORG_ID +: ID de tu organización.
+**Ejemplo**: `11023` + +$ORG_NAME +: Nombre de tu organización.
+**Ejemplo**: `Datadog` + +$PRIORITY +: Prioridad del evento.
+**Ejemplo**: `normal` o `low` + +$SECURITY_RULE_NAME +: Nombre de la regla de seguridad. + +$SECURITY_SIGNAL_ID +: Identificador único de la señal.
+**Ejemplo**: `AAAAA-AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA` + +$SECURITY_SIGNAL_SEVERITY +: Gravedad de la señal de seguridad.
+**Ejemplo**: `medium` + +$SECURITY_SIGNAL_TITLE +: Ttítulo de la señal de seguridad. + +$SECURITY_SIGNAL_MSG +: Mensaje de la señal de seguridad. + +$SECURITY_SIGNAL_ATTRIBUTES +: Atributos de la señal de seguridad.
+**Ejemplo**: `{"network":{"client":{"ip":"1.2.3.4"}}, "service": ["agent"]}` + +$SECURITY_RULE_ID +: ID de la regla de seguridad.
+**Ejemplo**: `aaa-aaa-aaa` + +$SECURITY_RULE_MATCHED_QUERIES +: Consultas asociadas a la regla de seguridad.
+**Ejemplo**: `["@evt.name:authentication"]` + +$SECURITY_RULE_GROUP_BY_FIELDS +: Grupo de seguridad por pares clave-valor.
+**Ejemplo**: `{"@usr.name":"john.doe@your_domain.com"}` + +$SECURITY_RULE_TYPE +: Tipo de regla de seguridad.
+**Ejemplo**: `log_detection` + +$SNAPSHOT +: URL de la imagen si el evento contiene una snapshot.
+**Ejemplo**: `https://p.datadoghq.com/path-to-snapshot` + +$SYNTHETICS_TEST_NAME +: Nombre del test Synthetic. + +$SYNTHETICS_FIRST_FAILING_STEP_NAME +: Nombre del primer paso fallido del test Synthetic. + +$SYNTHETICS_SUMMARY +: Resumen de la información sobre tests Synthetic.
+**Ejemplo**: +: {{< code-block lang="json">}} +{ + "result_id": "1871796423670117676", + "test_type": "browser", + "test_name": "Test name", + "date": "Nov 05, 2021, 09:49AM UTC", + "test_url": "https://app.datadoghq.com/synthetics/edit/apc-ki3-jwx", + "result_url": "https://app.datadoghq.com/synthetics/details/anc-ki2-jwx?resultId=1871796423670117676", + "location": "Frankfurt (AWS)", + "browser": "Chrome", + "device": "Laptop Large", + "failing_steps": [ + { + "error_message": "Error: Element's content should contain given value.", + "name": "Test span #title content", + "is_critical": true, + "number": "3.1" + } + ] +} +{{< /code-block >}} + +$TAGS +: Lista separada por comas de las etiquetas del evento.
+**Ejemplo**: `monitor, name:myService, role:computing-node` + +$TAGS[key] +: Valor de la etiqueta `key`. Si no hay una etiqueta `key` o si la etiqueta `key` no tiene valor, esta expresión se evalúa como una cadena vacía. +**Ejemplo**: Si `$TAGS` incluye `role:computing-node`, entonces `$TAGS[role]` se evalúa como `computing-node` + +$TEXT_ONLY_MSG +: Texto de evento sin formato Markdown. + +$USER +: Usuario que publica el evento que activó el webhook.
+**Ejemplo**: `rudy` + +$USERNAME +: Nombre de usuario del usuario que publica el evento que activó el webhook. + +### Variables personalizadas + +Además de la lista de variables incorporadas, puedes crear tus propias variables personalizadas en el cuadro de la integración. Puedes utilizar estas variables en las URL de webhooks, cargas útiles y cabeceras personalizadas. Un caso de uso común es el almacenamiento de credenciales, como nombres de usuario y contraseñas. + +También puedes ocultar los valores de las variables personalizadas para mayor seguridad. Para ocultar un valor, selecciona la casilla **hide from view** (ocultar de la vista) cuando edites o añadas una variable personalizada: + +{{< img src="/integrations/webhooks/webhook_hidefromview.png" alt="La casilla **hide from view** (ocultar de la vista) oculta valores de variables personalizadas" style="width:100%;" >}} + +### Autenticación + +#### Autenticación HTTP básica + +Si quieres publicar tus webhooks en un servicio que requiere autenticación, puedes utilizar la autenticación HTTP básica modificando tu URL de `https://my.service.example.com` a `https://:@my.service.example.com`. + +#### Autenticación OAuth 2.0 + +Si quieres publicar tus webhooks en un servicio que requiera autenticación OAuth 2.0, puedes configurar un Método de autenticación. Un Método de autenticación incluye toda la información necesaria para obtener un token OAuth de tu servicio. Una vez que el Método de autenticación esté configurado y asociado a un webhook, Datadog se encargará de obtener el token OAuth, actualizarlo si es necesario y añadirlo a la solictud del webhook como token de portador. + +Para añadir un Método de autenticación, haz clic en la pestaña Métodos de autenticación y, a continuación, haz clic en el botón New Auth Method (Nuevo método de autenticación). Asigna un nombre descriptivo al método de autenticación e introduce la siguiente información: + +* URL del token de acceso +* ID de cliente +* Secreto de cliente +* Contexto (opcional) +* Público (opcional) + +Haz clic en Save (Guardar) para crear el Método de autenticación. Para aplicar este Método de autenticación a un webhook, vuelve a la pestaña Configuración y selecciona una configuración de webhook existente y haz clic en el botón Edit (Editar). El Método de autenticación que has creado debería aparecer ahora en la lista de selección de Métodos de autenticación. + +### Múltiples webhooks + +En una alerta de monitor, si se notifican 2 o más endpoints de webhook, se crea una cola de webhook a nivel de servicio individual. Por ejemplo, si te comunicas con PagerDuty y Slack, un reintento en el webhook de Slack no afecta al de PagerDuty. + +Sin embargo, en el contexto de PagerDuty, ciertos eventos siempre van antes que otros. Específicamente, una carga útil "Acknowledge" (Reconocimiento) siempre va antes que "Resolution" (Resolución). Si un ping "Acknowledge" falla, el ping "Resolution" se pone en la cola debido a la lógica del reintento. + +## Ejemplos + +### Envío de SMS a través de Twilio + +Uso como URL: +`https://:@api.twilio.com/2010-04-01/Accounts//Messages.json` + +y como carga útil: + +```json +{ + "To": "+1347XXXXXXX", + "From": "+1347XXXXXX", + "Body": "$EVENT_TITLE \n Related Graph: $SNAPSHOT" +} +``` + +Sustituye `To` por tu número de teléfono y `From` por el que Twilio te asignó. Comprueba la casilla **Encode as form** (Codificar como formulario). + +### Crear una incidencia en Jira + +Uso como URL: +`https://:@.atlassian.net/rest/api/2/issue` + +y como carga útil: + +```json +{ + "fields": { + "project": { + "key": "YOUR-PROJECT-KEY" + }, + "issuetype": { + "name": "Task" + }, + "description": "There's an issue. See the graph: $SNAPSHOT and event: $LINK", + "summary": "$EVENT_TITLE" + } +} +``` + +No selecciones la casilla **Encode as form** (Codificar como formulario). + +### Lista de tipos de eventos en la carga útil de webhooks {#event-types} + +| Tipo de evento | Monitores asociados | +| --------- | ------------------- | +| `ci_pipelines_alert` | Pipelines CI | +| `ci_tests_alert` | Tests CI | +| `composite_monitor` | Compuesto | +| `error_tracking_alert` | Seguimiento de errores | +| `event_alert` | Evento que utiliza el endpoint V1 | +| `event_v2_alert` | Evento que utiliza el endpoint V2 | +| `log_alert` | Logs | +| `monitor_slo_alert` | SLOs basados en monitores | +| `metric_slo_alert` | SLOs basados en métricas | +| `outlier_monitor` | Outlier | +| `process_alert` | Process | +| `query_alert_monitor` | Métrica, Anomalía, Predicción | +| `rum_alert` | RUM | +| `service_check` | Host, Check de servicio | +| `synthetics_alert` | Synthetics | +| `trace_analytics_alert` | Trace Analytics | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/integrations/webhooks \ No newline at end of file diff --git a/content/es/integrations/win32_event_log.md b/content/es/integrations/win32_event_log.md new file mode 100644 index 0000000000000..925da26f13745 --- /dev/null +++ b/content/es/integrations/win32_event_log.md @@ -0,0 +1,653 @@ +--- +app_id: event-viewer +app_uuid: 8a0f4809-8470-4f7c-a7e8-350ba64123aa +assets: + dashboards: + windows_event_log_overview: assets/dashboards/windows_event_log_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 47 + source_type_name: Visor de eventos + logs: + source: windows.events +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- os & system +- log collection +- windows +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/win32_event_log/README.md +display_on_public_website: true +draft: false +git_integration_title: win32_event_log +integration_id: event-viewer +integration_title: Log de eventos de Windows +integration_version: 5.0.0 +is_public: true +manifest_version: 2.0.0 +name: win32_event_log +public_title: Log de eventos de Windows +short_description: Envía eventos de Windows a tu flujo (stream) de eventos de Datadog. +supported_os: +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Windows + - Category::Sistema operativo y sistema + - Category::Recopilación de logs + - Category::Windows + - Offering::Integración + configuration: README.md#Configuración + description: Envía eventos de Windows a tu flujo de eventos de Datadog. + media: [] + overview: README.md#Información general + resources: + - resource_type: documentación + url: https://docs.datadoghq.com/agent/logs/advanced_log_collection/?tab=configurationfile + - resource_type: blog + url: https://www.datadoghq.com/blog/monitoring-windows-server-2012 + - resource_type: blog + url: https://www.datadoghq.com/blog/collect-windows-server-2012-metrics + - resource_type: blog + url: https://www.datadoghq.com/blog/windows-server-monitoring + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-windows-event-logs-with-datadog/ + - resource_type: blog + url: https://www.datadoghq.com/blog/datadog-cloud-siem-windows-event-logs/ + support: README.md#Support + title: Log de eventos de Windows +--- + + + + +## Información general + +Esta integración busca logs de eventos de Windows y los reenvía a Datadog. + +Habilita esta integración para: + +- Realizar un seguimiento del sistema y de los eventos de aplicaciones en Datadog. +- Correlaciona eventos del sistema y las aplicaciones con el resto de tu aplicación. + +Para obtener más información, consulta la [documentación sobre la generación de logs de eventos de Windows][1]. + +## Configuración + +### Instalación + +El check de logs de eventos de Windows está incluido en el paquete del [Datadog Agent [2]. No se requiere ninguna instalación adicional. + +### Configuración + +Los logs de eventos de Windows se pueden recopilar mediante uno o ambos de los siguientes métodos. + +- Como [eventos de Datadog][3] +- Como [logs de Datadog][4] + +Ambos métodos se configuran en `win32_event_log.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][5]. Para conocer todas las opciones de configuración disponibles, consulta el [win32_event_log.d/conf.yaml de ejemplo][6]. Para ver una opción rápida para el envío de logs de eventos de seguridad, consulta [Enviar logs de seguridad predeterminados](#send-default-security-Logs). + +Esta integración también viene con un dashboard de [información general de logs de eventos de Windows][7] predefinido disponible en la aplicación. + +#### Listar canales de eventos de Windows + +En primer lugar, identifica los canales de logs de eventos de Windows que quieres monitorizar. + +Dependiendo del método de recopilación, el nombre del canal puede utilizarse para los siguientes parámetros de configuración: + +- Logs de Datadog: `channel_path` +- Eventos de Datadog: `path` +- Eventos de Datadog (legacy): `log_file` + +##### PowerShell + +Para ver una lista de canales, ejecuta el siguiente comando en PowerShell: + +```powershell +Get-WinEvent -ListLog * +``` + +Para ver los canales más activos, ejecuta el siguiente comando en PowerShell: + +```powershell +Get-WinEvent -ListLog * | sort RecordCount -Descending +``` + +Este comando muestra los canales en el formato `LogMode MaximumSizeInBytes RecordCount LogName`. + +Ejemplo de respuesta: + +```text +LogMode MaximumSizeInBytes RecordCount LogName +Circular 134217728 249896 Security +Circular 5242880 2932 +``` + +El valor en la columna `LogName` es el nombre del canal. En el ejemplo anterior, el nombre del canal es `Security`. + +##### Visor de eventos de Windows + +Para encontrar el nombre del canal de un log de eventos en el Visor de eventos de Windows, abre la ventana Event Log Properties (Propiedades de logs de eventos) y consulta el campo `Full Name`. En el siguiente ejemplo, el nombre del canal es `Microsoft-Windows-Windows Defender/Operational`. + +![Log de eventos de Windows][8] + +{{< tabs >}} + +{{% tab "Logs" %}} + +#### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +La recopilación de logs se encuentra deshabilitada por defecto en el Datadog Agent. Para recopilar logs de eventos de Windows como logs de Datadog, [habilita la recopilación de logs][1] configurando `logs_enabled: true` en tu archivo `datadog.yaml`. + +Para recopilar logs de eventos de Windows como logs de Datadog, configura canales en la sección `logs:` de tu archivo de configuración `win32_event_log.d/conf.yaml`. Este ejemplo muestra entradas para los canales `Security` y ``: + +```yaml +logs: + - type: windows_event + channel_path: Security + source: windows.events + service: Windows + + - type: windows_event + channel_path: "" + source: windows.events + service: myservice +``` + +Configura el parámetro `source` correspondiente en `windows.events` para aprovechar el [pipeline de procesamiento automático de la integración][2]. + +[1]: https://docs.datadoghq.com/es/agent/logs/#activate-log-collection +[2]: https://docs.datadoghq.com/es/logs/processing/pipelines/#integration-pipelines +{{% /tab %}} +{{% tab "Eventos" %}} + +#### Recopilación de eventos mediante el uso de la API de logs de eventos (recomendado) + +El Datadog Agent se puede configurar para recopilar logs de eventos de Windows como eventos de Datadog utilizando la API de logs de eventos. Datadog recomienda utilizar la API de logs de eventos, ya que muestra un mejor rendimiento que el método legacy que se indica a continuación. Ten en cuenta que cada método tiene su propia sintaxis de configuración para los canales y para los filtros. Para obtener más información, consulta [Filtrado de eventos(?tab=events#filtering-events). + +Para recopilar logs de eventos de Windows como eventos de Datadog, configura canales en la sección `instances:` de tu archivo de configuración `win32_event_log.d/conf.yaml`. + +
Configura `legacy_mode: false` en cada instancia. Si se configura `legacy_mode: false`, es necesario configurar `path` en el archivo `\win32_event_log.d\conf.yaml`. + +
Este ejemplo muestra entradas para los canales `Security` y ``: + + ```yaml + init_config: + instances: + - # API de logs de eventos + path: Security + legacy_mode: false + filters: {} + + - path: "" + legacy_mode: false + filters: {} + ``` + +Las versiones 7.49 y posteriores del Agent permiten configurar `legacy_mode` en la sección compartida `init_config`. Esto establece el valor predeterminado de todas las instancias y ya no es necesario configurar `legacy_mode` individualmente para cada instancia. Sin embargo, puedes seguir configurándolo para cada instancia. + + ```yaml + init_config: + legacy_mode: false + instances: + - # API de logs de eventos + path: Security + filters: {} + + - path: "" + filters: {} + ``` + +#### Recopilación de eventos mediante el uso del modo legacy (obsoleto) + +El método legacy utiliza WMI (Windows Management Instrumentation) y quedó obsoleto en la versión 7.20 del Agent. + +Para recopilar logs de eventos de Windows como eventos de Datadog, configura canales en la sección `instances:` de tu archivo de configuración `win32_event_log.d/conf.yaml`. + +
Para utilizar el modo legacy, configura `legacy_mode` como `true`. Luego, define al menos uno de los siguientes filtros: `source_name`, `event_id`, `message_filters`, `log_file` o `type`. + +
Este ejemplo muestra entradas para los canales `Security` y ``: + + ```yaml + init_config: + instances: + - # WMI (por defecto) + legacy_mode: true + log_file: + - Security + + - legacy_mode: true + log_file: + - "" + ``` + +Para obtener más información, consulta [Agregar archivos de logs de eventos a la clase WMI `Win32_NTLogEvent`][1]. + +[1]: https://docs.datadoghq.com/es/integrations/guide/add-event-log-files-to-the-win32-ntlogevent-wmi-class/ +{{% /tab %}} +{{< /tabs >}} + +Edita los parámetros de `` con el nombre del canal Windows del que quieres recopilar eventos. + +Por último, [reinicia el Agent][9]. + +**Nota**: Para el canal de logs de seguridad, añade tu usuario del Datadog Agent al grupo de usuarios `Event Log Readers`. + +### Filtrado de eventos + +Configura uno o varios filtros para logs de eventos. Un filtro te permite elegir los eventos de logs que quieres en Datadog. + +{{< tabs >}} + +{{% tab "Logs" %}} + +Para filtrar logs de eventos, puedes utilizar la opción `query` y también la opción regex `log_processing_rules`. Datadog recomienda utilizar la opción de expresión regular `query`, que es más rápida con altas tasas de generación de logs de eventos de Windows y requiere menos CPU y memoria que los filtros `log_processing_rules`. Cuando se utilizan los filtros `log_processing_rules`, el Agent se ve obligado a procesar y formatear cada evento, incluso si va a ser excluido por el regex `log_processing_rules`. Cuando se utiliza la opción `query`, estos eventos no se informan al Agent. + +Puedes utilizar la opción `query` para filtrar eventos con [consultas XPATH o XML estructuradas][1]. La opción `query` puede reducir el número de eventos procesados por `log_processing_rules` y mejorar el rendimiento. Existe un límite de expresión en la sintaxis de las consultas XPath y XML. Para realizar un filtrado adicional, utiliza los filtros `log_processing_rules`. + +Datadog recomienda crear y probar la consulta en el editor de filtros del Visor de eventos, hasta que los eventos que se muestran en el Visor de eventos coincidan con lo que quieres que recopile el Agent. + +![Filtrar log actual][2] + +A continuación, copia y pega la consulta en la configuración del Agent. + +```yaml + # recopilar eventos Críticos, de Advertencia y de Error + - type: windows_event + channel_path: Application + source: windows.events + service: Windows + query: '*[System[(Level=1 or Level=2 or Level=3)]]' + + - type: windows_event + channel_path: Application + source: windows.events + service: Windows + query: | + + + + + +``` + +![Consulta XML][3] + +Además de la opción `query`, los eventos se pueden filtrar aún más utilizando reglas de procesamiento de logs. + +Algunos ejemplos de filtros son los siguientes: + +```yaml + - type: windows_event + channel_path: Security + source: windows.events + service: Windows + log_processing_rules: + - type: include_at_match + name: relevant_security_events + pattern: '"EventID":(?:{"value":)?"(1102|4624|4625|4634|4648|4728|4732|4735|4737|4740|4755|4756)"' + + - type: windows_event + channel_path: Security + source: windows.events + service: Windows + log_processing_rules: + - type: exclude_at_match + name: relevant_security_events + pattern: '"EventID":(?:{"value":)?"(1102|4624)"' + + - type: windows_event + channel_path: System + source: windows.events + service: Windows + log_processing_rules: + - type: include_at_match + name: system_errors_and_warnings + pattern: '"level":"((?i)warning|error)"' + + - type: windows_event + channel_path: Application + source: windows.events + service: Windows + log_processing_rules: + - type: include_at_match + name: application_errors_and_warnings + pattern: '"level":"((?i)warning|error)"' +``` + +El siguiente es un ejemplo de patrón de expresión regular para la recopilación de logs de eventos de Windows únicamente de un determinado EventID: + +```yaml +logs: + - type: windows_event + channel_path: Security + source: windows.event + service: Windows + log_processing_rules: + - type: include_at_match + name: include_x01 + pattern: '"EventID":(?:{"value":)?"(101|201|301)"' +``` + +**Nota**: El patrón puede variar en función del formato de los logs. El [subcomando `stream-logs` del Agent][4] se puede utilizar para ver este formato. + +Para ver más ejemplos de filtrado de logs, consulta la [documentación sobre la recopilación avanzada de logs][5]. + +#### Eventos legacy +_Se aplica a la versión 7.41 o anteriores Agent_ + +Los EventID de proveedores legacy tienen un atributo `Qualifiers` que cambia el formato del log, como se ve en el [Esquema de eventos de Windows][6]. Estos eventos tienen el siguiente formato XML, visible en el Visor de eventos de Windows: +```xml +3 +``` + +Se debe utilizar la siguiente expresión regular para hacer coincidir estos EventID: +```yaml +logs: + - type: windows_event + channel_path: Security + source: windows.event + service: Windows + log_processing_rules: + - type: include_at_match + name: include_legacy_x01 + pattern: '"EventID":(?:{"value":)?"(101|201|301)"' +``` + +Las versiones 7.41 o posteriores del Agent normalizan el campo EventID. Esto elimina la necesidad de la subcadena, `(?:{"value":)?`, del patrón legacy ya que ya no es aplicable. Se puede utilizar un patrón de expresión regular más corto a partir de las versiones 7.41 o posteriores, como se ve a continuación: + +```yaml +logs: + - type: windows_event + channel_path: Security + source: windows.event + service: Windows + log_processing_rules: + - type: include_at_match + name: include_x01 + pattern: '"EventID":"(101|201|301)"' +``` + +[1]: https://learn.microsoft.com/en-us/windows/win32/wes/consuming-events +[2]: https://raw.githubusercontent.com/DataDog/integrations-core/master/win32_event_log/images/filter-event-viewer.png +[3]: https://raw.githubusercontent.com/DataDog/integrations-core/master/win32_event_log/images/xml-query-event-viewer.png +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/ +[5]: https://docs.datadoghq.com/es/agent/logs/advanced_log_collection/?tab=configurationfile#filter-logs +[6]: https://learn.microsoft.com/en-us/windows/win32/wes/eventschema-systempropertiestype-complextype +{{% /tab %}} +{{% tab "Eventos" %}} + +Utiliza la GUI del Visor de eventos de Windows para listar todos los logs de eventos disponibles para su captura con esta integración. + +Para determinar los valores exactos, configura tus filtros para utilizar el siguiente comando de PowerShell: + +```text +Get-WmiObject -Class Win32_NTLogEvent +``` + +Por ejemplo, para ver el último evento registrado en el archivo de log `Security`, utiliza lo siguiente: + +```text +Get-WmiObject -Class Win32_NTLogEvent -Filter "LogFile='Security'" | select -First 1 +``` + +Los valores que aparecen en el resultado del comando pueden configurarse en `win32_event_log.d/conf.yaml` para capturar el mismo tipo de eventos. + +
+La información proporcionada por el comando PowerShell Get-EventLog o la GUI del Visor de eventos de Windows puede diferir ligeramente de Get-WmiObject.
Vuelve a comprobar los valores de tus filtros con Get-WmiObject si la integración no captura los eventos configurados. +
+ +#### Filtrado de eventos mediante el uso de la API de logs de eventos (recomendado) + +La opción de configuración que utiliza la API de logs de eventos incluye los siguientes filtros: + + - `path`: `Application`, `System`, `Setup`, `Security` + - `type`: `Critical`, `Error`, `Warning`, `Information`, `Success Audit`, `Failure Audit` + - `source`: Cualquier nombre de fuente disponible + - `id`: event_id: ID de EventLog de Windows + + Para ver todas las opciones de filtrado disponibles, consulta el [win32_event_log.d/conf.yaml de ejemplo][1]. + + Este filtro de ejemplo utiliza el método de la API de logs de eventos. + + ```yaml + instances: + - legacy_mode: false + path: System + filters: + source: + - Microsoft-Windows-Ntfs + - Service Control Manager + type: + - Error + - Warning + - Information + - Success Audit + - Failure Audit + id: + - 7036 + ``` + +Puedes utilizar la [opción`query`][2] para filtrar eventos con [consultas XPATH o XML estructuradas][3]. Datadog recomienda crear la consulta en el editor de filtros del Visor de eventos hasta que los eventos que se muestran en el Visor de eventos coincidan con lo que quieres que recopile el Datadog Agent. La opción `filters` se ignora cuando se utiliza la opción `query`. + + ```yaml + init_config: + instances: + # recopilar eventos Críticos, de Advertencia y de Error + - path: Application + legacy_mode: false + query: '*[System[(Level=1 or Level=2 or Level=3)]]' + + - path: Application + legacy_mode: false + query: | + + + + + + ``` + +#### Filtrado de eventos mediante el modo legacy (obsoleto) + +La opción de configuración que utiliza el modo legacy incluye los siguientes filtros: + + - `log_file`: `Application`, `System`, `Setup`, `Security` + - `type`: `Critical`, `Error`, `Warning`, `Information`, `Audit Success`, `Audit Failure` + - `source_name`: Cualquier nombre de fuente disponible + - `event_id`: ID de EventLog de Windows + + Este filtro de ejemplo utiliza el método del modo legacy. + + ```yaml + instances: + # Legacy + # The following captures errors and warnings from SQL Server which + # puts all events under the MSSQLSERVER source and tag them with #sqlserver. + - tags: + - sqlserver + type: + - Warning + - Error + log_file: + - Application + source_name: + - MSSQLSERVER + + # This instance captures all system errors and tags them with #system. + - tags: + - system + type: + - Error + log_file: + - System + ``` +El método legacy no admite la opción `query`. Sólo el método de la API de logs de eventos (parámetro `legacy_mode: false`) y el Rastreador de logs admiten la opción `query`. + +[1]: https://github.com/DataDog/integrations-core/blob/master/win32_event_log/datadog_checks/win32_event_log/data/conf.yaml.example +[2]: https://github.com/DataDog/integrations-core/blob/10296a69722b75098ed0b45ce55f0309a1800afd/win32_event_log/datadog_checks/win32_event_log/data/conf.yaml.example#L74-L89 +[3]: https://learn.microsoft.com/en-us/windows/win32/wes/consuming-events +{{% /tab %}} +{{< /tabs >}} + +Cuando hayas terminado de configurar los filtros, [reinicia el Agent][9] utilizando el Gestor del Agent o reinicia el servicio. + +### Validación + +{{< tabs >}} +{{% tab "Logs" %}} + +Consulta la página de información en el Gestor del Datadog Agent o ejecuta el [subcomando de `status` del Agent][1] y busca `win32_event_log` en la sección Logs del Agent. + +Debería mostrar una sección similar a la siguiente: + +```shell +Logs Agent +========== + + [...] + + win32_event_log + --------------- + - Type: windows_event + ChannelPath: System + Status: OK +``` + +[1]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +{{% /tab %}} +{{% tab "Eventos" %}} + +Consulta la página de información en el Gestor del Datadog Agent o ejecuta el [subcomando de `status` del Agent][1] y busca `win32_event_log` en la sección Checks. + +Debería mostrar una sección similar a la siguiente: + +```shell +Checks +====== + + [...] + + win32_event_log + --------------- + - instance #0 [OK] + - Collected 0 metrics, 2 events & 1 service check +``` + +[1]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +{{% /tab %}} +{{< /tabs >}} + +## Enviar logs de seguridad por defecto + +A partir del Agent v7.54, puedes enviar automáticamente eventos de seguridad a Datadog como logs, utilizando el indicador `dd_security_events`. Estos logs se pueden utilizar con [Cloud SIEM de Datadog][10] para detectar automáticamente amenazas y actividades sospechosas en tiempo real. Estos eventos de seguridad predeterminados son compatibles con las reglas de detección predefinidas de Datadog para crear señales de seguridad cuando un usuario borra logs de seguridad, desactiva el cortafuegos de Windows, cambia la contraseña del Directory Services Restore Mode (DSRM) y más. + +1. [Habilita la recopilación de logs][11] en tu archivo `datadog.yaml`. Se encuentra deshabilitada por defecto en el Datadog Agent. + + ```yaml + logs_enabled: true + ``` + +2. En el archivo de configuración de la integración, (`win32_event_log.d/conf.yaml`), configura el indicador `dd_security_events` como `low` o `high` para iniciar el envío de eventos de seguridad a Datadog. + + ```yaml + init_config: + legacy_mode: false + instances: + - dd_security_events: high + ``` + + - `low`: envía sólo los eventos de seguridad más importantes y críticos, incluyendo Logs de auditoría autorizados (1102), Ataque de Replay detectado (4649) y Política de auditoría del sistema cambiada (4719). Para ver una lista completa de eventos recopilados en el parámetro `low`, [consulta aquí][12]. + - `high`: envía un mayor volumen de eventos de seguridad, incluyendo Política de recuperación de datos encriptados modificada (4714), Política de dominio modificada (4739) y Grupo de seguridad desactivado eliminado (4764). Para ver una lista completa de eventos recopilados con el parámetro `high`, [consulta aquí][13]. + +Los equipos pueden cambiar los ID de eventos asociados a los parámetros `low` o `high` editando estos perfiles. + + +3. [Reinicia el Agent][9]. + + +## Datos recopilados + +### Métricas + +El check de logs de eventos de Windows no incluye métricas. + +### Eventos + +Todos los eventos de Windows se reenvían a Datadog. + +### Checks de servicio + +El check de logs de eventos de Windows no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][14] mediante una [Flare del Agent][15]. + +### Las reglas para el procesamiento de logs no funcionan + +Si estás utilizando reglas para el procesamiento de logs, comprueba que los logs sin procesar coinciden con el patrón de expresión regular que has configurado. En la configuración a continuación, los niveles de logs deben ser `warning` o `error`. Cualquier otro valor queda excluido. + +```yaml + - type: windows_event + channel_path: System + source: windows.events + service: Windows + log_processing_rules: + - type: include_at_match + name: system_errors_and_warnings + pattern: '"level":"((?i)warning|error)"' +``` + +Para solucionar problemas de las reglas para el procesamiento de logs: +1. Elimina o comenta la estrofa `log_processing_rules`. +2. Reinicia el Agent. +3. Envía un log de test que incluya los valores que intentas capturar. Si el log aparece en Datadog, probablemente haya un problema con tu expresión regular. Compara tu expresión regular con el archivo de log para asegurarte de que estás capturando las frases correctas. + +## Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Recopilación avanzada de logs][16] +- [Monitorización de Windows Server 2012][17] +- [Recopilación de métricas de Windows Server 2012][18] +- [Monitorización de Windows Server 2012 con Datadog][19] +- [Monitorización de logs de eventos de Windows con Datadog][20] +- [Monitorización de logs de eventos de Windows con Datadog Cloud SIEM][21] + + +[1]: https://docs.microsoft.com/en-us/windows/win32/eventlog/event-logging +[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=windows +[3]: https://docs.datadoghq.com/es/service_management/events/ +[4]: https://docs.datadoghq.com/es/logs/ +[5]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[6]: https://github.com/DataDog/integrations-core/blob/master/win32_event_log/datadog_checks/win32_event_log/data/conf.yaml.example +[7]: https://app.datadoghq.com/integrations?integrationId=event-viewer +[8]: https://raw.githubusercontent.com/DataDog/integrations-core/master/win32_event_log/images/windows-defender-operational-event-log-properties.png +[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[10]: https://docs.datadoghq.com/es/security/cloud_siem/ +[11]: https://docs.datadoghq.com/es/agent/logs/#activate-log-collection +[12]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/win32_event_log.d/profiles/dd_security_events_low.yaml.example +[13]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/win32_event_log.d/profiles/dd_security_events_high.yaml.example +[14]: https://docs.datadoghq.com/es/help/ +[15]: https://docs.datadoghq.com/es/agent/troubleshooting/send_a_flare/?tab=agentv6v7 +[16]: https://docs.datadoghq.com/es/agent/logs/advanced_log_collection/?tab=configurationfile +[17]: https://www.datadoghq.com/blog/monitoring-windows-server-2012 +[18]: https://www.datadoghq.com/blog/collect-windows-server-2012-metrics +[19]: https://www.datadoghq.com/blog/windows-server-monitoring +[20]: https://www.datadoghq.com/blog/monitor-windows-event-logs-with-datadog/ +[21]: https://www.datadoghq.com/blog/datadog-cloud-siem-windows-event-logs/ \ No newline at end of file diff --git a/content/es/metrics/summary.md b/content/es/metrics/summary.md new file mode 100644 index 0000000000000..91de4856f2940 --- /dev/null +++ b/content/es/metrics/summary.md @@ -0,0 +1,253 @@ +--- +aliases: +- /es/graphing/faq/how-can-i-set-up-custom-units-for-custom-metrics +- /es/graphing/metrics/summary/ +description: Consulta la lista completa de métricas que informan a Datadog. +further_reading: +- link: /metrics/explorer/ + tag: Documentación + text: Explorador de métricas +- link: /metrics/distributions/ + tag: Documentación + text: Distribuciones de métricas +title: Resumen de métricas +--- + +## Información general + +La [página Resumen de métricas][1] muestra una lista de tus métricas informadas a Datadog según un marco temporal específico: la última hora, día o semana. + +Busca tus métricas por nombre de métrica o etiqueta (tag) utilizando los campos **Metric** (Métrica) o **Tag** (Etiqueta): + +{{< img src="metrics/summary/tag_advancedfiltering3.mp4" alt="La página de resumen de métricas con NOT team:* ingresado en la barra de búsqueda de Etiqueta" video=true style="width:75%;">}} + +El filtrado de etiquetas admite la sintaxis booleana y comodín para que puedas identificar rápidamente: +* Métricas que están etiquetadas con una clave de etiqueta concreta, por ejemplo, `team`: `team:*` +* Métricas a las que les falta una determinada clave de etiqueta, por ejemplo, `team`: `NOT team:*` + + +## Panel de facetas + +Las barras de búsqueda proporcionan el conjunto más completo de acciones para filtrar la lista de métricas. No obstante, las facetas también pueden filtrar tus métricas por: + +- **Configuración**: Métricas con configuraciones de etiqueta +- **Percentiles**: Métricas de distribución habilitada por percentiles/capacidades de consulta avanzada +- **Métricas históricas**: Métricas que tienen activada la ingesta de métricas históricas +- **Actividad de consulta** (fase beta): Métricas no consultadas en la aplicación o por la API en los últimos 30 días +- **Tipo de métrica**: Diferencia entre métricas de distribución y no distribución (counts, gauges, rates) +- **Origen de métrica**: Producto a partir del cual se originó la métrica (por ejemplo, métricas generadas a partir de logs o tramos (spans) de APM). Para obtener más información sobre los distintos tipos de origen de métrica, consulta [Definiciones de origen de métrica][12]. + +**Nota**: Una métrica incluida en un dashboard que no haya sido cargada por un usuario en los últimos 30 días no se consideraría consultada activamente. + +{{< img src="metrics/summary/facets4.png" alt="Panel de facetas de métricas" style="width:75%;">}} + +## Configuración de múltiples métricas + +Al hacer clic en **Configure Metrics** (Configurar métricas) se te ofrecen múltiples opciones que puedes utilizar para configurar más de una métrica a la vez: + +{{< img src="metrics/summary/configurationbuttons10-11-2024.png" alt="Botones de configuración en bloque" style="width:100%;">}} + +* **Gestionar etiquetas**: configura etiquetas en múltiples métricas personalizadas coincidentes con un espacio de nombres utilizando Metrics without LimitsTM. + +{{< img src="metrics/summary/bulkconfig_new-compressed.mp4" alt="Configuración de etiqueta de métricas en bloque" video="true" style="width:100%;" >}} + +* **Activar o desactivar percentiles**: gestiona agregaciones de percentiles a través de múltiples métricas de distribución. Consulta la [página de Distribuciones][31] para obtener más información. + +{{< img src="metrics/summary/percentile_aggregations_toggle.png" alt="Cambiar el conmutador para gestionar agregaciones de percentiles" style="width:100%;">}} + +* **Activar o desactivar las métricas históricas**: gestiona la ingesta de datos históricos de métrica. Consulta la [página de Métricas históricas][30] para más información. + +## Panel lateral de detalles de métricas + +Haz clic en cualquier nombre de métrica para ver su panel lateral de detalles y obtener más información sobre los metadatos y etiquetas de métrica: + +{{< img src="metrics/summary/mwl_sidepanel.jpg" alt="Panel de métricas" style="width:75%;">}} + +### Nombre de la métrica + +El nombre de tu métrica en el [Metrics Explorer][2], [dashboards][3], etc. + +### Métricas personalizadas ingeridas + +Un nombre de métrica puede emitir múltiples métricas personalizadas ingeridas en función de sus combinaciones de valores y etiquetas asociadas. Las métricas personalizadas ingeridas representan todos los datos enviados originalmente con el código. + +Más información en la documentación de [métricas personalizadas][4]. + +### Métricas personalizadas indexadas + +A diferencia de las métricas personalizadas ingeridas, las métricas personalizadas indexadas representan aquellas que siguen siendo consultables en toda la plataforma Datadog. Este número puede verse afectado por la adición o eliminación de agregaciones de percentiles o por el uso de Metrics without LimitsTM. Para obtener más información, consulta la documentación de [Metrics without LimitsTM][0]. + +### Hosts + +El número total de hosts que informan una métrica. + +### Valores de etiquetas + +El número total de valores de etiqueta únicos adjuntos a una métrica. + +[Más información sobre el etiquetado][5]. + +### Metadatos de métricas + +Los metadatos adjuntos a tu métrica. La mayoría de los metadatos pueden editarse en la página de resumen de métrica o con la [API de Datadog][6]. + +#### Unidad de métrica + +La unidad para tu métrica (byte, segundo, solicitud, consulta, etc.). Consulta la página [unidad de métrica][7] para más detalles. + +Al enviar métricas personalizadas a Datadog, es posible cambiar la [unidad de medida][1] que se muestra al pasar el ratón por encima de métrica en tu gráfico. + +**Nota**: Esto no cambia la forma en que se muestra un gráfico de métrica. Solo cambia las unidades de medida en las que se consideran los valores brutos cuando se pasa el ratón por encima de una métrica. El formato se aplica automáticamente para facilitar la lectura. Por ejemplo, los bytes (`B`) pueden mostrarse como kilobytes (`KiB`). + +#### Tipo de métrica + +El tipo de su métrica (gauge, tasa, count, distribución). Consulta la página de [tipo de métrica][8] para obtener más detalles. + +**Atención**: Editar el tipo de métrica cambia el comportamiento de esa métrica para **TODOS** tus dashboards y monitores. + +#### Nombre de integración + +Si la métrica procede de una [integración][9] compatible, los metadatos indican el nombre de la integración. Esta información no puede editarse. + +#### Intervalo + +El intervalo de recopilación para la métrica en segundos. + +#### Descripción de métrica + +La descripción de métrica te ayuda a entender lo que hace una métrica. Las descripciones se rellenan previamente para métricas procedentes de [integraciones][9] compatibles. Utiliza este campo para actualizar las descripciones de tus [métricas personalizadas][4]. + +### Tabla de etiquetas + +La tabla de etiquetas ofrece múltiples formas de explorar todas las claves de etiqueta y los valores de etiquetar que están informando activamente en tus datos de métrica. + +Utiliza la tabla de etiquetas para: + +- Ordena las claves de etiqueta por la columna **Count** (recuento de valores únicos de etiqueta). +- Busca una clave de etiqueta concreta en la tabla paginada de etiquetas. +- Exporta la tabla de etiquetas como CSV descargable. +- Alterna entre etiquetas que has configurado en tu métrica frente a las etiquetas de la métrica presentada originalmente + +Para cualquier clave concreta de etiqueta, puedes: + +- Inspecciona todos los valores de etiqueta de esa clave de etiqueta. +- Utiliza una etiqueta `key:value` específica para filtrar aún más la lista de métricas mostradas en la página de resumen de métricas. +- Abre un gráfico de esta métrica filtrado por tu par de etiqueta `key:value` en el Metrics Explorer. +- Copia cualquier etiqueta `key:value` para filtrarlo a través de la aplicación. + +{{< img src="metrics/summary/updated_tags_table.mp4" alt="Tabla de etiquetas" video=true style="width:75%;">}} + +[Más información sobre el etiquetado][5]. + +## Activos relacionados con métricas + +{{< img src="metrics/summary/related_assets_dashboards.png" alt="Activos relacionados para un nombre de métricas especificado" style="width:80%;">}} + +Para determinar el valor de cualquier nombre de métrica para tu organización, utiliza Activos relacionados de métricas. Los activos relacionados de métricas se refieren a cualquier dashboard, notebook, monitor, o SLO que consulta una métrica en particular. + +1. Desplázate hasta la parte inferior del panel lateral de detalles de la métrica hasta la sección "Related Assets" (Activos relacionados). +2. Haz clic en el botón desplegable para ver el tipo de activo relacionado que te interesa (dashboards, monitores, notebooks, SLOs). Además, puedes utilizar la barra de búsqueda para validar activos específicos. + + +## Metrics without LimitsTM +Metrics without LimitsTM te proporciona control sobre el tamaño de tus métricas personalizadas sin necesidad de realizar cambios en el Agent o a nivel de código. + +**Nota:** Metrics without LimitsTM solo está disponible para métricas personalizadas. + +Puedes configurar etiquetas mediante el botón de configuración de etiquetas de métrica en bloque o el botón **Manage Tags** (Gestionar etiquetas) del panel lateral de detalles de métrica. + +{{< img src="metrics/distributions/managetags.png" alt="Configuración de etiquetas en una distribución" style="width:80%;">}} + +1. Haz clic en el nombre de tu métrica de distribución personalizada en la tabla **Metrics Summary** (Resumen de métricas) para abrir el panel lateral de detalles de métricas. +2. Haz clic en el botón **Gestionar etiquetas** para abrir el modal de configuración de etiquetas. + +3. Seleccione **Include tags...** o **Exclude tags...** (Incluir etiquetas... o Excluir etiquetas...) para personalizar las etiquetas que deseas o no consultar. Para más información sobre la configuración de etiquetas, consulta la documentación de [Metrics without Limits][10]. +4. Previsualiza los efectos de tu configuración de etiqueta propuesta con el estimador de cardinalidad antes de seleccionar **Save** (Guardar). + +**Nota**: El estimador de cardinalidad requiere que la métrica tenga más de 48 horas. + +### Etiquetas consultables + +Una vez que se ha configurado tu métrica con Metrics without LimitsTM, puedes ver qué etiquetas siguen siendo consultables (las que contribuyen al volumen _Indexed Custom Metrics_). Y puedes volver a todas las etiquetas enviadas e ingeridas originalmente que contribuyen a tu volumen _Ingested Custom Metrics_. + +### Optimizar tu métrica con agregaciones en Modo Avanzado + +Para métricas personalizadas de tipo count, gauge o rate, puedes refinar aún más las configuraciones de tus métricas incluyendo opcionalmente agregaciones adicionales con el modo avanzado de Metrics without LimitsTM. Por defecto, Datadog almacena la combinación de agregación más consultada en función del tipo de métrica para preservar la precisión matemática de la consulta de tu métrica configurada, como se indica a continuación: + +- Los conteos/tasas de métricas se pueden consultar con agregaciones de tiempo/espacio de tipo `SUM` +- Las gauge configuradas se pueden consultar en agregaciones de tiempo/espacio de `AVG` + +{{< img src="metrics/summary/customize_aggr_docs.jpg" alt="Ajusta las agregaciones en counts, tasas y gauges" style="width:80%;">}} + +Hay más agregaciones disponibles que pueden serte útiles. Puedes añadir o eliminar agregaciones en cualquier momento sin necesidad de realizar cambios en el Agent o en el código. + +**Nota**: La configuración de tu métrica count, rate o gauge y la eliminación de una agregación pueden afectar a los dashboards y monitores existentes. + +### Definiciones del origen de una métrica + +Esta tabla muestra la correspondencia entre el origen de una métrica tal y como se ve en la faceta y el lugar desde el que se envió: + +| Origen de una métrica | Enviada desde | +| ------------------------| ----------------------------------------------------------------------------- | +| Catálogo de APIs | Series temporales enviadas por el producto [API Catalog][13] de Datadog desde el endpoint APIM. +| APM | Series temporales enviadas por el producto APM de Datadog para métricas generadas a partir de métricas de trazas (traces) y tramos. +| Agent | Series temporales enviadas por el Datadog Agent, recopiladas de [integraciones del Agent][10], [integraciones incorporadas][9], [DogStatsD][32], o [checks personalizados del Agent][33]. +| CSM | Series temporales enviadas por el producto [Cloud Security Monitoring][14] de Datadog. +| Integraciones en la nube | Series temporales recopiladas de proveedores de nube como AWS, Azure y Google Cloud, etc. de sus respectivas integraciones. +| DBM | Series temporales enviadas por el producto [Database Monitoring][15] de Datadog, que incluyen información sobre las actividades/consultas/bloqueos de MySQL, Oracle y Postgres. +| DSM | Series temporales enviadas por el producto [Data Streams Monitoring][16] de Datadog, para métricas generadas a partir de tramos y trazas de DSM. +| Datadog Exporter | Series temporales enviadas por el [OpenTelemetry Collector][17] o el [Datadog Exporter][18]. +| Plataforma Datadog | Series temporales enviadas por métricas de admisión que se utilizan para [informar sobre el uso de métricas][11]. +| Eventos | Series temporales generadas a partir de la plataforma de eventos de Datadog. +| Observabilidad de LLM | Series temporales emitidas por el producto LLM Observability utilizando el servicio `lmobs_to_metrics`. +| Logs | Series temporales generadas a partir de la plataforma de [logs][28] de Datadog. +| API de métricas | Series temporales enviadas mediante el [endpoint de ingesta OTLP][21] y el receptor OTel con una contrapartida o con puntos en la integración Datadog para obtener métricas del uso estimado o el cliente API de Datadog. +| NPM | Series temporales enviadas por el producto [Network Performance Monitoring][19] de Datadog. +| Observability Pipelines | Series temporales enviadas por los [pipelines de observabilidad][20] de Datadog, incluidas las métricas de errores y rendimiento. +| Otro | Series temporales que no tienen una contrapartida en la integración DD. +| Procesos | Series temporales generadas a partir del producto [Processes][22] de Datadog. +| RUM | Series temporales generadas a partir del producto [Real User Monitoring][23] de Datadog. +| Integraciones SAAS | Series de tiempo recopiladas de plataformas SAAS populares como Slack, Docker, PagerDuty, etc. +| Serverless | Series temporales enviadas por la plataforma [serverless][24] de Datadog, incluyendo Function, App Services, Cloud Run y Container App Metrics. +| Catálogo de servicios | Series temporales enviadas por el producto [Service Catalog][25] de Datadog, incluidas las métricas de [Scorecard][29]. +| Synthetic Monitoring | Métricas de monitorización y tests continuos de Synthetic, generadas a partir del producto [Synthetic Monitoring][26] de Datadog. +| USM | Series temporales generadas a partir del producto [Universal Service Monitoring][27] de Datadog. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[0]: /es/metrics/metrics-without-limits +[1]: https://app.datadoghq.com/metric/summary +[2]: /es/metrics/explorer/ +[3]: /es/dashboards/ +[4]: /es/metrics/custom_metrics/ +[5]: /es/getting_started/tagging/ +[6]: /es/api/v1/metrics/#edit-metric-metadata +[7]: /es/metrics/units/ +[8]: /es/metrics/types/ +[9]: /es/integrations/ +[10]: /es/integrations/agent_metrics/ +[11]: /es/account_management/billing/usage_metrics/ +[12]: /es/metrics/summary/#metric-origin-definitions +[13]: /es/api_catalog/ +[14]: /es/security/cloud_security_management/ +[15]: /es/database_monitoring/ +[16]: /es/data_streams/ +[17]: /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter/?tab=onahost +[18]: /es/opentelemetry/collector_exporter/ +[19]: /es/network_monitoring/performance/ +[20]: /es/observability_pipelines/ +[21]: /es/opentelemetry/interoperability/otlp_ingest_in_the_agent/?tab=host +[22]: /es/integrations/process/ +[23]: /es/monitors/types/real_user_monitoring/ +[24]: /es/serverless/ +[25]: /es/service_catalog/ +[26]: /es/synthetics/ +[27]: /es/universal_service_monitoring/ +[28]: /es/logs/ +[29]: /es/service_catalog/scorecards/ +[30]: /es/metrics/custom_metrics/historical_metrics/#bulk-configuration-for-multiple-metrics +[31]: /es/metrics/distributions/#bulk-configuration-for-multiple-metrics +[32]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ +[33]: /es/metrics/custom_metrics/agent_metrics_submission/ \ No newline at end of file diff --git a/content/es/network_monitoring/devices/troubleshooting.md b/content/es/network_monitoring/devices/troubleshooting.md new file mode 100644 index 0000000000000..ab0f960a63bd0 --- /dev/null +++ b/content/es/network_monitoring/devices/troubleshooting.md @@ -0,0 +1,102 @@ +--- +aliases: +- /es/network_performance_monitoring/devices/troubleshooting/ +further_reading: +- link: https://www.datadoghq.com/blog/monitor-snmp-with-datadog/ + tag: Blog + text: Monitorización de SNMP con Datadog +title: Solucionar problemas de NDM +--- + +## Información general + +Utiliza la siguiente información para solucionar problemas de Network Device Monitoring Datadog. Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][1]. + +## Terminología + +SNMP - Protocolo simple de gestión red +: Protocolo de red que se utiliza para recopilar información sobre equipos bare metal de red. + +OID - Identificador de objeto +: ID o dirección única de un dispositivo que, cuando se consulta, devuelve el código de respuesta de ese valor. Por ejemplo, los OID son la velocidad del ventilador de la CPU o del dispositivo. + +sysOID - Identificador de objeto del sistema +: Dirección específica que define el tipo de dispositivo. Todos los dispositivos tienen un identificador único que lo define. Por ejemplo, el sysOID base de Meraki es `1.3.6.1.4.1.29671`. + +MIB - Base de información gestionada +: Base de datos o lista de todos los OID posibles y sus definiciones relacionadas con la MIB. Por ejemplo, la `IF-MIB` (interfaz MIB) contiene todos los OID de información descriptiva sobre la interfaz de un dispositivo. + +## FAQ + +#### ¿Con qué versiones de SNMP es compatible Datadog? + +Datadog es compatible con las tres versiones de SNMP: SNMPv1, SNMPv2 y SNMPv3. + +#### ¿Qué protocolo utiliza Datadog para detectar dispositivos? + +Datadog utiliza SNMP para detectar dispositivos. Durante la detección, se sondea el puerto SNMP (por defecto 161). Si hay una respuesta y un perfil que coincida, se considera un dispositivo detectado. + +#### ¿Proporciona Datadog la certificación MIB? ¿Tengo que enviarles todas mis MIB? ¿Cómo convierto mis MIB con Python? + +El Datadog Agent es MIB-less, lo que significa que no necesitas hacer nada con tus MIB. Todas las métricas recopiladas con perfiles de dispositivo Datadog funcionan automáticamente sin la MIB. + +Para añadir métricas o una configuración personalizada, lista el nombre de la MIB, el nombre de la tabla, el OID de la tabla, el símbolo y el OID del símbolo, por ejemplo: + +```yaml +- MIB: EXAMPLE-MIB + table: + # Identificación de la tabla de la que provienen las métricas. + OID: 1.3.6.1.4.1.10 + name: exampleTable + symbols: + # Lista de símbolos ('columnas') a recuperar. + # Mismo formato que para un OID único. + # Cada fila de la tabla emite estas métricas. + - OID: 1.3.6.1.4.1.10.1.1 + name: exampleColumn1 +``` + +#### ¿Puedo seguir utilizando Network Device Monitoring si mi par dispositivo-modelo no es compatible? + +Datadog recopila métricas genéricas de base de todos los dispositivos. Si hay métricas no compatibles de un proveedor MIB, puedes escribir un perfil personalizado o enviar una solicitud de función al [servicio de asistencia de Datadog][1]. + +Si envías una solicitud de función, el servicio de asistencia de Datadog necesita un `snmpwalk` del dispositivo solicitado. Ejecuta lo siguiente y envía el resultado: + +``` +snmpwalk -O bentU -v 2c -c : 1.3.6 +``` + +#### ¿Por qué sólo veo una métrica recopilada de mis redes? ¿El número de dispositivos recopilados es cero? + +1. Prueba a volver menos estrictas las reglas de listas de control de acceso(ACL)/firewalls de tus dispositivos. +2. Ejecute `snmpwalk -O bentU -v 2c -c : 1.3.6` desde el host en el que se ejecuta tu Agent. Si obtienes un tiempo de espera sin ninguna respuesta, es probable que haya algo que esté bloqueando al Datadog Agent para recopilar métricas de tu dispositivo. + +#### ¿Qué hago si Datadog admite un proveedor o tipo de dispositivo pero mi modelo específico no es compatible? + +- Ponte en contacto con el [servicio de asistencia de Datadog][1] para solicitar asistencia para tu modelo específico. +- Amplía tus perfiles para que admitan otros valores `sysobjectid`. + Por ejemplo, si quieres monitorizar otro tipo de CSR Cisco, puedes modificar el perfil ISR directamente para listar otro `sysobjectid` de esta manera: + + ``` + snmpwalk -v 2c -c [community string] [ip address] 1.3.6.1.2.1.1.2 + ``` + +**Nota**: Si no conoces el `sysobjectid` de tu dispositivo, intenta hacer una búsqueda en Internet o ejecuta un `snmpwalk` en un host que pueda llegar a tu dispositivo. Utiliza el resultado para listar el perfil con el que debe coincidir. + +#### ¿Cómo extraigo información sobre dispositivos e interfaces de mis dispositivos red? + +- Utiliza la [red API][2] para extraer la siguiente información sobre tus dispositivos de red: + * [Obtén la lista de interfaces de tus dispositivos][3]. + - [Obtén la lista de etiquetas (tags) de tus dispositivos][4]. + - [Actualiza la lista de etiquetas de tus dispositivos][5]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /es/help +[2]: /es/api/latest/network-device-monitoring/ +[3]: /es/api/latest/network-device-monitoring/#get-the-list-of-interfaces-of-the-device +[4]: /es/api/latest/network-device-monitoring/#get-the-list-of-tags-for-a-device +[5]: /es/api/latest/network-device-monitoring/#update-the-tags-for-a-device \ No newline at end of file diff --git a/content/es/tracing/trace_explorer/trace_queries.md b/content/es/tracing/trace_explorer/trace_queries.md index 7a4c580f24e25..941eb5374126c 100644 --- a/content/es/tracing/trace_explorer/trace_queries.md +++ b/content/es/tracing/trace_explorer/trace_queries.md @@ -13,7 +13,6 @@ further_reading: - link: /tracing/trace_explorer/query_syntax/ tag: Documentación text: Sintaxis de consulta de tramo -is_beta: true title: Consultas de trazas --- @@ -90,7 +89,7 @@ Pasa el ratón sobre el Desglose de latencia para tener una idea de dónde (en q **Nota**: La información mostrada en la tabla son atributos del tramo raíz de la traza, incluida la duración, que **no** representa la duración de extremo a extremo de la traza. -## Analytics +## Análisis Selecciona una de las otras visualizaciones, como `Timeseries`, `Top List`, o `Table` para agregar resultados a lo largo del tiempo, agrupados por una o varias dimensiones. Lee [Visualizaciones de tramo][2] para obtener más información sobre las opciones de agregación. @@ -119,16 +118,17 @@ Estos dos mecanismos de muestreo capturan las **trazas completas**, lo que signi El muestreo plano del 1% se aplica sobre la base de `trace_id`, lo que significa que todos los tramos pertenecientes a la misma traza comparten la misma decisión de muestreo. Para obtener más información, lee la [documentación sobre el muestreo plano del 1%][4]. -### Muestreo diverso +### Muestreo por diversidad `retained_by:diversity_sampling` Cada 15 minutos, el muestreo diverso retiene al menos un tramo y la traza asociada para cada combinación de entorno, servicio, operación y recurso. Esto ocurre para el percentil de latencias `p75`, `p90` y `p95` para asegurar que siempre se puede encontrar un ejemplo de trazas en servicio y páginas de recursos, incluso para endpoints con poco tráfico. Para obtener más información, lee la [documentación sobre el muestreo diverso][5]. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} + [1]: /es/tracing/trace_explorer/query_syntax/ [2]: /es/tracing/trace_explorer/visualize/#timeseries [3]: /es/tracing/trace_pipeline/trace_retention/#datadog-intelligent-retention-filter diff --git a/content/fr/account_management/billing/rum_units.md b/content/fr/account_management/billing/rum_units.md deleted file mode 100644 index b75cbd2c39047..0000000000000 --- a/content/fr/account_management/billing/rum_units.md +++ /dev/null @@ -1,16 +0,0 @@ ---- -title: Informations détaillées sur la facturation RUM -beta: true ---- - -
-Les fonctionnalités mentionnées sur cette page sont disponibles en bêta privée. Contactez votre chargé de compte pour en savoir plus. -
- -Une **session** correspond à une visite de votre application Web par un utilisateur. Elle expire au bout de 15 minutes d'inactivité ou de 4 heures d'activité continue. - -**Session mobile RUM** : Datadog recueille des données sur l'ensemble des écrans consultés par vos utilisateurs finaux sur vos applications mobiles (Android, iOS et React Native), ainsi que les données de télémétrie pertinentes : erreurs mobiles, crashs et chargement de ressources (XHR, images, fichiers CSS, scripts JS, etc.). Tous ces éléments sont inclus dans la session mobile RUM. - -**Session Lite RUM** : Datadog recueille des données sur l'ensemble des pages visitées par vos utilisateurs finaux sur vos applications accessibles depuis un navigateur, ainsi que les données de télémétrie pertinentes : erreurs frontend et métriques de performance. Tous ces éléments sont inclus dans la session Lite RUM. - -**Session Replay RUM** : Datadog recueille des données sur l'ensemble des pages visitées par vos utilisateurs finaux sur vos applications accessibles depuis un navigateur, avec les données de télémétrie pertinentes : erreurs frontend, métriques de performance et chargement des ressources (XHR, images, fichiers CSS, scripts JS, etc.). Vous pouvez également obtenir un enregistrement des actions de vos utilisateurs, afin de visualiser leur expérience sous la forme d'un film. Tous ces éléments sont inclus dans la session Replay RUM. diff --git a/content/ja/account_management/billing/apm_tracing_profiler.md b/content/ja/account_management/billing/apm_tracing_profiler.md index 84c7f2957e722..172ec725c6ce5 100644 --- a/content/ja/account_management/billing/apm_tracing_profiler.md +++ b/content/ja/account_management/billing/apm_tracing_profiler.md @@ -16,7 +16,7 @@ APM は、APM、APM Pro、APM Enterprise の 3 つの階層で提供されてい | APM Enterprise (APM ホストと Data Streams Monitoring & [Continuous Profiler)][6] | 基底の [APM ホスト][5]あたり 40 ドル。Data Streams Monitoring と [Continuous Profiler][6] が含まれ、1 ホストあたり 月 4 つのプロファイルされたコンテナが付属します。 | APM ホストと同様 | Datadog は、同時監視している Datadog APM サービスのユニーク APM ホスト、ユニーク DSM ホスト、ユニーク Continuous Profiler ホストの数を 1 時間に 1 回記録します。APM Enterprise の 1 時間ごとの測定と請求は、APM ホストと同じように行われます。 | | [Fargate][4] | APM: 同時実行タスク 1 件につき 2 ドル/月
APM Pro: 同時実行タスク 1 件につき 2.30 ドル/月
APM Enterprise: 同時実行タスク 1 件につき 2.60 ドル/月 | 65,000 の Indexed Span と 10 GB と Ingested Spans を価格に含む。 | お客様が Datadog APM サービスで監視しているタスクのインスタンス数を 5 分間隔で記録します。月末にこの間隔に基づく測定値を集計し、アプリケーションが実行されて監視された平均時間数に基づいて課金されます。[Fargate の料金について詳しくはこちら][4] | | [Indexed span][5] | Indexed Span 100 万件あたり 1.70 ドル / 月 | すべての APM ホストで使用される Indexed Span の数が超過すると料金が発生 | Indexed Span は、スタック内の個々のサービスに対する個別のリクエストです。保持フィルターを使用してインデックス化されたスパンまたは Datadog APM サービスに送信された レガシー Analyzed Span の合計数に基づき月末に課金されます。[APM の料金について詳しくはこちら。][5] | -| [Ingested span][5] | Ingested Span 1 GB あたり 0.1 ドル / 月 | すべての APM ホストで使用される Ingested Span の数が超過すると料金が発生 | Ingested Span は、スタック内の個々のサービスに対する個別のリクエストです。Datadog に取り込まれたスパンのギガバイトの総数に基づき月末に課金されます。[APM の料金について詳しくはこちら][5] | +| [Ingested span][5] | Ingested Span 1 GB あたり 0.10 ドル / 月 | すべての APM ホストで使用される Ingested Span の数が超過すると料金が発生 | Ingested Span は、スタック内の個々のサービスに対する個別のリクエストです。Datadog に取り込まれたスパンのギガバイトの総数に基づき月末に課金されます。[APM の料金について詳しくはこちら][5] | **注**: - Fargate 以外のコンテナベースの環境を使用している場合、Datadog Agent をデプロイしている基盤となるホストの料金が発生します。 diff --git a/content/ja/account_management/billing/aws.md b/content/ja/account_management/billing/aws.md index 0fa13b0c89c65..798f990dac53a 100644 --- a/content/ja/account_management/billing/aws.md +++ b/content/ja/account_management/billing/aws.md @@ -16,7 +16,10 @@ ELB、RDS、DynamoDB などの他の AWS リソースは、インフラストラ ## AWS リソースの除外 -一部のサービスに対して収集する AWS メトリクスを、特定のリソースに限定することができます。[Datadog-AWS インテグレーションページ][3]で、AWS アカウントを選択し、**Metric Collection** タブをクリックします。次に、**Limit Metric Collection to Specific Resources** で、EC2、Lambda、ELB、Application ELB、Network ELB、RDS、SQS、CloudWatch カスタムメトリクスのうち 1 つまたは複数に対するメトリクスを除外することが可能です。 +一部のサービスに対して収集する AWS メトリクスを、特定のリソースに限定することができます。[Datadog-AWS インテグレーションページ][3]で、AWS アカウントを選択し、**Metric Collection** タブをクリックします。次に、**Limit Metric Collection to Specific Resources** で、EC2、Lambda、ELB、Application ELB、Network ELB、RDS、SQS、CloudWatch カスタムメトリクスのうち 1 つまたは複数に対するメトリクスを制限することが可能です。 +このセクションに追加されたタグが、AWS 上の該当するリソースに正しく割り当てられていることを確認してください。 + +**注**: 除外記法 (`!`) を使用する場合は、リソースが指定したタグを含まないことを確認してください。 {{< img src="account_management/billing/aws-resource-exclusion.png" alt="Datadog AWS インテグレーションページ内の AWS アカウントのメトリクス収集タブ。AWS サービスを選択するドロップダウンメニューと key:value 形式でタグを追加するフィールドで、特定のリソースにメトリクス収集を制限するオプションが表示されている" >}} diff --git a/content/ja/account_management/billing/azure.md b/content/ja/account_management/billing/azure.md index 9107402383bea..b7ef8282289d0 100644 --- a/content/ja/account_management/billing/azure.md +++ b/content/ja/account_management/billing/azure.md @@ -12,7 +12,7 @@ Azure インテグレーションは、その他のすべての Azure リソー ## Azure VM の除外 -Datadog-Azure インテグレーションタイルを使用して、Datadog によって監視される VM をフィルタリングします。Configuration タブに移動して、既存の App Registration を編集するか、新規追加します。各フィルターは、"Optionally limit metrics collection to hosts with tag:" の設定に基づいて制御されます。 +Datadog-Azure インテグレーションタイルを使用して、Datadog によって監視される VM をフィルタリングします。Metric Collection タブに移動して、既存の App Registration を編集するか、新規追加します。各フィルターは、"Optionally limit metrics collection to hosts with tag:" の設定に基づいて制御されます。 インテグレーションタイルで既存の Azure テナントに制限を追加した場合は、それまでに検出された VM がインフラストラクチャーリストに最長 2 時間残る可能性があります。移行時間中、VM のステータスは `???` と表示されます。これは、課金対象に含まれません。 diff --git a/content/ja/account_management/billing/custom_metrics.md b/content/ja/account_management/billing/custom_metrics.md index 9f260c8fcc062..db284b2500548 100644 --- a/content/ja/account_management/billing/custom_metrics.md +++ b/content/ja/account_management/billing/custom_metrics.md @@ -7,10 +7,10 @@ aliases: further_reading: - link: /metrics/custom_metrics/ tag: ドキュメント - text: Learn more about Custom Metrics + text: カスタムメトリクスについて - link: /metrics/guide/custom_metrics_governance/ tag: ガイド - text: Best Practice for Custom Metric Governance + text: カスタムメトリクスのガバナンスに関するベストプラクティス title: カスタムメトリクスの課金 --- @@ -20,7 +20,7 @@ title: カスタムメトリクスの課金 **カスタムメトリクスは、メトリクス名とタグ値 (ホストタグを含む) の組み合わせにより、一意に識別されます**。一般に、[DogStatsD][3] または[カスタム Agent チェック][4]を使用して送信されるメトリクスはすべて、カスタムメトリクスとなります。 -Your monthly billable custom metrics usage (reflected on the Usage page) is calculated by taking the total of all distinct custom metrics (also known as timeseries) for each hour in a given month, and dividing it by the number of hours in the month to compute a monthly average value. Your billable usage is not impacted by data point submission frequency or the number of queries you run on your metrics. +請求対象の月間カスタムメトリクス使用量 (使用量ページに表示される数値) は、指定された月の各時間におけるすべての個別カスタムメトリクス (時系列とも呼ばれる) の合計をその月の総時間数で割り、月間平均値を算出することで計算されます。請求対象の使用量は、データポイントの送信頻度やメトリクスに対して実行するクエリの数には影響を受けません。 Metrics without LimitsTM のユーザーは、インジェストおよびインデックスされたカスタムメトリクスの月間課金量を Usage ページで確認できます。インジェストおよびインデックスされたカスタムメトリクスと [Metrics without LimitsTM][5] について詳しくはこちら。 diff --git a/content/ja/account_management/billing/rum_units.md b/content/ja/account_management/billing/rum_units.md deleted file mode 100644 index 1456272ed53cf..0000000000000 --- a/content/ja/account_management/billing/rum_units.md +++ /dev/null @@ -1,17 +0,0 @@ ---- -beta: true -private: true -title: RUM の請求についての詳細 ---- - -
-このページで紹介されている機能はプライベートベータ版です。詳細については、カスタマーサクセスマネージャーにお問い合わせください。 -
- -**セッション**とは、ウェブアプリケーションでユーザーが行う操作 (カスタマージャーニー) です。15 分間操作が行われない、または 4 時間以上継続して操作が行われるとセッションは無効になります。 - -**Mobile RUM セッション**: Datadog は、モバイルアプリケーション (Android、iOS、React Native) でエンドユーザーが訪問したすべての画面を、モバイルのエラーやクラッシュ、リソースの読み込み (XHR、画像、CSS ファイル、JS スクリプトなど) といった重要なテレメトリとともに収集します。これらはすべて Mobile RUM セッションに含まれています。 - -**RUM Lite セッション**: Datadog は、エンドユーザーがブラウザアプリケーションで訪れたすべてのページを、フロントエンドのエラーやパフォーマンスメトリクスといった重要なテレメトリとともに収集します。これらはすべて RUM Lite セッションに含まれています。 - -**RUM Replay セッション**: Datadog は、エンドユーザがブラウザアプリケーションで訪れたすべてのページを、フロントエンドのエラー、パフォーマンスメトリクス、リソースの読み込みといった重要なテレメトリ (XHR、画像、CSS ファイル、JS スクリプトなど ) とともに収集します。また、ユーザーのアクションのリプレイを収集して、ユーザーの体験を映画のようにレンダリングすることもできます。これらはすべて、RUM Replay セッションに含まれています。 \ No newline at end of file diff --git a/content/ja/account_management/saml/okta.md b/content/ja/account_management/saml/okta.md index 8406b040020e6..a7a657c008366 100644 --- a/content/ja/account_management/saml/okta.md +++ b/content/ja/account_management/saml/okta.md @@ -1,6 +1,4 @@ --- -aliases: -- /ja/account_management/faq/how-do-i-configure-okta-as-a-saml-idp/ further_reading: - link: /account_management/saml/ tag: Documentation @@ -8,68 +6,132 @@ further_reading: - link: /account_management/multi_organization/ tag: Documentation text: 複数のアカウントを持つチームとオーガニゼーションの構成 -title: Okta SAML IdP +title: Okta の SAML アイデンティティプロバイダー構成 --- -## セットアップ +{{% site-region region="gov" %}} +
+{{< region-param key="dd_site_name" >}} サイトでは、Okta アプリケーションカタログの事前構成された Datadog アプリケーションに関するこのページの指示を無視し、従来の手順を使用して Okta で Datadog アプリケーションを手動で構成する必要があります。 +
+{{% /site-region %}} -Okta の[カスタム SAML アプリのインテグレーションを作成する][1]手順に従って、Okta を SAML IdP として構成します。 +## 概要 -**注**: Okta アプリケーションとして Datadog を手動でセットアップしてください。あらかじめ構成されている Datadog アプリケーションは使用しないでください。 +このページでは、Okta における Datadog アプリケーションの設定方法について説明します。 -{{% site-region region="us" %}} +続行する前に、最新バージョンの Datadog アプリケーションを使用していることを確認してください。 +1. Okta で **Applications** をクリックします。 +1. Datadog アプリケーションを開きます。 +1. **General** タブを選択します。 +1. **SSO Base URL** というフィールドを探します。 -**注**: US1 のお客様は、Okta の[既存のアプリインテグレーションの追加][7]手順でプリセット構成を使用して、Okta を SAML IdP として構成することができます。[Okta Integration Network (OIN)][2] であらかじめ構成された最新の Datadog アプリケーションを使用してください。 +{{< img src="account_management/saml/okta/sso_base_url.png" alt="Okta における Datadog アプリケーションの構成、SSO Base URL をハイライト" style="width:80%;" >}} -[7]: https://help.okta.com/en-us/content/topics/apps/apps-add-applications.htm -[2]: https://www.okta.com/integrations/ -{{% /site-region %}} +SSO Base URL フィールドが見つからない場合は、[従来の手順][1]を使用して Okta を構成してください。 + +## 対応機能 + +Datadog の Okta SAML インテグレーションは以下をサポートしています。 +- IdP 主導の SSO +- SP 主導の SSO +- JIT プロビジョニング + +上記の用語の定義については、Okta の[用語集][2]を参照してください。 + +## 設定 + +以下の手順に従って、Okta を Datadog の SAML アイデンティティプロバイダー (IdP) として設定します。設定プロセスでは、Okta アカウントと Datadog アカウントを交互に操作する必要があります。 + +### Okta で + +1. Okta の管理ダッシュボードにログインします。 +1. 左側のナビゲーションで **Applications** をクリックします。 +1. **Browse App Catalog** をクリックします。 +1. 検索バーで "Datadog" を検索します。 +1. SAML および SCIM 用の Datadog アプリを選択します。 +1. **Add Integration** をクリックします。General Settings ダイアログが表示されます。 +1. **SSO Base URL** フィールドにあなたの [Datadog Web サイト URL][3] を入力します。 +1. **Done** をクリックします。 + +**注:** 標準の Datadog Web サイト URL を使用していない場合、SSO Base URL フィールドはカスタムサブドメインを受け入れます。 + +次に、Datadog にアップロードするためのメタデータ詳細をダウンロードします。 +1. Okta の Datadog アプリケーションの設定ダイアログで、**Sign on** タブをクリックします。 +1. **Metadata URL** が表示されるまでスクロールします。 +1. **Copy** をクリックします。 +1. 新しいブラウザタブを開き、アドレスバーにメタデータ URL を貼り付けます。 +1. ブラウザを使用して、メタデータ URL の内容を XML ファイルとして保存します。 + +{{< img src="account_management/saml/okta/metadata_url.png" alt="Okta の Sign on 構成" style="width:80%;" >}} + +### Datadog で + +#### メタデータ詳細をアップロード + +1. 組織設定の [Login Methods][4] に移動します。 +1. SAML コンポーネントで、**Configure** または **Update** をクリックします (以前に SAML を構成したかどうかによります)。SAML 構成ページが表示されます。 +1. **Choose File** をクリックし、先ほど Okta からダウンロードしたメタデータファイルを選択します。 + +{{< img src="account_management/saml/okta/choose_file.png" alt="Datadog の SAML 構成、メタデータアップロードボタンをハイライト" style="width:100%;" >}} + +#### IdP 主導のログインを有効化 + +Datadog アプリケーションが正しく機能するためには、IdP 主導のログインを有効にする必要があります。 + +
IdP 主導のログインを有効化すると、ユーザーは Okta から Datadog にログインできます
+ +IdP によるログインを有効化するには、以下の手順を実行します。 +1. [SAML 構成ページ][5]に移動します。 +1. **Additional Features** の下で、**Identity Provider (IdP) Initiated Login** のチェックボックスをクリックします。コンポーネントに **Assertion Consumer Service URL** が表示されます。 +1. Assertion Consumer Service URL の `/saml/assertion` の後のコンテンツがあなたの会社 ID です。この会社 ID をメモしておいてください。Okta で構成を完了するために入力する必要があります。 +1. **Save Changes** をクリックします。 + +{{< img src="account_management/saml/okta/company_id.png" alt="Datadog における SAML 構成、Assertion Consumer Service URL の会社 ID 部分をハイライト" style="width:100%;" >}} + +次の構成手順のために Okta に戻ります。 -## 一般設定の詳細 +### Okta で -| Okta IDP 入力フィールド | 予測値 | -|-----------------------------|--------------------------------------------------------------------------------------------------------------------------------| -| シングルサインオン URL | Assertion Consumer Service URL (この URL は [Configure SAML ページ][3]の *Assertion Consumer Service URL* フィールドで確認できます) | -| Recipient URL | Assertion Consumer Service URL (または *Use this for Recipient URL and Destination URL* チェックボックスをオンにします) | -| Destination URL | Assertion Consumer Service URL (または *Use this for Recipient URL and Destination URL* チェックボックスをオンにします) | -| Audience URI (SP Entity ID) | サービスプロバイダーのエンティティ ID (この ID は [Configure SAML ページ][3]の *Service Provider Entity ID* フィールドで確認できます) | -| Name ID Format | EmailAddress | -| 応答 | Signed | -| Assertion Signature | Signed | -| Signature Algorithm | SHA256 | -| Assertion Encryption | アサーションは暗号化できますが、暗号化されていないアサーションも許可されます。 | -| SAML Single Logout | Disabled | -| authnContextClassRef | PasswordProtectedTransport | -| Honor Force Authentication | はい | -| SAML Issuer ID | `http://www.okta.com/${org.externalKey}` | +1. Okta 管理ダッシュボードに戻ります。 +1. **Sign on** タブを選択します。 +1. **Edit** をクリックします。 +1. **Advanced Sign-on Settings** セクションまでスクロールダウンします。 +1. あなたの会社 ID を **Company ID** フィールドに貼り付けます。会社 ID は `/id/xxxxx-xxxx-xxxx-xxxx-xxxxxxxxx` の形式になっているはずです。 +1. **Save** をクリックします。 -## 属性ステートメントの詳細 +## サービスプロバイダー (SP) 主導のログイン -| 名前 | 名前形式 (オプション) | 値 | -|------------|------------------------|---------------------------------------------------| -| NameFormat | URI リファレンス | `urn:oasis:names:tc:SAML:2.0:attrname-format:uri` | -| sn | URI リファレンス | `user.lastName` | -| givenName | URI リファレンス | `user.firstName` | +サービスプロバイダー主導のログイン (SP-initiated SSO) を使用して Datadog にログインするには、シングルサインオン (SSO) URL が必要です。SSO URL は、SAML 構成ページまたはメールで見つけることができます。 -## グループ属性ステートメント (オプション) +### SAML 構成ページ +Datadog の [SAML 構成ページ][5]で、SSO URL は **Single Sign-on URL** の見出しの横に表示されます。 -これは [AuthN Mapping][4] を使用している場合にのみ必要です。 +### Email +1. 組織の Datadog Web サイト URL に移動します。 +1. **Using Single Sign-On?** を選択します。 +1. メールアドレスを入力し、**Next** をクリックします。 +1. メールで送信されたメッセージを確認し、**Login URL** として記載されている SSO URL を探します。 -| 名前 | 名前形式 (オプション) | 値 | -|----------|------------------------|---------------------------------------------------------------------------------------------------------------------------| -| memberOf | 指定なし | 正規表現 `.*` に一致 (このメソッドはすべてのグループを取得します。お使いのユースケースに適合しない場合は IDP 管理者にお問い合わせください) | +いずれかの方法で SSO URL を見つけたら、ブックマークして後で参照できるようにしておいてください。 +## SAML ロールマッピング -Datadog アカウントの SAML 構成の詳細については、[SAML に関するドキュメントページ][5]を参照してください。 +以下の手順に従って、Okta 属性を Datadog エンティティにマッピングします。この手順はオプションです。 -Okta でアプリケーションの構成が完了する前に `IDP.XML` ファイルを Datadog にアップロードする必要がある場合は、[SAML テンプレートアプリ用の idp.xml メタデータファイルの取得に関する記事][6]で、フィールドプレースホルダーの説明を参照してください。 +1. Okta 管理ダッシュボードに移動します。 +1. **Sign on** タブを選択します。 +1. **Edit** をクリックします。 +1. **Attributes** に[グループ属性ステートメント][6]を入力します。 +1. Datadog で希望する[マッピング][7]を設定します。 ## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} -[1]: https://help.okta.com/en-us/Content/Topics/Apps/Apps_App_Integration_Wizard_SAML.htm?cshid=ext_Apps_App_Integration_Wizard-saml -[3]: https://app.datadoghq.com/saml/saml_setup -[4]: /ja/account_management/saml/mapping -[5]: /ja/account_management/saml/ -[6]: https://support.okta.com/help/s/article/How-do-we-download-the-IDP-XML-metadata-file-from-a-SAML-Template-App \ No newline at end of file +[1]: /ja/account_management/faq/okta/ +[2]: https://help.okta.com/en/prod/Content/Topics/Reference/glossary.htm +[3]: /ja/getting_started/site/#access-the-datadog-site +[4]: https://app.datadoghq.com/organization-settings/login-methods +[5]: https://app.datadoghq.com/organization-settings/login-methods/saml +[6]: /ja/account_management/faq/okta/#group-attribute-statements-optional +[7]: /ja/account_management/saml/mapping/ \ No newline at end of file diff --git a/content/ja/agent/basic_agent_usage/chef.md b/content/ja/agent/basic_agent_usage/chef.md index f92937f882c91..72564a93bb6a8 100644 --- a/content/ja/agent/basic_agent_usage/chef.md +++ b/content/ja/agent/basic_agent_usage/chef.md @@ -5,7 +5,7 @@ title: Chef --- Datadog Chef レシピは Datadog のコンポーネントとコンフィギュレーションを自動的にデプロイするために使用します。クックブックは次のバージョンに対応しています。 -* Datadog Agent v7.x (default) +* Datadog Agent v7.x (デフォルト) * Datadog Agent v6.x * Datadog Agent v5.x @@ -195,12 +195,12 @@ run_list %w( | package_action の変更 | `'agent_package_action'` または `'agent6_package_action'` | 全バージョンで `'agent_package_action'` | | APT repo URL の変更 | `'aptrepo'` または `'agent6_aptrepo'` | 全バージョンで `'aptrepo'` | | APT リポジトリディストリビューションの変更 | `'aptrepo_dist'` または `'agent6_aptrepo_dist'` | 全バージョンで `'aptrepo_dist'` | -| Change YUM repo | `'yumrepo'` または `'agent6_yumrepo'` | 全バージョンで `'yumrepo'` | +| YUM repo の変更 | `'yumrepo'` または `'agent6_yumrepo'` | 全バージョンで `'yumrepo'` | | SUSE repo の変更 | `'yumrepo_suse'` または `'agent6_yumrepo_suse'` | 全バージョンで `'yumrepo_suse'` | Agent v6 から v7 へアップグレードするには、下記のメソッドのいずれか 1 つを使用します。 -* Set `agent_major_version` to `7`, `agent_package_action` to `install`, and pin a specific v7 version as `agent_version` (recommended). +* `agent_major_version` を `7` に設定し、`agent_package_action` を `install` に設定したのち、特定の v7 バージョンを `agent_version` として固定します (推奨)。 * `agent_major_version` を `7` に設定し、`agent_package_action` を `upgrade` に設定します。 下記の例では Agent v6 から v7 へアップグレードします。Agent v5 から v6 へアップグレードする場合も、同様に適用できます。 @@ -263,7 +263,7 @@ Agent をアンインストールするには、`dd-agent` レシピを削除し [dd-agent レシピ][9]が、対象システムに Datadog Agent をインストールし、[Datadog API キー][4]を設定して、ローカルのシステムメトリクスに関するレポートを送信するサービスを開始します。 -**Note**: Windows users upgrading the Agent from versions <= 5.10.1 to >= 5.12.0, set the `windows_agent_use_exe` attribute to `true`. For more details, see the [dd-agent wiki][10]. +**注**: Windows で Agent を 5.10.1 以前のバージョン から 5.12.0 以降のバージョンにアップグレードする場合は、`windows_agent_use_exe` 属性を `true` に設定します。詳細については、[dd-agent wiki][10] を参照してください。 ### ハンドラー @@ -318,12 +318,12 @@ Agent インテグレーションのコンフィギュレーションファイ ```ruby datadog_monitor 'name' do - init_config Hash # default value: {} - instances Array # default value: [] - logs Array # default value: [] - use_integration_template true, false # default value: false - config_name String # default value: 'conf' - action Symbol # defaults to :add + init_config Hash # デフォルト値: {} + instances Array # デフォルト値: [] + logs Array # デフォルト値: [] + use_integration_template true, false # デフォルト値: false + config_name String # デフォルト値: 'conf' + action Symbol # デフォルト値: :add end ``` @@ -336,7 +336,7 @@ end | `init_config` | インテグレーションコンフィギュレーションファイルの `init_config` セクションで値を入力するために使用されるフィールド。 | | `logs` | インテグレーションコンフィギュレーションファイルの `logs` セクションで値を入力するために使用されるフィールド。 | | `use_integration_template` | `instances`、`init_config`、`logs` の値を記述するデフォルトテンプレートを使用するには、それぞれのキーの YAML で `true` (推奨) に設定します。下位互換性ではデフォルトで `false` に設定されていますが、今後のクックブックの主要バージョンではデフォルトで `true` に設定される可能性があります。 | -| `config_name` | The filename used when creating an integrations configuration file. Overriding this property allows the creation of multiple configuration files for a single integration. This defaults to `conf`, which creates a configuration file named `conf.yaml`. | +| `config_name` | インテグレーションコンフィギュレーションファイルを作成する際に使用するファイル名。このプロパティをオーバーライドすると、1 つのインテグレーションに対して複数のコンフィギュレーションファイルを作成することができます。デフォルトでは `conf` となり、`conf.yaml` という名前のコンフィギュレーションファイルが作成されます。 | #### 例 diff --git a/content/ja/agent/basic_agent_usage/deb.md b/content/ja/agent/basic_agent_usage/deb.md index 42e62554aa689..c14f13aa4c747 100644 --- a/content/ja/agent/basic_agent_usage/deb.md +++ b/content/ja/agent/basic_agent_usage/deb.md @@ -63,7 +63,7 @@ Agent の構成ファイルおよびフォルダーの場所 * `/etc/datadog-agent/datadog.yaml` -Configuration files for [Integrations][5]: +[インテグレーション][5]用コンフィギュレーションファイルの場所 * `/etc/datadog-agent/conf.d/` diff --git a/content/ja/agent/basic_agent_usage/heroku.md b/content/ja/agent/basic_agent_usage/heroku.md index 3e88633bfa0b6..35972dd844a20 100644 --- a/content/ja/agent/basic_agent_usage/heroku.md +++ b/content/ja/agent/basic_agent_usage/heroku.md @@ -117,7 +117,7 @@ git push heroku main | `DISABLE_DATADOG_AGENT` | オプション。設定した場合、Datadog Agent は実行されません。 | | `DD_APM_ENABLED` | オプション。トレースの収集はデフォルトで有効になっています。これを `false` に設定すると、トレースの収集が無効になります。このオプションを変更した場合は、スラグを再コンパイルする必要があります。 | | `DD_PROCESS_AGENT` | オプション。Datadog Process Agent は、デフォルトでは無効になっています。Process Agent を有効にするには、これを `true` に設定します。このオプションを変更した場合は、スラグを再コンパイルする必要があります。 | -| `DD_SITE` | *Optional.* If you use the app.datadoghq.eu service, set this to `datadoghq.eu`. Defaults to `datadoghq.com`. | +| `DD_SITE` | オプション。app.datadoghq.eu サービスを使用する場合は、これを `datadoghq.eu` に設定します。デフォルトは `datadoghq.com` です。 | | `DD_AGENT_VERSION` | *オプション。*ビルドパックは、デフォルトで、パッケージリポジトリから入手できる最新バージョンの Datadog Agent をインストールします。この変数を使用すると、Datadog Agent の以前のバージョンをインストールできます。**注**: Agent のすべてのバージョンをインストールできるわけではありません。このオプションは `DD_AGENT_MAJOR_VERSION` よりも優先されます。このオプションを変更するには、スラグを再コンパイルする必要があります。詳細については、[アップグレードとスラグの再コンパイル](#upgrading-and-slug-recompilation)を参照してください。 | | `DD_AGENT_MAJOR_VERSION` | *オプション。*ビルドパックは、デフォルトで、パッケージリポジトリから入手できる最新の 6.x バージョンの Datadog Agent をインストールします。最新の 7.x バージョンの Datadog Agent をインストールするには、この変数を `6` に設定します。Agent バージョンと Python バージョンの関係の詳細については、[Python バージョンのセクション](#python-and-agent-versions)を確認してください。このオプションを変更するには、スラグを再コンパイルする必要があります。詳細については、[アップグレードとスラグの再コンパイル](#upgrading-and-slug-recompilation)を参照してください。 | | `DD_DISABLE_HOST_METRICS` | *オプション。* ビルドパックは、デフォルトで、dyno を実行しているホストマシンのシステムメトリクスを報告します。システムメトリクスの収集を無効にするには、これを `true` に設定します。詳細は、以下の[システムメトリクスのセクション](#system-metrics)を参照してください。 | @@ -242,6 +242,40 @@ instances: **注**: 使用可能なすべての構成オプションの詳細については、サンプル [mcache.d/conf.yaml][22] を参照してください。 +#### prerun.sh スクリプトを使用してインテグレーション構成を動的に変更する + +環境変数に構成の詳細 (データベース構成やシークレットなど) が保存されている場合、[prerun.sh スクリプト](#prerun-script)を使用して、Agent が開始する前にこれらを Datadog Agent 構成に動的に追加することができます。 + +例えば、Postgres インテグレーションを有効にするには、アプリケーションのルートにプレースホルダ付きのファイル `datadog/conf.d/postgres.d/conf.yaml` を追加します (または、この[構成オプション](#configuration)を変更している場合は `/$DD_HEROKU_CONF_FOLDER/conf.d/postgres.d/conf.yaml` を使用します)。 + +```yaml +init_config: + +instances: + - host: + port: + username: + password: + dbname: + ssl: True +``` + +その後、`prerun.sh` スクリプトを使用して、これらのプレースホルダを環境変数から取得した実際の値に置き換えます。 + +```bash +# Heroku アプリケーションの環境変数を使用して、Postgres の構成を上記の設定から更新します +if [ -n "$DATABASE_URL" ]; then + POSTGREGEX='^postgres://([^:]+):([^@]+)@([^:]+):([^/]+)/(.*)$' + if [[ $DATABASE_URL =~ $POSTGREGEX ]]; then + sed -i "s//${BASH_REMATCH[3]}/" "$DD_CONF_DIR/conf.d/postgres.d/conf.yaml" + sed -i "s//${BASH_REMATCH[1]}/" "$DD_CONF_DIR/conf.d/postgres.d/conf.yaml" + sed -i "s//${BASH_REMATCH[2]}/" "$DD_CONF_DIR/conf.d/postgres.d/conf.yaml" + sed -i "s//${BASH_REMATCH[4]}/" "$DD_CONF_DIR/conf.d/postgres.d/conf.yaml" + sed -i "s//${BASH_REMATCH[5]}/" "$DD_CONF_DIR/conf.d/postgres.d/conf.yaml" + fi +fi +``` + ### コミュニティのインテグレーション 有効にするインテグレーションが[コミュニティインテグレーション][23]の一部である場合は、[事前実行スクリプト](#prerun-script)の一部としてパッケージをインストールします。 diff --git a/content/ja/agent/basic_agent_usage/suse.md b/content/ja/agent/basic_agent_usage/suse.md index 609ebebcc1729..b5a07355491c6 100644 --- a/content/ja/agent/basic_agent_usage/suse.md +++ b/content/ja/agent/basic_agent_usage/suse.md @@ -74,7 +74,7 @@ Agent の構成ファイルおよびフォルダーの場所 * `/etc/datadog-agent/datadog.yaml` -Configuration files for [Integrations][5]: +[インテグレーション][5]用コンフィギュレーションファイルの場所 * `/etc/datadog-agent/conf.d/` diff --git a/content/ja/agent/basic_agent_usage/ubuntu.md b/content/ja/agent/basic_agent_usage/ubuntu.md index 80d47a4ac3cf1..f3ea65c5021d7 100644 --- a/content/ja/agent/basic_agent_usage/ubuntu.md +++ b/content/ja/agent/basic_agent_usage/ubuntu.md @@ -59,7 +59,7 @@ Agent の構成ファイルおよびフォルダーの場所 * `/etc/datadog-agent/datadog.yaml` -Configuration files for [Integrations][5]: +[インテグレーション][5]用コンフィギュレーションファイルの場所 * `/etc/datadog-agent/conf.d/` diff --git a/content/ja/agent/fleet_automation/_index.md b/content/ja/agent/fleet_automation/_index.md new file mode 100644 index 0000000000000..9937a384b7788 --- /dev/null +++ b/content/ja/agent/fleet_automation/_index.md @@ -0,0 +1,81 @@ +--- +disable_toc: false +further_reading: +- link: /agent/remote_config + tag: ドキュメント + text: リモート構成の詳細はこちら +- link: /infrastructure/list/#agent-configuration + tag: ドキュメント + text: Agent 構成ビューについて +- link: https://www.datadoghq.com/blog/fleet-automation/ + tag: ブログ + text: Fleet Automation を用いて、Datadog Agent を集中的に統制し、リモートで大規模に管理する +title: Fleet Automation +--- + +{{< site-region region="gov" >}} +
選択した Datadog サイト ({{< region-param key="dd_site_name" >}}) では、 Fleet Automation はサポートされていません。
+{{< /site-region >}} + +## 概要 + +Datadog Fleet Automation を使用すると、変化する可観測性のニーズに対応するため、Datadog Agent を大規模に一元管理し、リモートで管理することができます。 + +{{< img src="agent/fleet_automation/fleet-automation.png" alt="Fleet Automation ページ" style="width:100%;" >}} + +Fleet Automation プラットフォームを使用すると、以下のことが可能です。 +- Agent や Agent インテグレーションの構成を確認し、デプロイ変更をチェックして構成の一貫性を確保できます。 +- 組織内からフレアを送信し、 Agent 上の問題のデバッグ時間を短縮できます。 +- 古い Agent バージョンを特定することで、 Agent 群が最新の機能強化を利用していることを確認できます。 +- API キーのローテーションを支援し、特定のキーを使用している Agent やその数を把握することで、古いキーを影響なく無効にできます。 + +[**Fleet Automation**][1] ページを使用して、監視されていないホストやアップデートが必要な Agent 、またはインテグレーションの問題がある Agent を確認できます。各 Agent に対して以下の情報を確認可能です。 +- Agent のバージョン +- 未構成または誤構成のインテグレーションがあるかどうか +- Agent が監視しているサービス +- Agent の Remote Configuration ステータス +- Agent で有効になっている製品 + +Agent を選択すると、その構成、接続されているインテグレーション、リモートフレアを送信できるサポートタブなど、詳細な情報が表示されます。 + +{{< img src="agent/fleet_automation/fleet-automation-agent.png" alt="Agent のインテグレーション情報" style="width:100%;" >}} + +## Fleet Automation の構成 + +Fleet Automation は、 Datadog のいくつかの機能を含んでおり、 Agent バージョン 7.49/6.49 以降ではすべて自動で有効になります。すべての機能にアクセスするには、 Agent をバージョン 7.49/6.49 以降にアップグレードしてください。 + +古い Agent を使用している場合でも、以下の Datadog 機能を個別に有効にできることがあります。 +- **Remote Configuration**: 対応する Agent バージョンと構成手順の詳細は、[Remote Configuration を有効にする][3]を参照してください。 +- **Agent 構成**: Agent 構成タブを有効にするには、 Agent バージョン 7.39/6.39 以降が必要です。 Agent バージョン 7.47.0/6.47.0 以降ではデフォルトで有効になっています。手動で Agent 構成を有効にするには、 [Agent コンフィギュレーションファイル][2]内の `inventories_configuration_enabled` を `true` に設定するか、環境変数 `DD_INVENTORIES_CONFIGURATION_ENABLED` を使用してください。 +- **Agent インテグレーション構成**: Agent バージョン 7.49/6.49 以降ではデフォルトで有効になっています。手動で Agent インテグレーション構成を有効にするには、[Agent コンフィギュレーションファイル][2]内の `inventories_checks_configuration_enabled` を `true` に設定するか、環境変数 `DD_INVENTORIES_CHECKS_CONFIGURATION_ENABLED` を使用してください。 + +Datadog では、常に最新の機能にアクセスできるよう、定期的な Agent のアップグレードを推奨しています。 + +## リモートフレアを送信 + +フレアを送信する前に、選択した Agent で Remote Configuration が[有効](#configuring-fleet-automation)になっていることを確認してください。 + +{{% remote-flare %}} + +{{< img src="agent/fleet_automation/fleet-automation-flares2.png" alt="Send Ticket ボタンは、既存または新規のサポートチケットに対してフレアを送信するためのフォームを起動します" style="width:100%;" >}} + +## Fleet Automation へのアクセスを制御 + +Fleet Automation は Datadog 組織内の全ユーザーが利用可能です。特定の機能へのアクセス制御を行うことができます。 + +| アクセス許可 | 説明 | +|--------------|---------------| +| `API keys read`| API キーによって、 Agent の表示や検索ができるユーザーを制限します。 | +| `Agent flare collection` | リモートでフレアを送信できるユーザーを制限します。 | + +ロールと権限のセットアップ方法については、 [アクセス制御][5]を参照してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/fleet +[2]: /ja/agent/configuration/agent-configuration-files/ +[3]: /ja/agent/remote_config#enabling-remote-configuration +[4]: /ja/infrastructure/list/#agent-configuration +[5]: https://docs.datadoghq.com/ja/account_management/rbac/ \ No newline at end of file diff --git a/content/ja/agent/troubleshooting/debug_mode.md b/content/ja/agent/troubleshooting/debug_mode.md index 37341c3c80446..a91f9a313811e 100644 --- a/content/ja/agent/troubleshooting/debug_mode.md +++ b/content/ja/agent/troubleshooting/debug_mode.md @@ -40,6 +40,8 @@ agent config set log_level debug エージェントコンテナでのようにランタイムにトレースエージェントコンテナのログレベルを変更することは **できません**。`DD_LOG_LEVEL` 変数を `debug` に設定した後に、専用のトレースエージェントコンテナへの再デプロイメントが依然として必要です。 +[**Helm**][4] を使用している場合は、`datadog-values.yaml` ファイル内の `logLevel: INFO` を `logLevel: DEBUG` に置き換えてから、再デプロイしてください。 + ## Agent のログレベル `log_level` または `DD_LOG_LEVEL` には、以下の Agent ログレベルを使用可能です。 @@ -62,4 +64,5 @@ agent config set log_level debug [1]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file [2]: /ja/agent/configuration/agent-commands/#restart-the-agent -[3]: /ja/agent/configuration/agent-log-files/ \ No newline at end of file +[3]: /ja/agent/configuration/agent-log-files/ +[4]: https://github.com/DataDog/helm-charts/blob/637472f105f42e8b444981ea2a38e955161c8e3a/charts/datadog/values.yaml#L125 \ No newline at end of file diff --git a/content/ja/dashboards/functions/exclusion.md b/content/ja/dashboards/functions/exclusion.md index 8e4925f503587..16c0dbd7d53c5 100644 --- a/content/ja/dashboards/functions/exclusion.md +++ b/content/ja/dashboards/functions/exclusion.md @@ -23,6 +23,10 @@ title: 除外 しきい値を追加します。`clamp_min()` は、すべてのしきい値以下のデータポイントをそのしきい値と等しく設定し、`clamp_max()` はしきい値以上のデータポイントをそのしきい値と等しく設定します。 +注: `clamp_min(values, threshold)` および `clamp_max(values, threshold)` は、値内の `NaN` をすべて `threshold` に設定します。 + +この動作を回避するには、`clamp_min()` / `clamp_max()` 関数の前に `default_zero()` を適用してください。 + ## カットオフ | 関数 | 説明 | 例 | diff --git a/content/ja/database_monitoring/setup_mysql/aurora.md b/content/ja/database_monitoring/setup_mysql/aurora.md index f3d9fed341c25..97fe06c858654 100644 --- a/content/ja/database_monitoring/setup_mysql/aurora.md +++ b/content/ja/database_monitoring/setup_mysql/aurora.md @@ -40,7 +40,7 @@ Agent は、読み取り専用のユーザーとしてログインすること [DB クラスターパラメーターグループ][3]で以下を構成してから、設定を有効にするために**サーバーを再起動**します。 {{< tabs >}} -{{% tab "MySQL 5.6" %}} +{{% tab "MySQL ≥ 5.7" %}} | パラメーター | 値 | 説明 | | --- | --- | --- | | `performance_schema` | `1` | 必須。[パフォーマンススキーマ][1]を有効にします。 | @@ -48,11 +48,12 @@ Agent は、読み取り専用のユーザーとしてログインすること | performance-schema-consumer-events-waits-current | `ON` | 必須。待機イベントの収集を有効にします。 | | performance_schema_consumer_events_statements_history | `1` | オプション。スレッドごとの最近のクエリ履歴の追跡を有効にします。有効にすると、実行頻度の低いクエリの実行詳細をキャプチャできる可能性が高くなります。 | | performance_schema_consumer_events_statements_history_long | `1` | オプション。全てのスレッドでより多くの最近のクエリの追跡を有効にします。有効にすると、実行頻度の低いクエリの実行詳細をキャプチャできる可能性が高くなります。 | +| performance_schema_max_digest_length | `4096` | `events_statements_*` テーブルの SQL ダイジェストテキストのサイズを増やします。デフォルト値のままだと `1024` 文字より長いクエリは収集されません。 | +| performance_schema_max_sql_text_length | `4096` | performance_schema_max_digest_length と一致する必要があります。 | [1]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html {{% /tab %}} - -{{% tab "MySQL ≥ 5.7" %}} +{{% tab "MySQL 5.6" %}} | パラメーター | 値 | 説明 | | --- | --- | --- | | `performance_schema` | `1` | 必須。[パフォーマンススキーマ][1]を有効にします。 | @@ -60,8 +61,6 @@ Agent は、読み取り専用のユーザーとしてログインすること | performance-schema-consumer-events-waits-current | `ON` | 必須。待機イベントの収集を有効にします。 | | performance_schema_consumer_events_statements_history | `1` | オプション。スレッドごとの最近のクエリ履歴の追跡を有効にします。有効にすると、実行頻度の低いクエリの実行詳細をキャプチャできる可能性が高くなります。 | | performance_schema_consumer_events_statements_history_long | `1` | オプション。全てのスレッドでより多くの最近のクエリの追跡を有効にします。有効にすると、実行頻度の低いクエリの実行詳細をキャプチャできる可能性が高くなります。 | -| performance_schema_max_digest_length | `4096` | `events_statements_*` テーブルの SQL ダイジェストテキストのサイズを増やします。デフォルト値のままだと `1024` 文字より長いクエリは収集されません。 | -| performance_schema_max_sql_text_length | `4096` | performance_schema_max_digest_length と一致する必要があります。 | [1]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html {{% /tab %}} @@ -76,26 +75,26 @@ Datadog Agent が統計やクエリを収集するためには、データベー 次の手順では、`datadog@'%'` を使用して任意のホストからログインするアクセス許可を Agent に付与します。`datadog@'localhost'` を使用して、`datadog` ユーザーが localhost からのみログインできるように制限できます。詳細については、[MySQL ドキュメント][4]を参照してください。 {{< tabs >}} -{{% tab "MySQL 5.6" %}} +{{% tab "MySQL ≥ 5.7" %}} `datadog` ユーザーを作成し、基本的なアクセス許可を付与します。 ```sql -CREATE USER datadog@'%' IDENTIFIED BY ''; -GRANT REPLICATION CLIENT ON *.* TO datadog@'%' WITH MAX_USER_CONNECTIONS 5; +CREATE USER datadog@'%' IDENTIFIED by ''; +ALTER USER datadog@'%' WITH MAX_USER_CONNECTIONS 5; +GRANT REPLICATION CLIENT ON *.* TO datadog@'%'; GRANT PROCESS ON *.* TO datadog@'%'; GRANT SELECT ON performance_schema.* TO datadog@'%'; ``` {{% /tab %}} -{{% tab "MySQL ≥ 5.7" %}} +{{% tab "MySQL 5.6" %}} `datadog` ユーザーを作成し、基本的なアクセス許可を付与します。 ```sql -CREATE USER datadog@'%' IDENTIFIED by ''; -ALTER USER datadog@'%' WITH MAX_USER_CONNECTIONS 5; -GRANT REPLICATION CLIENT ON *.* TO datadog@'%'; +CREATE USER datadog@'%' IDENTIFIED BY ''; +GRANT REPLICATION CLIENT ON *.* TO datadog@'%' WITH MAX_USER_CONNECTIONS 5; GRANT PROCESS ON *.* TO datadog@'%'; GRANT SELECT ON performance_schema.* TO datadog@'%'; ``` @@ -157,7 +156,7 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE datadog.enable_events_statements_consumers TO datadog@'%'; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ## Agent のインストールと構成 @@ -187,9 +186,9 @@ instances: host: '' port: 3306 username: datadog - password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier, stored as a secret + password: 'ENC[datadog_user_database_password]' # CREATE USER ステップで設定し、シークレットとして保存されたもの - # After adding your project and instance, configure the Datadog AWS integration to pull additional cloud data such as CPU and Memory. + # プロジェクトとインスタンスを追加した後、CPU やメモリなどの追加のクラウドデータを取得するために Datadog AWS インテグレーションを構成します。 aws: instance_endpoint: '' ``` @@ -257,9 +256,9 @@ Kubernetes クラスターでまだチェックが有効になっていない場 ### Helm -以下の手順を踏んで、Kubernetes クラスターに [Datadog Cluster Agent][1] をインストールします。お使いのアカウントや環境に合わせて値を変更してください。 +以下の手順に従って、Kubernetes クラスターに [Datadog Cluster Agent][1] をインストールしてください。お使いのアカウントや環境に合わせて値を変更してください。 -1. Helm の [Datadog Agent インストール手順][3]を踏みます。 +1. Helm の [Datadog Agent インストール手順][3]に従います。 2. YAML コンフィギュレーションファイル (Cluster Agent インストール手順の `datadog-values.yaml`) を更新して、以下を含めます。 ```yaml clusterAgent: @@ -296,7 +295,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/mysql.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず含めてください init_config: instances: - dbm: true @@ -354,7 +353,7 @@ Cluster Agent は自動的にこのコンフィギュレーションを登録し ### UpdateAzureIntegration -[Agent の status サブコマンドを実行][6]し、Checks セクションで `mysql` を探します。または、[データベース][7]のページを参照してください。 +[Agent の status サブコマンドを実行][6]し、Checks セクションで `mysql` を探すか、[データベース][7]のページを参照してください。 ## Agent の構成例 {{% dbm-mysql-agent-config-examples %}} @@ -373,7 +372,7 @@ DBM でデータベースのテレメトリーとともに CPU などの AWS か [1]: /ja/database_monitoring/agent_integration_overhead/?tab=mysql -[2]: /ja/database_monitoring/data_collected/#sensitive-information +[2]: /ja/containers/cluster_agent/clusterchecks/?tab=datadogoperator [3]: https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/USER_WorkingWithParamGroups.html [4]: https://dev.mysql.com/doc/refman/5.7/en/creating-accounts.html [5]: https://app.datadoghq.com/account/settings/agent/latest diff --git a/content/ja/database_monitoring/setup_mysql/azure.md b/content/ja/database_monitoring/setup_mysql/azure.md index ccb2d54cf1533..f382d36be7570 100644 --- a/content/ja/database_monitoring/setup_mysql/azure.md +++ b/content/ja/database_monitoring/setup_mysql/azure.md @@ -100,7 +100,7 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE .explain_statement TO datadog@'%'; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ## Agent のインストールと構成 @@ -124,9 +124,9 @@ instances: host: '' port: 3306 username: datadog - password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier, stored as a secret + password: 'ENC[datadog_user_database_password]' # CREATE USER ステップで設定し、シークレットとして保存されたもの - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU and Memory. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' @@ -244,7 +244,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/mysql.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず入れてください init_config: instances: - dbm: true @@ -252,7 +252,7 @@ instances: port: 3306 username: datadog password: 'ENC[datadog_user_database_password]' - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU、メモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' diff --git a/content/ja/database_monitoring/setup_mysql/gcsql.md b/content/ja/database_monitoring/setup_mysql/gcsql.md index be854b76e82a1..8398f2362f5cf 100644 --- a/content/ja/database_monitoring/setup_mysql/gcsql.md +++ b/content/ja/database_monitoring/setup_mysql/gcsql.md @@ -40,25 +40,24 @@ Agent は、読み取り専用のユーザーとしてログインすること 次の[データベースフラグ][3]を構成してから、設定を有効にするために**サーバーを再起動**します。 {{< tabs >}} -{{% tab "MySQL 5.6" %}} +{{% tab "MySQL ≥ 5.7" %}} | パラメーター | 値 | 説明 | | --- | --- | --- | | `performance_schema` | `on` | 必須。[パフォーマンススキーマ][9]を有効にします。 | | `max_digest_length` | `4096` | より大きなクエリの収集に必要です。`events_statements_*` テーブルの SQL ダイジェストテキストのサイズを増やします。デフォルト値のままにすると、`1024` 文字より長いクエリは収集されません。 | | `performance_schema_max_digest_length` | `4096` | `max_digest_length` と一致する必要があります。 | +| `performance_schema_max_sql_text_length` | `4096` | `max_digest_length` と一致する必要があります。 | -[1]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html +[9]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html {{% /tab %}} - -{{% tab "MySQL ≥ 5.7" %}} +{{% tab "MySQL 5.6" %}} | パラメーター | 値 | 説明 | | --- | --- | --- | | `performance_schema` | `on` | 必須。[パフォーマンススキーマ][9]を有効にします。 | | `max_digest_length` | `4096` | より大きなクエリの収集に必要です。`events_statements_*` テーブルの SQL ダイジェストテキストのサイズを増やします。デフォルト値のままにすると、`1024` 文字より長いクエリは収集されません。 | | `performance_schema_max_digest_length` | `4096` | `max_digest_length` と一致する必要があります。 | -| `performance_schema_max_sql_text_length` | `4096` | `max_digest_length` と一致する必要があります。 | -[1]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html +[9]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html {{% /tab %}} {{< /tabs >}} @@ -66,29 +65,29 @@ Agent は、読み取り専用のユーザーとしてログインすること Datadog Agent が統計やクエリを収集するためには、データベースへの読み取り専用のアクセスが必要となります。 -次の手順では、`datadog@'%'` を使用して任意のホストからログインするアクセス許可を Agent に付与します。`datadog@'localhost'` を使用して、`datadog` ユーザーが localhost からのみログインできるように制限できます。詳細については、[MySQL ドキュメント][4]を参照してください。 +次の手順では、`datadog@'%'` を使用して任意のホストからログインするアクセス許可を Agent に付与します。`datadog@'localhost'` を使用して、`datadog` ユーザーが localhost からのみログインできるように制限できます。詳細については、[MySQL ドキュメント][11]を参照してください。 {{< tabs >}} -{{% tab "MySQL 5.6" %}} +{{% tab "MySQL ≥ 5.7" %}} `datadog` ユーザーを作成し、基本的なアクセス許可を付与します。 ```sql -CREATE USER datadog@'%' IDENTIFIED BY ''; -GRANT REPLICATION CLIENT ON *.* TO datadog@'%' WITH MAX_USER_CONNECTIONS 5; +CREATE USER datadog@'%' IDENTIFIED by ''; +ALTER USER datadog@'%' WITH MAX_USER_CONNECTIONS 5; +GRANT REPLICATION CLIENT ON *.* TO datadog@'%'; GRANT PROCESS ON *.* TO datadog@'%'; GRANT SELECT ON performance_schema.* TO datadog@'%'; ``` {{% /tab %}} -{{% tab "MySQL ≥ 5.7" %}} +{{% tab "MySQL 5.6" %}} `datadog` ユーザーを作成し、基本的なアクセス許可を付与します。 ```sql -CREATE USER datadog@'%' IDENTIFIED by ''; -ALTER USER datadog@'%' WITH MAX_USER_CONNECTIONS 5; -GRANT REPLICATION CLIENT ON *.* TO datadog@'%'; +CREATE USER datadog@'%' IDENTIFIED BY ''; +GRANT REPLICATION CLIENT ON *.* TO datadog@'%' WITH MAX_USER_CONNECTIONS 5; GRANT PROCESS ON *.* TO datadog@'%'; GRANT SELECT ON performance_schema.* TO datadog@'%'; ``` @@ -150,7 +149,7 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE datadog.enable_events_statements_consumers TO datadog@'%'; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### 検証する @@ -191,15 +190,15 @@ instances: host: '' port: 3306 username: datadog - password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier, stored as a secret + password: 'ENC[datadog_user_database_password]' # CREATE USER ステップで設定し、シークレットとして保存されたもの - # After adding your project and instance, configure the Datadog Google Cloud (GCP) integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、CPU やメモリなどの追加のクラウドデータを取得するために Datadog Google Cloud (GCP) インテグレーションを構成します。 gcp: project_id: '' instance_id: '' ``` -`project_id` と `instance_id` フィールドの設定に関する追加情報は、[MySQL インテグレーション仕様][3]を参照してください。 +`project_id` と `instance_id` フィールドの設定に関する追加情報は、[`mysql.conf.yaml` ファイルの GCP セクション][4]を参照してください。 [Agent を再起動][3]すると、Datadog への MySQL メトリクスの送信が開始されます。 @@ -207,6 +206,8 @@ instances: [1]: /ja/agent/configuration/agent-configuration-files/#agent-configuration-directory [2]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example [3]: /ja/agent/configuration/agent-commands/#start-stop-and-restart-the-agent +[4]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example + {{% /tab %}} {{% tab "Docker" %}} @@ -252,10 +253,12 @@ LABEL "com.datadoghq.ad.init_configs"='[{}]' LABEL "com.datadoghq.ad.instances"='[{"dbm": true, "host": "", "port": 5432,"username": "datadog","password": "ENC[datadog_user_database_password]", "gcp": {"project_id": "", "instance_id": ""}}]' ``` -`project_id` と `instance_id` フィールドの設定に関する追加情報は、[MySQL インテグレーション仕様][2]を参照してください。 +`project_id` と `instance_id` フィールドの設定に関する追加情報は、[`mysql.conf.yaml` ファイルの GCP セクション][2]を参照してください。 [1]: /ja/agent/docker/integrations/?tab=docker +[2]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example + {{% /tab %}} {{% tab "Kubernetes" %}} @@ -265,9 +268,9 @@ Kubernetes クラスターでまだチェックが有効になっていない場 ### Helm -以下の手順を踏んで、Kubernetes クラスターに [Datadog Cluster Agent][1] をインストールします。お使いのアカウントや環境に合わせて値を変更してください。 +以下の手順に従って、Kubernetes クラスターに [Datadog Cluster Agent][1] をインストールしてください。お使いのアカウントや環境に合わせて値を変更してください。 -1. Helm の [Datadog Agent インストール手順][3]を踏みます。 +1. Helm の [Datadog Agent インストール手順][3]に従います。 2. YAML コンフィギュレーションファイル (Cluster Agent インストール手順の `datadog-values.yaml`) を更新して、以下を含めます。 ```yaml clusterAgent: @@ -307,7 +310,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/mysql.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず入れてください init_config: instances: - dbm: true @@ -315,7 +318,7 @@ instances: port: 3306 username: datadog password: 'ENC[datadog_user_database_password]' - # After adding your project and instance, configure the Datadog Google Cloud (GCP) integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Google Cloud (GCP) インテグレーションを構成して、CPU、メモリなどの追加のクラウドデータを取得します。 gcp: project_id: '' instance_id: '' @@ -358,20 +361,22 @@ spec: name: mysql ``` -`project_id` と `instance_id` フィールドの設定に関する追加情報は、[MySQL インテグレーション仕様][4]を参照してください。 +`project_id` と `instance_id` フィールドの設定に関する追加情報は、[`mysql.conf.yaml` ファイルの GCP セクション][4]を参照してください。 Cluster Agent は自動的にこのコンフィギュレーションを登録し、MySQL チェックを開始します。 [1]: /ja/agent/cluster_agent [2]: /ja/agent/cluster_agent/clusterchecks/ [3]: https://helm.sh +[4]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example + {{% /tab %}} {{< /tabs >}} ### UpdateAzureIntegration -[Agent の status サブコマンドを実行][5]し、Checks セクションで `mysql` を探します。または、[データベース][6]のページを参照してください。 +[Agent の status サブコマンドを実行][5]し、Checks セクションで `mysql` を探すか、[データベース][6]のページを参照してください。 ## Agent の構成例 {{% dbm-mysql-agent-config-examples %}} @@ -398,4 +403,6 @@ Google Cloud からより包括的なデータベースメトリクスを収集 [6]: https://app.datadoghq.com/databases [7]: /ja/integrations/google_cloudsql [8]: /ja/database_monitoring/troubleshooting/?tab=mysql -[9]: https://cloud.google.com/sql/docs/mysql/flags#tips-performance-schema \ No newline at end of file +[9]: https://cloud.google.com/sql/docs/mysql/flags#tips-performance-schema +[10]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example +[11]: https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html \ No newline at end of file diff --git a/content/ja/database_monitoring/setup_postgres/aurora.md b/content/ja/database_monitoring/setup_postgres/aurora.md index 0d25d7ddf6541..cf1b1f26f5e3e 100644 --- a/content/ja/database_monitoring/setup_postgres/aurora.md +++ b/content/ja/database_monitoring/setup_postgres/aurora.md @@ -137,7 +137,7 @@ RETURNS NULL ON NULL INPUT SECURITY DEFINER; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### 検証する @@ -353,18 +353,20 @@ metadata: tags.datadoghq.com/env: '' tags.datadoghq.com/service: '' annotations: - ad.datadoghq.com/service.check_names: '["postgres"]' - ad.datadoghq.com/service.init_configs: '[{}]' - ad.datadoghq.com/service.instances: | - [ - { - "dbm": true, - "host": "", - "port": 5432, - "username": "datadog", - "password": "ENC[datadog_user_database_password]" + ad.datadoghq.com/service.checks: | + { + "postgres": { + "instances": [ + { + "dbm": true, + "host": "", + "port": 5432, + "username": "datadog", + "password": "ENC[datadog_user_database_password]" + } + ] } - ] + } spec: ports: - port: 5432 @@ -383,9 +385,8 @@ metadata: annotations: ad.datadoghq.com/service.checks: | { - "postgres": - { "instances": - [ + "postgres": { + "instances": [ { "dbm":true, "host":"your-host-1.us-east-2.rds.amazonaws.com", diff --git a/content/ja/database_monitoring/setup_postgres/azure.md b/content/ja/database_monitoring/setup_postgres/azure.md index 719d9d4aa5c91..fff02eddf8b4a 100644 --- a/content/ja/database_monitoring/setup_postgres/azure.md +++ b/content/ja/database_monitoring/setup_postgres/azure.md @@ -19,7 +19,7 @@ Agent は、読み取り専用のユーザーとしてログインすること ## はじめに サポート対象の PostgreSQL バージョン -: 9.6、10、11、12、13、14、15 +: 9.6、10、11、12、13、14、15、16 サポートされる Azure PostgreSQL のデプロイメントタイプ : Azure VM 上の PostgreSQL、シングルサーバー、フレキシブルサーバー @@ -185,7 +185,7 @@ RETURNS NULL ON NULL INPUT SECURITY DEFINER; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### 検証する @@ -391,7 +391,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/postgres.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず入れてください init_config: instances: - dbm: true @@ -400,12 +400,12 @@ instances: username: 'datadog@' password: 'ENC[datadog_user_database_password]' ssl: "require" - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU、メモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' - ## Required: For Postgres 9.6, uncomment these lines to use the functions created in the setup + ## 必須。Postgres 9.6 の場合、セットアップで作成した関数を使用するため、以下の行をコメント解除します # pg_stat_statements_view: datadog.pg_stat_statements() # pg_stat_activity_view: datadog.pg_stat_activity() ``` diff --git a/content/ja/database_monitoring/setup_postgres/gcsql.md b/content/ja/database_monitoring/setup_postgres/gcsql.md index e40fbad0ddf65..d18c9ec4cc89c 100644 --- a/content/ja/database_monitoring/setup_postgres/gcsql.md +++ b/content/ja/database_monitoring/setup_postgres/gcsql.md @@ -102,7 +102,7 @@ RETURNS NULL ON NULL INPUT SECURITY DEFINER; ``` -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### 検証する @@ -267,7 +267,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/postgres.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず入れてください init_config: instances: - dbm: true @@ -275,7 +275,7 @@ instances: port: 5432 username: datadog password: 'ENC[datadog_user_database_password]' - # After adding your project and instance, configure the Datadog GCP integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog GCP インテグレーションを構成して、CPU、メモリなどの追加のクラウドデータを取得します。 gcp: project_id: '' instance_id: '' diff --git a/content/ja/database_monitoring/setup_sql_server/azure.md b/content/ja/database_monitoring/setup_sql_server/azure.md index 65722f88d11cf..d5c3e3bc91407 100644 --- a/content/ja/database_monitoring/setup_sql_server/azure.md +++ b/content/ja/database_monitoring/setup_sql_server/azure.md @@ -39,10 +39,12 @@ CREATE LOGIN datadog WITH PASSWORD = ''; CREATE USER datadog FOR LOGIN datadog; ALTER SERVER ROLE ##MS_ServerStateReader## ADD MEMBER datadog; ALTER SERVER ROLE ##MS_DefinitionReader## ADD MEMBER datadog; --- Log Shipping Monitoring (Agent v7.50 以降で利用可能) を使用するには、次の 3 行のコメントを外します。 --- USE msdb; --- CREATE USER datadog FOR LOGIN datadog; --- GRANT SELECT to datadog; +-- Log Shipping Monitoring (Agent v7.50+ で利用可能) または +-- SQL Server Agent Monitoring (Agent v7.57+ で利用可能) のいずれも使用しない場合は、 +-- 次の 3 行をコメントアウトしてください。 +USE msdb; +CREATE USER datadog FOR LOGIN datadog; +GRANT SELECT to datadog; ``` このサーバー上の追加の Azure SQL Database それぞれへのアクセスを Agent に付与します。 @@ -98,15 +100,16 @@ CREATE USER datadog FOR LOGIN datadog; GRANT CONNECT ANY DATABASE to datadog; GRANT VIEW SERVER STATE to datadog; GRANT VIEW ANY DEFINITION to datadog; --- Log Shipping Monitoring (Agent v7.50 以降で利用可能) を使用するには、次の 3 行のコメントを外します。 --- USE msdb; --- CREATE USER datadog FOR LOGIN datadog; --- GRANT SELECT to datadog; +-- If not using either of Log Shipping Monitoring (available in Agent v7.50+) or +-- SQL Server Agent Monitoring (available in Agent v7.57+), comment out the next three lines: +USE msdb; +CREATE USER datadog FOR LOGIN datadog; +GRANT SELECT to datadog; ``` **注:** Azure マネージドアイデンティティ認証もサポートされています。Azure SQL DB インスタンスの構成方法については、[ガイド][1]を参照してください。 -[3]: /ja/database_monitoring/guide/managed_authentication +[1]: /ja/database_monitoring/guide/managed_authentication {{% /tab %}} {{% tab "Windows Azure VM の SQL Server" %}} @@ -119,7 +122,7 @@ GRANT VIEW ANY DEFINITION to datadog; {{< /tabs >}} -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ## Agent のインストールと構成 @@ -142,10 +145,10 @@ instances: password: 'ENC[datadog_user_database_password]' connector: adodbapi adoprovider: MSOLEDBSQL - tags: # Optional + tags: # オプション - 'service:' - 'env:' - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' @@ -178,7 +181,7 @@ connector: odbc driver: '{ODBC Driver 18 for SQL Server}' ``` -Once all Agent configuration is complete, [restart the Datadog Agent][9]. +すべての Agent の構成が完了したら、[Datadog Agent を再起動][9]します。 ### UpdateAzureIntegration @@ -215,10 +218,10 @@ instances: password: 'ENC[datadog_user_database_password]' connector: odbc driver: '' - tags: # Optional + tags: # オプション - 'service:' - 'env:' - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' @@ -317,7 +320,7 @@ Kubernetes クラスターでクラスターチェックがまだ有効になっ username: datadog password: 'ENC[datadog_user_database_password]' connector: 'odbc' - driver: 'ODBC Driver 18 for SQL Server' + driver: '{ODBC Driver 18 for SQL Server}' include_ao_metrics: true # Optional: For AlwaysOn users tags: # Optional - 'service:' @@ -339,10 +342,6 @@ Kubernetes クラスターでクラスターチェックがまだ有効になっ Windows の場合は、helm install コマンドに --set targetSystem=windows を追加します。 -[1]: https://app.datadoghq.com/organization-settings/api-keys -[2]: /ja/getting_started/site -[3]: /ja/containers/kubernetes/installation/?tab=helm#installation - ### マウントされたファイルで構成する マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/sqlserver.yaml` にマウントします。 @@ -356,11 +355,11 @@ instances: username: datadog password: 'ENC[datadog_user_database_password]' connector: "odbc" - driver: "ODBC Driver 18 for SQL Server" - tags: # Optional + driver: '{ODBC Driver 18 for SQL Server}' + tags: # オプション - 'service:' - 'env:' - # After adding your project and instance, configure the Datadog Azure integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Azure インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 azure: deployment_type: '' fully_qualified_domain_name: '' @@ -388,7 +387,7 @@ metadata: "password": "ENC[datadog_user_database_password]", "connector": "odbc", "driver": "ODBC Driver 18 for SQL Server", - "tags": ["service:", "env:"], # Optional + "tags": ["service:", "env:"], # オプション "azure": { "deployment_type": "", "fully_qualified_domain_name": "" @@ -412,7 +411,7 @@ Cluster Agent は自動的にこのコンフィギュレーションを登録し [1]: /ja/agent/cluster_agent [2]: /ja/agent/cluster_agent/clusterchecks/ -[3]: https://helm.sh +[3]: /ja/containers/kubernetes/installation/?tab=helm#installation [4]: https://github.com/DataDog/integrations-core/blob/master/sqlserver/assets/configuration/spec.yaml#L353-L383 [5]: /ja/agent/configuration/secrets-management {{% /tab %}} diff --git a/content/ja/database_monitoring/setup_sql_server/gcsql.md b/content/ja/database_monitoring/setup_sql_server/gcsql.md index 37b96560fe1c2..b62833a13506c 100644 --- a/content/ja/database_monitoring/setup_sql_server/gcsql.md +++ b/content/ja/database_monitoring/setup_sql_server/gcsql.md @@ -78,7 +78,7 @@ instances: `service` と `env` タグを使用して、共通のタグ付けスキームでデータベースのテレメトリーを他のテレメトリーにリンクします。これらのタグが Datadog 全体でどのように使用されるかについては、[統合サービスタグ付け][5]を参照してください。 -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### 対応ドライバー @@ -139,10 +139,10 @@ instances: password: 'ENC[datadog_user_database_password]' connector: odbc driver: '' - tags: # Optional + tags: # オプション - 'service:' - 'env:' - # After adding your project and instance, configure the Datadog Google Cloud (GCP) integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Google Cloud (GCP) インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 gcp: project_id: '' instance_id: '' @@ -242,7 +242,7 @@ Kubernetes クラスターでクラスターチェックがまだ有効になっ username: datadog password: 'ENC[datadog_user_database_password]' connector: 'odbc' - driver: 'ODBC Driver 18 for SQL Server' + driver: '{ODBC Driver 18 for SQL Server}' tags: # Optional - 'service:' - 'env:' @@ -272,7 +272,7 @@ Windows の場合は、helm install コマンドに --set tar マウントされたコンフィギュレーションファイルを使ってクラスターチェックを構成するには、コンフィギュレーションファイルを Cluster Agent コンテナのパス `/conf.d/sqlserver.yaml` にマウントします。 ```yaml -cluster_check: true # Make sure to include this flag +cluster_check: true # このフラグを必ず入れてください init_config: instances: - dbm: true @@ -281,11 +281,11 @@ instances: username: datadog password: 'ENC[datadog_user_database_password]' connector: "odbc" - driver: "ODBC Driver 18 for SQL Server" - tags: # Optional + driver: '{ODBC Driver 18 for SQL Server}' + tags: # オプション - 'service:' - 'env:' - # After adding your project and instance, configure the Datadog Google Cloud (GCP) integration to pull additional cloud data such as CPU, Memory, etc. + # プロジェクトとインスタンスを追加した後、Datadog Google Cloud (GCP) インテグレーションを構成して、CPU やメモリなどの追加のクラウドデータを取得します。 gcp: project_id: '' instance_id: '' @@ -314,7 +314,7 @@ metadata: "password": "ENC[datadog_user_database_password]", "connector": "odbc", "driver": "ODBC Driver 18 for SQL Server", - "tags": ["service:", "env:"], # Optional + "tags": ["service:", "env:"], # オプション "gcp": { "project_id": "", "instance_id": "" diff --git a/content/ja/developers/guide/dogwrap.md b/content/ja/developers/guide/dogwrap.md index 5d887e1bccbd0..b300bd37596cf 100644 --- a/content/ja/developers/guide/dogwrap.md +++ b/content/ja/developers/guide/dogwrap.md @@ -45,7 +45,7 @@ dogwrap -n -k -s eu "" ``` {{< /site-region >}} -**Note**: The `dogwrap` command sends data to the US Datadog site by default. If you need to send data to another site, you must include the `-s` option specifying a target site, such as `eu`, `us3`, `us5`, etc. +**注**: `dogwrap` コマンドは、デフォルトでデータを米国の Datadog サイトに送信します。別のサイトにデータを送信する必要がある場合は、`-s` オプションを使用し、`eu`、`us3`、`us5` などの送信先サイトを指定する必要があります。 次のプレースホルダーと組み合わせます。 diff --git a/content/ja/getting_started/integrations/aws.md b/content/ja/getting_started/integrations/aws.md index 76a6a1b10f61a..d66e449d8191c 100644 --- a/content/ja/getting_started/integrations/aws.md +++ b/content/ja/getting_started/integrations/aws.md @@ -32,7 +32,7 @@ title: AWS の概要 ## 概要 -This guide provides an overview of the process for integrating an Amazon Web Services(AWS) account with Datadog using Datadog's CloudFormation template. +このガイドでは、Datadog の CloudFormation テンプレートを使用して、Amazon Web Services (AWS) アカウントを Datadog と統合するプロセスの概要を説明します。 簡単に言うと、これには Datadog の AWS アカウントがデータの収集やプッシュのために AWS アカウントに API コールを行うことを可能にする IAM ロールと関連するポリシーの作成が含まれます。また、このテンプレートは、Datadog にログを送信するための [Datadog Forwarder][1] Lambda 関数をデプロイします。CloudFormation テンプレートを使用することで、このデータを Datadog アカウントに送信するために必要なすべてのツールが提供されます。Datadog は、最新の機能を提供するために CloudFormation テンプレートを保守しています。 @@ -40,6 +40,8 @@ This guide provides an overview of the process for integrating an Amazon Web Ser このプロセスは必要な数の AWS アカウントに対して繰り返すことができますし、[API][3]、[AWS CLI][4]、[Terraform][5] を使って一度に複数のアカウントを設定することも可能です。詳しくは、[Datadog-Amazon CloudFormation ガイド][6]をご参照ください。 +**注**: Datadog の CloudFormation テンプレートは、定義済みのリソースの作成と削除のみをサポートしています。スタックへの更新の適用方法については、[スタックテンプレートの更新][59]を参照してください。 + ## 前提条件 はじめに、以下の前提条件を確認してください。 @@ -112,7 +114,7 @@ This guide provides an overview of the process for integrating an Amazon Web Ser a. インテグレーションする AWS リージョンを選択します。 b. Datadog [API キー][9]を追加します。 c. オプションで、[Datadog Forwarder Lambda][1] でログなどを Datadog に送ります。 - d. Optionally, enable [Cloud Security Management Misconfigurations][54] to scan your cloud environment, hosts, and containers for misconfigurations and security risks. + d. 必要に応じて、[Cloud Security Management Misconfigurations][54] を有効にして、クラウド環境、ホスト、コンテナをスキャンして、誤構成やセキュリティリスクを検出します。 5. **Launch CloudFormation Template** をクリックします。これで AWS コンソールが開き、CloudFormation スタックがロードされます。すべてのパラメーターは、事前の Datadog フォームでの選択に基づいて入力されているため、必要な場合以外は編集する必要はありません。 **注:** `DatadogAppKey` パラメーターは、CloudFormation スタックが Datadog に API コールを行い、この AWS アカウントに対して Datadog の構成を追加・編集できるようにするものです。キーは自動的に生成され、Datadog アカウントに結びつけられます。 @@ -139,8 +141,8 @@ AWSサービスログを Datadog に送信する方法はいくつかありま ### 検証 -ログを有効にしたら、[ログエクスプローラー][15] でファセット・パネルから `source` または `service` ファセットを使用して、ログを見つけます (S3 からの以下の例のように)。 -{{< img src="getting_started/integrations/logs-explorer.png" alt="Datadog アカウントのログエクスプローラーページ。左側には、ソースとサービスのファセットが表示され、両方とも 's3' でチェックされています。右側には、いくつかのログエントリーがリスト形式で表示されています。">}} +ログを有効にしたら、[Log Explorer][15] でファセットパネルの `source` または `service` ファセットを使用してログを見つけてください。以下は、S3 の例です。 +{{< img src="getting_started/integrations/logs-explorer.png" alt="Datadog アカウントの Log Explorer ページ。左側には、Source と Service ファセットが表示され、両方とも 's3' にチェックされています。右側には、いくつかのログエントリーがリスト形式で表示されています。">}} ## Datadog のプラットフォームをさらに活用する @@ -187,7 +189,7 @@ Fargate ポッドは AWS によって管理されているため、CPU やメモ ### Datadog のリソースを追加で作成する Datadog の UI や [API][33] を利用するほか、[CloudFormation Registry][35] で多くの [Datadog リソース][34]を作成することが可能です。視覚化とトラブルシューティングには、[ダッシュボード][36]を使用して主要データを表示し、[関数][37]を適用し、[メトリクス相関][38]を見つけることができます。 -To get notified of any unwanted or unexpected behavior in your account, create [monitors][39]. Monitors consistently evaluate the data reported to your account, and send [Notifications][40] to ensure that the right information gets to the right team members. Review the [List of Notification Integrations][41] for all the ways to notify your team. +アカウントに不要な動作や予期せぬ動作があった場合に通知を受けるには、[モニター][39]を作成します。モニターは、アカウントに報告されたデータを一貫して評価し、正しい情報が正しいチームメンバーに届くように[通知][40]を送信します。チームに通知するすべての方法については、[通知インテグレーションのリスト][41]を参照してください。 ## 関連製品を見る @@ -275,4 +277,5 @@ To get notified of any unwanted or unexpected behavior in your account, create [ [55]: /ja/security/default_rules/#cat-posture-management-cloud [56]: /ja/security/default_rules/#cat-posture-management-infra [57]: /ja/integrations/guide/aws-integration-troubleshooting/ -[58]: /ja/integrations/ecs_fargate/?tab=webui#installation-for-aws-batch \ No newline at end of file +[58]: /ja/integrations/ecs_fargate/?tab=webui#installation-for-aws-batch +[59]: https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-cfn-updating-stacks-get-template.html \ No newline at end of file diff --git a/content/ja/getting_started/tagging/assigning_tags.md b/content/ja/getting_started/tagging/assigning_tags.md index 5c30b971faaea..1bdecb5dd3d00 100644 --- a/content/ja/getting_started/tagging/assigning_tags.md +++ b/content/ja/getting_started/tagging/assigning_tags.md @@ -158,7 +158,7 @@ hostname: mymachine.mydomain #### 環境変数 -コンテナ化された Datadog Agent をインストールしたら、Agent のメインコンフィギュレーションファイルにある環境変数 `DD_TAGS を使用してホストタグを設定します。 +コンテナ化された Datadog Agent をインストールしたら、Agent のメインコンフィギュレーションファイルにある環境変数 `DD_TAGS` を使用してホストタグを設定します。複数のタグを指定する場合は、カンマとスペースで区切ってください。 Datadog は [Docker、Kubernetes、ECS、Swarm、Mesos、Nomad、Rancher][6] から一般的なタグを自動的に収集します。さらに多くのタグを抽出するには、次のオプションを使用します。 @@ -215,7 +215,7 @@ services: environment: - DD_API_KEY= "" - DD_CONTAINER_LABELS_AS_TAGS={"my.custom.label.project":"projecttag","my.custom.label.version":"versiontag"} - - DD_TAGS="key1:value1 key2:value2 key3:value3" + - DD_TAGS="key1:value1, key2:value2, key3:value3" image: 'gcr.io/datadoghq/agent:latest' deploy: restart_policy: @@ -378,7 +378,7 @@ sum:page.views{domain:example.com} by {host} ### DogStatsD -[DogStatsD][9] に送信したタグをメトリクス、イベント、サービスチェックに追加します。たとえば、アルゴリズムのバージョンでタイマー メトリクスをタグ付けして、2 つのアルゴリズムのパフォーマンスを比較します。 +[DogStatsD][10] に送信するメトリクス、イベント、サービスチェックにタグを追加します。例えば、アルゴリズムのバージョンを示すタグをタイマーメトリクスに付けて、2 つのアルゴリズムのパフォーマンスを比較します。 ```python @@ -391,9 +391,9 @@ def algorithm_two(): # 何らかの処理 (速度を比較) ... ``` -**注**: タグ付けは、StatsD の [Datadog 固有の拡張機能][10]です。 +**注**: タグ付けは、StatsD の [Datadog 固有の拡張機能][11]です。 -`host` タグを DogStatsD メトリクスに割り当てる場合は、特別な考慮事項が必要です。ホスト タグ キーの詳細については、[DogStatsD セクション][11]を参照してください。 +`host` タグを DogStatsD メトリクスに割り当てる場合は、特別な考慮事項が必要です。ホストタグキーの詳細については、[メトリクスの送信: DogStatsD][12] のドキュメントを参照してください。 ## その他の参考資料 @@ -410,3 +410,4 @@ def algorithm_two(): [9]: /ja/tracing/setup/ [10]: /ja/developers/dogstatsd/ [11]: /ja/developers/community/libraries/ +[12]: /ja/metrics/dogstatsd_metrics_submission/#host-tag \ No newline at end of file diff --git a/content/ja/integrations/apache.md b/content/ja/integrations/apache.md index 53b7a79803a4a..96eafa1768e9f 100644 --- a/content/ja/integrations/apache.md +++ b/content/ja/integrations/apache.md @@ -23,8 +23,8 @@ assets: source_type_id: 30 source_type_name: Apache monitors: - '[Apache] Low number of idle workers': assets/monitors/apache_low_idle_workers.json - '[Apache] resource utilization': assets/monitors/high_keep_alive_and_cpu.json + CPU load is running high: assets/monitors/high_keep_alive_and_cpu.json + Idle workers number is low: assets/monitors/apache_low_idle_workers.json saved_views: 4xx_errors: assets/saved_views/4xx_errors.json 5xx_errors: assets/saved_views/5xx_errors.json @@ -38,7 +38,7 @@ author: support_email: help@datadoghq.com categories: - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/apache/README.md display_on_public_website: true @@ -46,7 +46,7 @@ draft: false git_integration_title: apache integration_id: apache integration_title: Apache -integration_version: 4.5.1 +integration_version: 6.0.0 is_public: true manifest_version: 2.0.0 name: apache @@ -366,4 +366,4 @@ Apache インテグレーションで問題が発生する場合の多くは、A [7]: https://www.datadoghq.com/blog/deploying-datadog-with-cloudformation [8]: https://www.datadoghq.com/blog/monitoring-apache-web-server-performance [9]: https://www.datadoghq.com/blog/collect-apache-performance-metrics -[10]: https://www.datadoghq.com/blog/monitor-apache-web-server-datadog +[10]: https://www.datadoghq.com/blog/monitor-apache-web-server-datadog \ No newline at end of file diff --git a/content/ja/integrations/azure.md b/content/ja/integrations/azure.md index 4289acffb5a0b..1cff3bcb3c64a 100644 --- a/content/ja/integrations/azure.md +++ b/content/ja/integrations/azure.md @@ -154,50 +154,49 @@ Datadog の Azure インテグレーションは、}} -**注**: Classic 階層では、`azure.network_frontdoors.*` ネームスペースを使用します。Standard および Premium 階層では、代わりにメトリクスは `azure.cdn_profiles.*` ネームスペースで表示されます。 - ### イベント Azure Front Door インテグレーションには、イベントは含まれません。 @@ -55,4 +56,4 @@ Azure Front Door インテグレーションには、サービスのチェック [1]: https://docs.datadoghq.com/ja/integrations/azure/ [2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_frontdoor/azure_frontdoor_metadata.csv -[3]: https://docs.datadoghq.com/ja/help/ +[3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/azure_iot_edge.md b/content/ja/integrations/azure_iot_edge.md index 49042c2e504d9..297ecf5447397 100644 --- a/content/ja/integrations/azure_iot_edge.md +++ b/content/ja/integrations/azure_iot_edge.md @@ -19,10 +19,10 @@ assets: source_type_id: 10125 source_type_name: Azure IoT Edge monitors: - Disk usage: assets/monitors/disk_usage.json - Edge Hub retries: assets/monitors/edgehub_retries.json - IoT Hub syncs: assets/monitors/iothub_syncs.json - Memory usage: assets/monitors/memory_usage.json + Device is running out of disk space: assets/monitors/disk_usage.json + Device is running out of memory: assets/monitors/memory_usage.json + Edge Hub operation retries is higher than usual: assets/monitors/edgehub_retries.json + Unsuccessful syncs are high: assets/monitors/iothub_syncs.json author: homepage: https://www.datadoghq.com name: Datadog @@ -33,7 +33,7 @@ categories: - iot - ログの収集 - ネットワーク -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/azure_iot_edge/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: azure_iot_edge integration_id: azure-iot-edge integration_title: Azure IoT Edge -integration_version: 4.2.1 +integration_version: 6.0.0 is_public: true manifest_version: 2.0.0 name: azure_iot_edge @@ -206,4 +206,4 @@ Azure IoT Edge には、イベントは含まれません。 [8]: https://github.com/DataDog/integrations-core/blob/master/azure_iot_edge/metadata.csv [9]: https://github.com/DataDog/integrations-core/blob/master/azure_iot_edge/assets/service_checks.json [10]: https://docs.datadoghq.com/ja/help/ -[11]: https://www.datadoghq.com/blog/monitor-azure-iot-edge-with-datadog/ +[11]: https://www.datadoghq.com/blog/monitor-azure-iot-edge-with-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/azure_vm.md b/content/ja/integrations/azure_vm.md index 57e2ad9b3be36..242837d30bb85 100644 --- a/content/ja/integrations/azure_vm.md +++ b/content/ja/integrations/azure_vm.md @@ -1,32 +1,77 @@ --- +app_id: azure-vm +app_uuid: 2bcae6e7-13df-45c2-8085-ae9fc5ba0b09 +assets: + dashboards: + azure_vm: assets/dashboards/azure_vm.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - azure.vm.percentage_cpu + - azure.vm.processor_total_pct_user_time + metadata_path: metadata.csv + prefix: azure.vm + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 139 + source_type_name: Azure VM +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com categories: - azure - cloud - configuration & deployment - os & system -custom_kind: integration +custom_kind: インテグレーション dependencies: [] -description: Azure VM のリソース使用状況、ネットワーク統計などを追跡。 -doc_link: https://docs.datadoghq.com/integrations/azure_vm/ +display_on_public_website: true draft: false -further_reading: -- link: https://www.datadoghq.com/blog/video-streaming-performance-monitoring-conviva/ - tag: ブログ - text: Datadog で Conviva を監視する git_integration_title: azure_vm -has_logo: true integration_id: azure-vm -integration_title: Microsoft Azure VM +integration_title: Azure VM integration_version: '' is_public: true -manifest_version: '1.0' +manifest_version: 2.0.0 name: azure_vm -public_title: Datadog-Microsoft Azure VM インテグレーション -short_description: Azure VM のリソース使用状況、ネットワーク統計などを追跡。 -version: '1.0' +public_title: Azure VM +short_description: Microsoft Azure VM は、Linux と Windows の仮想マシンを数分で作成できるサービスです +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Azure + - Category::クラウド + - Category::構成 & デプロイ + - Category::OS とシステム + - Offering::Integration + configuration: README.md#Setup + description: Microsoft Azure VM は、Linux と Windows の仮想マシンを数分で作成できるサービスです + media: + - caption: Azure VM 概要ダッシュボード + image_url: images/1_azure_vm_overview_dashboard.png + media_type: image + - caption: Azure VM ヘルスモニターテンプレート + image_url: images/2_azure_vm_health_monitor_template.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: ドキュメント + url: https://docs.datadoghq.com/integrations/azure + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-azure-arm-vms-datadog + - resource_type: blog + url: https://www.datadoghq.com/blog/dash-2024-new-feature-roundup-infrastructure + support: README.md#Support + title: Azure VM --- - + ## 概要 Azure 仮想マシンでは、オンデマンドでスケーリングできる仮想化環境を柔軟に実行できます。 @@ -96,4 +141,4 @@ Azure Virtual Machine インテグレーションには、サービスのチェ [7]: https://www.datadoghq.com/blog/how-to-monitor-microsoft-azure-vms [8]: https://www.datadoghq.com/blog/how-to-collect-azure-metrics [9]: https://www.datadoghq.com/blog/monitor-azure-vms-using-datadog -[10]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ +[10]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/bigpanda_saas.md b/content/ja/integrations/bigpanda_saas.md index f601e0a6e0a57..6cd16afd5a565 100644 --- a/content/ja/integrations/bigpanda_saas.md +++ b/content/ja/integrations/bigpanda_saas.md @@ -30,7 +30,7 @@ categories: - マーケットプレイス - notifications - ai/ml -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -129,4 +129,4 @@ Datadog マーケットプレイスでのご提供には、BigPanda プラット [6]: https://docs.datadoghq.com/ja/logs [7]: https://docs.datadoghq.com/ja/tracing --- -このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/cassandra.md b/content/ja/integrations/cassandra.md index e80e19352e9fc..8e77d7f7f2a80 100644 --- a/content/ja/integrations/cassandra.md +++ b/content/ja/integrations/cassandra.md @@ -35,7 +35,7 @@ categories: - caching - data stores - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/cassandra/README.md display_on_public_website: true @@ -43,7 +43,7 @@ draft: false git_integration_title: cassandra integration_id: cassandra integration_title: Cassandra -integration_version: 1.18.0 +integration_version: 3.0.0 is_public: true manifest_version: 2.0.0 name: cassandra @@ -240,7 +240,7 @@ Cassandra Nodetool ログは Cassandra インテグレーションにより収 Cassandra_nodetool チェックには、イベントは含まれません。 ### サービスチェック -{{< get-service-checks-from-git "cassandra_nodetool" >}} +{{< get-service-checks-from-git "cassandra_nodetool" >}} ## トラブルシューティング @@ -272,4 +272,4 @@ Cassandra_nodetool チェックには、イベントは含まれません。 [16]: https://docs.datadoghq.com/ja/agent/guide/agent-configuration-files/#agent-configuration-directory [17]: https://github.com/DataDog/integrations-core/blob/master/cassandra_nodetool/datadog_checks/cassandra_nodetool/data/conf.yaml.example [18]: https://github.com/DataDog/integrations-core/tree/master/cassandra#log-collection -[19]: https://github.com/prometheus/jmx_exporter +[19]: https://github.com/prometheus/jmx_exporter \ No newline at end of file diff --git a/content/ja/integrations/ceph.md b/content/ja/integrations/ceph.md index 7aa2c0126f97d..98bf4b3377790 100644 --- a/content/ja/integrations/ceph.md +++ b/content/ja/integrations/ceph.md @@ -33,7 +33,7 @@ categories: - data stores - os & system - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/ceph/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: ceph integration_id: ceph integration_title: Ceph -integration_version: 2.10.0 +integration_version: 4.0.0 is_public: true manifest_version: 2.0.0 name: ceph @@ -167,4 +167,4 @@ Ceph チェックには、イベントは含まれません。 [7]: https://github.com/DataDog/integrations-core/blob/master/ceph/metadata.csv [8]: https://github.com/DataDog/integrations-core/blob/master/ceph/assets/service_checks.json [9]: https://docs.datadoghq.com/ja/help/ -[10]: https://www.datadoghq.com/blog/monitor-ceph-datadog +[10]: https://www.datadoghq.com/blog/monitor-ceph-datadog \ No newline at end of file diff --git a/content/ja/integrations/cisco_aci.md b/content/ja/integrations/cisco_aci.md index b6987067e5ba4..30208744ce243 100644 --- a/content/ja/integrations/cisco_aci.md +++ b/content/ja/integrations/cisco_aci.md @@ -36,7 +36,7 @@ draft: false git_integration_title: cisco_aci integration_id: cisco-aci integration_title: CiscoACI -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: cisco_aci @@ -72,12 +72,13 @@ Cisco ACI インテグレーションを使用すると、以下のことが可 - ネットワークの状態と健全性を追跡できます。 - ACI の容量を追跡できます。 - スイッチおよびコントローラー自体を監視できます。 +- [Network Devices Monitoring][1] を通じてデバイスを監視する機能 ## セットアップ ### インストール -Cisco ACI チェックは Agent にパッケージ化されているので、ネットワーク内のサーバーに [Agent をインストール][1]するだけです。 +Cisco ACI チェックは Agent にパッケージ化されているので、ネットワーク内のサーバーに [Agent をインストール][2]するだけです。 ### 構成 @@ -117,6 +118,11 @@ Cisco ACI チェックは Agent にパッケージ化されているので、ネ # tenant: # - # - + + ## @param send_ndm_metadata - boolean - optional - default: false + ## Set to `true` to enable Network Device Monitoring metadata (for devices and interfaces) to be sent. + # + # send_ndm_metadata: false ``` *注*: 必ずインテグレーションにテナントを指定し、アプリケーションのメトリクスや EPG などを収集します。 @@ -145,11 +151,11 @@ Cisco ACI チェックは Agent にパッケージ化されているので、ネ ### 検証 -[Agent の `status` サブコマンドを実行][2]し、Checks セクションで `cisco_aci` を探します。 +[Agent の `status` サブコマンドを実行][3]し、Checks セクションで `cisco_aci` を探します。 ## ベンダープロファイル -このインテグレーションでサポートされている具体的なベンダープロファイルは、[ネットワークベンダー][3]のページで確認できます。 +このインテグレーションでサポートされている具体的なベンダープロファイルは、[ネットワークベンダー][4]のページで確認できます。 ## 収集データ @@ -192,10 +198,11 @@ Cisco ACI チェックはテナントの障害をイベントとして送信し Last Successful Execution Date : 2023-01-04 15:58:04 CST / 2023-01-04 21:58:04 UTC (1672869484000) ``` -ご不明な点は、[Datadog のサポートチーム][4]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][5]までお問い合わせください。 -[1]: https://app.datadoghq.com/account/settings/agent/latest -[2]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[3]: https://docs.datadoghq.com/ja/network_monitoring/devices/supported_devices/ -[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file +[1]: https://www.datadoghq.com/product/network-monitoring/network-device-monitoring/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/ja/network_monitoring/devices/supported_devices/ +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/citrix_hypervisor.md b/content/ja/integrations/citrix_hypervisor.md index 6f7b509c946be..c4f38fb45a9b1 100644 --- a/content/ja/integrations/citrix_hypervisor.md +++ b/content/ja/integrations/citrix_hypervisor.md @@ -17,8 +17,8 @@ assets: source_type_id: 10198 source_type_name: Citrix Hypervisor monitors: - Host CPU high: assets/monitors/host_cpu_high.json - VM CPU high: assets/monitors/vm_cpu_high.json + CPU load is high: assets/monitors/host_cpu_high.json + VM's CPU load is high: assets/monitors/vm_cpu_high.json author: homepage: https://www.datadoghq.com name: Datadog @@ -27,7 +27,7 @@ author: categories: - cloud - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/citrix_hypervisor/README.md display_on_public_website: true @@ -35,7 +35,7 @@ draft: false git_integration_title: citrix_hypervisor integration_id: citrix-hypervisor integration_title: Citrix Hypervisor -integration_version: 3.2.1 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: citrix_hypervisor @@ -79,7 +79,7 @@ tile: ### インストール Citrix Hypervisor チェックは、[Datadog Agent][3] のパッケージに含まれています。 -サーバーに追加でインストールする必要はありません。 +サーバーに追加でインストールする必要はありません。 Citrix Hypervisor を監視する推奨方法は、各ハイパーバイザーに 1 つの Datadog Agent をインストールすることです。 #### Datadog ユーザー @@ -153,4 +153,4 @@ Citrix Hypervisor インテグレーションには、イベントは含まれ [8]: https://github.com/DataDog/integrations-core/blob/master/citrix_hypervisor/metadata.csv [9]: https://github.com/DataDog/integrations-core/blob/master/citrix_hypervisor/assets/service_checks.json [10]: https://docs.datadoghq.com/ja/help/ -[11]: https://www.datadoghq.com/blog/monitor-citrix-hypervisor-datadog/ +[11]: https://www.datadoghq.com/blog/monitor-citrix-hypervisor-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/cloudflare.md b/content/ja/integrations/cloudflare.md index ec80d0ba67b85..bb804e59aa691 100644 --- a/content/ja/integrations/cloudflare.md +++ b/content/ja/integrations/cloudflare.md @@ -17,11 +17,11 @@ assets: source_type_id: 215 source_type_name: Cloudflare monitors: - '[Cloudflare] Abnormal bandwidth being sent for zone': assets/monitors/bandwidth.json - '[Cloudflare] Error Rate is higher than normal in zone': assets/monitors/error_rate.json - '[Cloudflare] Error count is unusually high for worker script': assets/monitors/worker_error.json - '[Cloudflare] High number of detected threats for zone': assets/monitors/threats.json - '[Cloudflare] Hit Ratio is abnormally low for zone': assets/monitors/hit_ratio.json + Cache hit rate is abnormally low: assets/monitors/hit_ratio.json + Error Rate is higher than normal: assets/monitors/error_rate.json + Threat number is high: assets/monitors/threats.json + Worker script errors are increasing: assets/monitors/worker_error.json + Zone bandwidth is abnormal: assets/monitors/bandwidth.json author: homepage: https://www.datadoghq.com name: Datadog @@ -32,7 +32,7 @@ categories: - ログの収集 - キャッシュ - セキュリティ -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -44,8 +44,7 @@ is_public: true manifest_version: 2.0.0 name: cloudflare public_title: Cloudflare -short_description: Monitor your Cloudflare Web traffic, DNS queries, security threats, - and more. +short_description: Cloudflare の Web トラフィック、DNS クエリ、セキュリティ上の脅威などを監視します。 supported_os: [] tile: changelog: CHANGELOG.md @@ -56,8 +55,7 @@ tile: - Category::Security - Offering::Integration configuration: README.md#Setup - description: Monitor your Cloudflare Web traffic, DNS queries, security threats, - and more. + description: Cloudflare の Web トラフィック、DNS クエリ、セキュリティ上の脅威などを監視します。 media: - caption: Cloudflare 概要ダッシュボード image_url: images/overview-dashboard.png @@ -75,9 +73,9 @@ tile: ## 概要 -Integrate with Cloudflare to get your zone metrics, including web traffic, DNS queries, and threat insights. The integration is based on [Cloudflare's analytics API][1]. Learn more about what resources correspond with which metrics in [our documentation][2]. +Cloudflare と統合することで、Web トラフィック、DNS クエリ、脅威に関するインサイトなど、ゾーンのメトリクスを取得できます。このインテグレーションは [Cloudflare の分析 API][1] に基づいています。[当社のドキュメント][2]で、どのリソースがどのメトリクスに対応しているかについて詳しく確認できます。 -**Log Collection**: In addition to these metrics, Cloudflare allows customers to push logs directly into Datadog using Cloudflare Logpush. These detailed logs contain metadata generated by Cloudflare products and are helpful for debugging and creating analytics, especially when combined with logs from other sources. [Enable Cloudflare log collection][3] in combination with these metrics to get full visibility into your Cloudflare environment. +**ログ収集**: これらのメトリクスに加え、Cloudflare では Cloudflare Logpush を使用してログを直接 Datadog に送信することが可能です。これらの詳細なログには、Cloudflare 製品によって生成されたメタデータが含まれており、特に他のソースからのログと組み合わせることで、デバッグや分析の作成に役立ちます。これらのメトリクスと組み合わせて [Cloudflare のログ収集を有効にする][3]ことで、Cloudflare 環境を完全に可視化することができます。 すぐに使えるダッシュボードは、アプリケーションのセキュリティとパフォーマンスを向上させます。この一元化されたダッシュボードにより、以下の要素が視覚化されます @@ -88,36 +86,36 @@ Integrate with Cloudflare to get your zone metrics, including web traffic, DNS q Cloudflare インフラストラクチャーを深く洞察するリッチ化されたログと詳細なメトリクスにより、問題解決に必要なコンテキストを構築できます。 -The integration works with [Datadog Cloud SIEM][4] to provide out-of-the-box threat detection for +インテグレーションは [Datadog Cloud SIEM][4] と連携し、以下に対するすぐに使える脅威検出機能を提供します - 不可能移動 -- dangerous misconfigurations +- 危険な誤構成 - DDoS 攻撃 IP アドレスのブロックや Datadog でのケースの作成など、同梱されている Workflow Automation のブループリントを利用して、セキュリティ脅威をより迅速に緩和できます。 ## セットアップ -Before you begin, you need a [Datadog account][5], with an [API key][6], and access to [Cloudflare Logpush][7], which requires an Enterprise account plan. +始める前に、[Datadog アカウント][5]と[API キー][6]、そして Enterprise アカウントプランが必要な [Cloudflare Logpush][7] へのアクセスが必要です。 Cloudflare API トークンを使用する場合は、**Zone** > **Zone** > **Read** および **Zone** > **Analytics** > **Read** の権限を保有していることを確認してください。 ### インストール -Install the integration with the Datadog [Cloudflare integration tile][8]. +Datadog の [Cloudflare インテグレーションタイル][8]を使用して、インテグレーションをインストールします。 ### 構成 -1. Go to the **Configure** tab inside the Datadog [Cloudflare integration tile][8]. +1. Datadog [Cloudflare インテグレーションタイル][8]内の **Configure** タブに移動します。 2. 監視するアカウントの電子メールアドレスと、API キーまたはトークンを入力します。Cloudflare API キーと API トークンは、Cloudflare アカウントの **My profile** > **Api Tokens** の下にあります。 3. アカウントの名前を追加します。この名前は任意で、メトリクスの `account` タグ内で使用されます。 ### ログ収集 -Cloudflare allows customers to push logs directly into Datadog using Cloudflare Logpush. You can manage the Logpush job with the [Cloudflare API](#cloudflare-api) or directly within your [Cloudflare dashboard](#cloudflare-dashboard). +Cloudflareでは、Cloudflare Logpush を使用してログを直接 Datadog にプッシュすることができます。Logpush のジョブは [Cloudflare API](#cloudflare-api) または [Cloudflare ダッシュボード](#cloudflare-dashboard)内で直接管理できます。 Cloudflare インテグレーションパイプラインをインストールすると、特定の属性が自動的にリマップされます。どの属性がリマップされるかを確認するには -1. Navigate to [Logs Pipelines][9]. +1. [ログパイプライン][9]に移動します。 2. 右上の **Browse Pipeline Library** をクリックします。 3. 検索バーに `Cloudflare` と入力します。 4. **Cloudflare** をクリックすると、インストールされているリマッパーなどのプロセッサーのリストが表示されます。 @@ -127,16 +125,16 @@ Cloudflare インテグレーションパイプラインをインストールす 1. Logpush ジョブエンドポイントへ POST をリクエストし、Logpush ジョブを作成します。以下のフィールドを含めます。 * `name` (任意): ドメイン名をジョブ名として使用。 * `destination_conf`: 以下のパラメーターからなるログの出力先。 - * ``: The Datadog HTTP logs intake endpoint, which can be either one below. You can find the difference at [Datadog API reference][10]. + * ``: Datadog HTTP ログインテークエンドポイントで、以下のいずれかです。違いについては、[Datadog API リファレンス][10]を参照してください。 * **v1:** `http-intake.logs.{{< region-param key="dd_site" >}}/v1/input` - * **v2 (latest):** `http-intake.logs.{{< region-param key="dd_site" >}}/api/v2/logs` + * **v2 (最新バージョン):** `http-intake.logs.{{< region-param key="dd_site" >}}/api/v2/logs` * ``: 使用する Datadog API キー。 * `ddsource`: `cloudflare` に設定。 * `service` (任意): サービス名を指定。 * `host` (任意): ホスト名を指定。 * `ddtags` (任意): タグを指定。 - * `dataset`: The category of logs you want to receive. See the [Cloudflare Log fields][11] for a list of supported datasets. - * `logpull_options` (optional): To configure fields, sample rate, and timestamp format, see the [Logpush API options][12]. Datadog mandates the use of **RFC 3339 format for timestamps** from Cloudflare, which is the default option used by Cloudflare. + * `dataset`: 受信するログのカテゴリー。サポートされるデータセットについては、[Cloudflare のログフィールド][11]を参照。 + * `logpull_options` (オプション): フィールド、サンプルレート、タイムスタンプ形式の構成は、[Logpush API オプション][12]を参照してください。Datadog は、Cloudflare の**タイムスタンプ RFC 3339 フォーマット**の使用を義務付けており、これは Cloudflare がデフォルトで使用するオプションです。 **リクエスト例**: @@ -208,7 +206,7 @@ Cloudflare インテグレーションパイプラインをインストールす #### Cloudflare ダッシュボード -1. Once you have connected a service with the Logpush section of the Cloudflare dashboard, select the dataset, select data fields, and then, under select destination, choose Datadog. +1. Cloudflare ダッシュボードの Logpush セクションでサービスを接続したら、データセットとデータフィールドを選択し、宛先として Datadog を選択します。 2. **Enter destination information** の下で Datadog の URL エンドポイントを入力します。 ``` @@ -231,16 +229,16 @@ Cloudflare インテグレーションパイプラインをインストールす {{< get-metrics-from-git "cloudflare" >}} -#### Metric categories +#### メトリクスカテゴリー 以下の表では、収集されるメトリクスの種類と関連するメトリクスのプレフィックスについて説明します。 -| **型** | **説明** | **Metric Prefixes Collected** | +| **型** | **説明** | **収集されるメトリクスのプレフィックス** | |-------------------|----------------------------------------------|------------------------------------------------------------------------------------------------| -| **Web Analytics** | Metrics related to web traffic and performance. | `cloudflare.requests.all`
`cloudflare.requests.cached`
`cloudflare.requests.uncached`
`cloudflare.requests.ssl.encrypted`
`cloudflare.requests.ssl.unencrypted`
`cloudflare.requests.country`
`cloudflare.requests.status`
`cloudflare.requests.content_type`
`cloudflare.requests.ip_class`
`cloudflare.bandwidth.all`
`cloudflare.bandwidth.cached`
`cloudflare.bandwidth.uncached`
`cloudflare.bandwidth.ssl.encrypted`
`cloudflare.bandwidth.ssl.unencrypted`
`cloudflare.bandwidth.country`
`cloudflare.bandwidth.content_type`
`cloudflare.threats.all`
`cloudflare.threats.type`
`cloudflare.threats.country`
`cloudflare.pageviews.all`
`cloudflare.pageviews.search_engine`
`cloudflare.uniques.all` | -| **DNS** | Metrics related to DNS queries and response times. | `cloudflare.dns.query.all`
`cloudflare.dns.query.uncached`
`cloudflare.dns.query.stale`
`cloudflare.dns.response_time.avg`
`cloudflare.dns.response_time.median`
`cloudflare.dns.response_time.90p`
`cloudflare.dns.response_time.99p` | -| **Load Balancer** | Metrics related to load balancing pools. | `cloudflare.load_balancer.pool.round_trip_time.average`
`cloudflare.load_balancer.pool.health.status` | -| **Worker Script** | Metrics related to Cloudflare Workers scripts. | `cloudflare.workers.requests.all`
`cloudflare.workers.requests.errors`
`cloudflare.workers.requests.subrequests`
`cloudflare.workers.response_time.75p`
`cloudflare.workers.response_time.99p`| +| **Web 分析** | Web トラフィックとパフォーマンスに関するメトリクス。 | `cloudflare.requests.all`
`cloudflare.requests.cached`
`cloudflare.requests.uncached`
`cloudflare.requests.ssl.encrypted`
`cloudflare.requests.ssl.unencrypted`
`cloudflare.requests.country`
`cloudflare.requests.status`
`cloudflare.requests.content_type`
`cloudflare.requests.ip_class`
`cloudflare.bandwidth.all`
`cloudflare.bandwidth.cached`
`cloudflare.bandwidth.uncached`
`cloudflare.bandwidth.ssl.encrypted`
`cloudflare.bandwidth.ssl.unencrypted`
`cloudflare.bandwidth.country`
`cloudflare.bandwidth.content_type`
`cloudflare.threats.all`
`cloudflare.threats.type`
`cloudflare.threats.country`
`cloudflare.pageviews.all`
`cloudflare.pageviews.search_engine`
`cloudflare.uniques.all`
`cloudflare.requests.cross_zone_sub_requests.avg`
`cloudflare.requests.edge_dns_response_time.avg`
`cloudflare.requests.edge_time_to_first_byte.avg`
`cloudflare.requests.origin_response_duration.avg` | +| **DNS** | DNS クエリと応答時間に関するメトリクス。 | `cloudflare.dns.query.all`
`cloudflare.dns.query.uncached`
`cloudflare.dns.query.stale`
`cloudflare.dns.response_time.avg`
`cloudflare.dns.response_time.median`
`cloudflare.dns.response_time.90p`
`cloudflare.dns.response_time.99p` | +| **ロードバランサー** | ロードバランシングプールに関連するメトリクス。 | `cloudflare.load_balancer.pool.round_trip_time.average`
`cloudflare.load_balancer.pool.health.status` | +| **ワーカースクリプト** | Cloudflare Workers スクリプトに関するメトリクス。 | `cloudflare.workers.requests.all`
`cloudflare.workers.requests.errors`
`cloudflare.workers.requests.subrequests`
`cloudflare.workers.response_time.75p`
`cloudflare.workers.response_time.99p`| #### 権限 Cloudflare API トークンでこれらのアクセス許可が有効になっていることを確認します。 @@ -265,7 +263,7 @@ Cloudflare インテグレーションには、サービスのチェック機能 ## トラブルシューティング -Need help? Contact [Datadog support][13]. +ご不明な点は、[Datadog のサポートチーム][13]までお問合せください。 [1]: https://developers.cloudflare.com/analytics/graphql-api/ [2]: https://docs.datadoghq.com/ja/integrations/cloudflare/#metric-categories @@ -279,4 +277,4 @@ Need help? Contact [Datadog support][13]. [10]: https://docs.datadoghq.com/ja/api/latest/logs/ [11]: https://developers.cloudflare.com/logs/log-fields [12]: https://developers.cloudflare.com/logs/logpush/logpush-configuration-api/understanding-logpush-api#options -[13]: https://docs.datadoghq.com/ja/help/ +[13]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/cockroachdb.md b/content/ja/integrations/cockroachdb.md index 5602297b50f23..ae5ae05a0f8bf 100644 --- a/content/ja/integrations/cockroachdb.md +++ b/content/ja/integrations/cockroachdb.md @@ -30,7 +30,7 @@ categories: - クラウド - data stores - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/cockroachdb/README.md display_on_public_website: true @@ -38,7 +38,7 @@ draft: false git_integration_title: cockroachdb integration_id: cockroachdb integration_title: CockroachDB -integration_version: 3.3.2 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: cockroachdb @@ -209,4 +209,4 @@ CockroachDB チェックには、イベントは含まれません。 [4]: https://github.com/DataDog/integrations-core/blob/7.33.x/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example [5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [6]: https://docs.datadoghq.com/ja/help/ -[7]: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog +[7]: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog \ No newline at end of file diff --git a/content/ja/integrations/confluent_cloud.md b/content/ja/integrations/confluent_cloud.md index 74c9cb06f731f..81af617a86024 100644 --- a/content/ja/integrations/confluent_cloud.md +++ b/content/ja/integrations/confluent_cloud.md @@ -21,8 +21,10 @@ assets: source_type_id: 609 source_type_name: Confluent Cloud monitors: - '[Confluent Cloud] Mirror topic lag is increasing': assets/monitors/cluster_link_lag_rate_change_percent.json - '[Confluent Cloud] Topic lag is Increasing': assets/monitors/consumer_lag_monitor_rate_change_percent.json + Connector incoming throughput dropped to 0: assets/monitors/connector_no_input_data.json + Connector outgoing throughput dropped to 0: assets/monitors/connector_no_output_data.json + Kafka Consumer lag is increasing: assets/monitors/consumer_lag_monitor_rate_change_percent.json + Mirror Kafka Consumer lag is increasing: assets/monitors/cluster_link_lag_rate_change_percent.json author: homepage: https://www.datadoghq.com name: Datadog @@ -32,7 +34,7 @@ categories: - コスト管理 - モニター - メッセージキュー -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -53,6 +55,7 @@ tile: - Category::Metrics - Category::Message Queues - Offering::Integration + - 製品::Data Streams Monitoring configuration: README.md#Setup description: Confluent Cloud から様々な Kafka メトリクスと関連コストデータを収集します。 media: @@ -82,27 +85,32 @@ Datadog のすぐに使える Confluent Cloud ダッシュボードには、ア 推奨モニターを使用して、トピックのラグが大きくなりすぎた場合にチームに通知してアラートを出すことも、これらのメトリクスを使用して独自のメトリクスを作成することもできます。 -ストリーミングデータパイプラインのトポロジーを視覚化したり、データストリームセットアップ内の局所的なボトルネックを調査したりすることが有益な場合は、[Data Streams Monitoring][1] をご覧ください。 - ## セットアップ ### インストール -[Datadog の Confluent Cloud インテグレーションタイル][2]を使用して、インテグレーションをインストールします。 +[Datadog の Confluent Cloud インテグレーションタイル][1]を使用して、インテグレーションをインストールします。 ### 構成 -1. インテグレーションタイルで、**Configuration** タブに移動します。 -2. [Confluent Cloud API Key と API Secret](#api-key-and-secret) を入力し、**+ Add API Key** をクリックします。 -3. **Save** をクリックします。Datadog は、これらの資格情報に関連するアカウントを検索します。 -4. Confluent Cloud の [Cluster ID](#cluster-id) または [Connector ID](#connector-id) を追加します。Datadog は Confluent Cloud のメトリクスをクロールし、数分以内にメトリクスをロードします。 -5. Cloud Cost Management を使用し、コストデータの収集を有効にする場合 +1. Confluent Cloud で **+ Add API Key** をクリックし、[Confluent Cloud API Key と API Secret](#api-key-and-secret) を入力します。 + - **Cloud Resource Management** API キーとシークレットを作成します。 + - **Save** をクリックします。Datadog は、これらの資格情報に関連するアカウントを検索します。 + - Datadog インテグレーション構成で、API キーとシークレットを **API Key and API Secret** フィールドに追加します。 +2. Confluent Cloud の [Cluster ID](#cluster-id) または [Connector ID](#connector-id) を追加します。Datadog は Confluent Cloud のメトリクスをクロールし、数分以内にメトリクスをロードします。 +3. Confluent Cloud で定義されたタグを収集するには (オプション) + - **Schema Registry** API キーとシークレットを作成します。Confluent Cloud 上のスキーマ管理についてさらに詳しくは、[こちら][2]をご覧ください。 + - **Save** をクリックします。これにより、Datadog は Confluent Cloud で定義されたタグを収集します。 + - Datadog インテグレーション構成で、API キーとシークレットを **Schema Registry API Key and Secret** フィールドに追加します。 +4. Cloud Cost Management を使用し、コストデータの収集を有効にする場合 - API キーが [BillingAdmin ロール][3]を有効にしていることを確認してください。 - 24 時間以内に [Cloud Cost Management][4] に表示されます。([収集データ][5]) +クラスターやコネクターなどの構成リソースに関する詳細は、[Confluent Cloud インテグレーションのドキュメント][6]をご参照ください。 + #### API Key と Secret -Confluent Cloud API Key と Secret を作成するには、[UI で MetricsViewer ロールを新しいサービスアカウントに追加する][6]を参照してください。 +Confluent Cloud API Key と Secret を作成するには、[UI で MetricsViewer ロールを新しいサービスアカウントに追加する][7]を参照してください。 #### Cluster ID @@ -142,20 +150,21 @@ Confluent Cloud インテグレーションには、サービスのチェック ## トラブルシューティング -ご不明な点は、[Datadog のサポートチーム][8]までお問い合わせください。 +ご不明な点は、[Datadog のサポートチーム][9]までお問い合わせください。 ## 参考資料 -- [Terraform による Confluent アカウントの作成と管理][9] -- [Terraform による Confluent リソースの作成と管理][10] +- [Terraform による Confluent アカウントの作成と管理][10] +- [Terraform による Confluent リソースの作成と管理][11] -[1]: https://www.datadoghq.com/product/data-streams-monitoring/ -[2]: https://app.datadoghq.com/integrations/confluent-cloud +[1]: https://app.datadoghq.com/integrations/confluent-cloud +[2]: https://docs.confluent.io/cloud/current/get-started/schema-registry.html#quick-start-for-schema-management-on-ccloud [3]: https://docs.confluent.io/cloud/current/access-management/access-control/rbac/predefined-rbac-roles.html#billingadmin-role [4]: https://app.datadoghq.com/cost [5]: https://docs.datadoghq.com/ja/cloud_cost_management/saas_costs/?tab=confluentcloud#data-collected -[6]: https://docs.confluent.io/cloud/current/monitoring/metrics-api.html#add-the-metricsviewer-role-to-a-new-service-account-in-the-ui -[7]: https://github.com/DataDog/dogweb/blob/prod/integration/confluent_cloud/confluent_cloud_metadata.csv -[8]: https://docs.datadoghq.com/ja/help/ -[9]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_confluent_account -[10]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_confluent_resource +[6]: https://docs.datadoghq.com/ja/integrations/confluent_cloud/ +[7]: https://docs.confluent.io/cloud/current/monitoring/metrics-api.html#add-the-metricsviewer-role-to-a-new-service-account-in-the-ui +[8]: https://github.com/DataDog/dogweb/blob/prod/integration/confluent_cloud/confluent_cloud_metadata.csv +[9]: https://docs.datadoghq.com/ja/help/ +[10]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_confluent_account +[11]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_confluent_resource \ No newline at end of file diff --git a/content/ja/integrations/coredns.md b/content/ja/integrations/coredns.md index 413fa5412a05e..c6b7f9ecd7bc6 100644 --- a/content/ja/integrations/coredns.md +++ b/content/ja/integrations/coredns.md @@ -4,6 +4,7 @@ app_uuid: b613759e-89ca-4d98-a2c1-4d465c42e413 assets: dashboards: CoreDNS: assets/dashboards/coredns.json + CoreDNS [V2]: assets/dashboards/coredns_v2.json integration: auto_install: true configuration: @@ -42,7 +43,7 @@ draft: false git_integration_title: coredns integration_id: coredns integration_title: CoreDNS -integration_version: 3.2.3 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: coredns @@ -334,7 +335,7 @@ CoreDNS チェックには、イベントは含まれません。 ## トラブルシューティング -ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][8]までお問い合わせください。 ## その他の参考資料 diff --git a/content/ja/integrations/couch.md b/content/ja/integrations/couch.md index 47435f6481fc8..5306d76266f7a 100644 --- a/content/ja/integrations/couch.md +++ b/content/ja/integrations/couch.md @@ -34,7 +34,7 @@ categories: - caching - data stores - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/couch/README.md display_on_public_website: true @@ -42,7 +42,7 @@ draft: false git_integration_title: couch integration_id: couchdb integration_title: CouchDB -integration_version: 6.2.1 +integration_version: 8.0.0 is_public: true manifest_version: 2.0.0 name: couch @@ -208,4 +208,4 @@ Couch チェックには、イベントは含まれません。 [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [4]: https://docs.datadoghq.com/ja/help/ -[5]: https://www.datadoghq.com/blog/monitoring-couchdb-with-datadog +[5]: https://www.datadoghq.com/blog/monitoring-couchdb-with-datadog \ No newline at end of file diff --git a/content/ja/integrations/couchbase.md b/content/ja/integrations/couchbase.md index 1048959345979..a20d29b893f2b 100644 --- a/content/ja/integrations/couchbase.md +++ b/content/ja/integrations/couchbase.md @@ -33,7 +33,7 @@ categories: - caching - data stores - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/couchbase/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: couchbase integration_id: couchbase integration_title: CouchBase -integration_version: 3.2.1 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: couchbase @@ -196,4 +196,4 @@ Couchbase チェックは、クラスターのバランスが再調整される [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [4]: https://docs.datadoghq.com/ja/help/ -[5]: https://www.datadoghq.com/blog/monitoring-couchbase-performance-datadog +[5]: https://www.datadoghq.com/blog/monitoring-couchbase-performance-datadog \ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_dell_emc_isilon.md b/content/ja/integrations/crest_data_systems_dell_emc_isilon.md index c43485a0e3285..2d33c657b92ce 100644 --- a/content/ja/integrations/crest_data_systems_dell_emc_isilon.md +++ b/content/ja/integrations/crest_data_systems_dell_emc_isilon.md @@ -29,9 +29,9 @@ assets: source_type_name: crest_data_systems_dell_emc_isilon logs: {} monitors: - '[crest_data_systems_dell_emc_isilon] CPU Usage for each Node of Cluster': assets/monitors/cds_cpu_usage_for_each_node_and_cluster.json - '[crest_data_systems_dell_emc_isilon] Disk Usage for each Node of Cluster': assets/monitors/cds_disk_usage_for_each_node_and_cluster.json - '[crest_data_systems_dell_emc_isilon] Memory Usage for each Node of Cluster': assets/monitors/cds_memory_usage_for_each_node_and_cluster.json + CPU usage is high: assets/monitors/cds_cpu_usage_for_each_node_and_cluster.json + Disk usage is high: assets/monitors/cds_disk_usage_for_each_node_and_cluster.json + Memory usage is high: assets/monitors/cds_memory_usage_for_each_node_and_cluster.json author: homepage: https://www.crestdata.ai name: Crest Data Systems @@ -42,7 +42,7 @@ categories: - キャッシュ - data stores - マーケットプレイス -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -102,7 +102,7 @@ tile: - caption: Dell EMC Isilon - モニター概要 image_url: images/cds-dell-emc-isilon-monitors-summary.png media_type: image - - caption: Dell EMC Isilon NFS Export Stats + - caption: Dell EMC Isilon NFS エクスポート統計 image_url: images/cds-dell-emc-isilon-nfs-export-stats.png media_type: image overview: README.md#Overview @@ -158,4 +158,4 @@ tile: [10]: mailto:datadog.integrations@crestdata.ai [11]: mailto:datadog-sales@crestdata.ai --- -このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/databricks.md b/content/ja/integrations/databricks.md index b6b98396065ab..0407e164862b9 100644 --- a/content/ja/integrations/databricks.md +++ b/content/ja/integrations/databricks.md @@ -2,6 +2,10 @@ app_id: databricks app_uuid: f99b6e79-f50a-479d-b916-955a577e4f41 assets: + dashboards: + Databricks Clusters Dashboard: assets/dashboards/clusters_dashboard.json + Databricks Overview Dashboard: assets/dashboards/overview_dashboard.json + databricks_cost_overview: assets/dashboards/databricks_cost_overview.json integration: auto_install: true configuration: {} @@ -22,7 +26,7 @@ categories: - cloud - コスト管理 - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/databricks/README.md display_on_public_website: true @@ -35,7 +39,7 @@ is_public: true manifest_version: 2.0.0 name: databricks public_title: Databricks -short_description: Apache Spark および Databricks ジョブのパフォーマンス、信頼性、コストを監視します。 +short_description: Databricks 環境の信頼性とコストを監視します。 supported_os: - linux - windows @@ -51,7 +55,7 @@ tile: - Supported OS::macOS - Offering::Integration configuration: README.md#Setup - description: Apache Spark および Databricks ジョブのパフォーマンス、信頼性、コストを監視します。 + description: Databricks 環境の信頼性とコストを監視します。 media: [] overview: README.md#Overview resources: @@ -69,25 +73,29 @@ tile:
-Data Jobs Monitoring helps you observe, troubleshoot, and cost-optimize your Databricks jobs and clusters.

-This page is limited to documentation for ingesting Databricks cluster utilization metrics and logs. +Data Jobs Monitoring は、Databricks のジョブとクラスターを観察し、トラブルシューティングし、コストを最適化するのに役立ちます。

+このページは、Databricks クラスターの利用状況メトリクスとログの取り込みに関するドキュメントに限定されています。
![Databricks のデフォルトのダッシュボード][1] ## 概要 -[Databricks][2] クラスターを Datadog の [Spark インテグレーション][3]で監視します。 +Datadog は、いくつかの Databricks の監視機能を提供しています。 -このインテグレーションは、ログ、インフラストラクチャーメトリクス、Spark パフォーマンスメトリクスを統合し、ノードの健全性とジョブのパフォーマンスをリアルタイムで視覚化します。エラーのデバッグ、パフォーマンスの微調整、非効率なデータ分割やクラスターのメモリ不足などの問題の特定に役立ちます。 +[Data Jobs Monitoring][2] は、Databricks のジョブやクラスターの監視機能を提供します。データパイプラインのあらゆる場所で問題のあるDatabricks ジョブやワークフローを検出し、失敗したジョブや長時間実行されているジョブを迅速に対応・修正することができ、クラスターリソースを効率的に最適化してコスト削減につなげることが可能です。 -機能の詳細については、[Datadog を使用した Databricks の監視][4]を参照してください。 +[Cloud Cost Management][3] は、関連するクラウド支出と共に、すべての Databricks DBU コストを分析するビューを提供します。 + +[Log Management][4] は、Databricks のジョブやクラスターからのログを集約・分析することを可能にします。これらのログは [Data Jobs Monitoring][2] の一部として収集することができます。 + +[Infrastructure Monitoring][5] は、Data Jobs Monitoring の機能の一部に特化した限定的なサブセットであり、Databricks クラスターのリソース使用状況や Apache Spark のパフォーマンスメトリクスを可視化する機能を提供します。 ## セットアップ ### インストール -Databricks Spark アプリケーションを [Datadog Spark インテグレーション][5]で監視します。適切なクラスターの[構成](#configuration)方法に従って、クラスターに [Datadog Agent][6] をインストールしてください。その後、Datadog に [Spark インテグレーション][5]をインストールし、Databricks Overview ダッシュボードを自動インストールします。 +Databricks Spark アプリケーションを [Datadog Spark インテグレーション][6]で監視します。適切なクラスターの[構成](#configuration)方法に従って、クラスターに [Datadog Agent][7] をインストールしてください。その後、Datadog に [Spark インテグレーション][6]をインストールし、Databricks Overview ダッシュボードを自動インストールします。 ### 構成 @@ -114,7 +122,8 @@ UI、Databricks CLI を使用して、または Clusters API を呼び出して グローバル init スクリプトは、ワークスペースで作成されたすべてのクラスターで実行されます。グローバル init スクリプトは、組織全体のライブラリ構成やセキュリティ画面を強制したい場合に便利です。 -
ワークスペース管理者のみがグローバル init スクリプトを管理できます。
+
グローバル init スクリプトを管理できるのはワークスペース管理者のみです。
+
グローバル init スクリプトは、シングルユーザーまたはレガシーのアイソレーションなし共有アクセスモードで構成されたクラスターでのみ実行されます。したがって、Databricks はすべての init スクリプトをクラスタースコープで構成し、クラスターポリシーを使用してワークスペース全体で管理することを推奨します。
Databricks UI を使用してグローバル init スクリプトを編集します。 @@ -126,7 +135,7 @@ Databricks UI を使用してグローバル init スクリプトを編集しま 6. **Enabled** トグルをクリックして有効にします。 7. **Add** ボタンをクリックします。 -これらの手順の後、新しいクラスターは自動的にスクリプトを使用します。グローバル init スクリプトの詳細については [Databricks 公式ドキュメント][7]を参照してください。 +これらの手順の後、いずれの新しいクラスターもスクリプトを自動的に使用するようになります。グローバル init スクリプトの詳細については、[Databricks 公式ドキュメント][8]を参照してください。
複数の init スクリプトを定義し、UI でその順番を指定することができます。
@@ -312,7 +321,7 @@ chmod a+x /tmp/start_datadog.sh #### クラスタースコープの init スクリプトの場合 -Cluster-scoped init scripts are init scripts defined in a cluster configuration. Cluster-scoped init scripts apply to both clusters you create and those created to run jobs. Databricks supports configuration and storage of init scripts through: +クラスタースコープの init スクリプトとは、クラスター構成内で定義される init スクリプトのことです。クラスタースコープの init スクリプトは、あなたが作成するクラスターとジョブを実行するために作成されたクラスターの両方に適用されます。Databricks は、以下の方法で init スクリプトの構成と保存をサポートしています。 - Workspace Files - Unity Catalog Volumes - Cloud Object Storage @@ -321,21 +330,21 @@ Databricks UI を使用してクラスターを編集し、init スクリプト 1. 以下のスクリプトのいずれかを選択して、Agent をドライバー、またはクラスターのドライバーノードとワーカーノードにインストールします。 2. ニーズに合わせてスクリプトを変更します。例えば、タグを追加したり、インテグレーション用に特定の構成を定義することができます。 -3. Save the script into your workspace with the **Workspace** menu on the left. If using **Unity Catalog Volume**, save the script in your **Volume** with the **Catalog** menu on the left. +3. 左側の **Workspace** メニューを使用して、スクリプトをワークスペースに保存します。**Unity Catalog Volume** を使用する場合は、左側の **Catalog** メニューを使用して、スクリプトを **Volume** に保存します。 4. クラスター構成ページで、** Advanced** オプションのトグルをクリックします。 5. **Environment variables** で、`DD_API_KEY` 環境変数と、オプションで `DD_ENV` と `DD_SITE` 環境変数を指定します。 6. **Init Scripts** タブに移動します。 -7. In the **Destination** dropdown, select the `Workspace` destination type. If using **Unity Catalog Volume**, in the **Destination** dropdown, select the `Volume` destination type. -8. Specify a path to the init script. +7. **Destination** のドロップダウンで、`Workspace` の宛先タイプを選択します。**Unity Catalog Volume** を使用する場合、**Destination** のドロップダウンで、`Volume` の宛先タイプを選択します。 +8. init スクリプトのパスを指定してください。 9. **Add** ボタンをクリックします。 もし `datadog_init_script.sh` を `Shared` ワークスペースに直接保存した場合は、パス `/Shared/datadog_init_script.sh` でファイルにアクセスできます。 もし `datadog_init_script.sh` をユーザーワークスペースに直接保存した場合は、パス `/Users/$EMAIL_ADDRESS/datadog_init_script.sh` でファイルにアクセスできます。 -If you stored your `datadog_init_script.sh` directly in a `Unity Catalog Volume`, you can access the file at the following path: `/Volumes/$VOLUME_PATH/datadog_init_script.sh`. +もし `datadog_init_script.sh` を `Unity Catalog Volume` に直接保存した場合は、パス `/Volumes/$VOLUME_PATH/datadog_init_script.sh` でファイルにアクセスできます。 -クラスター init スクリプトの詳細については、[Databricks 公式ドキュメント][7]を参照してください。 +クラスター init スクリプトの詳細については、[Databricks 公式ドキュメント][8]を参照してください。 {{< tabs >}} {{% tab "ドライバーのみ" %}} @@ -515,11 +524,11 @@ chmod a+x /tmp/start_datadog.sh ### メトリクス -収集されたメトリクスのリストについては、[Spark インテグレーションドキュメント][8]を参照してください。 +収集されたメトリクスのリストについては、[Spark インテグレーションドキュメント][9]を参照してください。 ### サービスチェック -収集されたサービスチェックのリストについては、[Spark インテグレーションドキュメント][9]を参照してください。 +収集されたサービスチェックのリストについては、[Spark インテグレーションドキュメント][10]を参照してください。 ### イベント @@ -527,28 +536,29 @@ Databricks インテグレーションには、イベントは含まれません ## トラブルシューティング -[Databricks Web ターミナル][10]を有効にするか、[Databricks ノートブック][11]を使用することで、問題を自分でトラブルシューティングできます。有用なトラブルシューティング手順については、[Agent のトラブルシューティング][12]のドキュメントを参照してください。 +[Databricks Web ターミナル][11]を有効にするか、[Databricks ノートブック][12]を使用することで、問題を自分でトラブルシューティングできます。有用なトラブルシューティング手順については、[Agent のトラブルシューティング][13]のドキュメントを参照してください。 -ご不明な点は、[Datadog のサポートチーム][13]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][14]までお問合せください。 ## その他の参考資料 お役に立つドキュメント、リンクや記事: -- [Uploading a Script to Unity Catalog Volume][14] +- [Unity カタログボリュームへのスクリプトのアップロード][15] [1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/databricks/images/databricks_dashboard.png -[2]: https://databricks.com/ -[3]: https://docs.datadoghq.com/ja/integrations/spark/?tab=host -[4]: https://www.datadoghq.com/blog/databricks-monitoring-datadog/ -[5]: https://app.datadoghq.com/integrations/spark -[6]: https://app.datadoghq.com/account/settings/agent/latest -[7]: https://docs.databricks.com/clusters/init-scripts.html#global-init-scripts -[8]: https://docs.datadoghq.com/ja/integrations/spark/#metrics -[9]: https://docs.datadoghq.com/ja/integrations/spark/#service-checks -[10]: https://docs.databricks.com/en/clusters/web-terminal.html -[11]: https://docs.databricks.com/en/notebooks/index.html -[12]: https://docs.datadoghq.com/ja/agent/troubleshooting/ -[13]: https://docs.datadoghq.com/ja/help/ -[14]: https://docs.databricks.com/en/ingestion/add-data/upload-to-volume.html#upload-files-to-a-unity-catalog-volume +[2]: https://www.datadoghq.com/product/data-jobs-monitoring/ +[3]: https://www.datadoghq.com/product/cloud-cost-management/ +[4]: https://www.datadoghq.com/product/log-management/ +[5]: https://docs.datadoghq.com/ja/integrations/databricks/?tab=driveronly +[6]: https://app.datadoghq.com/integrations/spark +[7]: https://app.datadoghq.com/account/settings/agent/latest +[8]: https://docs.databricks.com/clusters/init-scripts.html#global-init-scripts +[9]: https://docs.datadoghq.com/ja/integrations/spark/#metrics +[10]: https://docs.datadoghq.com/ja/integrations/spark/#service-checks +[11]: https://docs.databricks.com/en/clusters/web-terminal.html +[12]: https://docs.databricks.com/en/notebooks/index.html +[13]: https://docs.datadoghq.com/ja/agent/troubleshooting/ +[14]: https://docs.datadoghq.com/ja/help/ +[15]: https://docs.databricks.com/en/ingestion/add-data/upload-to-volume.html#upload-files-to-a-unity-catalog-volume \ No newline at end of file diff --git a/content/ja/integrations/datadog_cluster_agent.md b/content/ja/integrations/datadog_cluster_agent.md index 3e4941459e57f..9d782da6f0ff7 100644 --- a/content/ja/integrations/datadog_cluster_agent.md +++ b/content/ja/integrations/datadog_cluster_agent.md @@ -25,7 +25,7 @@ author: support_email: help@datadoghq.com categories: - containers -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/README.md display_on_public_website: true @@ -33,7 +33,7 @@ draft: false git_integration_title: datadog_cluster_agent integration_id: datadog-cluster-agent integration_title: Datadog Cluster Agent -integration_version: 3.2.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: datadog_cluster_agent @@ -72,18 +72,21 @@ tile: ### インストール -Datadog-Cluster-Agent チェックは [Datadog Agent][2] パッケージに含まれています。 +Datadog Cluster Agent チェックは [Datadog Agent][2] パッケージに含まれています。 サーバーに追加でインストールする必要はありません。 ### 構成 +Datadog Cluster Agent チェックは、ほとんどのシナリオで自動的に構成を行うために[オートディスカバリー][3]を使用します。このチェックは、Cluster Agent ポッドと同じノード上の Datadog Agent ポッドで実行されますが、Cluster Agent 自体では実行されません。 -1. datadog_cluster_agent のパフォーマンスデータの収集を開始するには、Agent のコンフィギュレーションディレクトリのルートにある `conf.d/` フォルダーの `datadog_cluster_agent.d/conf.yaml` ファイルを編集します。使用可能なすべてのコンフィギュレーションオプションについては、[サンプル datadog_cluster_agent.d/conf.yaml][3] を参照してください。 +チェックをさらに構成する必要がある場合 -2. [Agent を再起動します][4]。 +1. datadog_cluster_agent のパフォーマンスデータの収集を開始するには、Agent のコンフィギュレーションディレクトリのルートにある `conf.d/` フォルダーの `datadog_cluster_agent.d/conf.yaml` ファイルを編集します。使用可能なすべてのコンフィギュレーションオプションについては、[サンプル datadog_cluster_agent.d/conf.yaml][4] を参照してください。 + +2. [Agent を再起動します][5]。 ### 検証 -[Agent の status サブコマンドを実行][5]し、Checks セクションで `datadog_cluster_agent` を探します。 +[Agent の status サブコマンドを実行][6]し、Checks セクションで `datadog_cluster_agent` を探します。 ## 収集データ @@ -101,14 +104,15 @@ Datadog_Cluster_Agent インテグレーションには、イベントは含ま ## トラブルシューティング -ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][9]までお問い合わせください。 [1]: https://docs.datadoghq.com/ja/agent/cluster_agent/ [2]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/ -[3]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/datadog_checks/datadog_cluster_agent/data/conf.yaml.example -[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[6]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/metadata.csv -[7]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/assets/service_checks.json -[8]: https://docs.datadoghq.com/ja/help/ +[3]: https://docs.datadoghq.com/ja/getting_started/containers/autodiscovery/ +[4]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/datadog_checks/datadog_cluster_agent/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/metadata.csv +[8]: https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/assets/service_checks.json +[9]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/docker_daemon.md b/content/ja/integrations/docker_daemon.md index c5bdc5667918c..f2b1f2bcfd75b 100644 --- a/content/ja/integrations/docker_daemon.md +++ b/content/ja/integrations/docker_daemon.md @@ -30,7 +30,7 @@ categories: - containers - ログの収集 - ネットワーク -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/docker_daemon/README.md display_on_public_website: true @@ -277,4 +277,4 @@ Docker インテグレーションは以下のイベントを生成します。 [28]: https://www.datadoghq.com/docker-adoption [29]: https://www.datadoghq.com/blog/monitor-docker-on-aws-ecs [30]: https://www.datadoghq.com/blog/docker-performance-datadog -[31]: https://www.datadoghq.com/blog/monitor-docker-datadog +[31]: https://www.datadoghq.com/blog/monitor-docker-datadog \ No newline at end of file diff --git a/content/ja/integrations/dyn.md b/content/ja/integrations/dyn.md index 7b372cd197dd2..62ae87578a3e7 100644 --- a/content/ja/integrations/dyn.md +++ b/content/ja/integrations/dyn.md @@ -23,7 +23,7 @@ author: support_email: help@datadoghq.com categories: - network -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -35,15 +35,15 @@ is_public: true manifest_version: 2.0.0 name: dyn public_title: Dyn -short_description: 'Monitor your zones: QPS and updates.' +short_description: 'ゾーンを監視: QPS と更新。' supported_os: [] tile: changelog: CHANGELOG.md classifier_tags: - - Category::Network + - Category::ネットワーク - Offering::Integration configuration: README.md#Setup - description: 'Monitor your zones: QPS and updates.' + description: 'ゾーンを監視: QPS と更新。' media: [] overview: README.md#Overview support: README.md#Support @@ -51,7 +51,7 @@ tile: --- -{{< img src="integrations/dyn/dyn_overview.png" alt="Dyn Overview" popup="true">}} +{{< img src="integrations/dyn/dyn_overview.png" alt="Dyn 概要" popup="true">}} ## 概要 @@ -71,7 +71,7 @@ Oracle Cloud Infrastructure は 2016 年に Dyn を買収し、Dyn の製品と Dyn で `datadog` 読み取り専用ユーザーをまだ作成していない場合は、[Dyn にログイン][1]し、以下の手順を実行します。 -1. ユーザー名とパスワードを選択します。 +1. ユーザー名とパスワードを選択します。 {{< img src="integrations/dyn/create_dyn_user.png" alt="dyn ユーザーを作成" style="width:75%;" popup="true">}} 2. **READONLY** ユーザーグループを選択します。 @@ -117,4 +117,4 @@ Dyn インテグレーションには、サービスのチェック機能は含 [1]: https://manage.dynect.net/login [2]: https://app.datadoghq.com/integrations/dyn [3]: https://github.com/DataDog/dogweb/blob/prod/integration/dyn/dyn_metadata.csv -[4]: https://docs.datadoghq.com/ja/help/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/ecs_fargate.md b/content/ja/integrations/ecs_fargate.md index f7ed636a4d99e..641c68fe52829 100644 --- a/content/ja/integrations/ecs_fargate.md +++ b/content/ja/integrations/ecs_fargate.md @@ -31,7 +31,7 @@ categories: - orchestration - provisioning - tracing -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/ecs_fargate/README.md display_on_public_website: true @@ -39,7 +39,7 @@ draft: false git_integration_title: ecs_fargate integration_id: aws-fargate integration_title: Amazon ECS on AWS Fargate -integration_version: 4.3.1 +integration_version: 6.0.0 is_public: true manifest_version: 2.0.0 name: ecs_fargate @@ -64,7 +64,7 @@ tile: - Supported OS::macOS - Offering::Integration configuration: README.md#Setup - description: Track metrics for containers running with ECS Fargate + description: ECS Fargate を使用して実行中のコンテナのメトリクスを追跡する media: [] overview: README.md#Overview resources: @@ -139,7 +139,7 @@ Fargate の主要な作業単位はタスクで、これはタスク定義内で 1. [AWS Web Console][4] にログインし、ECS セクションに移動します。 2. 左メニューの **Task Definitions** をクリックし、**Create new Task Definition** ボタンをクリックするか、既存の Fargate タスク定義を選択します。 3. 新しいタスク定義の場合 - 1. Select **Fargate** as the launch type, then click the **Next step** button. + 1. 起動タイプとして **Fargate** を選択し、**Next step** ボタンをクリックします。 2. **Task Definition Name** にタスク定義名を入力します (`my-app-and-datadog` など)。 3. タスク実行 IAM ロールを選択します。下の [IAM ポリシーの作成と修正](#create-or-modify-your-iam-policy)セクションで、権限の要件を確認します。 4. ニーズに合わせて **Task memory** と **Task CPU** を選択します。 @@ -252,9 +252,9 @@ ECS Fargate では、タスクを [Replica サービス][6]として実行する ##### Web UI レプリカサービス 1. [AWS Web Console][1] にログインし、ECS セクションに移動します。必要に応じて、**Networking only** クラスターテンプレートを使用してクラスターを作成します。 -2. Choose the cluster to run the Datadog Agent on. +2. Datadog Agent を実行するクラスターを選択します。 3. **Services** タブで、**Create** ボタンをクリックします。 -4. For **Launch type**, choose **FARGATE**. +4. **Launch type** で、**FARGATE** を選択します。 5. **Task Definition** で、先ほど作成したタスクを選択します。 6. **Service name** に入力します。 7. **Number of tasks** に `1` と入力し、**Next step** ボタンをクリックします。 @@ -272,7 +272,7 @@ ECS Fargate では、タスクを [Replica サービス][6]として実行する [AWS CLI ツール][1]を使用して次のコマンドを実行します。 -**Note**: Fargate version 1.1.0 or greater is required, so the command below specifies the platform version. +**注**: Fargate バージョン 1.1.0 以降が必要です。したがって、以下のコマンドでは、プラットフォームバージョンを指定します。 必要に応じてクラスターを作成します。 @@ -390,7 +390,7 @@ CloudFormation 例 (YAML): Value: "{\"com.docker.compose.service\":\"service_name\"}" ``` -**Note**: You should not use `DD_HOSTNAME` since there is no concept of a host to the user in Fargate. Using this tag can cause your tasks to appear as APM Hosts in the Infrastructure list, potentially impacting your billing. Instead, `DD_TAGS` is traditionally used to assign host tags. As of Datadog Agent version 6.13.0, you can also use the `DD_TAGS` environment variable to set global tags on your integration metrics. +**注**: `DD_HOSTNAME` を使用しないでください。Fargate には、ユーザーに対するホストという概念がないからです。このタグを使用すると、タスクがインフラストラクチャーリストの APM ホストとして表示されるようになり、請求に影響が出る可能性があります。代わりに、従来からホストタグを割り当てるために `DD_TAGS` が使用されています。Datadog Agent バージョン 6.13.0 では、`DD_TAGS` 環境変数を使用してインテグレーションメトリクスにグローバルタグを設定することもできます。 ### クローラーベースのメトリクス @@ -972,4 +972,4 @@ ECS Fargate チェックには、イベントは含まれません。 [49]: https://www.datadoghq.com/blog/aws-fargate-on-graviton2-monitoring/ [50]: https://www.datadoghq.com/blog/aws-fargate-windows-containers-support/ [51]: https://www.datadoghq.com/blog/monitor-fargate-processes/ -[52]: https://www.datadoghq.com/blog/monitor-aws-batch-on-fargate/ +[52]: https://www.datadoghq.com/blog/monitor-aws-batch-on-fargate/ \ No newline at end of file diff --git a/content/ja/integrations/eks_anywhere.md b/content/ja/integrations/eks_anywhere.md index fa21bec5138ed..391fb028894c2 100644 --- a/content/ja/integrations/eks_anywhere.md +++ b/content/ja/integrations/eks_anywhere.md @@ -24,7 +24,7 @@ categories: - ログの収集 - orchestration - プロビジョニング -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/eks_anywhere/README.md display_on_public_website: true @@ -152,4 +152,4 @@ _Agent バージョン 6.0 以降で利用可能_ [13]: https://docs.datadoghq.com/ja/help/ [14]: https://www.datadoghq.com/blog/announcing-eks [15]: https://www.datadoghq.com/blog/eks-cluster-metrics -[16]: https://docs.datadoghq.com/ja/integrations/eks_fargate/ +[16]: https://docs.datadoghq.com/ja/integrations/eks_fargate/ \ No newline at end of file diff --git a/content/ja/integrations/elastic.md b/content/ja/integrations/elastic.md index ff5674208451e..6dfebfb6fec27 100644 --- a/content/ja/integrations/elastic.md +++ b/content/ja/integrations/elastic.md @@ -22,12 +22,12 @@ assets: source_type_id: 37 source_type_name: Elasticsearch monitors: - '[ElasticSearch] Average query latency is high': assets/monitors/elastic_average_search_latency.json - '[ElasticSearch] Current indexing load is high': assets/monitors/elastic_indexing_load.json - '[ElasticSearch] Number of pending tasks is high': assets/monitors/elastic_pending_tasks_high.json - '[ElasticSearch] Query load is high': assets/monitors/elastic_query_load_high.json - '[ElasticSearch] Time spent on queries is high': assets/monitors/elastic_query_latency_high.json - '[ElasticSearch] Unsuccessful requests rate is high': assets/monitors/elastic_requests.json + Average Search Query Latency is High: assets/monitors/elastic_average_search_latency.json + Current Indexing Load is High: assets/monitors/elastic_indexing_load.json + Latency is high: assets/monitors/elastic_query_latency_high.json + Number of pending tasks is high: assets/monitors/elastic_pending_tasks_high.json + Query load is high: assets/monitors/elastic_query_load_high.json + Unsuccessful requests rate is high: assets/monitors/elastic_requests.json saved_views: elasticsearch_processes: assets/saved_views/elasticsearch_processes.json author: @@ -39,7 +39,7 @@ categories: - data stores - log collection - tracing -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/elastic/README.md display_on_public_website: true @@ -47,7 +47,7 @@ draft: false git_integration_title: elastic integration_id: elasticsearch integration_title: ElasticSearch -integration_version: 6.3.1 +integration_version: 8.0.0 is_public: true manifest_version: 2.0.0 name: elastic @@ -108,7 +108,7 @@ Elasticsearch チェックは [Datadog Agent][2] パッケージに含まれて ホストで実行中の Agent に対してこのチェックを構成するには -##### Metric collection +##### メトリクスの収集 1. Elasticsearch の[メトリクス](#metrics)を収集するには、[Agent の構成ディレクトリ][1]のルートにある `conf.d/` フォルダーの `elastic.d/conf.yaml` ファイルを編集します。使用可能なすべての構成オプションについては、[サンプル elastic.d/conf.yaml][2] を参照してください。 @@ -556,4 +556,4 @@ Elasticsearch チェックは、Elasticsearch クラスターの全体的なス [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [4]: https://docs.datadoghq.com/ja/integrations/faq/elastic-agent-can-t-connect/ [5]: https://docs.datadoghq.com/ja/integrations/faq/why-isn-t-elasticsearch-sending-all-my-metrics/ -[6]: https://www.datadoghq.com/blog/monitor-elasticsearch-performance-metrics +[6]: https://www.datadoghq.com/blog/monitor-elasticsearch-performance-metrics \ No newline at end of file diff --git a/content/ja/integrations/embrace_mobile.md b/content/ja/integrations/embrace_mobile.md index 4dca774ea1035..ea570a5717276 100644 --- a/content/ja/integrations/embrace_mobile.md +++ b/content/ja/integrations/embrace_mobile.md @@ -4,6 +4,26 @@ app_uuid: 86988058-9b89-45a8-b92f-5473a96e4a36 assets: dashboards: Embrace Overview: assets/dashboards/embrace_mobile_overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: + - embrace.session_total.five_minute + - embrace.session_total.hourly + - embrace.session_total.daily + - embrace.crash_total.five_minute + - embrace.crash_total.hourly + - embrace.crash_total.daily + - embrace.users_total.daily + metadata_path: metadata.csv + prefix: embrace. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 25653134 + source_type_name: Embrace author: homepage: https://embrace.io name: Embrace @@ -13,7 +33,7 @@ categories: - メトリクス - モバイル - ネットワーク -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/embrace_mobile/README.md display_on_public_website: true @@ -83,10 +103,10 @@ tile: 1. Datadog でダッシュボードを新規作成します。クラッシュまたはネットワーキングメトリクスを含む Embrace のデータを表示するには、Embrace ウィジェットを選択します。 1. "Details" をクリックすると、Datadog から Embrace の詳細を確認できます。 -## Agent +## サポート ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 [1]: https://embrace.io [2]: https://embrace.io/docs/ -[3]: https://docs.datadoghq.com/ja/help/ +[3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/etcd.md b/content/ja/integrations/etcd.md index 57ce0e16aaf06..ab97e23168f2d 100644 --- a/content/ja/integrations/etcd.md +++ b/content/ja/integrations/etcd.md @@ -36,7 +36,7 @@ categories: - containers - configuration & deployment - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/etcd/README.md display_on_public_website: true @@ -44,7 +44,7 @@ draft: false git_integration_title: etcd integration_id: etcd integration_title: etcd -integration_version: 6.2.2 +integration_version: 8.0.0 is_public: true manifest_version: 2.0.0 name: etcd @@ -210,4 +210,4 @@ Etcd チェックには、イベントは含まれません。 [6]: https://www.datadoghq.com/blog/monitor-etcd-performance [7]: https://www.datadoghq.com/blog/monitor-etcd-with-datadog/ [8]: https://www.datadoghq.com/blog/etcd-monitoring-tools/ -[9]: https://www.datadoghq.com/blog/etcd-key-metrics/ +[9]: https://www.datadoghq.com/blog/etcd-key-metrics/ \ No newline at end of file diff --git a/content/ja/integrations/fairwinds_insights.md b/content/ja/integrations/fairwinds_insights.md index b920d88c6119b..5119e870837b6 100644 --- a/content/ja/integrations/fairwinds_insights.md +++ b/content/ja/integrations/fairwinds_insights.md @@ -32,7 +32,7 @@ categories: - マーケットプレイス - プロビジョニング - セキュリティ -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -166,7 +166,7 @@ Fairwinds Insights にサービスのチェックは含まれません。 サポートまたはリクエストをご希望の場合は、以下のチャンネルから Fairwinds にお問い合わせください。 -- 電話: +1 617-202-3659 +- 電話: +1 617-202-3659 - メール: [sales@fairwinds.com][2] ### よくある質問 @@ -215,4 +215,4 @@ Fairwinds Insights は月々の定額利用で提供されるため、お客様 [2]: https://www.datadoghq.com/blog/fairwinds-insights-datadog-marketplace/ [3]: https://insights.docs.fairwinds.com/ --- -このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/fastly.md b/content/ja/integrations/fastly.md index e593d9be58bcf..c05d8f380da0b 100644 --- a/content/ja/integrations/fastly.md +++ b/content/ja/integrations/fastly.md @@ -18,10 +18,10 @@ assets: source_type_id: 57 source_type_name: Fastly monitors: - '[Fastly] 5xx Errors higher than usual for service: {{service.name}}': assets/monitors/rec_monitor_5xx_errors.json - '[Fastly] Abnormal bandwidth being sent for service: {{service.name}}': assets/monitors/rec_monitor_bandwidth.json - '[Fastly] High volume of requests triggering a Web Application Firewall rule on service: {{service.name}}': assets/monitors/waf_rules.json - '[Fastly] Low Hit Ratio for service: {{service.name}}': assets/monitors/rec_monitor_hit_ratio.json + 5XX errors are higher than usual: assets/monitors/rec_monitor_5xx_errors.json + 'Hit Ratio is low ': assets/monitors/rec_monitor_hit_ratio.json + Sent bandwidth is abnormally high: assets/monitors/rec_monitor_bandwidth.json + Web application firewall rule is triggered: assets/monitors/waf_rules.json author: homepage: https://www.datadoghq.com name: Datadog @@ -31,7 +31,7 @@ categories: - caching - log collection - metrics -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -130,7 +130,7 @@ Fastly ログを Datadog に転送するように Datadog エンドポイント ##### Syslog エンドポイントの構成 1. エンドポイントに名前を付けます (例: `Datadog`)。 -2. Configure the log format to include the recommended Datadog-Fastly log format with [your Datadog API key][3] at the beginning. See [Using the JSON logging format][2] in the Fastly documentation for an example. +2. ログ形式を構成して、推奨される[Datadog-Fastly ログ形式][2]の先頭に[Datadog API キー][3]を含めます。例については、Fastly のドキュメントの [JSON ログ形式の使用][2]を参照してください。 ```text @@ -182,4 +182,4 @@ Fastly インテグレーションには、サービスのチェック機能は [3]: https://docs.datadoghq.com/ja/help/ [4]: https://www.datadoghq.com/blog/monitor-fastly-performance-metrics/ [5]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_fastly_account -[6]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_fastly_service +[6]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_fastly_service \ No newline at end of file diff --git a/content/ja/integrations/fluentbit.md b/content/ja/integrations/fluentbit.md index ecfda5883c9dc..f18ba76791b16 100644 --- a/content/ja/integrations/fluentbit.md +++ b/content/ja/integrations/fluentbit.md @@ -1,7 +1,7 @@ --- categories: - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/documentation/blob/master/content/en/integrations/fluentbit.md description: Fluent Bit を構成し、ログデータを複数ソースから収集してパースし、転送します。 @@ -48,7 +48,7 @@ Fluent Bit を構成して、ログデータを複数の異なるソースから | dd_source | _推奨_ - サービスの基盤となるテクノロジーの名前。人間が解読可能であること。たとえば `postgres` や `nginx` など。 | | | dd_message_key | _推奨_ - ログメッセージを保存するために属性を使用するように設定します。 | | | dd_tags | _任意_ - Datadog のログに割り当てる[タグ][10]。 | | -| dd_hostname | _Optional_ - The host that emitted logs should be associated with. If unset, Datadog expects the host to be set as one of [the standard host attributes][12]. +| dd_hostname | _オプション_ - ログを発行したホストに関連付けることができます。未設定の場合、Datadog はホストが[標準のホスト属性][12]のいずれかとして設定されているとみなします。 | プロバイダー | _任意_ - 使用するプロバイダー。Fargate Tasks から Datadog にログを送信する場合は、これを `ecs` に設定します。 | | #### コンフィギュレーションファイルの例 @@ -61,7 +61,7 @@ Fluent Bit を構成して、ログデータを複数の異なるソースから TLS on compress gzip apikey - dd_service <アプリケーション_サービス> + dd_service <アプリケーション_サービス> dd_source <ソース> dd_message_key log dd_tags env:dev,<タグキー>:<タグ値> @@ -86,4 +86,4 @@ Fluent Bit を構成して、ログデータを複数の異なるソースから [9]: https://app.datadoghq.com/logs [10]: /ja/getting_started/tagging/ [11]: /ja/help/ -[12]: /ja/logs/log_configuration/pipelines/?tab=host#preprocessing +[12]: /ja/logs/log_configuration/pipelines/?tab=host#preprocessing \ No newline at end of file diff --git a/content/ja/integrations/fluentd.md b/content/ja/integrations/fluentd.md index 0705c78a21135..1a1cc2eb7245a 100644 --- a/content/ja/integrations/fluentd.md +++ b/content/ja/integrations/fluentd.md @@ -32,7 +32,7 @@ author: categories: - log collection - metrics -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/fluentd/README.md display_on_public_website: true @@ -40,7 +40,7 @@ draft: false git_integration_title: fluentd integration_id: fluentd integration_title: FluentD -integration_version: 3.2.1 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: fluentd @@ -276,4 +276,4 @@ FluentD チェックには、イベントは含まれません。 [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [4]: https://docs.datadoghq.com/ja/help/ -[5]: https://www.datadoghq.com/blog/monitor-fluentd-datadog +[5]: https://www.datadoghq.com/blog/monitor-fluentd-datadog \ No newline at end of file diff --git a/content/ja/integrations/github.md b/content/ja/integrations/github.md index 99484f7d98d21..55075e7169222 100644 --- a/content/ja/integrations/github.md +++ b/content/ja/integrations/github.md @@ -6,7 +6,7 @@ categories: - developer tools - issue tracking - source control -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: GitHub と Datadog を接続し、サービスのパフォーマンスに影響を与えるコミットやプルリクエストを監視する doc_link: https://docs.datadoghq.com/integrations/github/ @@ -24,7 +24,7 @@ further_reading: - link: https://docs.datadoghq.com/integrations/guide/source-code-integration/ tag: Documentation text: Datadog のソースコードインテグレーションについて -- link: https://docs.datadoghq.com/tracing/service_catalog/setup/#store-and-edit-service-definitions-in-github +- link: https://docs.datadoghq.com/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github tag: Documentation text: サービスカタログで GitHub インテグレーションを利用する方法について - link: https://docs.datadoghq.com/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code @@ -90,9 +90,9 @@ GitHub アプリに問題やプルリクエストの読み取り権限を与え ### 監査ログ -監査ログは、GitHub の組織全体のすべてのアクティビティとイベントを網羅します。アプリケーションをインストールする際には、**Organization Administration** 権限が読み取りアクセス権を持つように許可してください。これにより、アプリケーションは GitHub の監査ストリームを GitHub 組織に代わってログとして収集し始めます。 +**要件**: 監査ログを収集するには GitHub Enterprise アカウントが必要です。 -**注**: 監査ログを収集するには GitHub Enterprise アカウントが必要です。 +監査ログは、GitHub の組織全体のすべてのアクティビティとイベントを網羅します。アプリケーションをインストールする際には、**Organization Administration** 権限が読み取りアクセス権を持つように許可してください。これにより、アプリケーションは GitHub の監査ストリームを GitHub 組織に代わってログとして収集し始めます。 GitHub ドキュメントの [Datadog へのストリーミングのセットアップ][8]の手順に従って、監査ログを Datadog に転送します。監査ログの詳細については、GitHub ドキュメントの[監査ログアクション][9]を参照してください。 @@ -121,18 +121,18 @@ GitHub インテグレーションは、Code Scan Alert と Secret Scan Alert 5. オプションで、**Secret** フィールドにシークレットを追加します。 6. **Which events would you like to trigger this webhook?** セクションで、**Let me select individual events.** をクリックし、以下のサポートされるオプションから選択して、Datadog に[イベント][11]を送信します。 - | Event Name | Event Actions | + | イベント名 | イベントアクション | |---|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| - | [Branch or tag creation][12] | | - | [Commit comments][13] | | - | [Issue comments][14] | The following actions are supported:

- [`created`][15]
- [`deleted`][16]
- [`edited`][17] | - | [Issues][18] | The following actions are supported:

- [`assigned`][19]
- [`closed`][20]
- [`deleted`][21]
- [`demilestoned`][22]
- [`edited`][23]
- [`labeled`][24]
- [`locked`][25]
- [`milestoned`][26]
- [`opened`][27]
- [`pinned`][28]
- [`reopened`][29]
- [`transferred`][30]
- [`unassigned`][31]
- [`unlabeled`][32]
- [`unlocked`][33]
- [`unpinned`][34] | - | [Pull request review comments][35] | The following actions are supported:

- [`created`][36]
- [`deleted`][37]
- [`edited`][38] | - | [Pull requests][39] | The following actions are supported:

- [`assigned`][40]
- [`unassigned`][41]
- [`labeled`][42]
- [`unlabeled`][43]
- [`opened`][44]
- [`edited`][45]
- [`closed`][46]
- [`reopened`][47]
- [`synchronize`][48]
- [`converted_to_draft`][49]
- [`locked`][50]
- [`unlocked`][51]
- [`enqueued`][52]
- [`dequeued`][53]
- [`milestoned`][54]
- [`demilestoned`][55]
- [`ready_for_review`][56]
- [`review_requested`][57]
- [`review_request_removed`][58]
- [`auto_merge_enabled`][59]
- [`auto_merge_disabled`][60] | - | [Pushes][61] | | - | [Repositories][62] | The following actions are supported:

- [`archived`][63]
- [`created`][64]
- [`deleted`][65]
- [`edited`][66]
- [`privatized`][67]
- [`publicized`][68]
- [`renamed`][69]
- [`transferred`][70]
- [`unarchived`][71] | - | [Security and analysis][72] | | - | [Team adds][73] | | + | [ブランチまたはタグの作成][12] | | + | [コミットコメント][13] | | + | [課題コメント][14] | 以下のアクションがサポートされています。

- [`created`][15]
- [`deleted`][16]
- [`edited`][17] | + | [課題][18] | 以下のアクションがサポートされています。

- [`assigned`][19]
- [`closed`][20]
- [`deleted`][21]
- [`demilestoned`][22]
- [`edited`][23]
- [`labeled`][24]
- [`locked`][25]
- [`milestoned`][26]
- [`opened`][27]
- [`pinned`][28]
- [`reopened`][29]
- [`transferred`][30]
- [`unassigned`][31]
- [`unlabeled`][32]
- [`unlocked`][33]
- [`unpinned`][34] | + | [プルリクエストレビューコメント][35] | 以下のアクションがサポートされています。

- [`created`][36]
- [`deleted`][37]
- [`edited`][38] | + | [プルリクエスト][39] | 以下のアクションがサポートされています。

- [`assigned`][40]
- [`unassigned`][41]
- [`labeled`][42]
- [`unlabeled`][43]
- [`opened`][44]
- [`edited`][45]
- [`closed`][46]
- [`reopened`][47]
- [`synchronize`][48]
- [`converted_to_draft`][49]
- [`locked`][50]
- [`unlocked`][51]
- [`enqueued`][52]
- [`dequeued`][53]
- [`milestoned`][54]
- [`demilestoned`][55]
- [`ready_for_review`][56]
- [`review_requested`][57]
- [`review_request_removed`][58]
- [`auto_merge_enabled`][59]
- [`auto_merge_disabled`][60] | + | [プッシュ][61] | | + | [リポジトリ][62] | 以下のアクションがサポートされています。

- [`archived`][63]
- [`created`][64]
- [`deleted`][65]
- [`edited`][66]
- [`privatized`][67]
- [`publicized`][68]
- [`renamed`][69]
- [`transferred`][70]
- [`unarchived`][71] | + | [セキュリティと分析][72] | | + | [チームへの追加][73] | | 7. **Active** を選択すると、フックがトリガーされたときにイベントの詳細を受け取ることができます。 8. **Add webhook** をクリックして、Webhook を保存します。 @@ -150,7 +150,7 @@ GitHub インテグレーションは、Code Scan Alert と Secret Scan Alert 3. **Commits** と **Issues** のチェックボックスをクリックすると、これらのイベントがアラートされます。 4. **Update Configuration** をクリックすると、Webhook の構成が保存されます。 -Once you have added webhooks in the **Webhooks** tab on the integration tile, events in the GitHub repositories you specified above start to appear in the [Events Explorer][74]. For more information, see the [Events Explorer documentation][75]. +インテグレーションタイルの **Webhooks** タブで Webhook を追加すると、上記で指定した GitHub リポジトリのイベントが [Events Explorer][74] に表示されるようになります。詳しくは、[Events Explorer のドキュメント][75]をご覧ください。 GitHub からのイベントをフィルターするには、**Core** の下にある **Source** ファセットメニューで **Github** を選択するか、検索クエリに `source:github` と入力してください。イベントの棒グラフは、検索クエリを編集すると自動的に更新されます。 @@ -160,7 +160,7 @@ GitHub インテグレーションには、サービスのチェック機能は ## トラブルシューティング -Need help? Contact [Datadog support][76]. +ご不明な点は、[Datadog のサポートチーム][76]までお問い合わせください。 ## その他の参考資料 @@ -169,7 +169,7 @@ Need help? Contact [Datadog support][76]. [1]: https://docs.datadoghq.com/ja/integrations/guide/source-code-integration/ [2]: https://docs.datadoghq.com/ja/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code [3]: https://docs.datadoghq.com/ja/continuous_integration/guides/pull_request_comments/ -[4]: https://docs.datadoghq.com/ja/tracing/service_catalog/setup/#store-and-edit-service-definitions-in-github +[4]: https://docs.datadoghq.com/ja/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github [5]: https://app.datadoghq.com/integrations/github/ [6]: https://docs.datadoghq.com/ja/api/latest/ip-ranges/ [7]: https://app.datadoghq.com/notebook @@ -241,4 +241,4 @@ Need help? Contact [Datadog support][76]. [73]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#team_add [74]: https://app.datadoghq.com/event/explorer/ [75]: https://docs.datadoghq.com/ja/events/explorer/ -[76]: https://docs.datadoghq.com/ja/help/ +[76]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/go_expvar.md b/content/ja/integrations/go_expvar.md index 026f75fb8d7b0..be15c21cfaac3 100644 --- a/content/ja/integrations/go_expvar.md +++ b/content/ja/integrations/go_expvar.md @@ -23,7 +23,7 @@ author: support_email: help@datadoghq.com categories: - languages -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/go_expvar/README.md display_on_public_website: true @@ -31,7 +31,7 @@ draft: false git_integration_title: go_expvar integration_id: go-expvar integration_title: Go-Expvar -integration_version: 2.5.1 +integration_version: 4.0.0 is_public: true manifest_version: 2.0.0 name: go_expvar @@ -157,4 +157,4 @@ Go-Expvar チェックには、サービスのチェック機能は含まれま [5]: https://golang.org/pkg/net/http/#ListenAndServe [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [7]: https://docs.datadoghq.com/ja/help/ -[8]: https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog +[8]: https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog \ No newline at end of file diff --git a/content/ja/integrations/google_cloud_dataproc.md b/content/ja/integrations/google_cloud_dataproc.md index e20fbf2049a4d..87d731bf30aa7 100644 --- a/content/ja/integrations/google_cloud_dataproc.md +++ b/content/ja/integrations/google_cloud_dataproc.md @@ -3,7 +3,7 @@ categories: - cloud - google cloud - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: Google Cloud Dataproc のキーメトリクスを追跡 doc_link: https://docs.datadoghq.com/integrations/google_cloud_dataproc/ @@ -24,6 +24,10 @@ version: '1.0' ## 概要 +
+Data Jobs Monitoring は、Dataproc クラスター上の Spark ジョブの観測、トラブルシューティング、コスト最適化を支援します。 +
+ Google Cloud Dataproc は、Apache Spark と Apache Hadoop のクラスターを簡単かつコスト効率よく実行するための高速で使いやすいフルマネージド型のクラウドサービスです。 Datadog Google Cloud Platform インテグレーションを使用して、Google Cloud Dataproc からメトリクスを収集できます。 @@ -34,7 +38,7 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl [Google Cloud Platform インテグレーション][1]をまだセットアップしていない場合は、最初にセットアップします。それ以上のインストール手順はありません。 -### 収集データ +### ログ収集 Google Cloud Dataproc のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 @@ -67,4 +71,4 @@ Google Cloud Dataproc インテグレーションには、サービスのチェ [2]: https://docs.datadoghq.com/ja/integrations/google_cloud_platform/#log-collection [3]: https://console.cloud.google.com/logs/viewer [4]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_dataproc/google_cloud_dataproc_metadata.csv -[5]: https://docs.datadoghq.com/ja/help/ +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/google_cloud_tpu.md b/content/ja/integrations/google_cloud_tpu.md index f728d8ae30ed5..97ff6d5cced23 100644 --- a/content/ja/integrations/google_cloud_tpu.md +++ b/content/ja/integrations/google_cloud_tpu.md @@ -1,28 +1,85 @@ --- +app_id: google-cloud-tpu +app_uuid: c20f781b-e1d0-438e-b33d-0bc4bb4c6d0a +assets: + dashboards: + google-cloud-tpu-overview: assets/dashboards/google_cloud_tpu_overview.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - gcp.tpu.cpu.utilization + - gcp.tpu.memory.usage + - gcp.tpu.network.received_bytes_count + - gcp.tpu.network.sent_bytes_count + - gcp.tpu.accelerator.duty_cycle + - gcp.tpu.instance.uptime_total + - gcp.gke.node.accelerator.tensorcore_utilization + - gcp.gke.node.accelerator.duty_cycle + - gcp.gke.node.accelerator.memory_used + - gcp.gke.node.accelerator.memory_total + - gcp.gke.node.accelerator.memory_bandwidth_utilization + - gcp.gke.container.accelerator.tensorcore_utilization + - gcp.gke.container.accelerator.duty_cycle + - gcp.gke.container.accelerator.memory_used + - gcp.gke.container.accelerator.memory_total + - gcp.gke.container.accelerator.memory_bandwidth_utilization + metadata_path: metadata.csv + prefix: gcp. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 275 + source_type_name: Google Cloud TPU + monitors: + Container Duty Cycle Low Percentage: assets/monitors/tpu_container_low_duty_cycle_percentage.json + Container Memory Bandwidth Low Utilization: assets/monitors/tpu_container_memory_bandwidth_under_utilization.json + Container Tensorcore Utilization Low Utilization: assets/monitors/tpu_container_tensorcore_under_utilization.json + Node Duty Cycle Low Percentage: assets/monitors/tpu_node_low_duty_cycle_percentage.json + Node Memory Bandwidth Low Utilization: assets/monitors/tpu_node_memory_bandwidth_under_utilization.json + Node Tensorcore Utilization Low Utilization: assets/monitors/tpu_node_tensorcore_under_utilization.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com (日本語対応) + support_email: help@datadoghq.com categories: -- cloud +- モニター - google cloud - ログの収集 - ai/ml -custom_kind: integration +custom_kind: インテグレーション dependencies: [] -description: Google Cloud TPU のキーメトリクスを追跡 -doc_link: https://docs.datadoghq.com/integrations/google_cloud_tpu/ +display_on_public_website: true draft: false git_integration_title: google_cloud_tpu -has_logo: true integration_id: google-cloud-tpu integration_title: Google Cloud TPU integration_version: '' is_public: true -manifest_version: '1.0' +manifest_version: 2.0.0 name: google_cloud_tpu -public_title: Datadog-Google Cloud TPU インテグレーション -short_description: Google Cloud TPU のキーメトリクスを追跡 -version: '1.0' +public_title: Google Cloud TPU +short_description: ML モデル開発のために、スケーラブルで使いやすいクラウドリソースを活用した Tensor Processing Unit の利点。 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Metrics + - Category::Google Cloud + - Category::Log Collection + - Category::AI/ML + - Offering::Integration + configuration: README.md#Setup + description: ML モデル開発のために、スケーラブルで使いやすいクラウドリソースを活用した Tensor Processing Unit の利点。 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Google Cloud TPU --- - + ## 概要 Google Cloud TPU 製品は、スケーラブルで使いやすいクラウドコンピューティングリソースを通じて Tensor Processing Unit (TPU) を利用できるようにします。ML 研究者、ML エンジニア、開発者、データサイエンティストの誰もが最先端の ML (機械学習) モデルを実行できます。 @@ -33,9 +90,9 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl ### インストール -[Google Cloud Platform インテグレーション][1]をまだセットアップしていない場合は、最初にセットアップします。それ以上のインストール手順はありません。 +Google Cloud TPU を使用するには、[Google Cloud Platform インテグレーション][1]を設定するだけです。 -### 収集データ +### ログ収集 Google Cloud TPU のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 @@ -68,4 +125,4 @@ Google Cloud TPU インテグレーションには、サービスのチェック [2]: https://docs.datadoghq.com/ja/integrations/google_cloud_platform/#log-collection [3]: https://console.cloud.google.com/logs/viewer [4]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_tpu/google_cloud_tpu_metadata.csv -[5]: https://docs.datadoghq.com/ja/help/ +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/google_workspace_alert_center.md b/content/ja/integrations/google_workspace_alert_center.md index ff45e7f7b990e..72975d57ee63c 100644 --- a/content/ja/integrations/google_workspace_alert_center.md +++ b/content/ja/integrations/google_workspace_alert_center.md @@ -2,7 +2,7 @@ categories: - ログの収集 - security -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: Google Workspace Alert Center からログを収集します。 doc_link: https://docs.datadoghq.com/integrations/google_workspace_alert_center/ @@ -40,12 +40,12 @@ Alert Center は、Google Workspace 全体にわたる重要なセキュリテ Datadog Google Workspace Alert Center インテグレーションは、サービスアカウントを使用して Google と Datadog の間の API 接続を作成します。以下では、サービスアカウントを作成し、Datadog にサービスアカウント認証情報を提供して、自動的に API 呼び出しを開始するための手順を説明します。 -**Note**: Ensure that you have enabled the [Google Workspace Alert Center API][5]. +**注**: [Google Workspace Alert Center API][5] が有効になっていることを確認してください。 -1. Follow the [service account creation and authorization instructions][6]. You need +1. [サービスアカウントの作成と承認の手順][6]に従ってください。 これらの手順を完了するためには、スーパー管理者アクセスが必要です。そのプロセスの一環として、プライベートキー JSON ファイルを保存するロケーションに注意してください。説明したように、サービスアカウントにドメイン全体の権限を委譲し、その過程で `https://www.googleapis.com/auth/apps.alerts` スコープを付与します。 1. GCP コンソールの `Service account details` ページから、`Advanced settings` セクションの一番下にある `Create Google Workspace Marketplace-Compatible OAuth Client` ボタンをクリックします。 -2. Navigate to the [Datadog Google Workspace Alert Center Integration tile][7]. +2. [Datadog Google Workspace Alert Center インテグレーションタイル][7]に移動します。 3. **Configuration** タブで、_Upload Private Key File_ を選択してこのプロジェクトを Datadogと統合します。 最初のステップで保存した秘密鍵 JSON ファイルを選択します。 4. 件名のメールを入力します。これは、アラートセンターにアクセスできるユーザーまたはロボットアカウントのメールアドレスです。 @@ -70,7 +70,7 @@ Datadog Google Workspace Alert Center インテグレーションは、サービ ### イベント -For the full list of log events, see the [Google Workspace Alert Center documentation][8]. +ログイベントの一覧については、[Google Workspace Alert Center のドキュメント][8]を参照してください。 ### サービスチェック @@ -92,4 +92,4 @@ Google Workspace Alert Center インテグレーションには、サービス [6]: https://developers.google.com/identity/protocols/oauth2/service-account [7]: http://app.datadoghq.com/integrations/google-workspace-alert-center [8]: https://support.google.com/a/answer/9104586?hl=en&ref_topic=9105077 -[9]: https://docs.datadoghq.com/ja/help/ +[9]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md b/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md index a836ae2c2ba2a..770b48446b986 100644 --- a/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md +++ b/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md @@ -22,6 +22,7 @@ Amazon CloudWatch メトリクスストリームと Amazon Data Firehose を使 - オプションで、ストリーミングするためのネームスペースまたはメトリクスの限定されたセットを指定します。 2. メトリクスストリームを作成すると、Datadog はストリーミングされたメトリクスの受信をすぐに開始し、追加の構成を必要とせずにそれらを Datadog サイトに表示します。 +
AWS インテグレーションタイルで構成されたネームスペースフィルタリングは、CloudWatch メトリクスストリームには適用されません。詳細は以下をご覧ください。
### メトリクスストリーミングと API ポーリングの比較 {#streaming-vs-polling} @@ -42,7 +43,7 @@ AWS アカウントやリージョン、あるいは特定のネームスペー メトリクスをストリーミングするための Datadog からの追加料金はありません。 -AWS は、CloudWatch メトリクスストリームのメトリクスアップデートの数と Amazon Data Firehose に送信されたデータボリュームに基づいて課金します。そのため、ストリーミングしているメトリクスのサブセットの CloudWatch コストが増加する可能性があります。このため、Datadog は、より低いレイテンシーが最も必要な AWS メトリクス、サービス、リージョン、アカウントにメトリクスストリームを使用し、それ以外ではポーリングを使用することをお勧めします。詳細については、[Amazon CloudWatch の価格設定][1]を参照してください。 +AWS は、CloudWatch メトリクスストリームのメトリクスアップデートの数および Amazon Data Firehose に送信されたデータ量に基づいて課金します。そのため、ストリーミングしている特定のメトリクスに関して CloudWatch コストが増加する可能性があります。このため、Datadog は、より低いレイテンシーが必要な AWS メトリクス、サービス、リージョン、およびアカウントにメトリクスストリームを使用し、それ以外にはポーリングを使用することを推奨します。詳細については、[Amazon CloudWatch の価格設定][2]を参照してください。 ストリーム内の EC2 または Lambda メトリクスは、請求対象のホストと Lambda 呼び出しの数を増やす可能性があります (EC2 の場合、これらのホストと関数が AWS インテグレーションまたは Datadog Agent でまだ監視されていない場合)。 @@ -74,7 +75,7 @@ AWS は、CloudWatch メトリクスストリームのメトリクスアップ 5. オプションのパラメータを入力します。 - **FilterMethod**: メトリクスストリーミングに含めるネームスペースのリストを含めるか除外します。 - **First/Second/Third Namespace**: 含めるまたは除外するネームスペースを指定します。注: ネームスペースの値は、AWS のドキュメントのネームスペース列の値と正確に一致する必要があります。例: AWS/EC2。 -6. Check the acknowledgment box that states, "I acknowledge that AWS CloudFormation might create IAM resources with custom names." +6. "I acknowledge that AWS CloudFormation might create IAM resources with custom names." (AWS CloudFormation がカスタム名で IAM リソースを作成する可能性があることを認めます) という確認ボックスをオンにします。 7. **Create Stack** をクリックします。 ### 結果 @@ -90,37 +91,38 @@ AWS は、CloudWatch メトリクスストリームのメトリクスアップ {{% /tab %}} {{% tab "AWS コンソール" %}} -AWS Console を使用してメトリクスストリームをセットアップするには、各 AWS リージョンに対して [CloudWatch メトリクスストリーム][2]を作成します。 +AWS Console を使用してメトリクスストリームをセットアップするには、各 AWS リージョンに対して [CloudWatch メトリクスストリーム][1]を作成します。 -**Note**: Metric streaming to Datadog currently only supports OpenTelemetry v0.7 output format. +**注**: Datadog へのメトリクスストリーミングは現在、OpenTelemetry v0.7 出力フォーマットのみをサポートしています。 1. **Quick AWS Partner Setup** を選択し、ドロップダウンメニューから AWS パートナーの宛先として **Datadog** を選択します。 {{< img src="integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/metric-stream-partner-setup.png" alt="Cloudwatch メトリクスストリームのクイックパートナセットアップ" responsive="true" style="width:60%;">}} -2. メトリクスをストリーミングする Datadog サイトを選択し、[Datadog API キー][1]を入力します。 -3. すべての CloudWatch メトリクスをストリーミングするか、特定のネームスペースのみをストリーミングするかを選択します。また、特定のメトリクスを除外するオプションもあります。モニタリングアカウントの場合は、[クロスアカウントストリーミング][5]を有効にすることもできます。 +2. メトリクスをストリーミングする Datadog サイトを選択し、[Datadog API キー][2]を入力します。 +3. すべての CloudWatch メトリクスをストリーミングするか、特定のネームスペースのみをストリーミングするかを選択します。また、特定のメトリクスを除外するオプションもあります。モニタリングアカウントの場合は、[クロスアカウントストリーミング][3]を有効にすることもできます。 {{< img src="integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/metric-stream-namespace-filter.png" alt="Cloudwatch メトリクスストリーム" responsive="true" style="width:60%;">}} -4. **Add additional statistics** では、Datadog に送信する AWS のパーセンタイルメトリクスを含みます。Datadog がポーリングでサポートするパーセンタイルメトリクスの一覧は、[CloudFormation テンプレート][3]を参照してください。 +4. **Add additional statistics** では、Datadog に送信する AWS のパーセンタイルメトリクスを含みます。Datadog がポーリングでサポートするパーセンタイルメトリクスの一覧は、[CloudFormation テンプレート][4]を参照してください。 {{< img src="integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/percentiles.png" alt="パーセンタイル" responsive="true" style="width:60%;">}} 5. メトリクスストリームに名前を付けます。 6. **Create metric stream** をクリックします。 ### 結果 -Metric Stream リソースが正常に作成されたことを確認したら、Datadog が変更を認識するまで 5 分ほど待ちます。完了を確認するには、Datadog の [AWS インテグレーションページ][4]の **Metric Collection** タブを開き、指定した AWS アカウントの **CloudWatch Metric Streams** で有効化したリージョンが有効になっていることを確認します。 +Metric Stream リソースが正常に作成されたことを確認したら、Datadog が変更を認識するまで 5 分ほど待ちます。完了を確認するには、Datadog の [AWS インテグレーションページ][5]の **Metric Collection** タブを開き、指定した AWS アカウントの **CloudWatch Metric Streams** で有効化したリージョンが有効になっていることを確認します。 {{< img src="integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/active-region.png" alt="AWS インテグレーションページの Metric Collection タブの CloudWatch Metric Streams セクションで、1 つのリージョンがアクティブになっている状態" responsive="true" style="width:60%;">}} + **注**: CloudWatch API のポーリングをすでに有効にしている場合、ストリーミングへの移行により、ストリーミングしている特定のメトリクスが Datadog で二重にカウントされる短い期間 (最大 5 分) が発生する可能性があります。これは、Datadog のクローラーが実行されて CloudWatch メトリクスを送信するタイミングと、Datadog がこれらのメトリクスのストリーミングを開始したことを認識してクローラーをオフにするタイミングが異なるためです。 -[1]: https://app.datadoghq.com/organization-settings/api-keys -[2]: https://console.aws.amazon.com/cloudwatch/home?region=us-east-1#metric-streams:streams/create -[3]: https://github.com/DataDog/cloudformation-template/blob/master/aws_streams/streams_single_region.yaml#L168-L249 -[4]: https://app.datadoghq.com/integrations/amazon-web-services -[5]: https://docs.datadoghq.com/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/#cross-account-metric-streaming +[1]: https://console.aws.amazon.com/cloudwatch/home?region=us-east-1#metric-streams:streams/create +[2]: https://app.datadoghq.com/organization-settings/api-keys +[3]: https://docs.datadoghq.com/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/#cross-account-metric-streaming +[4]: https://github.com/DataDog/cloudformation-template/blob/master/aws_streams/streams_single_region.yaml#L168-L249 +[5]: https://app.datadoghq.com/integrations/amazon-web-services {{% /tab %}} {{< /tabs >}} ### クロスアカウントメトリクスストリーミング -AWS リージョン内の複数の AWS アカウントにまたがる単一のメトリクストリームにメトリクスを含めるには、クロスアカウントメトリクストリーミングを使用します。これにより、共通の宛先のメトリクスを収集するために必要なストリームの数を減らすことができます。これを行うには、モニタリングアカウントに[ソースアカウントを接続][5]し、AWS モニタリングアカウントで Datadog へのクロスアカウントストリーミングを有効にします。 +AWS リージョン内の複数の AWS アカウントにまたがる単一のメトリクストリームにメトリクスを含めるには、クロスアカウントメトリクストリーミングを使用します。これにより、共通の宛先にメトリクスを収集するために必要なストリームの数を減らすことができます。これを行うには、モニタリングアカウントに[ソースアカウントを接続][4]し、AWS モニタリングアカウントで Datadog へのクロスアカウントストリーミングを有効にします。 この機能を正しく動作させるには、モニタリングアカウントに以下の権限が必要です。 * oam:ListSinks @@ -128,28 +130,29 @@ AWS リージョン内の複数の AWS アカウントにまたがる単一の **注:** ストリーミングされたメトリクスのカスタムタグやその他のメタデータを収集するには、ソースアカウントを Datadog とインテグレーションしてください。 -### Disable metric streaming +### メトリクスストリーミングを無効にする 特定の AWS アカウントとリージョンに対してメトリクスストリーミングを完全に無効にするには、AWS メトリクスストリームとその関連リソースを削除する必要があります。Datadog のメトリクスの損失を防ぐために、これらの削除手順に注意深く従うことが重要です。 -If you set streaming up with [CloudFormation](?tab=cloudformation#installation): +[CloudFormation](?tab=cloudformation#installation) でストリーミングを設定した場合: 1. セットアップ時に作成されたスタックを削除します。 [AWS コンソール](?tab=awsconsole#installation)からストリーミングを設定した場合: 1. 配信ストリームにリンクしている CloudWatch Metric Stream を削除します。 2. ストリームに関連付けられた S3 および Firehose IAM ロールを含め、ストリームのセットアップ中に作成されたすべてのリソースを削除します。 -Once the resources are deleted, wait for five minutes for Datadog to recognize the change. To validate completion, go to the **Metric Collection** tab in Datadog's [AWS integration page][4] and verify that the disabled regions are not displayed under **CloudWatch Metric Streams** for the specified AWS account. +リソースが削除されたら、Datadog が変更を認識するまで 5 分ほど待ちます。完了を確認するには、Datadog の [AWS インテグレーションページ][5]の **Metric Collection** タブを開き、指定した AWS アカウントの **CloudWatch Metric Streams** に無効にしたリージョンが表示されていないことを確認します。 ## トラブルシューティング -Metric Streams や関連リソースのセットアップで遭遇する問題を解決するには、[AWS のトラブルシューティング][5]をご覧ください。 +Metric Streams や関連リソースのセットアップで遭遇する問題を解決するには、[AWS のトラブルシューティング][6]をご覧ください。 ## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} -[1]: https://aws.amazon.com/cloudwatch/pricing/ -[2]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/?tab=roledelegation#setup -[3]: https://app.datadoghq.com/integrations/amazon-web-services -[4]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-troubleshoot.html -[5]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Unified-Cross-Account-Setup.html \ No newline at end of file +[1]: /ja/integrations/guide/cloud-metric-delay/ +[2]: https://aws.amazon.com/cloudwatch/pricing/ +[3]: /ja/integrations/amazon_web_services/?tab=roledelegation#setup +[4]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Unified-Cross-Account-Setup.html +[5]: https://app.datadoghq.com/integrations/amazon-web-services +[6]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-troubleshoot.html \ No newline at end of file diff --git a/content/ja/integrations/gunicorn.md b/content/ja/integrations/gunicorn.md index 6b9f5723265f0..a2e119965d342 100644 --- a/content/ja/integrations/gunicorn.md +++ b/content/ja/integrations/gunicorn.md @@ -33,7 +33,7 @@ author: support_email: help@datadoghq.com categories: - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/gunicorn/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: gunicorn integration_id: gunicorn integration_title: Gunicorn -integration_version: 2.7.0 +integration_version: 4.0.0 is_public: true manifest_version: 2.0.0 name: gunicorn @@ -97,7 +97,7 @@ Gunicorn チェックでは、Gunicorn アプリの Python 環境に [`setprocti Gunicorn の[メトリクス](#metric-collection)と[ログ](#log-collection)の収集を開始するには、[Agent の構成ディレクトリ][4]のルートにある `conf.d/` フォルダーの `gunicorn.d/conf.yaml` ファイルを編集します。 使用可能なすべての構成オプションの詳細については、[サンプル gunicorn.yaml][5] を参照してください。 -#### Metric collection +#### メトリクスの収集 ##### Gunicorn の DogStatsD への接続 @@ -239,4 +239,4 @@ ubuntu 18463 18457 0 20:26 pts/0 00:00:00 gunicorn: worker [my_app] [11]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [12]: https://github.com/DataDog/integrations-core/blob/master/gunicorn/metadata.csv [13]: https://github.com/DataDog/integrations-core/blob/master/gunicorn/assets/service_checks.json -[14]: https://www.datadoghq.com/blog/monitor-gunicorn-performance +[14]: https://www.datadoghq.com/blog/monitor-gunicorn-performance \ No newline at end of file diff --git a/content/ja/integrations/haproxy.md b/content/ja/integrations/haproxy.md index 7b8dc455309b5..c77dc47d90160 100644 --- a/content/ja/integrations/haproxy.md +++ b/content/ja/integrations/haproxy.md @@ -28,17 +28,17 @@ assets: source_type_id: 38 source_type_name: HAProxy monitors: - '[HAProxy] Anomalous frontend request rate for host {{host.name}}': assets/monitors/request_rate.json - '[HAProxy] Anomalous number of frontend 4xx HTTP responses for host: {{host.name}}': assets/monitors/frontend_5xx.json - '[HAProxy] Anomalous number of frontend 5xx HTTP responses for host: {{host.name}}': assets/monitors/frontend_4xx.json - '[HAProxy] Backend queue time went above 500ms for host: {{host.name}}': assets/monitors/backend_queue_time.json - '[HAProxy] Backend response time is above 500ms for host: {{host.name}}': assets/monitors/backend_rtime.json - '[HAProxy] High amount of backend session usage for host: {{host.name}}': assets/monitors/backend_sessions.json - '[HAProxy] High amount of frontend session usage for host: {{host.name}}': assets/monitors/frontend_sessions.json - '[HAProxy] High number of backend denied responses for host: {{host.name}}': assets/monitors/backend_dreq.json - '[HAProxy] High number of frontend denied requests for host: {{host.name}}': assets/monitors/frontend_dreq.json - '[HAProxy] Number of backend connection failures for host: {{host.name}} is above normal.': assets/monitors/backend_econ.json - '[HAProxy] Number of client-side request error for {{host.name}} is above normal.': assets/monitors/frontend_ereq.json + Backend queue time is high: assets/monitors/backend_queue_time.json + Backend sessions usage is high: assets/monitors/backend_sessions.json + Frontend request rate is anomalous: assets/monitors/request_rate.json + Frontend sessions usage is high: assets/monitors/frontend_sessions.json + Number of backend connection failures is high: assets/monitors/backend_econ.json + Number of client-side request error is high: assets/monitors/frontend_ereq.json + Number of denied response is high: assets/monitors/backend_dreq.json + Number of frontend 4xx HTTP responses is high: assets/monitors/frontend_4xx.json + Number of frontend 5xx HTTP responses is high: assets/monitors/frontend_5xx.json + Number of frontend denied requests is high: assets/monitors/frontend_dreq.json + Response time is high: assets/monitors/backend_rtime.json saved_views: 4xx_errors: assets/saved_views/4xx_errors.json 5xx_errors: assets/saved_views/5xx_errors.json @@ -53,7 +53,7 @@ author: support_email: help@datadoghq.com categories: - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/haproxy/README.md display_on_public_website: true @@ -61,7 +61,7 @@ draft: false git_integration_title: haproxy integration_id: haproxy integration_title: HAProxy -integration_version: 5.2.2 +integration_version: 7.0.0 is_public: true manifest_version: 2.0.0 name: haproxy @@ -150,14 +150,14 @@ HAProxy チェックは [Datadog Agent][5] パッケージに含まれていま 1. HAProxy メトリクスの収集を開始するには、Agent のコンフィギュレーションディレクトリのルートにある `conf.d/` フォルダーの `haproxy.d/conf.yaml` ファイルを編集します。使用可能なすべてのコンフィギュレーションオプションの詳細については、[サンプル haproxy.d/conf.yaml][1] を参照してください。 - ```yaml + ```yaml instances: ## @param use_openmetrics - boolean - optional - default: false ## Enable to preview the new version of the check which supports HAProxy version 2 or later ## or environments using the HAProxy exporter. ## - ## OpenMetrics-related options take effect only when this is set to `true`. + ## OpenMetrics-related options take effect only when this is set to `true`. ## ## Uses the latest OpenMetrics V2 implementation for more features and better performance. ## Note: To see the configuration options for the OpenMetrics V1 implementation (Agent v7.33 or earlier), @@ -506,7 +506,7 @@ HAProxy チェックには、イベントは含まれません。 ## トラブルシューティング ### エラー: ポート 514 はすでに使用中 -syslog があるシステムで、Agent がポート 514 で HAProxy ログをリッスンしている場合、Agent ログに以下のエラーが表示されることがあります: +syslog があるシステムで、Agent がポート 514 で HAProxy ログをリッスンしている場合、Agent ログに以下のエラーが表示されることがあります: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use` これは、デフォルトで syslog がポート 514 でリッスンしているために起こっています。このエラーを解決するには、syslog を無効にするか、ポート 514 と Agent がログをリッスンしている別のポートにログを転送するように HAProxy を構成することができます。Agent がリッスンするポートは、[こちら][11]で haproxy.d/conf.yaml ファイル定義することができます。 @@ -536,4 +536,4 @@ syslog があるシステムで、Agent がポート 514 で HAProxy ログを [13]: https://www.datadoghq.com/blog/monitoring-haproxy-performance-metrics [14]: https://www.datadoghq.com/blog/how-to-collect-haproxy-metrics [15]: https://www.datadoghq.com/blog/monitor-haproxy-with-datadog -[16]: https://docs.datadoghq.com/ja/integrations/faq/haproxy-multi-process/ +[16]: https://docs.datadoghq.com/ja/integrations/faq/haproxy-multi-process/ \ No newline at end of file diff --git a/content/ja/integrations/honeybadger.md b/content/ja/integrations/honeybadger.md index d45b37279f973..8a6b751ea2a8a 100644 --- a/content/ja/integrations/honeybadger.md +++ b/content/ja/integrations/honeybadger.md @@ -18,7 +18,7 @@ author: categories: - event management - issue tracking -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -73,7 +73,7 @@ Honeybadger インテグレーションには、メトリクスは含まれま ### イベント -Honeybadger インテグレーションには、イベントは含まれません。 +Honeybadger インテグレーションはイベントを収集します。 ### サービスチェック @@ -86,4 +86,4 @@ Honeybadger インテグレーションには、サービスのチェック機 [1]: https://app.honeybadger.io/users/sign_in [2]: https://app.datadoghq.com/organization-settings/api-keys [3]: https://app.datadoghq.com/account/settings#integrations/honeybadger -[4]: https://docs.datadoghq.com/ja/help/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/http_check.md b/content/ja/integrations/http_check.md index 67059d61f14ae..d8a298e7922d5 100644 --- a/content/ja/integrations/http_check.md +++ b/content/ja/integrations/http_check.md @@ -21,7 +21,7 @@ author: support_email: help@datadoghq.com categories: - network -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/http_check/README.md display_on_public_website: true @@ -29,7 +29,7 @@ draft: false git_integration_title: http_check integration_id: ネットワーク integration_title: HTTP チェック -integration_version: 9.8.0 +integration_version: 11.0.0 is_public: true manifest_version: 2.0.0 name: http_check @@ -154,4 +154,4 @@ HTTP チェックにはイベントは含まれません。 [9]: https://github.com/DataDog/integrations-core/blob/master/http_check/metadata.csv [10]: https://github.com/DataDog/integrations-core/blob/master/http_check/assets/service_checks.json [11]: https://docs.datadoghq.com/ja/monitors/monitor_types/network/?tab=checkalert -[12]: https://docs.datadoghq.com/ja/help/ +[12]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/hyperv.md b/content/ja/integrations/hyperv.md index 2699fb5db97e5..3ff05f9ed6e87 100644 --- a/content/ja/integrations/hyperv.md +++ b/content/ja/integrations/hyperv.md @@ -26,7 +26,8 @@ author: categories: - クラウド - OS & システム -custom_kind: integration +- windows +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/hyperv/README.md display_on_public_website: true @@ -34,7 +35,7 @@ draft: false git_integration_title: hyperv integration_id: hyper-v integration_title: HyperV -integration_version: 1.11.1 +integration_version: 3.0.0 is_public: true manifest_version: 2.0.0 name: hyperv @@ -47,6 +48,7 @@ tile: classifier_tags: - Category::Cloud - Category::OS & System + - カテゴリー::Windows - Supported OS::Windows - Offering::Integration configuration: README.md#Setup @@ -101,7 +103,7 @@ Hyper-V には、イベントは含まれません。 ## トラブルシューティング -ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][8]までお問い合わせください。 ## その他の参考資料 @@ -117,4 +119,4 @@ Hyper-V には、イベントは含まれません。 [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [7]: https://github.com/DataDog/integrations-core/blob/master/hyperv/metadata.csv [8]: https://docs.datadoghq.com/ja/help/ -[9]: https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog +[9]: https://www.datadoghq.com/blog/monitor-microsoft-hyperv-with-datadog \ No newline at end of file diff --git a/content/ja/integrations/iis.md b/content/ja/integrations/iis.md index e9f7af530b7ee..f5deca7415035 100644 --- a/content/ja/integrations/iis.md +++ b/content/ja/integrations/iis.md @@ -20,9 +20,9 @@ assets: source_type_id: 46 source_type_name: IIS monitors: - '[IIS] Anomalous amount of requests for site: {{site.name}}': assets/monitors/req.json - '[IIS] Increase of locked error per second for site: {{site.name}}': assets/monitors/lock.json - '[IIS] Increase of not found error per second for site: {{site.name}}': assets/monitors/err.json + 404 errors is high: assets/monitors/err.json + Locked errors is high: assets/monitors/lock.json + Request number is high: assets/monitors/req.json saved_views: 4xx_errors: assets/saved_views/4xx_errors.json 5xx_errors: assets/saved_views/5xx_errors.json @@ -36,7 +36,8 @@ author: support_email: help@datadoghq.com categories: - ログの収集 -custom_kind: integration +- windows +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/iis/README.md display_on_public_website: true @@ -44,7 +45,7 @@ draft: false git_integration_title: iis integration_id: iis integration_title: IIS -integration_version: 3.1.1 +integration_version: 5.0.0 is_public: true manifest_version: 2.0.0 name: iis @@ -56,6 +57,7 @@ tile: changelog: CHANGELOG.md classifier_tags: - Category::Log Collection + - カテゴリー::Windows - Supported OS::Windows - Offering::Integration configuration: README.md#Setup @@ -152,4 +154,4 @@ IIS チェックには、イベントは含まれません。 [9]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [10]: https://github.com/DataDog/integrations-core/blob/master/iis/metadata.csv [11]: https://github.com/DataDog/integrations-core/blob/master/iis/assets/service_checks.json -[12]: https://docs.datadoghq.com/ja/help/ +[12]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/logstash.md b/content/ja/integrations/logstash.md index ba29ee2127882..8187e7bf444f6 100644 --- a/content/ja/integrations/logstash.md +++ b/content/ja/integrations/logstash.md @@ -23,7 +23,7 @@ author: support_email: ervansetiawan@gmail.com categories: - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/logstash/README.md display_on_public_website: true @@ -31,7 +31,7 @@ draft: false git_integration_title: logstash integration_id: logstash integration_title: Logstash -integration_version: 1.1.0 +integration_version: 1.2.0 is_public: true manifest_version: 2.0.0 name: logstash @@ -286,4 +286,4 @@ Logstash チェックには、イベントは含まれません。 [7]: /ja/getting_started/tagging/assigning_tags [8]: https://app.datadoghq.com/infrastructure [9]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#service-status -[10]: http://docs.datadoghq.com/help +[10]: http://docs.datadoghq.com/help \ No newline at end of file diff --git a/content/ja/integrations/openshift.md b/content/ja/integrations/openshift.md index 3a1edd38b1474..f89645053f21b 100644 --- a/content/ja/integrations/openshift.md +++ b/content/ja/integrations/openshift.md @@ -29,7 +29,7 @@ categories: - ネットワーク - orchestration - プロビジョニング -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/openshift/README.md display_on_public_website: true @@ -75,32 +75,54 @@ Red Hat OpenShift は、企業向けアプリケーションの開発とデプ ### インストール -Agent のインストールには、Kubernetes の [Agent のインストール方法][2]を参照してください。デフォルトのコンフィギュレーションは、OpenShift 3.7.0+ と OpenShift 4.0+ (使用する機能およびエンドポイントが導入されたバージョン)を前提としています。 +このコア構成は OpenShift 3.11 と OpenShift 4 をサポートしていますが、OpenShift 4 で最も適切に動作します。 -または、[Datadog Operator][3] を使用して Datadog Agent をインストールおよび管理することもできます。Datadog Operator は、OpenShift の [OperatorHub][4] を使用してインストールできます。 +Agent のインストールについては、一般的な Kubernetes の手順については [Agent インストール手順][2]、OpenShift の構成例については[Kubernetes ディストリビューションページ][3]を参照してください。 -### Security Context Constraints 構成 +または、[Datadog Operator][4] を使用して Datadog Agent をインストールおよび管理することもできます。Datadog Operator は、OpenShift の [OperatorHub][5] を使用してインストールできます。 +### Security Context Constraints 構成 -上記のインストール手順にリンクされている方法のいずれかを使用して Datadog Agent をデプロイする場合は、Agent がデータを収集するために Security Context Constraints (SCCs) を含める必要があります。デプロイに関連する以下の手順に従ってください。 +上記のインストール手順にリンクされている方法のいずれかを使用して Datadog Agent をデプロイする場合は、Agent と Cluster Agent がデータを収集するために Security Context Constraints (SCCs) を含める必要があります。デプロイに関連する以下の手順に従ってください。 {{< tabs >}} +{{% tab "Operator" %}} + +OpenShift に Datadog Operator と `DatadogAgent` リソースをインストールする方法については、[OpenShift インストールガイド][1] を参照してください。 + +Operator Lifecycle Manager (OLM) を使用して Operator をデプロイした場合、OpenShift に存在する必要なデフォルト SCC は自動的に `datadog-agent-scc` サービスアカウントに関連付けられます。その後、Node Agent と Cluster Agent ポッドでこの Service Account を参照しながら、`DatadogAgent` CustomResourceDefinition を使用して Datadog コンポーネントをデプロイできます。 + +他の例については、[ディストリビューション][2]ページと [Operator リポジトリ][3]をご覧ください。 + +[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md +[2]: https://docs.datadoghq.com/ja/containers/kubernetes/distributions/?tab=datadogoperator#Openshift +[3]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-on-openshift.yaml +{{% /tab %}} {{% tab "Helm" %}} -SCC は、Datadog Agent の `values.yaml` 内で直接適用できます。ファイルの `agents:` セクションの下に次のブロックを追加します。 +Datadog Agent の `values.yaml` 内で直接 SCC を作成することができます。`agents` および `clusterAgent` セクションの下に以下のブロックパラメーターを追加して、それぞれの SCC を作成します。 ```yaml -... +datadog: + #(...) + agents: -... podSecurity: securityContextConstraints: create: true -... + +clusterAgent: + podSecurity: + securityContextConstraints: + create: true ``` -これは、Agent を最初にデプロイするときに適用できます。または、この変更を行った後に `helm upgrade` を実行して、SCC を適用することもできます。 +これは、Agent を最初にデプロイするときに適用するか、この変更を行った後に `helm upgrade` を実行して、SCC を適用することもできます。 + +他の例については、[ディストリビューション][1]ページと [Helm リポジトリ][2]をご覧ください。 +[1]: https://docs.datadoghq.com/ja/containers/kubernetes/distributions/?tab=datadogoperator#Openshift +[2]: https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_openshift_values.yaml {{% /tab %}} {{% tab "Daemonset" %}} @@ -123,26 +145,9 @@ agents: | ライブコンテナモニタリング | サポート対象外 | サポート対象外 | サポート | | ライブプロセスモニタリング | サポート対象外 | サポート対象外 | サポート | - -[1]: https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html -{{% /tab %}} -{{% tab "Operator" %}} - -OpenShift に Datadog Operator と `DatadogAgent` リソースをインストールする方法については、[OpenShift インストールガイド][1] を参照してください。 - -Operator Lifecycle Manager (OLM) を使用して Operator をデプロイした場合、OpenShift に存在する必要なデフォルト SCC は自動的に `datadog-agent-scc` `ServiceAccount` に関連付けられます。Agent は、Node Agent と Cluster Agent ポッドでこの Service Account を参照しながら、`DatadogAgent` CustomResourceDefinition を使用してデプロイできます。 - -[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md -{{% /tab %}} -{{< /tabs >}} - -#### ログ収集 - -詳しくは、[Kubernetes のログ収集][5]を参照してください。 - #### 制限付き SCC オペレーション -このモードでは、kubelet と APIserver へのアクセスに必要な [RBAC][7] を除き、[`datadog-agent` daemonset][6] への付与が必要な権限は特にありません。[この kubelet 専用テンプレート][8]を使用して始めることもできます。 +このモードでは、kubelet と APIserver へのアクセスに必要な [RBAC][3] を除き、[`datadog-agent` DaemonSet][2] への付与が必要な権限は特にありません。[この kubelet 専用テンプレート][4]を使用して始めることもできます。 DogStatsD、APM、およびログの収集には、Datadog Agent をホストのポートにバインドする方法をお勧めします。そうすれば、ターゲット IP が変化せず、アプリケーションから簡単に検出できるからです。デフォルトの制限付き OpenShift SCC は、ホストポートへのバインドを許可しません。自身の IP でリッスンするように Agent を設定できますが、その IP を検出する処理をアプリケーションに作成する必要があります。 @@ -162,15 +167,24 @@ ports: protocol: TCP ``` +[1]: https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html +[2]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/ +[3]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions +[4]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml +{{% /tab %}} +{{< /tabs >}} + #### すべての機能に使用できるカスタム Datadog SCC +Helm Chart と Datadog Operator は、デフォルトで自動的に SCC を管理します。ご自身で管理される場合は、有効にした機能に基づいて正しい構成を含めるようにしてください。 + SELinux が permissive モードか、無効になっている場合、すべての機能を使用するには `hostaccess` SCC を有効にする必要があります。 -SELinux が enforcing モードの場合は、datadog-agent ポッドに [`spc_t` タイプ][9]を付与することをお勧めします。[こちらの datadog-agent SCC][10] を使用して Agent をデプロイしてください。[datadog-agent サービスアカウントを作成][7]した後でも、この SCC を適用できます。これにより、以下のアクセス許可が付与されます。 +SELinux が enforcing モードの場合は、datadog-agent ポッドに [`spc_t` タイプ][6]を付与することをお勧めします。[こちらの datadog-agent SCC][7] を使用して Agent をデプロイしてください。[datadog-agent サービスアカウントを作成][8]した後でも、この SCC を適用できます。これにより、以下のアクセス許可が付与されます。 - `allowHostPorts: true`: Dogstatsd / APM / ログインテークの、ノード IP へのバインドを許可します。 - `allowHostPID: true`: UNIX ソケットによって送信された DogStatsD メトリクスに対する発信点検出を許可します。 - `volumes: hostPath`: メトリクス収集に必要な、Docker ソケット、およびホストの `proc` と `cgroup` フォルダーへのアクセスを許可します。 -- `SELinux type: spc_t`: Docker ソケットと全プロセスの `proc` と `cgroup` フォルダにアクセスし、メトリクスを収集します。詳しくは[超特権コンテナのコンセプトの紹介][9]を参照してください。 +- `SELinux type: spc_t`: Docker ソケットと全プロセスの `proc` と `cgroup` フォルダにアクセスし、メトリクスを収集します。詳しくは[超特権コンテナのコンセプトの紹介][6]を参照してください。
新しく作成した datadog-agent SCC に、datadog-agent サービスアカウントを追加することを忘れないでください。それには、system:serviceaccount::users セクションに追加する必要があります。 @@ -187,6 +201,20 @@ runAsUser: type: RunAsAny ``` +### ログ収集 + +Datadog Agent のログ収集は、他の Kubernetes クラスターとほぼ同様に OpenShift で設定されます。Datadog Operator と Helm Chart は、`/var/log/pods` ディレクトリにマウントされ、Datadog Agent のポッドがそれぞれのホスト上にあるポッドおよびコンテナのログを監視するために使用します。ただし、Datadog Operator を使用する場合は、Agent にこれらのログファイルを読み取る権限を付与するために、追加の SELinux オプションを適用する必要があります。 + +一般的な情報については [Kubernetes ログ収集][9]を参照し、構成例については[ディストリビューション][3]ページを参照してください。 + +### APM + +Kubernetes では、アプリケーションポッドから Datadog Agent ポッドにデータを送信するための主なオプションとして、Unix ドメインソケット (UDS)、HostIP:HostPort オプション (TCP/IP)、Kubernetes Service の 3 つがあります。Datadog Operator と Helm Chart は、最もリソース効率が高い UDS オプションをデフォルトで使用します。ただし、このオプションは、Agent ポッドとアプリケーションポッドの両方で昇格した SCC および SELinux オプションが必要となるため、OpenShift ではうまく動作しません。 + +Datadog では、この問題を回避し、Admission Controller がこの構成を注入しないようにするため、UDS オプションを明示的に無効にすることを推奨しています。 + +一般的な情報については [Kubernetes APM - トレース収集][10]を参照し、構成例については[ディストリビューション][3]ページを参照してください。 + ### 検証 [kubernetes_apiserver][1] を参照 @@ -211,13 +239,13 @@ OpenShift チェックには、サービスのチェック機能は含まれま [1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example -[2]: https://docs.datadoghq.com/ja/agent/kubernetes/ -[3]: https://github.com/DataDog/datadog-operator/ -[4]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html -[5]: https://docs.datadoghq.com/ja/agent/kubernetes/log/?tab=daemonset -[6]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/ -[7]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions -[8]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml -[9]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept -[10]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml -[11]: https://docs.datadoghq.com/ja/help/ +[2]: https://docs.datadoghq.com/ja/containers/kubernetes/installation +[3]: https://docs.datadoghq.com/ja/containers/kubernetes/distributions/?tab=datadogoperator#Openshift +[4]: https://github.com/DataDog/datadog-operator/ +[5]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html +[6]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept +[7]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml +[8]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions +[9]: https://docs.datadoghq.com/ja/agent/kubernetes/log/?tab=daemonset +[10]: https://docs.datadoghq.com/ja/containers/kubernetes/apm +[11]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/oracle_cloud_infrastructure.md b/content/ja/integrations/oracle_cloud_infrastructure.md index 827c53c75177d..b5334d6eedae8 100644 --- a/content/ja/integrations/oracle_cloud_infrastructure.md +++ b/content/ja/integrations/oracle_cloud_infrastructure.md @@ -3,7 +3,7 @@ app_id: oracle-cloud-infrastructure app_uuid: c2b4d38f-dd23-4ca2-8bc4-b70360868e8c assets: dashboards: - OCI-Overview-Beta: assets/dashboards/oci-overview-beta-dashboard.json + Oracle-Cloud-Infrastructure-Overview-Dashboard: assets/dashboards/oracle-cloud-infrastructure-overview-dashboard.json integration: auto_install: false events: @@ -27,7 +27,7 @@ categories: - ログの収集 - ネットワーク - oracle -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -39,8 +39,7 @@ is_public: true manifest_version: 2.0.0 name: oracle_cloud_infrastructure public_title: Oracle Cloud Infrastructure -short_description: OCI delivers high-performance computing and migrations. The OCI - metrics integration is in private beta. +short_description: OCI は高性能コンピューティングとマイグレーションを提供します。OCI メトリクスインテグレーションは非公開ベータ版です。 supported_os: [] tile: changelog: CHANGELOG.md @@ -51,8 +50,7 @@ tile: - Category::Oracle - Offering::Integration configuration: README.md#Setup - description: OCI delivers high-performance computing and migrations. The OCI metrics - integration is in private beta. + description: OCI は高性能コンピューティングとマイグレーションを提供します。OCI メトリクスインテグレーションは非公開ベータ版です。 media: [] overview: README.md#Overview support: README.md#Support @@ -64,10 +62,215 @@ tile: Oracle Cloud Infrastructure (OCI) は、エンタープライズ規模の企業で使用されるInfrastructure-as-a-Service (IaaS) および Platform-as-a-Service (PaaS) です。ホスティング、ストレージ、ネットワーキング、データベースなどのマネージドサービスの完全なスイートを備えています。 -Datadog インテグレーションにより、OCI ユーザーはすべてのログを Datadog に直接ストリーミングでき、そこで無期限に保存し、トラブルシューティングのために分析し、セキュリティとコンプライアンスの姿勢を監視できます。 +Datadog の OCI インテグレーションを使用して、ログとメトリクスを Datadog に転送し、ダッシュボードの作成、トラブルシューティングの支援、セキュリティおよびコンプライアンス状況の監視に活用できます。 ## セットアップ +### メトリクスの収集 + +OCI メトリクスを Datadog に転送するには + - Oracle Resource Manager スタックを使用して、テナンシーのホームリージョンで [Datadog 認証ユーザー、グループ、および必要なポリシーを作成](#create-a-policy-stack)します。このスタックは、 + * Datadog 認証ユーザーが OCI リソースからデータを読み取ることを可能にします。 + * メトリクスの転送を可能にします。 + - Datadog インテグレーションタイルで[テナンシー情報を入力](#enter-tenancy-info)します。 + - Oracle Resource Manager スタックを使用して、メトリクスを転送したいすべてのテナンシーリージョンで[必要な OCI インフラストラクチャーを作成](#create-a-metric-forwarding-stack)します。 + +### OCI スタックとテナンシー情報を作成する + +**注**: これらの手順を完了するには、OCI ユーザーアカウントに **Cloud Administrator** ロールが必要です。 + +このインテグレーションは、OCI の[コネクタハブ][1]、[関数アプリ][2]、およびセキュアなネットワークインフラストラクチャーを使用して、OCI メトリクスを Datadog に転送します。 + +{{< img src="/integrations/oracle_cloud_infrastructure/OCI_metrics_integration_diagram.png" alt="このページで言及されている OCI リソースとデータフローを示す図" >}} + +最も簡単なセットアップのために、Datadog は以下の ORM スタックを使用して、必要なすべての OCI リソースを作成することを推奨します。あるいは、既存の OCI ネットワークインフラストラクチャーや、[メトリクス転送スタックを作成する](#create-a-metric-forwarding-stack)で概要を説明する要件を満たす関数アプリを使用することもできます。 + +**注**: リソースマネージャースタックの Terraform 状態ファイルへのアクセス権を管理する必要があります。詳細については、Securing Resource Manager ページの [Terraform 状態ファイルのセクション][3]を参照してください。 + +#### ポリシースタックを作成する + +{{< img src="/integrations/oracle_cloud_infrastructure/OCI_auth_workflow_diagram.png" alt="インテグレーション認証に使用される OCI リソースとワークフローの図" >}} + +ORM ポリシースタックは、テナンシーの**ホームリージョン**に作成する必要があります。このポリシースタックは次を作成します。 + * コネクタハブへのアクセスを有効にするための `resource.type = 'serviceconnectors'` を持つ動的グループ。 + * テナンシーリソースを読み取るために Datadog が使用する **DatadogAuthUser** というユーザー。 + * 作成されたユーザーがポリシーアクセスのために追加されるグループ。 + * ルートコンパートメントにおける、コネクタハブがメトリクスを読み取り、関数を呼び出すことを許可するポリシー。さらに、作成されたユーザーグループにテナンシーリソースの読み取りアクセスを付与します。ポリシーに以下のステートメントが追加されます。 + +```text +Allow dynamic-group to read metrics in tenancy +Allow dynamic-group to use fn-function in tenancy +Allow dynamic-group to use fn-invocation in tenancy +Allow group / to read all-resources in tenancy +``` + +スタックを作成するには、ユーザーアカウントが[動的グループとポリシーを作成][4]できる必要があります。 + +1. Datadog OCI インテグレーションタイルで **Create a stack** ボタンをクリックします。 +2. Oracle 利用規約に同意します。 +3. **Working directory** のドロップダウンで、`datadog-oci-orm/policy-setup` を選択します。 +4. カスタム Terraform プロバイダーを使用するオプションは**未選択**のままにします。 +5. `datadog-metrics-policy-setup` のようなわかりやすい名前を提供し、それをデプロイするコンパートメントを選択します。 +6. **Next** をクリックします。 +7. 作成される動的グループ、ユーザーグループ、およびポリシーの名前を指定するか、提供されたデフォルトの名前を使用します。 +8. スタックを実行するユーザーのドメイン名を提供します。デフォルトのドメイン名は `Default` です。 +9. テナンシーの**ホームリージョン**が選択されていることを確認します。 +10. **Next** をクリックします。 +11. **Create** をクリックします。 + +**注**: +* スタックを実行するユーザーが `Default` 以外の IAM ドメインに属している場合、認証ユーザー、動的グループ、およびユーザーグループがそのドメイン内にのみ作成されるように、そのドメイン名を指定してください。 +* ユーザーとグループが **Default** ドメインに作成されていない場合、そのドメインがテナンシーのすべてのサブスクライブされたリージョンにレプリケートされていることを確認してください。詳細については、[アイデンティティドメインを複数のリージョンにレプリケートする][5]を参照してください。 + +#### テナンシー情報を入力 + +1. 監視したいテナンシーの OCID とホームリージョンを [Datadog OCI インテグレーションタイル][6]に入力します。 + - この情報は[テナンシー詳細ページ][7]で見つけることができます。 + - OCI の [Regions and Availability Domains ページ][8]から **Region Identifier** の値を使用して、ホームリージョンを入力します。 + +2. 前のスタックを実行した後に作成された `DatadogAuthUser` の **OCID** 値をコピーし、それを [Datadog OCI インテグレーションタイル][6]のユーザー OCID フィールドに貼り付けてください。 + +3. OCI コンソールに戻り、次の手順で **API キー**を生成します。 + a. 作成された `DatadogAuthUser` に戻ります。 + b. 画面の左下の **Resources** の下にある **API keys** をクリックします。 + c. **Add API key** をクリックします。 + d. **Download private key** をクリックします。 + e. **Add** をクリックします。 + f. **Configuration file preview** のポップアップが表示されますが、特に操作は必要ありません。ポップアップを閉じてください。 + +{{< img src="/integrations/oracle_cloud_infrastructure/add_api_key.png" alt="OCI コンソールの Add API Key ページ" >}} + +4. **Fingerprint** の値をコピーし、その値を [Datadog OCI インテグレーションタイル][6]の **Fingerprint** フィールドに貼り付けてください。 +5. 次の手順で**プライベートキー**の値をコピーします。 + a. ダウンロードしたプライベートキー `.pem` ファイルをテキストエディタで開くか、`cat` のようなターミナルコマンドを使用してファイルの内容を表示します。 + b. `-----BEGIN PRIVATE KEY-----` と `-----END PRIVATE KEY-----` を含む全内容をコピーします。 +6. プライベートキーの値を Datadog OCI インテグレーションタイルの **Private Key** フィールドに貼り付けてください。 + + +#### メトリクス転送スタックを作成する + +このスタックで作成されたすべてのリソースは、指定されたコンパートメントにデプロイされます。このスタックを実行するユーザーが、そのコンパートメントでリソースを作成するアクセス権を持っていることを確認してください。 + +1. OCI コンソールの[スタックの作成][9]に移動します。 +2. Oracle 利用規約に同意します。 +3. **Working directory** のドロップダウンで、`datadog-oci-orm/metrics-setup` を選択します。 +4. カスタム Terraform プロバイダーを使用するオプションは**未選択**のままにします。 +5. スタックに名前を付け、それをデプロイするコンパートメントを選択します。 +6. **Next** をクリックします。 +7. **Tenancy** の値は、そのままにしておいてください。これらは現在のリージョンとテナント、および以前に選択したコンパートメントによって指定されます。 +8. **Datadog API Key** フィールドにあなたの [Datadog API キー][10]を入力します。 +9. **Datadog Environment Endpoint** フィールドで、あなたの [Datadog サイト][11]に対応するエンドポイントを選択します。 + +| Datadog サイト | エンドポイント | +| ------------- | -------------------------------------- | +| US1 | ocimetrics-intake.datadoghq.com | +| US3 | ocimetrics-intake.us3.datadoghq.com | +| US5 | ocimetrics-intake.us5.datadoghq.com | +| EU1 | ocimetrics-intake.datadoghq.eu | +| AP1 | ocimetrics-intake.ap1.datadoghq.com | + +_注:_ OCI インテグレーションは US1-FED サイトではサポートされていません。 + +{{< tabs >}} +{{% tab "ORM を使用して VCN を作成する (推奨)" %}} +10. **Network options** セクションで、`Create VCN` がチェックされたままにします。 + a. **vcnCompartment** フィールドで、あなたのコンパートメントを選択します。 +{{% /tab %}} + +{{% tab "既存の VCN を使用する" %}} +既存の VCN を使用する場合、サブネットの OCID をスタックに提供する必要があります。VCN が次を満たしていることを確認してください。 + - NAT ゲートウェイを通じて HTTP の外向きコールを行うことが許可されている。 + - サービスゲートウェイを使用して OCI コンテナレジストリからイメージを取得できる。 + - NAT ゲートウェイとサービスゲートウェイを許可するルートテーブルルールを持っている。 + - HTTP リクエストを送信するセキュリティルールを持っている。 + +10. **Network options** セクションで、`Create VCN` オプションのチェックを外し、あなたの VCN 情報を入力します。 + a. **vcnCompartment** フィールドで、あなたのコンパートメントを選択します。 + b. **existingVcn** セクションで、あなたの既存の VCN を選択します。 + c. **Function Subnet OCID** セクションで、使用するサブネットの OCID を入力します。 +{{% /tab %}} +{{< /tabs >}} + +{{< tabs >}} +{{% tab "ORM を使用して関数アプリケーションを作成する (推奨)" %}} +ORM スタックは、テナンシー内のリージョンに関数コンテナリポジトリを作成し、関数で使用するために Docker イメージがそこに送信されます。 + +11. **Function settings** セクションで以下の手順を完了します。 + a. **Function Application shape** フィールドで、値を `GENERIC_ARM` のままにします。 + b. OCI Docker レジストリのユーザー名とパスワードを入力します。 + - **OCI Docker registry user name** フィールドに、あなたの OCI ユーザー名を入力します。 + - **OCI Docker registry password** フィールドに、あなたの OCI ユーザーの認証トークンを入力します。詳細については、[認証トークンの取得][1]を参照してください。 + + _注:_ Docker レジストリのログインが正しいかどうかを確認するには、[Oracle Cloud Infrastructure Registry へのログイン][2]を参照してください。 + + + + +[1]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm +[2]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm +{{% /tab %}} + +{{% tab "既存の関数アプリケーションを使用する" %}} +既存の関数アプリケーションを使用する場合、イメージはすでに存在しており、完全なイメージパスを提供する必要があります。以下は完全なイメージパスの例です。 + +```text +.ocir.io//datadog-functions/datadog-function-metrics:latest +``` + +- `` には、OCI の[リージョンと可用性ドメインのページ][1]のテーブルから **Region Key** の値を使用します。例えば、`US-EAST` のリージョンキーは `IAD` です。 +- `` には、[テナンシー詳細ページ][2]の **Object storage namespace** の値を使用します。 + +11. **Function settings** セクションで以下の手順を完了します。 + a. **Function Application shape** フィールドで、値を `GENERIC_ARM` のままにします。 + b. **Function Image Path** フィールドに、完全なイメージパスを入力します。 + +[1]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm +[2]: https://cloud.oracle.com/tenancy +{{% /tab %}} +{{< /tabs >}} + +12. **Service Connector hub batch size** を `5000` に設定します。 +13. **Next** をクリックします。 +14. **Create** をクリックします。 +15. [Datadog OCI インテグレーションタイル][6]に戻り、**Create configuration** をクリックします。 + +**注**: デフォルトでは、ルートコンパートメントのみが選択され、Datadog OCI インテグレーションでサポートされているすべてのメトリクスネームスペースが有効になっています (コネクタハブあたり最大 50 のネームスペースがサポートされます)。 + +16. 任意で、コンパートメントを追加したり、有効なメトリクスネームスペースのリストを編集するには、新しく作成した [Connector Hub][12] の **Edit** をクリックします。 + - コンパートメントを追加するには、**+ Another compartment** をクリックします。 + - **Configure source** セクションで、**Namespaces** ドロップダウンからネームスペースを追加または削除します。 + +#### 検証 + +Datadog の [OCI インテグレーション概要ダッシュボード][13]または [Metrics Explorer ページ][14]で `oci.*` メトリクスを表示します。 + +
OCI 関数メトリクス (oci.faas ネームスペース) とコンテナインスタンスメトリクス (oci_computecontainerinstance ネームスペース) はベータ版です。
+ +### メトリクスネームスペース + +| インテグレーション | メトリクスネームスペース | +| ----------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------- | +| [Autonomous Database][15] | [oci_autonomous_database][16] | +| ブロックストレージ | [oci_blockstore][17] | +| [コンピュート][18] | [oci_computeagent][19]、[rdma_infrastructure_health][20]、[gpu_infrastructure_health][21]、[oci_compute_infrastructure_health][22] | +| コンテナインスタンス (ベータ) | [oci_computecontainerinstance][23] | +| [データベース][24] | [oci_database][25]、[oci_database_cluster][26] | +| ダイナミックルーティングゲートウェイ | [oci_dynamic_routing_gateway][27] | +| FastConnect | [oci_fastconnect][28] | +| ファイルストレージ | [oci_filestorage][29] | +| 関数 (ベータ) | [oci_faas][30] | +| HeatWave MySQL | [oci_mysql_database][31] | +| Kubernetes エンジン | [oci_oke][32] | +| [ロードバランサー][33] | [oci_lbaas][34]、[oci_nlb][35] | +| [NAT ゲートウェイ][36] | [oci_nat_gateway][37] | +| オブジェクトストレージ | [oci_objectstorage][38] | +| キュー | [oci_queue][39] | +| サービスコネクタハブ | [oci_service_connector_hub][40] | +| サービスゲートウェイ | [oci_service_gateway][41] | +| [VCN][42] | [oci_vcn][43] | +| VPN | [oci_vpn][44] | +| Web Application Firewall | [oci_waf][45] | + ### ログ収集 次のいずれかのプロセスに従って、Oracle Cloud Infrastructure から Datadog にログを送信します。 @@ -116,18 +319,12 @@ OCI ログの詳細については、[リソースのログを有効にする][1 OCI オブジェクトストレージの詳細については、[Oracle のサービスコネクタのブログ記事][6]を参照してください。 -## トラブルシューティング - -ご不明な点は、[Datadog のサポートチーム][7]までお問い合わせください。 - - -[1]: https://docs.cloud.oracle.com/en-us/iaas/Content/Logging/Concepts/service_logs.htm#enabling_logging -[2]: https://docs.cloud.oracle.com/en-us/iaas/Content/Functions/Concepts/functionsoverview.htm +[1]: https://docs.oracle.com/iaas/Content/Logging/Task/enabling_logging.htm +[2]: https://docs.cloud.oracle.com/iaas/Content/Functions/Concepts/functionsoverview.htm [3]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/func.py [4]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/func.yaml [5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/requirements.txt [6]: https://blogs.oracle.com/cloud-infrastructure/oracle-cloud-infrastructure-service-connector-hub-now-generally-available -[7]: https://docs.datadoghq.com/ja/help/ {{% /tab %}} {{% tab "オブジェクトストア" %}} @@ -190,14 +387,85 @@ OCI オブジェクトストレージの詳細については、[データをオ OCI オブジェクトストレージの詳細については、[イベント入門][7]を参照してください。 - - -[1]: https://docs.cloud.oracle.com/en-us/iaas/Content/Logging/Concepts/service_logs.htm#enabling_logging -[2]: https://docs.cloud.oracle.com/en-us/iaas/Content/GSG/Tasks/addingbuckets.htm -[3]: https://docs.cloud.oracle.com/en-us/iaas/Content/Functions/Concepts/functionsoverview.htm +[1]: https://docs.oracle.com/iaas/Content/Logging/Task/enabling_logging.htm +[2]: https://docs.cloud.oracle.com/iaas/Content/GSG/Tasks/addingbuckets.htm +[3]: https://docs.cloud.oracle.com/iaas/Content/Functions/Concepts/functionsoverview.htm [4]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/func.py [5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/func.yaml [6]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/requirements.txt -[7]: https://docs.cloud.oracle.com/en-us/iaas/Content/Events/Concepts/eventsgetstarted.htm +[7]: https://docs.cloud.oracle.com/iaas/Content/Events/Concepts/eventsgetstarted.htm {{% /tab %}} {{< /tabs >}} + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "oracle_cloud_infrastructure" >}} + + +### サービスチェック + +OCI インテグレーションには、サービスのチェック機能は含まれません。 + +### イベント + +OCI インテグレーションには、イベントは含まれません。 + +## トラブルシューティング + +ご不明な点は、[Datadog のサポートチーム][46]までお問い合わせください。 + +## その他の参考資料 + +お役に立つドキュメント、リンクや記事: + +- [Datadog で Oracle Cloud Infrastructure を監視する][47] + + +[1]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm +[2]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications +[3]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state +[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html +[5]: https://docs.oracle.com/iaas/Content/Identity/domains/to-manage-regions-for-domains.htm +[6]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure +[7]: https://cloud.oracle.com/tenancy +[8]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm +[9]: https://cloud.oracle.com/resourcemanager/stacks/create?zipUrl=https://github.com/Datadog/oracle-cloud-integration/releases/latest/download/datadog-oci-orm.zip +[10]: https://app.datadoghq.com/organization-settings/api-keys +[11]: https://docs.datadoghq.com/ja/getting_started/site/ +[12]: https://cloud.oracle.com/connector-hub/service-connectors +[13]: https://app.datadoghq.com/dash/integration/31405/oracle-cloud-oci-overview +[14]: https://app.datadoghq.com/metric/explorer +[15]: https://app.datadoghq.com/integrations/oci-autonomous-database +[16]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html +[17]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm +[18]: https://app.datadoghq.com/integrations/oci-compute +[19]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl +[20]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network +[21]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute +[22]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm +[23]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm +[24]: https://app.datadoghq.com/integrations/oci-database +[25]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F +[26]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489 +[27]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm +[28]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm +[29]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm +[30]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm +[31]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html +[32]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm +[33]: https://app.datadoghq.com/integrations/oci-load-balancer +[34]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm +[35]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm +[36]: https://app.datadoghq.com/integrations/oci-nat-gateway +[37]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm +[38]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm +[39]: https://docs.oracle.com/iaas/Content/queue/metrics.htm +[40]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm +[41]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm +[42]: https://app.datadoghq.com/integrations/oci-vcn +[43]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm +[44]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm +[45]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm +[46]: https://docs.datadoghq.com/ja/help/ +[47]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/windows_registry.md b/content/ja/integrations/windows_registry.md index 0d5a17f19b572..fc5603520116f 100644 --- a/content/ja/integrations/windows_registry.md +++ b/content/ja/integrations/windows_registry.md @@ -18,7 +18,8 @@ author: support_email: help@datadoghq.com categories: - OS & システム -custom_kind: integration +- windows +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/windows_registry/README.md display_on_public_website: true @@ -39,6 +40,7 @@ tile: classifier_tags: - Supported OS::Windows - Category::OS & System + - カテゴリー::Windows - Offering::Integration configuration: README.md#Setup description: Windows ホストでレジストリキーの変更を監視します。 @@ -115,4 +117,4 @@ Windows レジストリインテグレーションには、サービスのチェ [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#restart-the-agent [7]: https://docs.datadoghq.com/ja/agent/basic_agent_usage/windows/?tab=gui#agent-status-and-information [8]: https://docs.datadoghq.com/ja/account_management/billing/log_management/ -[9]: https://docs.datadoghq.com/ja/help/ +[9]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/winkmem.md b/content/ja/integrations/winkmem.md index d81f13788c779..9fbba5e48a751 100644 --- a/content/ja/integrations/winkmem.md +++ b/content/ja/integrations/winkmem.md @@ -22,7 +22,8 @@ author: support_email: help@datadoghq.com categories: - OS & システム -custom_kind: integration +- windows +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/winkmem/README.md display_on_public_website: true @@ -43,6 +44,7 @@ tile: classifier_tags: - Supported OS::Windows - Category::OS & System + - カテゴリー::Windows - Offering::Integration configuration: README.md#Setup description: Windows カーネルのメモリ割り当てを監視します。 @@ -100,4 +102,4 @@ Windows Kernel Memory インテグレーションには、サービスのチェ [3]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/winkmem.d/conf.yaml.example [4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent [5]: https://github.com/DataDog/integrations-core/blob/master/winkmem/metadata.csv -[6]: https://docs.datadoghq.com/ja/help/ +[6]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/logs/explorer/facets.md b/content/ja/logs/explorer/facets.md index edd1dab8a3322..c45f545b778d5 100644 --- a/content/ja/logs/explorer/facets.md +++ b/content/ja/logs/explorer/facets.md @@ -1,7 +1,7 @@ --- algolia: tags: - - log facets + - ログファセット aliases: - /ja/logs/facets description: ログファセットとファセットパネル @@ -33,7 +33,7 @@ title: ログファセット ファセットを使用すると、[ログモニター][4]のログ、[ダッシュボード][5]のログウィジェット、[ノートブック][6]を操作することもできます。 -**Note**: You do not need facets to support [log processing][7], [livetail search][8], [log explorer search][9], [metric generation][10] from logs, [archive][11] forwarding, or [rehydration][12]. You also do not need facets for routing logs through to [Pipelines][13] and [Indexes][14] with filters, or excluding or sampling logs from indexes with [exclusion filters][15]. +**注**: [ログ処理][7]、[ライブテイル検索][8]、[ログエクスプローラー検索][9]、ログからの[メトリクス生成][10]、[アーカイブ][11]転送、または[リハイドレーション][12]をサポートするためのファセットは必要ありません。また、フィルターを使用して[パイプライン][13]や[インデックス][14]にログをルーティングする場合や、[除外フィルター][15]を使用してインデックスからログを除外またはサンプリングする場合にもファセットは必要ありません。 これらすべてのコンテキストで、オートコンプリート機能は既存のファセットに依存しますが、入力ログに一致する入力はすべて機能します。 @@ -99,16 +99,16 @@ title: ログファセット ### ファセットを非表示にする ログを使用するすべてのチームのあらゆるユースケースに対処する必要があるため、組織が持つファセットは膨大になるものです。しかし、特定のトラブルシューティングのコンテキストで必要となるのは、こうしたファセットの一部のみであることが大半でしょう。トラブルシューティングセッションで最も関連性の高いファセットのみを保持するために、必要のないファセットを定期的に非表示にします。 - -{{< img src="logs/explorer/facet/hide_facet.png" alt="ファセットを非表示にする" style="width:30%;">}} +1. [Logs Explorer][30] で、非表示にしたいファセットを見つけます。 +1. ファセットの隣にある歯車アイコンをクリックします。 +1. **Hide Facet** を選択します。 必要に応じて、ファセットは非表示にしてもファセット検索に表示されます([ファセットのフィルター](#filter-facets)セクションを参照)。そこから非表示のファセットを再表示します。 -{{< img src="logs/explorer/facet/unhide_facet.png" style="width:50%;" alt="ファセットを再表示" style="width:30%;">}} 非表示のファセットは、検索バーのオートコンプリートと、ログエクスプローラーの分析のドロップダウン(メジャー、グループ化など)からも非表示になります。ただし、ファセットは非表示にしても検索クエリでは有効です(たとえば、ログエクスプローラーのリンクをコピーして貼り付けた場合)。 -非表示のファセットはログエクスプローラー以外には影響を与えません(例: Live Tail、モニター、ダッシュボードのウィジェットの定義)。 +非表示のファセットはログエクスプローラー以外には影響を与えません (例: Live Tail、モニター、ダッシュボードのウィジェットの定義)。 #### 非表示のファセットとチームメイト @@ -262,4 +262,5 @@ _エイリアス設定された_ファセットを_標準_ファセットにエ [26]: /ja/logs/log_configuration/attributes_naming_convention [27]: /ja/logs/indexes/#indexes [28]: /ja/logs/log_configuration/rehydrating -[29]: /ja/logs/log_configuration/parsing/?tab=matchers#nested-json \ No newline at end of file +[29]: /ja/logs/log_configuration/parsing/?tab=matchers#nested-json +[30]: https://app.datadoghq.com/logs \ No newline at end of file diff --git a/content/ja/logs/guide/control-sensitive-logs-data.md b/content/ja/logs/guide/control-sensitive-logs-data.md index aaec1fe1d7c99..8300ffb92e901 100644 --- a/content/ja/logs/guide/control-sensitive-logs-data.md +++ b/content/ja/logs/guide/control-sensitive-logs-data.md @@ -94,9 +94,9 @@ title: 機密ログデータの管理 この手順により、機密データを含むログ (すでに送信されたログと流入し続ける可能性のあるログの両方) を Datadog (Explorer、Dashboard、Livetail) でクエリできないようにします。 -[データアクセスコンフィギュレーションページ][17]と機密性の高いアウトラインクエリを使用して、組織内の全員に適用される[制限][18]を定義します。例えば、上記のクエリは、`version:x.y.z source:python status:debug` です。 +[データアクセス構成ページ][17]を使用して、組織内の全員に適用される[制限][18]を定義する際、機密性の高いアウトラインクエリを活用してください。例えば、`version:x.y.z source:python status:debug` のクエリを使用できます。また、`@timestamp` 属性を使用して特定の期間を指定して制限することも可能です。例えば、`@timestamp:[1731597125165 TO 1731597125200]` とします。 -**注:** 機密性の高いアウトラインクエリの**否定**を使用すると、一致するログ以外は表示されなくなります。 +**注:** 機密性の高いアウトラインクエリで **NOT** を使用する場合、クエリに一致するログへのアクセスは制限され、クエリに一致しないログのみがユーザーに表示されるようになります。 {{< img src="logs/guide/sensitive/sensitive_data_access.png" alt="機密データアクセス" style="width:80%;" >}} diff --git a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md index bcba7533ddfd1..ed4fca80465c3 100644 --- a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md +++ b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md @@ -156,7 +156,7 @@ gnutls-cli intake.logs.datadoghq.com:10516 これはテストメッセージです ``` -ポート 10516 を開くことを選択できない場合は、`DD_LOGS_CONFIG_USE_HTTP` 環境変数を `true` に設定して、Datadog Agent が HTTPS 経由でログを送信するよう構成することができます。 +ポート 10516 を開くことを選択できない場合は、`DD_LOGS_CONFIG_FORCE_USE_HTTP` 環境変数を `true` に設定して、Datadog Agent が HTTPS 経由でログを送信するよう構成することができます。 #### コンテナに JSON ロギングドライバーが使用されていない @@ -213,4 +213,4 @@ logs_config: [1]: /ja/help/ [2]: /ja/integrations/journald/#setup [3]: /ja/agent/docker/?tab=standard#mounting-conf-d -[4]: https://docs.docker.com/config/containers/logging/journald/ +[4]: https://docs.docker.com/config/containers/logging/journald/ \ No newline at end of file diff --git a/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md b/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md index 9f8e017084f0e..15a594f7462cf 100644 --- a/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md +++ b/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md @@ -24,7 +24,7 @@ title: クロスプロダクト相関で容易にトラブルシューティン このガイドでは、フルスタックデータを相関させる方法を説明します。ユースケースによっては、以下のいくつかのステップは省略することができます。他のステップに依存しているステップは、明示されています。 1. [サーバー側ログとトレースの相関付け](#correlate-server-side-logs-with-traces) - * [Correlate application logs](#correlate-application-logs) + * [アプリケーションログの相関付け](#correlate-application-logs) * [プロキシログの相関付け](#correlate-proxy-logs) * [データベースログの相関付け](#correlate-database-logs) 2. [フロントエンドプロダクトの相関付け](#correlate-frontend-products) @@ -72,7 +72,7 @@ title: クロスプロダクト相関で容易にトラブルシューティン ##### ログのトレース ID の挿入 -トレース ID は、`opentelemetry_trace_id` 変数として保存されます。NGINX 構成ファイル (`/etc/nginx/nginx.conf`) の HTTP セクションに以下の構成ブロックを追加して、NGINX のログ形式を更新します。 +トレース ID は、`opentelemetry_trace_id` という変数に保存されます。NGINX コンフィギュレーションファイル (`/etc/nginx/nginx.conf`) の HTTP セクションに以下の構成ブロックを追加して、NGINX のログフォーマットを更新します。 ```conf http { @@ -98,7 +98,7 @@ http { _trace_id %{notSpace:dd.trace_id:nullIf("-")} ``` -3. Add a [trace ID remapper][7] on `dd.trace_id` attribute. +3. `dd.trace_id` 属性で [トレース ID リマッパー][7]を追加します。 ### データベースログの相関付け @@ -157,7 +157,7 @@ PostgreSQL パイプラインのクローン作成とカスタマイズ: 以下に、遅延しているトレースからのクエリ遅延の実行プランの例を示します。 -{{< img src="logs/guide/ease-troubleshooting-with-cross-product-correlation/slow-query-root-cause.png" alt="Slow query logs correlation" style="width:100%;" >}} +{{< img src="logs/guide/ease-troubleshooting-with-cross-product-correlation/slow-query-root-cause.png" alt="クエリ遅延ログの相関" style="width:100%;" >}} ## フロントエンドプロダクトの相関付け diff --git a/content/ja/logs/guide/forwarder.md b/content/ja/logs/guide/forwarder.md index b050308a59d77..9c8c0b26b3416 100644 --- a/content/ja/logs/guide/forwarder.md +++ b/content/ja/logs/guide/forwarder.md @@ -153,8 +153,8 @@ aws lambda invoke --function-name --payload '{"retry":"true"}' o ### 古いバージョンを 3.106.0 以降にアップグレードする -Starting version 3.106.0 Lambda function has been updated to add a prefix to cache filenames stored in the S3 bucket configured in `DD_S3_BUCKET_NAME`. This allows to use the same bucket to store cache files from several functions. -Additionally, starting this version, the forwarder will attach custom S3 bucket tags by default to all logs exported to S3. For example, if a service is configured to send logs to a destiantion S3 bucket, the forwarder will add the bucket's tags to the logs while pulling and forwarding the logs. +バージョン 3.106.0 から、Lambda 関数は `DD_S3_BUCKET_NAME` で構成された S3 バケットに保存されるキャッシュファイル名にプレフィックスを追加するよう更新されました。これにより、複数の関数が同じバケットにキャッシュファイルを保存できるようになります。 +さらに、このバージョンから、フォワーダーは S3 にエクスポートされるすべてのログにデフォルトでカスタム S3 バケットタグを付与します。たとえば、サービスが宛先の S3 バケットにログを送信するよう構成されている場合、フォワーダーはログを取得・転送する際にそのバケットのタグをログに追加します。 ### 古いバージョンを 3.99.0 以降にアップグレードする @@ -437,7 +437,7 @@ Datadog は、最低でも 10 個の予約済み同時実行を使用するこ : Forwarder が GetResources API 呼び出しを使用して Step Functions タグをフェッチし、それらをログとトレースに適用できるようにします (Step Functions のトレースが有効な場合)。true に設定すると、アクセス許可 `tag:GetResources` が Lambda 実行 IAM ロールに自動的に追加されます。 `DdStepFunctionTraceEnabled` -: Set to true to enable tracing for all Step Functions. +: すべての Step Functions のトレースを有効にするには、true に設定します。 `SourceZipUrl` : 実行内容を理解できない場合は、変更しないでください。関数のソースコードのデフォルトの場所を上書きします。 @@ -558,12 +558,11 @@ CloudFormation Stack は、次の IAM ロールを作成します。 "Resource": "*" }, { - "Action": ["s3:PutObject", "s3:DeleteObject"], - "Resource": "", - "Effect": "Allow" - }, - { - "Action": ["s3:ListBucket"], + "Action": [ + "s3:ListBucket", + "s3:PutObject", + "s3:DeleteObject" + ], "Resource": "", "Effect": "Allow" } diff --git a/content/ja/logs/guide/how-to-set-up-only-logs.md b/content/ja/logs/guide/how-to-set-up-only-logs.md index c46b1d653fba7..bb47ee30058b8 100644 --- a/content/ja/logs/guide/how-to-set-up-only-logs.md +++ b/content/ja/logs/guide/how-to-set-up-only-logs.md @@ -1,10 +1,19 @@ --- aliases: - /ja/logs/faq/how-to-set-up-only-logs +further_reading: +- link: /containers/docker/log/?tab=containerinstallation + tag: ドキュメント + text: Docker ログ収集 +- link: /containers/kubernetes/log/ + tag: ドキュメント + text: Kubernetes ログ収集 title: Datadog Agent をログ収集のみに使用 --- -To disable payloads, you must be running Agent v6.4+. This disables metric data submission (including Custom Metrics) so that hosts stop showing up in Datadog. Follow these steps: +
Infrastructure Monitoring は APM を使用するための前提条件です。APM のお客様である場合、メトリクス収集を無効にしないでください。重要なテレメトリーおよびメトリクス収集情報を失う可能性があります。
+ +ペイロードを無効にするには、Agent v6.4 以降を実行している必要があります。これにより、メトリクスデータの送信 (カスタムメトリクスを含む) が無効になり、ホストが Datadog に表示されなくなります。以下の手順に従ってください。 {{< tabs >}} {{% tab "Host " %}} @@ -29,7 +38,13 @@ To disable payloads, you must be running Agent v6.4+. This disables metric data {{% /tab %}} {{% tab "Docker" %}} -Docker コンテナ化された Agent を使用している場合は、`DD_ENABLE_PAYLOADS_EVENTS`、`DD_ENABLE_PAYLOADS_SERIES`、`DD_ENABLE_PAYLOADS_SERVICE_CHECKS`、`DD_ENABLE_PAYLOADS_SKETCHES` の環境変数を `false` に設定し、Agent のコンフィギュレーションを以下のようにします。 +Docker コンテナ化 Agent を使用している場合、以下の環境変数を `false` に設定してください。 +- `DD_ENABLE_PAYLOADS_EVENTS` +- `DD_ENABLE_PAYLOADS_SERIES` +- `DD_ENABLE_PAYLOADS_SERVICE_CHECKS` +- `DD_ENABLE_PAYLOADS_SKETCHES` + +以下は、Docker 実行コマンドにこれらの設定を含める例です。 ```shell docker run -d --name datadog-agent \ @@ -53,22 +68,31 @@ docker run -d --name datadog-agent \ {{% /tab %}} {{% tab "Kubernetes" %}} -Agent を Kubernetes にデプロイしている場合は、`DD_ENABLE_PAYLOADS_EVENTS`、`DD_ENABLE_PAYLOADS_SERIES`、`DD_ENABLE_PAYLOADS_SERVICE_CHECKS`、`DD_ENABLE_PAYLOADS_SKETCHES` の環境変数を `false` に設定し、Agent のコンフィギュレーションを以下のようにします。 +Kubernetes に Agent をデプロイする場合、Agent 構成に加えて Helm チャートに以下の変更を加えてください。 ```yaml ## ログのみ送信 - datadog: - [...] - env: - - name: DD_ENABLE_PAYLOADS_EVENTS - value: "false" - - name: DD_ENABLE_PAYLOADS_SERIES - value: "false" - - name: DD_ENABLE_PAYLOADS_SERVICE_CHECKS - value: "false" - - name: DD_ENABLE_PAYLOADS_SKETCHES - value: "false" +clusterAgent: + enabled: false +datadog: +[...] + processAgent: + enabled: false +[...] + env: + - name: DD_ENABLE_PAYLOADS_EVENTS + value: "false" + - name: DD_ENABLE_PAYLOADS_SERIES + value: "false" + - name: DD_ENABLE_PAYLOADS_SERVICE_CHECKS + value: "false" + - name: DD_ENABLE_PAYLOADS_SKETCHES + value: "false" ``` {{% /tab %}} -{{< /tabs >}} \ No newline at end of file +{{< /tabs >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ja/logs/log_configuration/archives.md b/content/ja/logs/log_configuration/archives.md index f54631e3163ec..c8f36a95f336a 100644 --- a/content/ja/logs/log_configuration/archives.md +++ b/content/ja/logs/log_configuration/archives.md @@ -37,27 +37,26 @@ Datadog アカウントを構成して、独自のクラウドストレージシ 環境から直接ストレージに最適化されたアーカイブにログをルーティングしたい場合は、[Observability Pipelines でログをアーカイブする][4]方法を参照してください。 -## アーカイブの構成 +## ログアーカイブを構成します -### インテグレーションのセットアップ +### インテグレーションを設定します {{< tabs >}} {{% tab "AWS S3" %}} {{< site-region region="gov" >}} -
AWS Role Delegation は、Datadog for Government site でサポートされていません。アクセスキーを使用する必要があります。
+
ロール委任を使用した S3 アーカイブの設定は現在限定的に利用可能です。Datadog for Government アカウントでこの機能をリクエストするには、Datadog サポートにお問い合わせください
{{< /site-region >}} まだ構成されていない場合は、S3 バケットを保持する AWS アカウントの [AWS インテグレーション][1]をセットアップします。 - -* 一般的なケースでは、これには、Datadog が AWS S3 との統合に使用できるロールの作成が含まれます。 -* 特に AWS GovCloud または China アカウントの場合は、ロール委任の代わりにアクセスキーを使用します。 + * 一般的なケースでは、これには、Datadog が AWS S3 との統合に使用できるロールの作成が含まれます。 + * 特に AWS China アカウントの場合は、ロール委任の代わりにアクセスキーを使用します。 [1]: /ja/integrations/amazon_web_services/?tab=automaticcloudformation#setup {{% /tab %}} {{% tab "Azure Storage" %}} -まだ設定していない場合は、新しいストレージアカウントを保持するサブスクリプション内で [Azure インテグレーション][1]をセットアップします。これには、[Datadog がインテグレーションに使用できるアプリ登録の作成][2]も含まれます。 +新しいストレージアカウントのあるサブスクリプション内で [Azure インテグレーション][1]をセットアップしていない場合、セットアップします。これには、[Datadog が統合に使用できるアプリ登録の作成][2]も含まれます。 **注:** Azure ChinaCloud、GermanyCloud、GovCloud へのアーカイブはサポートされていません。 @@ -83,11 +82,11 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{< tabs >}} {{% tab "AWS S3" %}} -[AWS コンソール][1]に移動し、アーカイブを送信するための [S3 バケットを作成][2]します。 +[AWS コンソール][1]にアクセスし、アーカイブを転送する [S3 バケットを作成][2]します。 **注:** -- バケットを一般公開で読み取り可能にしないでください。 +- バケットを公開読み取り可能にしないでください。 - [US1、US3、US5 サイト][3]については、地域間データ転送料とクラウドストレージコストへの影響について、[AWS Pricing][4] を参照してください。地域間のデータ転送料を管理するために、ストレージバケットを `us-east-1` に作成することを検討してください。 [1]: https://s3.console.aws.amazon.com/s3 @@ -98,7 +97,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{% tab "Azure Storage" %}} -* [Azure ポータル][1]に移動し、アーカイブを送信するための[ストレージアカウントを作成][2]します。ストレージアカウントの名前を指定し、標準パフォーマンスまたは **Block blob** プレミアムアカウントタイプのいずれかを選択し、**hot** または **cool** アクセス層を選択します。 +* [Azure ポータル][1]にアクセスし、アーカイブを転送する[ストレージアカウントを作成][2]します。標準パフォーマンスまたは **Block blobs** プレミアムアカウントタイプを選択し、**hot** または **cool** アクセス層を選択します。 * そのストレージアカウントに **container** サービスを作成します。Datadog アーカイブページに追加する必要があるため、コンテナ名をメモしてください。 **注:** まれに最後のデータを書き換える必要があるため、[不変性ポリシー][3]を設定しないでください (通常はタイムアウト)。 @@ -110,7 +109,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{% tab "Google Cloud Storage" %}} -[Google Cloud アカウント][1]に移動し、アーカイブを送信するための [GCS バケットを作成][2]します。「**Choose how to control access to objects**」で、「**Set object-level and bucket-level permissions**」を選択します。 +[Google Cloud アカウント][1]にアクセスし、アーカイブを転送するための [GCS バケットを作成][2]します。**Choose how to control access to objects** セクションで、**Set object-level and bucket-level permissions** を選択してください。 **注:** まれに最後のデータを書き換える必要があるため、[保持ポリシー][3]を追加しないでください (通常はタイムアウト)。 @@ -120,7 +119,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{% /tab %}} {{< /tabs >}} -### 権限を設定 +### 権限を設定する [`logs_write_archive` 権限][5]のある Datadog ユーザーだけがログアーカイブ構成を作成、変更、または削除できます。 @@ -154,8 +153,8 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud ] } ``` - * `GetObject` および `ListBucket` 権限により、[アーカイブからのリハイドレート][2]が可能になります。 - * アーカイブのアップロードには、`PutObject` 権限で十分です。 + * `GetObject` および `ListBucket` の権限を設定すると、[アーカイブからのリハイドレート][2]が可能になります。 + * アーカイブをアップロードするには、`PutObject` 権限で十分です。 * `s3:PutObject` と `s3:GetObject` アクションのリソース値は `/*` で終わっていることを確認してください。これらの権限はバケット内のオブジェクトに適用されるからです。 2. バケット名を編集します。 @@ -173,7 +172,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{% /tab %}} {{% tab "Azure Storage" %}} -1. Datadog アプリに、ストレージアカウントへ書き込み、ここからリハイドレートするための権限を与えます。 +1. Datadog アプリに、ストレージアカウントへの書き込みおよびリハイドレートを行うための権限を付与します。 2. [ストレージアカウントのページ][1]でストレージアカウントを選択し、**Access Control (IAM)** で **Add -> Add Role Assignment** を選択します。 3. Role に **Storage Blob Data Contributor** を入力し、Azure と統合するために作成した Datadog アプリを選択して、保存します。 @@ -183,7 +182,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud {{% /tab %}} {{% tab "Google Cloud Storage" %}} -1. Datadog Google Cloud サービスアカウントに、バケットへアーカイブを書き込むための権限を与えます。 +1. Datadog Google Cloud サービスアカウントに、アーカイブをバケットに書き込むための権限を付与します。 2. [Google Cloud IAM Admin ページ][1]から Datadog の Google Cloud サービスアカウントのプリンシパルを選択し、**Edit principal** を選択します。 3. **ADD ANOTHER ROLE** をクリックし、**Storage Object Admin** ロールを選択し、保存します。 @@ -201,6 +200,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud * [`logs_write_archive` 権限][5]のある Datadog ユーザーだけがこの手順と次の手順を完了させることができます。 * Azure Blob Storage へのログのアーカイブには、App Registration が必要です。[Azure インテグレーションページ][7]の手順を参照し、ドキュメントページの右側にある「サイト」を「US」に設定してください。アーカイブ目的で作成された App Registration は、"Storage Blob Data Contributor" ロールのみが必要です。ストレージバケットが Datadog Resource を通じて監視されているサブスクリプションにある場合、App Registration が冗長である旨の警告が表示されます。この警告は無視することができます。 * バケットでネットワークアクセスを特定の IP に制限している場合は、{{< region-param key="ip_ranges_url" link="true" text="IP 範囲リスト">}}から Webhook の IP を許可リストに追加してください。 +* **US1-FED サイト**の場合、Datadog を構成して、ログを Datadog GovCloud 環境外の宛先に送信することができます。Datadog は、Datadog GovCloud 環境を離れたログに対して一切の責任を負いません。また、これらのログが GovCloud 環境を離れた後に適用される FedRAMP、DoD 影響レベル、ITAR、輸出コンプライアンス、データ居住地、またはそれに類する規制に関する義務や要件についても、Datadog は一切の責任を負いません。 {{< tabs >}} {{% tab "AWS S3" %}} @@ -269,12 +269,12 @@ S3 バケットに適した AWS アカウントとロールの組み合わせを {{< img src="logs/archives/max_scan_size.png" alt="アーカイブの最大スキャンサイズを設定する" style="width:75%;">}} {{< site-region region="us3" >}} -#### ファイアウォールのルール +#### ファイアウォールルール {{< tabs >}} -{{% tab "Azure Storage" %}} +{{% tab "Azure ストレージ" %}} -ファイアウォールのルールはサポートされていません。 +ファイアウォールルールはサポートされていません。 {{% /tab %}} {{< /tabs >}} @@ -398,7 +398,7 @@ S3 バケットが SSE-S3 で暗号化されていることを確認するには ### 検証 -Datadog アカウントでアーカイブ設定が正常に構成されたら、処理パイプラインは Datadog に取り込まれたすべてのログを豊かにする作業を開始します。その後アーカイブに転送されます。 +Datadog アカウントでアーカイブ設定が正常に構成された時点から、処理パイプラインは Datadog に取り込まれたすべてのログを加工し始めます。その後アーカイブに転送されます。 ただし、アーカイブの構成を作成または更新した後、次のアーカイブのアップロードが試行されるまでに数分かかることがあります。アーカイブがアップロードされる頻度は、さまざまです。アーカイブが Datadog アカウントから正常にアップロードされていることを確認するために、**15 分後にストレージバケットを再確認**してください。 @@ -427,7 +427,7 @@ Datadog がストレージバケットに転送するログアーカイブは、 このディレクトリ構造により、過去のログアーカイブを日付に基づいてクエリする処理が簡略化されます。 -ZIP 圧縮された JSON ファイル内の各イベントの内容は、以下のようにフォーマットされています。 +圧縮 JSON ファイル内の各イベントは、以下の形式で内容が表されます。 ```json { @@ -464,4 +464,4 @@ ZIP 圧縮された JSON ファイル内の各イベントの内容は、以下 [12]: /ja/account_management/rbac/permissions#logs_read_index_data [13]: /ja/account_management/rbac/permissions#logs_read_data [14]: /ja/logs/explorer/live_tail/ -[15]: /ja/service_management/events/explorer/ +[15]: /ja/service_management/events/explorer/ \ No newline at end of file diff --git a/content/ja/logs/log_configuration/attributes_naming_convention.md b/content/ja/logs/log_configuration/attributes_naming_convention.md index 2926444c39a8a..086297cd4fdcb 100644 --- a/content/ja/logs/log_configuration/attributes_naming_convention.md +++ b/content/ja/logs/log_configuration/attributes_naming_convention.md @@ -58,56 +58,34 @@ title: 属性とエイリアス設定 ログのインテグレーションは標準属性の[デフォルトセット][9]に依存します。 -リストはオーガニゼーションの管理者が作成できます。 - -- [ログエクスプローラー][1]から、既存の属性を標準属性に**格上げ**できます。 -- 標準属性の[コンフィギュレーションページ][3]から、新しい標準属性を**作成**します。 - -{{< img src="logs/processing/attribute_naming_convention/standard_attribute_config.png" alt="標準属性" style="width:60%;">}} - -標準属性テーブルには、[定義済み標準属性セット](#default-standard-attribute-list)が付属しています。このリストに独自の属性を追加したり、既存の標準属性を編集または削除することができます。 - -{{< img src="logs/processing/attribute_naming_convention/edit_standard_attributes.png" alt="標準属性を編集" style="width:80%;">}} - -標準属性は以下によって定義されます。 - -- `Path`: 標準属性として**格上げされる**属性のパス。JSON で定義されます (例: `network.client.ip`) 。 -- `Type`: (`string`, `integer`, `double`, `boolean`): 属性の型。再マップリストの要素をキャストするために使用されます。 -- `Aliasing list`: **エイリアス設定**対象となる属性のカンマ区切りリスト。 -- `Description`: 属性のわかりやすい説明。 - -新しい標準属性を追加したり、既存の標準属性を編集する際は、標準属性パネルが表示されます。 - -{{< img src="logs/processing/attribute_naming_convention/define_standard_attribute.png" alt="標準属性を定義" style="width:80%;">}} +標準属性テーブルには、[定義済み標準属性](#default-standard-attribute-list)のセットが付属しています。このリストに独自の属性を追加したり、既存の標準属性を編集または削除することができます。 + +### 新しい標準属性を作成する +**管理ユーザー**は標準属性リストを管理できます。 +1. 標準属性の[構成ページ][3]に移動します。 +1. **New Standard Attribute** をクリックします。 +1. 標準属性を定義します。 + - `Path`: JSON で確認できる標準属性のパス (例: network.client.ip)。 + - `Type`: (`string`, `integer`, `double`, `boolean`): 属性の型。再マップリストの要素をキャストするために使用されます。 + - `Description`: 属性に関する人間が読める説明。 + - (オプション)`Remapping list`: 標準属性に再マッピングすべき準拠していない属性のカンマ区切りのリスト。 ### デフォルトの標準属性リスト [ログ管理のデフォルトの標準属性][9]の完全なリストをご覧ください。リストは機能ドメイン別に分かれています。 -- [ネットワーク/通信][10] - - ネットワーク通信で使用されるデータに関連する属性です。すべてのフィールドとメトリクスに `network` というプレフィックスが付けられています。 -- [位置情報][11] - - ネットワーク通信で使用される IP アドレスの位置情報に関連する属性です。すべてのフィールドに `network.client.geoip` または `network.destination.geoip` というプレフィックスが付けられています。 -- [HTTP リクエスト][12] - - HTTP リクエストおよびアクセスで一般に使用されるデータに関連する属性です。すべての属性に `http` というプレフィックスが付けられています。 - - これらの属性に依存する代表的なインテグレーションには、[Apache][4]、Rails、[AWS CloudFront][13]、Web アプリケーションサーバーなどがあります。 - - URL の詳細に関する属性には、`http.url_details` というプレフィックスが付きます。これらの属性は、HTTP URL のパースされた各部に関する詳細を提供します。[URL パーサー][14]によって生成されます。 -- [ソースコード][15] - - カスタムアプリケーションのロガーを使用してログまたはエラーを生成する際に使用されるデータに関係する属性です。すべての属性に `logger` または `error` というプレフィックスが付けられています。 - - これらの属性に依存する代表的なインテグレーションには、Java、Node.js、.NET、Golang、Python などがあります。 -- [データベース][16] - - これらの属性に依存する代表的なインテグレーションには、[Cassandra][17]、[MySQL][18]、[RDS][19]、[Elasticsearch][20] などがあります。 -- [パフォーマンス][21] - - パフォーマンスメトリクスに関係する属性です。Datadog ではこの属性を[トレース検索][23]のデフォルトの[メジャー][1]として表示および使用するため、この属性に関するログ内で処理時間を[再マッピング][22]することを推奨しています。 -- [ユーザー関連の属性][24] - - すべての属性とメジャーに `usr` というプレフィックスが付きます。 -- [Syslog とログシッパー][25] - - 以下は、syslog またはログシッパーエージェントによって追加されるデータに関連する属性です。すべてのフィールドとメトリクスに `syslog` というプレフィックスが付きます。 - - これらに依存するインテグレーションには、[Rsyslog][26]、[NxLog][27]、[Syslog-ng][28]、[Fluentd][29]、[Logstash][30] などがあります。 -- [DNS][31] - - すべての属性とメジャーに `dns` というプレフィックスが付きます。 -- [イベント][32] - - すべての属性に `evt` というプレフィックスが付きます。 +| 標準属性 | 説明 | +|----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| [ネットワーク/通信][10] | ネットワーク通信で使用されるデータに関連する属性です。すべてのフィールドとメトリクスに `network` というプレフィックスが付けられています。 | +| [位置情報][11] | ネットワーク通信で使用される IP アドレスの位置情報に関連する属性です。すべてのフィールドに `network.client.geoip` または `network.destination.geoip` というプレフィックスが付けられています。 | +| [HTTP リクエスト][12] | これらの属性は、HTTP リクエストやアクセスで一般的に使用されるデータに関連しています。すべての属性には `http` という接頭辞が付いています。これらの属性に依存する代表的なインテグレーションには、[Apache][4]、Rails、[AWS CloudFront][13]、Web アプリケーションサーバーなどがあります。URL 詳細属性には `http.url_details` という接頭辞が付いています。これらの属性は、HTTP URL のパースされた部分の詳細を提供します。これらは [URL パーサー][14]によって生成されます。 | +| [ソースコード][15] | これらの属性は、カスタムアプリケーションのロガーを使用してログやエラーが生成された際に使用されるデータに関連しています。すべての属性には、`logger` または `error` のいずれかが接頭辞として付きます。これらの属性に依存する代表的なインテグレーションには、Java、Node.js、.NET、Golang、Python などがあります。 | +| [データベース][16] | これらの属性に依存する代表的なインテグレーションには、[Cassandra][17]、[MySQL][18]、[RDS][19]、[Elasticsearch][20] などがあります。 | +| [パフォーマンス][21] | パフォーマンスメトリクスに関係する属性です。Datadog ではこの属性を[トレース検索][23]のデフォルトの[メジャー][1]として表示および使用するため、この属性に関するログ内で処理時間を[再マッピング][22]することを推奨しています。 | +| [ユーザー関連の属性][24] | すべての属性とメジャーに `usr` というプレフィックスが付きます。 | +| [Syslog とログシッパー][25] | これらの属性は、syslog またはログ転送エージェントによって追加されたデータに関連しています。すべてのフィールドとメトリクスには `syslog` が接頭辞として付きます。これらの属性に依存するインテグレーションには、[Rsyslog][26]、[NxLog][27]、[Syslog-ng][28]、[Fluentd][29]、[Logstash][30] などがあります。 | +| [DNS][31] | すべての属性とメジャーに `dns` というプレフィックスが付きます。 | +| [イベント][32] | すべての属性に `evt` というプレフィックスが付きます。 | ## エイリアス設定 diff --git a/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md b/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md index df2dda579b2d1..7413188ee9431 100644 --- a/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md +++ b/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md @@ -1014,7 +1014,7 @@ DogStatsD は Datadog にメトリクスを送信する前に、`` | `GAUGE` | 補正なし。受信した値はそのまま残ります。 | | `SET` | 補正なし。受信した値はそのまま残ります。 | | `HISTOGRAM` | `histogram.count` 統計は COUNT メトリクスであり、上記の補正を受け取ります。他の統計は GAUGE メトリクスなので、「補正」は行われません。 | -| `DISTRIBUTION` | Values received are counted (`1/`) times. It's reasonable to assume that for one datapoint received, `1/` were actually sampled with the same value. | +| `DISTRIBUTION` | 受け取った値は (`1/`) 倍として計上されます。受信したデータポイント 1 つに対し、`1/` 個が同じ値で実際にサンプリングされたと考えるのは理にかなっています。 | #### コード例 diff --git a/content/ja/metrics/distributions.md b/content/ja/metrics/distributions.md index d8fc3ac653b7a..f7f9ed45872a4 100644 --- a/content/ja/metrics/distributions.md +++ b/content/ja/metrics/distributions.md @@ -37,9 +37,7 @@ title: ディストリビューション * **タグ付けのカスタマイズ**: この機能を使用すると、ホストレベルの詳細度を必要としない場合にカスタムメトリクスのタグ付けスキームを制御することができます (チェックアウトサービスの毎秒トランザクションなど)。 -実装の詳細については、[開発ツールのセクション][1]を参照してください。 - -**注:** ディストリビューションは新しいメトリクスタイプであるため、Datadog への送信時に新しいメトリクス名の下でインスツルメンテーションを行う必要があります。 +**注:** ディストリビューションメトリクスデータは他のタイプとは異なる方法で保存されるため、`distribution` に使用するメトリクス名は他のメトリクスタイプには使用しないでください。 ## 高度なクエリ機能の有効化 @@ -65,11 +63,18 @@ title: ディストリビューション {{< img src="metrics/distributions/percentile_monitor.jpg" alt="モニターのアラート条件にドロップダウンで設定できるパーセンタイルしきい値" style="width:80%;">}} -### しきい値クエリ +### 複数のメトリクスの一括構成 + +個々のメトリクスを個別に構成するのではなく、複数のメトリクスに対するパーセンタイル集計を一括で有効または無効にすることができます。 -
-しきい値クエリは公開ベータ版です。 -
+1. [メトリクスサマリーページ][4]に移動し、**Configure Metrics** ドロップダウンをクリックします。 +1. **Enable percentiles** を選択します。 +1. そのネームスペースに一致するすべてのメトリクスを選択するには、メトリクスのネームスペースプレフィックスを指定します。 +1. (オプション) ネームスペース内のすべてのメトリクスに対するパーセンタイルを無効にするには、**Percentile aggregations** トグルをクリックします。 + +{{< img src="metrics/summary/percentile_aggregations_toggle.png" alt="パーセンタイル集計を管理するためのトグル" style="width:100%;" >}} + +### しきい値クエリ DDSketch によって計算されたディストリビューションメトリクスのグローバルで正確なパーセンタイルを有効にすると、しきい値クエリが解放されます。ここでは、生のディストリビューションメトリクス値が数値のしきい値を超えるか下回る場合にその数を数えることができます。この機能を利用して、異常な数値のしきい値と比較したエラーや違反の回数をダッシュボードでカウントすることができます。また、しきい値クエリを使用して、「過去 30 日間に 95% のリクエストが 10 秒以内に完了した」というような SLO を定義することも可能です。 @@ -123,4 +128,5 @@ https://app.datadoghq.com/event/stream?tags_execution=and&per_page=30&query=tags [1]: /ja/metrics/types/ [2]: https://www.datadoghq.com/blog/engineering/computing-accurate-percentiles-with-ddsketch/ -[3]: https://app.datadoghq.com/event/explorer \ No newline at end of file +[3]: https://app.datadoghq.com/event/explorer +[4]: https://app.datadoghq.com/metric/summary \ No newline at end of file diff --git a/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md b/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md index f9cbbaf69e9d4..2e082d9fefb5e 100644 --- a/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md +++ b/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md @@ -121,21 +121,15 @@ curl --location --request POST 'https://api.datadoghq.com/api/v1/monitor' \ {{% /tab %}} {{< /tabs >}} -## ロックされたロールから制限されたロールへのモニターの移行 +## 制限されたロール -Datadog がモニターの編集を特定のロールに制限できる機能をリリースする以前は、モニターをロックすることができました。ロックされたモニターを編集できるのは、作成者と [Datadog Admin Role][2] を持つユーザーだけです。 - -{{< img src="/monitors/guide/monitor_rbac_locked.jpg" alt="RBAC ロックされたモニター" style="width:70%;">}} - -ロックされたモニターは非推奨であり、もはやサポートされません。代わりに、どのユーザーがモニターを編集できるかを柔軟に定義するロール制限オプションを使用してください。 - -以下のセクションでは、モニターの管理方法に応じて、ロック機構から制限されたロールに移行する方法について説明します。 +Datadog では、ロール制限オプションにより、特定のロールに対してモニターの編集を制限することができます。これにより、モニターの編集を許可するユーザーを柔軟に定義することができます。 ### API -上記のロックメカニズムに対応する `locked` パラメーターはもはやサポートされません。これは、API や Terraform を通じて管理されるモニターの定義を更新し、`locked` の使用を中止し、`restricted_roles` (新しいロール制限オプションに添付されたパラメーター) を使用する必要があることを意味します。 +API または Terraform で管理されているモニターの定義を更新するには、`restricted_roles` パラメーターを使用します。また、[制限ポリシー][4]エンドポイントを使用して、モニターに対するアクセス制御ルールを定義し、一連の関係 (エディターやビューアーなど) を一連の許可されたプリンシパル (ロール、チーム、ユーザーなど) にマッピングすることもできます。制限ポリシーは、モニター上で誰がどのようなアクションを実行する権限を持つかを決定します。 -モニターの定義を更新する方法については、[モニター API エンドポイントの編集][3]および[モニター API オプション][4]を参照してください。 +詳細については、[モニターの編集 API エンドポイント][3]および[制限ポリシー API][4] を参照してください。 ### UI @@ -144,69 +138,6 @@ UI から作成されるすべての新しいモニターは `restricted_roles` {{< img src="/monitors/guide/monitor_rbac_non_restricted.jpg" alt="RBAC 非制限モニター" >}} -Datadog は、モニターが保存されるたびに、既存のモニター定義を古いロックされたメカニズムから新しいロール制限のメカニズムに更新します。 - -以下は、ロック機構を使用しているモニターを保存する必要がある場合の手順です。 - -#### 作成者または Datadog Admin Role を持つユーザーが編集したロックされたモニター (`locked:true`) - -あなたは、[Datadog Admin Role][2] を持つユーザー、またはモニターの作成者です。ロックされたモニターを編集すると、次の警告が表示されます。 - -``` -This monitor is using the locked attribute: only its creator and admins can edit it. locked is deprecated in favor of restricted_roles. On save, the monitor will be automatically updated to use a restricted_roles attribute set to all roles with Admin permissions. -If there is no specific change you want to apply to this monitor's permissions, click Save. If you want to update this monitor's permissions, read this doc. -``` -(このモニターは locked 属性を使用しています。作成者と管理者のみが編集できます。locked は廃止され、restricted_roles に代わりました。保存すると、モニターは自動的に更新され、Admin 権限を持つすべてのロールに設定された restricted_roles 属性を使用するようになります。 -このモニターの権限に適用したい特定の変更がない場合、Save をクリックします。このモニターの権限を更新する場合は、このドキュメントをお読みください。) - -保存すると、モニターの定義が Admin 権限を持つすべてのロールに更新されます。 -この警告は、モニターに加える変更に応じて、さまざまな方法で対処することができます。 - -**1. モニターの権限を一切変更したくない場合** - -モニターを保存します。Datadog は、ロック機構から制限されたロールにモニターを自動的に移行します。しきい値の更新やメッセージなど、モニターに行った他の更新も同時に保存されます。 - -何も変更せずに **Save** をクリックすると、モニターの更新も実行されます。 - -**2. すべてのユーザーがこのモニターを編集できるようにしたい場合** - -モニターを保存すると、Datadog が制限されたロールに移行させます。編集ページを再度開きます。**Restrict editing of this monitor to** ドロップダウンメニューで、すべてのロールを削除します。**Save** を再びクリックします。 - -**3. モニターを一部のロールに制限したいが、Admin 権限を持つすべてのロールに制限されたくない場合** - -**Restrict editing of this monitor to** ドロップダウンメニューで、このモニターを修正できるロールを選択します。モニターを保存します。モニターは選択したロールにのみ制限されます。 - -#### 非作成者または Datadog Admin Role を持たないユーザーが編集したロックされたモニター (`locked:true`) - -あなたは、[Datadog Admin Role][2] を持たないユーザーであり、またモニターの作成者ではありません。ロックされたモニターを編集すると、次の警告が表示されます。 - -``` -This monitor is locked: only its creator and admins can edit it. Read more here. -``` -(このモニターはロックされています。作成者と管理者のみが編集可能です。詳しくはこちらをご覧ください。) - -このモニターはロックされています。[Datadog Admin Role][2] を持つユーザーまたはモニターの作成者に連絡し、モニターのロール制限にあなたのロールの 1 つを追加するよう依頼してください。管理者は、[ロックされたモニター](#locked-monitors-lockedtrue-edited by-creator-or-user-with-datadog-admin-role)について上記のステップ 2 または 3 を実行する必要があります。 - -**注:** 警告とオプションの間に見られる不一致は予期されるものです。警告は、locked パラメーターを使用しているモニターの現在の状態を反映しています。[Datadog Admin Role][2] を持つユーザーまたはモニターの作成者が編集して保存すると、オプションは、モニターの更新後となるロール制限オプションを反映します。モニターが保存されると、警告は消え、適切な制限されたロールがドロップダウンに入力されます。 - -#### Non locked monitors (`locked:false`, `locked:null`, undefined `locked`) - -ロックされていないモニターを編集すると、次のオプションが表示されます。 - -{{< img src="/monitors/guide/monitor_rbac_non_restricted.jpg" alt="RBAC 非制限モニター" >}} - -このオプションは、モニターに加える変更に応じて、さまざまな方法で処理することができます。 - -**1. モニターの権限を一切変更したくない場合** - -モニターを保存します。Datadog は、ロック機構から制限されたロールにモニターを自動的に移行します。しきい値の更新やメッセージなど、モニターに行った他の更新も同時に保存されます。 - -何も変更せずに **Save** をクリックすると、モニターの更新も実行されます。 - -**2. モニターを一部のロールに制限したい場合** - -**Restrict editing of this monitor to** ドロップダウンメニューで、このモニターを修正できるロールを選択します。モニターを保存します。モニターは選択したロールに制限されます。 - ## 参考資料 {{< partial name="whats-next/whats-next.html" >}} @@ -214,4 +145,4 @@ This monitor is locked: only its creator and admins can edit it. Read more here. [1]: /ja/account_management/rbac/ [2]: /ja/account_management/rbac/?tab=datadogapplication#datadog-default-roles [3]: /ja/api/latest/monitors/#edit-a-monitor -[4]: /ja/monitors/guide/monitor_api_options/#permissions-options \ No newline at end of file +[4]: /ja/api/latest/restriction-policies/ \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/collecting_browser_errors.md b/content/ja/real_user_monitoring/browser/collecting_browser_errors.md index 0f5e21d15ac04..7f25412f5af0f 100644 --- a/content/ja/real_user_monitoring/browser/collecting_browser_errors.md +++ b/content/ja/real_user_monitoring/browser/collecting_browser_errors.md @@ -1,38 +1,34 @@ --- +aliases: +- /ja/error_tracking/standalone_frontend/collecting_browser_errors further_reading: -- link: /real_user_monitoring/error_tracking/ - tag: Documentation - text: エラー追跡 -- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ - tag: ブログ - text: リアルユーザーの監視 -- link: /real_user_monitoring/explorer/ - tag: Documentation - text: Datadog でビューを検索する -- link: /real_user_monitoring/explorer/visualize/ - tag: Documentation - text: イベントへの視覚化の適用 -- link: /real_user_monitoring/platform/dashboards/ - tag: Documentation - text: RUM ダッシュボード +- link: /error_tracking/explorer/ + text: Datadog 内でエラーを探索する + タグ: ドキュメント +- link: /error_tracking/monitors/ + text: 影響の大きい問題について積極的にアラートを発信する + タグ: ドキュメント +- link: /real_user_monitoring + text: パフォーマンスとユーザーへの影響を測定する + タグ: ドキュメント title: ブラウザエラーの収集 --- ## 概要 -Front-end errors are collected with with Browser SDK. The error message and stack trace are included when available. +フロントエンドのエラーは Browser SDK で収集されます。エラーメッセージとスタックトレースが利用できる場合は含まれます。 ## エラーソース フロントエンドのエラーは、いくつかの異なるソースから発生します。 - **agent**: SDK の実行から - **console**: `console.error()` API コールから -- **custom**: Sent with the [`addError` API](#collect-errors-manually) +- **custom**: [`addError` API](#collect-errors-manually) を使用して送信される - **report**: `ReportingObserver` API から - **source**: ソースコードの未処理の例外または未処理の約束拒否から ## エラー属性 -For information about the default attributes for all event types, see [Data Collected][1]. For information about configuring for sampling or global context see [Modifying Data and Context][2]. +すべてのイベントタイプのデフォルト属性に関する詳細は、[収集されるデータ][1]をご覧ください。サンプリングまたはグローバルコンテキストの構成に関する情報は、[データとコンテキストの変更][2]をご覧ください。 | 属性 | タイプ | 説明 | |-----------------|--------|-------------------------------------------------------------------| @@ -51,7 +47,7 @@ For information about the default attributes for all event types, see [Data Coll ## エラーを手動で収集する -Monitor handled exceptions, handled promise rejections, and other errors not tracked automatically by the Browser SDK with the `addError()` API: +処理済みの例外、処理済みのプロミス拒否、および Browser SDK で自動的に追跡されないその他のエラーを、`addError()` API を使用して監視します。 {{< code-block lang="javascript" >}} addError( @@ -60,7 +56,7 @@ addError( ); {{< /code-block >}} -**Note**: [Error Tracking][4] processes errors that are sent with the source set to `custom`, `source` or `report`, and contain a stack trace. Errors sent with any other source (such as `console`) or sent from browser extensions are not processed by Error Tracking. +**注**: [Error Tracking][4] は、ソースを `custom`、`source` または `report` に設定し、スタックトレースを含むエラーを処理します。その他のソース (`console` など) で送られたか、ブラウザ拡張機能で送られたエラーは、エラー追跡では処理されません。 {{< tabs >}} {{% tab "NPM" %}} @@ -142,7 +138,7 @@ try { {{% /tab %}} {{< /tabs >}} -### React error boundaries instrumentation +### React エラー境界のインスツルメンテーション React [エラー境界][5]をインスツルメンテーションして、RUM ブラウザ SDK の `addError()` API を使用して React のレンダリングエラーを監視できます。 diff --git a/content/ja/serverless/libraries_integrations/cli.md b/content/ja/serverless/libraries_integrations/cli.md index 00c6c8eb4e96a..10c07d43e9124 100644 --- a/content/ja/serverless/libraries_integrations/cli.md +++ b/content/ja/serverless/libraries_integrations/cli.md @@ -62,7 +62,7 @@ datadog-ci lambda uninstrument --functions-regex -r us-eas datadog-ci lambda uninstrument -f -f -r us-east-1 --dry-run ``` -See the configuration section for additional settings. +コンフィギュレーションセクションでその設定を確認します。 ## 構成 @@ -113,7 +113,7 @@ See the configuration section for additional settings. | `--no-source-code-integration` | | Datadog ソースコードインテグレーションを無効にします。 | | | `--upload-git-metadata` | `-u` | ソースコードインテグレーションの一部として、Git メタデータのアップロードを有効にするかどうか。Git メタデータのアップロードは、Datadog Github インテグレーションをインストールしていない場合のみ必要です。 | `true` | | `--no-upload-git-metadata` | | ソースコードインテグレーションの一部として、Git メタデータのアップロードを無効にします。Datadog Github インテグレーションをインストールしている場合、このフラグを使用すると、Git メタデータのアップロードが不要になります。 | | -| `--apm-flush-deadline` | | タイムアウトが発生する前にスパンを送信するタイミングをミリ秒単位で決定するために使用されます。AWS Lambda の呼び出しの残り時間が設定された値よりも小さい場合、トレーサーは、現在のアクティブなスパンとすべての終了したスパンの送信を試みます。Node.js と Python でサポートされています。デフォルトは `100` ミリ秒です。 | | +| `--apm-flush-deadline` | | タイムアウトが発生する前にスパンを送信するタイミングをミリ秒単位で決定するために使用されます。AWS Lambda の呼び出しの残り時間が設定された値よりも小さい場合、トレーサーは、現在のアクティブなスパンとすべての終了したスパンの送信を試みます。NodeJS と Python でサポートされています。デフォルトは `100` ミリ秒です。 | |
#### `uninstrument` diff --git a/content/ja/serverless/libraries_integrations/extension.md b/content/ja/serverless/libraries_integrations/extension.md index 8162761f60e63..ca682d7e06371 100644 --- a/content/ja/serverless/libraries_integrations/extension.md +++ b/content/ja/serverless/libraries_integrations/extension.md @@ -45,7 +45,7 @@ Datadog サイトから遠く離れた地域にデプロイされた Lambda 関 ## 寄稿 -If you find an issue with this package and have a fix, please feel free to open a pull request following the [procedures](https://github.com/DataDog/datadog-agent/blob/main/docs/public/guidelines/contributing.md). +このパッケージに問題が見つかり、修正方法が分かる場合は、[手順](https://github.com/DataDog/datadog-agent/blob/main/docs/public/guidelines/contributing.md)に従ってプルリクエストを開いてください。 ## テスト diff --git a/content/ja/synthetics/api_tests/dns_tests.md b/content/ja/synthetics/api_tests/dns_tests.md index bcacd44f04762..5985a59f57788 100644 --- a/content/ja/synthetics/api_tests/dns_tests.md +++ b/content/ja/synthetics/api_tests/dns_tests.md @@ -44,7 +44,7 @@ DNS テストは、ネットワークの外部または内部からのテスト 1. テストでクエリする**ドメイン**を指定します (例: `www.example.com`)。 2. 使用する **DNS サーバー** を指定します(任意)。ドメイン名または IP アドレスを使用できます。指定されていない場合、DNS テストは `8.8.8.8` を使用して解決を実行し、 `1.1.1.1` と内部 AWS DNS サーバーにフォールバックします。 -3. Specify your DNS Server **Port** (optional). If not specified, the DNS Server port defaults to 53. +3. DNS サーバーの **ポート** を指定します(任意)。指定されていない場合、DNS サーバーのポートはデフォルトで 53 になります。 4. テストがタイムアウトするまでの時間を秒単位で指定します (オプション)。 5. DNS テストに**名前**を付けます。 6. DNS テストに `env` **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 @@ -63,7 +63,7 @@ DNS テストは、ネットワークの外部または内部からのテスト | 以下の利用可能なすべてのレコード | タイプ A、タイプ AAAA、タイプ CNAME、タイプ MX、タイプ NS、タイプ TXT | `is`、`contains`、
`matches`、`does not match` | _文字列_
_[正規表現][4]_ | | at least one record | タイプ A、タイプ AAAA、タイプ CNAME、タイプ MX、タイプ NS、タイプ TXT | `is`、`contains`、
`matches`、`does not match` | _文字列_
_[正規表現][4]_ | -**Note**: SOA records are not available for testing using Synthetic tests. +**注**: SOA レコードは Synthetic テストではテストできません。 **New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。 diff --git a/content/ja/synthetics/api_tests/errors.md b/content/ja/synthetics/api_tests/errors.md index 8f3124532e752..cf1edc24cd672 100644 --- a/content/ja/synthetics/api_tests/errors.md +++ b/content/ja/synthetics/api_tests/errors.md @@ -48,6 +48,6 @@ SSL エラーは、API テストの実行時に発生する可能性のあるエ | `UNABLE_TO_DECRYPT_CERT_SIGNATURE` | 証明書の署名を復号化できません。 | | `UNABLE_TO_DECRYPT_CRL_SIGNATURE` | CRL 署名を復号化できません。(実際の署名の値を判断できません。) | | `UNABLE_TO_GET_CRL` | 証明書の失効リスト (CRL) が見つかりません。 | -| `UNABLE_TO_GET_ISSUER_CERT` | Unable to find the certificate for one of the certificate authorities (CAs) in the signing hierarchy, and that CA is not trusted by the local application. For example, this error may be thrown when the self-signed root CA, but not the intermediate CA, is missing from the list of trusted certificates. | -| `UNABLE_TO_GET_ISSUER_CERT_LOCALLY` | The issuer certificate of a locally found certificate is not found. This usually means that the list of trusted certificates is not complete. For example, this error may be thrown when the self-signed root CA and intermediate CA are both missing from the list of trusted certificates. | +| `UNABLE_TO_GET_ISSUER_CERT` | 署名階層内の認証局 (CA) の証明書が見つからず、その CA がローカル アプリケーションによって信頼されていません。例えば、自己署名のルート CA が信頼された証明書リストに存在せず、中間 CA も存在しない場合、このエラーが発生することがあります。 | +| `UNABLE_TO_GET_ISSUER_CERT_LOCALLY` | ローカルで検出された証明書の発行者証明書が見つかりません。これは通常、信頼された証明書リストが完全ではないことを意味します。例えば、自己署名のルート CA と中間 CA が両方とも信頼された証明書リストに存在しない場合に、このエラーが発生することがあります。 | | `UNABLE_TO_VERIFY_LEAF_SIGNATURE` | 証明書チェーンに 1 つの (自己署名ではない) 証明書しか含まれておらず、発行者を信頼できないため、署名を確認できません。 | \ No newline at end of file diff --git a/content/ja/synthetics/api_tests/grpc_tests.md b/content/ja/synthetics/api_tests/grpc_tests.md index d1e1ffb78327c..8a2b1ab785fa5 100644 --- a/content/ja/synthetics/api_tests/grpc_tests.md +++ b/content/ja/synthetics/api_tests/grpc_tests.md @@ -34,9 +34,9 @@ title: GRPC テスト gRPC テストは、gRPC サービスやサーバーをプロアクティブに監視することができます。2 つのタイプから選択することができます。 Behavior Checks -: アプリケーションの API エンドポイントに gRPC リクエストを送信し、全体的な応答時間、ヘッダー、本文のコンテンツなど、定義された条件と応答を検証します。 +: アプリケーションの API エンドポイントに gRPC リクエストを送信して、応答時間、ヘッダー、本文の内容など、応答や定義された条件を検証します。 -Health Checks +Health Checks : gRPC ヘルスチェックは、gRPC サービスの健全性を報告するための標準的なものです。gRPC サーバーとサービスが応答し、実行され、リモートプロシージャコール (RPC) を処理できるかを判断します。

gRPC ヘルスチェックを実装することで、Datadog に `.proto` ファイルを提供しなくても、gRPC ヘルスチェックテストを実行することができるようになります。詳細については、gRPC コミュニティで共有されている[ヘルスチェックの例 `.proto` ファイル][1]を参照してください。 gRPC テストは、ネットワークの外部または内部からのテストの実行の好みに応じて、[管理ロケーション](#select-locations)と[プライベートロケーション][2]の両方から実行することができます。gRPC テストは、スケジュール、オンデマンド、または [CI/CD パイプライン][3]内で直接実行することができます。 @@ -48,23 +48,23 @@ gRPC テストは、ネットワークの外部または内部からのテスト ### リクエストを定義する 1. テストを実行する **Host** と **Port** を指定します。デフォルトの gRPC ポートは `50051` です。 -2. unary コールを行う場合は **Behavior Check** を、ヘルスチェックを行う場合は **Health Check** を選択します。 +2. **Behavior Check** を選択して単一呼び出しを実行するか、**Health Check** を選択してヘルスチェックを実行します。 {{< tabs >}} {{% tab "動作チェック" %}} - 動作チェックでは、**Server Reflection** を指定するか、gRPC サーバーを定義するための [**Proto File** をアップロード][101]します。メソッドを選択し、リクエストメッセージを含めます。Datadog は、ストリーミングメソッドをサポートしていません。 + 動作チェックを実行するには、gRPC サーバーを定義する **Server Reflection** を指定するか、[**Proto File** をアップロード][101]してください。メソッドを選択し、リクエストメッセージを入力してください。Datadog はストリーミングメソッドには対応していません。 - {{< img src="synthetics/api_tests/grpc_behavior_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}} +{{< img src="synthetics/api_tests/grpc_behavior_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}} [101]: https://grpc.io/docs/what-is-grpc/introduction/#working-with-protocol-buffers - {{% /tab %}} - {{% tab "ヘルスチェック" %}} +{{% /tab %}} +{{% tab "ヘルスチェック" %}} - ヘルスチェックの場合は、サービス名を入力します。gRPC サーバーでヘルスチェックを送信する場合は、このフィールドを空白のままにします。 +ヘルスチェックの場合は、サービスの名前を入力してください。 gRPC サーバーでヘルスチェックを送信する場合は、このフィールドを空白のままにしてください。 - {{< img src="synthetics/api_tests/grpc_health_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}} +{{< img src="synthetics/api_tests/grpc_health_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}} {{% /tab %}} {{< /tabs >}} @@ -85,7 +85,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト * **Client certificate**: クライアント証明書 (`.crt`) と `PEM` 形式の関連する秘密キー (`.key`) をアップロードして、mTLS を介して認証します。 -
+
`openssl` ライブラリを使用して、証明書を変換することができます。例えば、`PKCS12` 形式の証明書を `PEM` 形式の秘密キーや証明書に変換することができます。 @@ -106,7 +106,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト ### アサーションを定義する -アサーションは、期待されるテストの結果を定義します。**Send** をクリックすると、取得したレスポンスに基づいて `response time` に関するアサーションが追加されます。モニターするテストには、少なくとも 1 つのアサーションを定義する必要があります。 +アサーションは、期待されるテスト結果が何であるかを定義します。**Send** をクリックすると、取得したレスポンスに基づいて `response time` に関するアサーションが追加されます。モニターするテストには、少なくとも 1 つのアサーションを定義する必要があります。 {{< tabs >}} {{% tab "動作チェック" %}} @@ -114,8 +114,8 @@ gRPC テストは、ネットワークの外部または内部からのテスト | タイプ | 演算子 | 値の型 | |---|---|---| | response time | `is less than` | 整数 (ms) | -| gRPC レスポンス | `contains`、`does not contain`、`is`、`is not`、
`matches`、`does not match`、
[`jsonpath`][4]、[`xpath`][2] | _文字列_
_[正規表現][3]_ | -| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | _整数 (ms)_
_[正規表現][3]_ | +| gRPC レスポンス | `contains`、`does not contain`、`is`、`is not`、
`matches`、`does not match`、
[`jsonpath`][1]、[`xpath`][2] | _文字列_
_[正規表現][3]_ | +| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | _整数 (ミリ秒)_
_[正規表現][3]_ | **New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。 @@ -132,7 +132,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト |---|---|---| | response time | `is less than` | 整数 (ms) | | ヘルスチェックのステータス | `is`、`is not` | 整数 (ms) | -| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | 整数 (ms) | +| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | 整数 (ms) | **New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。 @@ -149,7 +149,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト gRPC テストを実行する**ロケーション**を選択します。gRPC テストは、ネットワークの外部または内部のどちらからテストを実行するかの好みによって、管理ロケーションと[プライベートロケーション][2]の両方から実行できます。 -{{% managed-locations %}} +{{% managed-locations %}} ### テストの頻度を指定する @@ -229,4 +229,4 @@ gRPC テストの URL、高度なオプション、アサーションで、[**Se [11]: /ja/synthetics/api_tests/errors/#ssl-errors [12]: /ja/account_management/rbac/ [13]: /ja/account_management/rbac#custom-roles -[14]: /ja/account_management/rbac/#create-a-custom-role +[14]: /ja/account_management/rbac/#create-a-custom-role \ No newline at end of file diff --git a/content/ja/synthetics/api_tests/http_tests.md b/content/ja/synthetics/api_tests/http_tests.md index 0a1db322621e8..303fc0a57d319 100644 --- a/content/ja/synthetics/api_tests/http_tests.md +++ b/content/ja/synthetics/api_tests/http_tests.md @@ -47,7 +47,7 @@ HTTP テストは、ネットワークの外部または内部からのテスト 1. **HTTP Method** を選択し、クエリする **URL** を指定します。使用可能なメソッドは、`GET`、`POST`、`PATCH`、`PUT`、`HEAD`、`DELETE`、`OPTIONS` です。`http` と `https` の両方の URL がサポートされています。 -
See Advanced options for more options.
+
その他のオプションについては、高度なオプションをご覧ください。
2. HTTP テストに**名前**を付けます。 @@ -61,8 +61,8 @@ HTTP テストは、ネットワークの外部または内部からのテスト {{< tabs >}} - {{% tab "Request Options" %}} - * **HTTP version**: Select `HTTP/1.1 only`, `HTTP/2 only`, or `HTTP/2 fallback to HTTP/1.1`. + {{% tab "リクエストオプション" %}} + * **HTTP バージョン**: `HTTP/1.1 のみ`、`HTTP/2 のみ`、または `HTTP/2 から HTTP/1.1 へのフォールバック` を選択してください。 * **Follow redirects**: 選択すると、リクエストを実行するときに HTTP テストで最大 10 個のリダイレクトをフォローします。 * **Ignore server certificate error**: 選択すると、SSL 証明書の検証時にエラーが発生した場合でも、HTTP テストが接続を続行します。 * **Timeout**: テストがタイムアウトするまでの時間を秒単位で指定します。 @@ -83,8 +83,8 @@ HTTP テストは、ネットワークの外部または内部からのテスト * **HTTP Basic Auth**: HTTP 基本認証資格情報を追加します。 * **Digest Auth**: ダイジェスト認証の資格情報を追加します。 * **NTLM**: NTLM 認証の資格情報を追加します。NTLMv2 と NTLMv1 の両方をサポートします。 - * **AWS Signature v4**: Enter your Access Key ID and Secret Access Key. Datadog generates the signature for your request. This option uses the basic implementation of SigV4. Specific signatures such as Amazon S3 are not supported out-of-the box. - For "Single Chunk" transfer requests to Amazon S3 buckets, add `x-amz-content-sha256` containing the sha256-encoded body of the request as a header (for an empty body: `x-amz-content-sha256: e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855`). + * **AWS Signature v4**: Access Key ID と Secret Access Key を入力します。Datadog は、リクエストの署名を生成します。このオプションは、SigV4 の基本的な実装を使用します。Amazon S3 などの特定の署名はそのままではサポートされていません。 + Amazon S3 バケットへの "Single Chunk" 転送リクエストの場合、リクエストの本文を sha256 エンコードした値を含む `x-amz-content-sha256` ヘッダーを追加します (本文が空の場合は、`x-amz-content-sha256: e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855` を使用します)。 * **OAuth 2.0**: クライアント資格情報またはリソース所有者のパスワードのどちらかを付与するかを選択し、アクセストークンの URL を入力します。選択内容に応じて、クライアント ID とシークレット、またはユーザー名とパスワードを入力します。ドロップダウンメニューから、API トークンを基本認証ヘッダーとして送信するか、クライアント資格情報を本文に送信するかを選択します。オプションで、オーディエンス、リソース、スコープなどの追加情報を提供できます (**Resource Owner Password** を選択した場合は、クライアント ID とシークレットも提供します)。 {{% /tab %}} @@ -121,9 +121,9 @@ HTTP テストは、ネットワークの外部または内部からのテスト {{% tab "Javascript" %}} - Define variables for your HTTP API tests with JavaScript: +JavaScript を使用して HTTP API テスト用の変数を定義します。 - {{< img src="synthetics/api_tests/http_javascript.png" alt="Define HTTP API test with Javascript" style="width:90%;" >}} +{{< img src="synthetics/api_tests/http_javascript.png" alt="JavaScript を使用して HTTP API テストを定義する" style="width:90%;" >}} {{% /tab %}} @@ -168,6 +168,18 @@ HTTP テストは次の頻度で実行できます。 {{% synthetics-alerting-monitoring %}} +## ワンクリック + +API テストの作成は、[API カタログ][17]と既存の API テストからエンドポイントを提案し、テストフォームに関連するオプションを自動入力します。Datadog の既存データソースを使用してください (APM トレース、API カタログエンドポイントの発見、およびユーザーが作成した既存の同様の Synthetic テストなど)。 + +Synthetic Monitoring の API テスト **URL** 入力に入力を開始すると、エンドポイントの提案や類似テストを取得できます。 + +{{< img src="synthetics/api_tests/api-one-click.png" alt="既存の API テストの GET 検索を表示する HTTP API テスト" style="width:90%;" >}} + +次に、提案を選択してテスト構成 (リクエストオプションとヘッダー、認証、変数) を自動入力します。 + +{{< img src="synthetics/api_tests/api-test-monitor-search.png" alt="選択" style="width:90%;" >}} + {{% synthetics-variables %}} ### 変数を使用する @@ -244,4 +256,5 @@ HTTP テストの URL、高度なオプション、アサーションで、[**Se [13]: /ja/account_management/rbac/ [14]: /ja/account_management/rbac#custom-roles [15]: /ja/account_management/rbac/#create-a-custom-role -[16]: /ja/synthetics/api_tests/errors/#http-errors \ No newline at end of file +[16]: /ja/synthetics/api_tests/errors/#http-errors +[17]: /ja/api_catalog \ No newline at end of file diff --git a/content/ko/account_management/billing/rum_units.md b/content/ko/account_management/billing/rum_units.md deleted file mode 100644 index 31234c69f685a..0000000000000 --- a/content/ko/account_management/billing/rum_units.md +++ /dev/null @@ -1,16 +0,0 @@ ---- -beta: true -title: RUM 빌링 정보 ---- - -
-본 페이지에서 논의하는 기능은 비공개 베타 버전입니다. 고객 성공 매니저에게 문의하여 더 자세히 알아보실 수 있습니다. -
- -**세션**은 웹 애플리케이션 상에서 진행되는 사용자 여정입니다. 15분 동안 활동이 없을 때, 또는 활동이 지속된 지 4시간이 지났을 때 세션이 만료됩니다. - -**모바일 RUM 세션(Mobile RUM Session)**: Datadog는 사용자의 모바일 애플리케이션(안드로이드(Android), iOS, 리액트 네이티브(React Native)) 최종 사용자가 방문한 화면 전체를 수집합니다. 또한, 모바일 에러 및 충돌, 리소스 로딩(XHR, 이미지, CSS 파일, JS 스크립트 등)을 비롯하여 중요한 텔레메트리(원격 계측) 데이터도 수집합니다. 이 모든 것은 모바일 RUM 세션에 포함됩니다. - -**RUM 라이트 세션(RUM Lite Session)**: Datadog는 사용자의 브라우저 애플리케이션에서 최종 사용자가 방문한 페이지 전체를 수집합니다. 프론트엔트 에러, 성능 메트릭 등의 중요한 텔레메트리 데이터 역시 수집합니다. 이 모든 것은 RUM 라이트 세션에 포함됩니다. - -**RUM 리플레이 세션(RUM Replay Session)**: Datadog는 사용자의 브라우저 애플리케이션에서 최종 사용자가 방문한 페이지 전체를 수집합니다. 프론트엔트 에러, 성능 메트릭 등의 중요한 텔레메트리 데이터 역시 수집합니다. 이 모든 것은 RUM 라이트 세션에 포함됩니다. 또, 최종 사용자 활동의 재연을 수집할 수 있으며 사용자 경험을 영화처럼 볼 수도 있습니다. 이 모든 것이 RUM 리플레이 세션에 포함됩니다. \ No newline at end of file diff --git a/content/ko/tracing/trace_explorer/trace_queries.md b/content/ko/tracing/trace_explorer/trace_queries.md index c517cd7033a59..5273227fa3854 100644 --- a/content/ko/tracing/trace_explorer/trace_queries.md +++ b/content/ko/tracing/trace_explorer/trace_queries.md @@ -12,7 +12,6 @@ further_reading: - link: /tracing/trace_explorer/query_syntax/ tag: 설명서 text: 스팬(span) 쿼리 구문 -is_beta: true title: 트레이스 쿼리 --- diff --git a/data/partials/platforms.ja.yaml b/data/partials/platforms.ja.yaml index 19c8122193cda..d43ffb90a0883 100644 --- a/data/partials/platforms.ja.yaml +++ b/data/partials/platforms.ja.yaml @@ -114,6 +114,7 @@ platforms: link: agent/kubernetes/ name: Kubernetes - category: macOS + image: platform_macos.png link: agent/basic_agent_usage/osx/ name: osx - category: Linux diff --git a/data/partials/platforms.ko.yaml b/data/partials/platforms.ko.yaml index 4953e5bf01f80..ca7fcd6186500 100644 --- a/data/partials/platforms.ko.yaml +++ b/data/partials/platforms.ko.yaml @@ -114,6 +114,7 @@ platforms: link: agent/kubernetes/ name: 쿠버네티스(Kubernetes) - category: macOS + image: platform_macos.png link: agent/basic_agent_usage/osx/ name: osx - category: Linux diff --git a/i18n/ja.json b/i18n/ja.json index 96a2cf7534961..8b5f3021c0c5b 100644 --- a/i18n/ja.json +++ b/i18n/ja.json @@ -292,4 +292,4 @@ "available_for": { "other": "次で利用可能" } -} +} \ No newline at end of file