diff --git a/config/_default/menus/api.ja.yaml b/config/_default/menus/api.ja.yaml index 49f55619c2784..29fc2357c680e 100644 --- a/config/_default/menus/api.ja.yaml +++ b/config/_default/menus/api.ja.yaml @@ -1,7145 +1,7145 @@ menu: api: - - name: Overview + - identifier: API 概要 + name: 概要 url: /api/latest/ - identifier: API overview weight: -10 - - name: Using the API + - name: API の使用 + parent: API 概要 url: /api/latest/using-the-api/ - parent: API overview weight: 5 - - name: Authorization Scopes + - identifier: API スコープ + name: 認可スコープ + parent: API 概要 url: /api/latest/scopes/ - identifier: API Scopes - parent: API overview weight: 6 - - name: レート制限 + - identifier: rate-limits + name: レート制限 + parent: API 概要 url: /api/latest/rate-limits/ - parent: API overview weight: 7 - identifier: rate-limits - - name: AWS インテグレーション + - generated: true + identifier: aws-logs-integration + name: AWS インテグレーション url: /api/latest/aws-integration/ - identifier: aws-integration - generated: true - - name: 新しい外部 ID を生成する - url: '#generate-a-new-external-id' + - generated: true identifier: aws-integration-generate-a-new-external-id - parent: aws-integration - generated: true + name: 新しい外部 ID を生成する params: - versions: - - v1 operationids: - - CreateNewAWSExternalID - unstable: [] + - CreateNewAWSExternalID order: 4 - - name: AWS タグフィルターを設定 - url: '#set-an-aws-tag-filter' + unstable: [] + versions: + - v2 + parent: aws-logs-integration + url: '#generate-a-new-external-id' + - generated: true identifier: aws-integration-set-an-aws-tag-filter - parent: aws-integration - generated: true + name: AWS タグフィルターを設定 params: - versions: - - v1 operationids: - - CreateAWSTagFilter - unstable: [] + - CreateAWSTagFilter order: 2 - - name: すべての AWS タグフィルターを取得 - url: '#get-all-aws-tag-filters' + unstable: [] + versions: + - v2 + parent: aws-logs-integration + url: '#set-an-aws-tag-filter' + - generated: true identifier: aws-integration-get-all-aws-tag-filters - parent: aws-integration - generated: true + name: すべての AWS タグフィルターを取得 params: - versions: - - v1 operationids: - - ListAWSTagFilters - unstable: [] + - ListAWSTagFilters order: 1 - - name: タグのフィルタリングエントリを削除 - url: '#delete-a-tag-filtering-entry' + unstable: [] + versions: + - v2 + parent: aws-logs-integration + url: '#get-all-aws-tag-filters' + - generated: true identifier: aws-integration-delete-a-tag-filtering-entry - parent: aws-integration - generated: true + name: タグのフィルタリングエントリを削除 params: - versions: - - v1 operationids: - - DeleteAWSTagFilter - unstable: [] + - DeleteAWSTagFilter order: 3 - - name: Create an Amazon EventBridge source - url: '#create-an-amazon-eventbridge-source' - identifier: aws-integration-create-an-amazon-eventbridge-source - parent: aws-integration - generated: true - params: - versions: - - v1 - operationids: - - CreateAWSEventBridgeSource unstable: [] - order: 11 - - name: Get all Amazon EventBridge sources - url: '#get-all-amazon-eventbridge-sources' - identifier: aws-integration-get-all-amazon-eventbridge-sources - parent: aws-integration - generated: true - params: versions: - - v1 - operationids: - - ListAWSEventBridgeSources - unstable: [] - order: 10 - - name: Delete an Amazon EventBridge source - url: '#delete-an-amazon-eventbridge-source' - identifier: aws-integration-delete-an-amazon-eventbridge-source - parent: aws-integration - generated: true + - v2 + parent: aws-logs-integration + url: '#delete-a-tag-filtering-entry' + - generated: true + identifier: aws-integration-list-namespace-rules + name: ネームスペース規則のリスト params: - versions: - - v1 operationids: - - DeleteAWSEventBridgeSource + - ListAvailableAWSNamespaces + order: 11 unstable: [] - order: 12 - - name: ネームスペース規則のリスト + versions: + - v2 + parent: aws-logs-integration url: '#list-namespace-rules' - identifier: aws-integration-list-namespace-rules - parent: aws-integration - generated: true + - generated: true + identifier: aws-integration-update-an-aws-integration + name: AWS インテグレーションの更新 params: - versions: - - v1 operationids: - - ListAvailableAWSNamespaces + - UpdateAWSAccount + order: 10 unstable: [] - order: 5 - - name: AWS インテグレーションの更新 + versions: + - v2 + parent: aws-logs-integration url: '#update-an-aws-integration' - identifier: aws-integration-update-an-aws-integration - parent: aws-integration - generated: true + - generated: true + identifier: aws-integration-create-an-aws-integration + name: AWS インテグレーションの作成 params: - versions: - - v1 operationids: - - UpdateAWSAccount + - CreateAWSAccount + order: 12 unstable: [] - order: 9 - - name: AWS インテグレーションの作成 + versions: + - v2 + parent: aws-logs-integration url: '#create-an-aws-integration' - identifier: aws-integration-create-an-aws-integration - parent: aws-integration - generated: true + - generated: true + identifier: aws-integration-list-all-aws-integrations + name: すべての AWS インテグレーションのリスト params: - versions: - - v1 operationids: - - CreateAWSAccount + - ListAWSAccounts + order: 5 unstable: [] - order: 8 - - name: すべての AWS インテグレーションのリスト + versions: + - v2 + parent: aws-logs-integration url: '#list-all-aws-integrations' - identifier: aws-integration-list-all-aws-integrations - parent: aws-integration - generated: true + - generated: true + identifier: aws-integration-delete-an-aws-integration + name: AWS インテグレーションの削除 params: - versions: - - v1 operationids: - - ListAWSAccounts + - DeleteAWSAccount + order: 9 unstable: [] - order: 6 - - name: AWS インテグレーションの削除 + versions: + - v2 + parent: aws-logs-integration url: '#delete-an-aws-integration' - identifier: aws-integration-delete-an-aws-integration - parent: aws-integration - generated: true + - generated: true + identifier: aws-logs-integration + name: AWS ログインテグレーション params: - versions: - - v1 operationids: - - DeleteAWSAccount + - CreateAWSAccount + order: 8 unstable: [] - order: 7 - - name: AWS ログインテグレーション + versions: + - v2 + parent: aws-logs-integration url: /api/latest/aws-logs-integration/ - identifier: aws-logs-integration - generated: true - - name: ログサービスのアクセス許可を確認する - url: '#check-permissions-for-log-services' + - generated: true identifier: aws-logs-integration-check-permissions-for-log-services - parent: aws-logs-integration - generated: true + name: ログサービスのアクセス許可を確認する params: - versions: - - v1 operationids: - - CheckAWSLogsServicesAsync - unstable: [] + - CheckAWSLogsServicesAsync order: 6 - - name: AWS ログインテグレーションの有効化 - url: '#enable-an-aws-logs-integration' - identifier: aws-logs-integration-enable-an-aws-logs-integration + unstable: [] + versions: + - v2 parent: aws-logs-integration - generated: true + url: '#check-permissions-for-log-services' + - generated: true + identifier: aws-logs-integration-enable-an-aws-logs-integration + name: AWS ログインテグレーションの有効化 params: - versions: - - v1 operationids: - - EnableAWSLogServices + - EnableAWSLogServices + order: 7 unstable: [] - order: 5 - - name: AWS ログレディサービスのリストを取得 - url: '#get-list-of-aws-log-ready-services' - identifier: aws-logs-integration-get-list-of-aws-log-ready-services + versions: + - v2 parent: aws-logs-integration - generated: true + url: '#enable-an-aws-logs-integration' + - generated: true + identifier: aws-logs-integration-get-list-of-aws-log-ready-services + name: AWS ログレディサービスのリストを取得 + url: '#get-list-of-aws-log-ready-services' + - generated: true + identifier: aws-logs-integration-check-that-an-aws-lambda-function-exists + name: AWS Lambda 関数の存在を確認 params: - versions: - - v1 operationids: - - ListAWSLogsServices + - CheckAWSLogsLambdaAsync + order: 6 unstable: [] - order: 4 - - name: AWS Lambda 関数の存在を確認 + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services url: '#check-that-an-aws-lambda-function-exists' - identifier: aws-logs-integration-check-that-an-aws-lambda-function-exists - parent: aws-logs-integration - generated: true + - generated: true + identifier: aws-logs-integration-add-aws-log-lambda-arn + name: AWS ログ Lambda ARN の追加 params: - versions: - - v1 operationids: - - CheckAWSLogsLambdaAsync + - CreateAWSLambdaARN + order: 5 unstable: [] - order: 7 - - name: AWS ログ Lambda ARN の追加 + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services url: '#add-aws-log-lambda-arn' - identifier: aws-logs-integration-add-aws-log-lambda-arn - parent: aws-logs-integration - generated: true + - generated: true + identifier: aws-logs-integration-list-all-aws-logs-integrations + name: すべての AWS ログインテグレーションのリスト params: - versions: - - v1 operationids: - - CreateAWSLambdaARN + - ListAWSLogsIntegrations + order: 4 unstable: [] - order: 2 - - name: すべての AWS ログインテグレーションのリスト + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services url: '#list-all-aws-logs-integrations' - identifier: aws-logs-integration-list-all-aws-logs-integrations - parent: aws-logs-integration - generated: true + - generated: true + identifier: aws-logs-integration-delete-an-aws-logs-integration + name: AWS ログインテグレーションの削除 params: - versions: - - v1 operationids: - - ListAWSLogsIntegrations + - DeleteAWSLambdaARN + order: 7 unstable: [] - order: 1 - - name: AWS ログインテグレーションの削除 + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services url: '#delete-an-aws-logs-integration' - identifier: aws-logs-integration-delete-an-aws-logs-integration - parent: aws-logs-integration - generated: true + - generated: true + identifier: 認証 + name: Authentication params: - versions: - - v1 operationids: - - DeleteAWSLambdaARN + - CreateAWSLambdaARN + order: 2 unstable: [] - order: 3 - - name: Authentication + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services url: /api/latest/authentication/ - identifier: authentication - generated: true - - name: API キーを検証する - url: '#validate-api-key' + - generated: true identifier: authentication-validate-api-key - parent: authentication - generated: true + name: API キーを検証する params: - versions: - - v1 operationids: - - Validate - unstable: [] + - 検証 order: 1 - - name: Azure インテグレーション - url: /api/latest/azure-integration/ + unstable: [] + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services + url: '#validate-api-key' + - generated: true identifier: azure-integration - generated: true - - name: Azure インテグレーションホストフィルターを更新する - url: '#update-azure-integration-host-filters' - identifier: azure-integration-update-azure-integration-host-filters - parent: azure-integration - generated: true + name: Azure インテグレーション params: - versions: - - v1 operationids: - - UpdateAzureHostFilters + - DeleteAWSLambdaARN + order: 3 unstable: [] - order: 5 - - name: Azure インテグレーションの更新 - url: '#update-an-azure-integration' + versions: + - v2 + parent: aws-logs-integration-get-list-of-aws-log-ready-services + url: /api/latest/azure-integration/ + - generated: true + identifier: azure-integration-update-azure-integration-host-filters + name: PHP + url: '#update-azure-integration-host-filters' + - generated: true identifier: azure-integration-update-an-azure-integration - parent: azure-integration - generated: true + name: Azure インテグレーションの更新 params: - versions: - - v1 operationids: - - UpdateAzureIntegration + - UpdateAzureIntegration + order: 1 unstable: [] - order: 4 - - name: Azure インテグレーションの作成 - url: '#create-an-azure-integration' + versions: + - v2 + parent: azure-integration-update-azure-integration-host-filters + url: '#update-an-azure-integration' + - generated: true identifier: azure-integration-create-an-azure-integration - parent: azure-integration - generated: true + name: Azure インテグレーションの作成 + url: '#create-an-azure-integration' + - generated: true + identifier: azure-integration-list-all-azure-integrations + name: すべての Azure インテグレーションのリスト params: - versions: - - v1 operationids: - - CreateAzureIntegration + - ListAzureIntegration + order: 5 unstable: [] - order: 2 - - name: すべての Azure インテグレーションのリスト + versions: + - v2 + parent: azure-integration-create-an-azure-integration url: '#list-all-azure-integrations' - identifier: azure-integration-list-all-azure-integrations - parent: azure-integration - generated: true + - generated: true + identifier: azure-integration-delete-an-azure-integration + name: Azure インテグレーションの削除 params: - versions: - - v1 operationids: - - ListAzureIntegration + - DeleteAzureIntegration + order: 4 unstable: [] - order: 1 - - name: Azure インテグレーションの削除 + versions: + - v2 + parent: azure-integration-create-an-azure-integration url: '#delete-an-azure-integration' - identifier: azure-integration-delete-an-azure-integration - parent: azure-integration - generated: true + - generated: true + identifier: dashboard-lists + name: ダッシュボードリスト params: - versions: - - v1 operationids: - - DeleteAzureIntegration + - CreateAzureIntegration + order: 2 unstable: [] - order: 3 - - name: ダッシュボードリスト + versions: + - v2 + parent: azure-integration-create-an-azure-integration url: /api/latest/dashboard-lists/ - identifier: dashboard-lists - generated: true - - name: ダッシュボードリストのアイテムを更新する - url: '#update-items-of-a-dashboard-list' + - generated: true identifier: dashboard-lists-update-items-of-a-dashboard-list - parent: dashboard-lists - generated: true + name: ダッシュボードリストのアイテムを更新する params: - versions: - - v2 operationids: - - UpdateDashboardListItems + - UpdateDashboardListItems + order: 1 unstable: [] - order: 3 - - name: ダッシュボードリストへの項目の追加 - url: '#add-items-to-a-dashboard-list' + versions: + - v2 + parent: azure-integration-create-an-azure-integration + url: '#update-items-of-a-dashboard-list' + - generated: true identifier: dashboard-lists-add-items-to-a-dashboard-list - parent: dashboard-lists - generated: true + name: ダッシュボードリストへの項目の追加 params: - versions: - - v2 operationids: - - CreateDashboardListItems + - CreateDashboardListItems + order: 3 unstable: [] - order: 2 - - name: ダッシュボードリストのアイテムを取得する + versions: + - v2 + parent: azure-integration-create-an-azure-integration + url: '#add-items-to-a-dashboard-list' + - generated: true + identifier: ダッシュボード + name: ダッシュボードリストのアイテムを取得する url: '#get-items-of-a-dashboard-list' - identifier: dashboard-lists-get-items-of-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-delete-items-from-a-dashboard-list + name: ダッシュボードリストからアイテムを削除する params: - versions: - - v2 operationids: - - GetDashboardListItems + - DeleteDashboardListItems + order: 3 unstable: [] - order: 1 - - name: ダッシュボードリストからアイテムを削除する + versions: + - v2 + parent: ダッシュボード url: '#delete-items-from-a-dashboard-list' - identifier: dashboard-lists-delete-items-from-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-update-a-dashboard-list + name: ダッシュボードリストを更新する params: - versions: - - v2 operationids: - - DeleteDashboardListItems + - UpdateDashboardList + order: 2 unstable: [] - order: 4 - - name: ダッシュボードリストを更新する + versions: + - v2 + parent: ダッシュボード url: '#update-a-dashboard-list' - identifier: dashboard-lists-update-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-get-a-dashboard-list + name: ダッシュボードリストを取得する params: - versions: - - v1 operationids: - - UpdateDashboardList + - GetDashboardList + order: 1 unstable: [] - order: 4 - - name: ダッシュボードリストを取得する + versions: + - v2 + parent: ダッシュボード url: '#get-a-dashboard-list' - identifier: dashboard-lists-get-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-delete-a-dashboard-list + name: ダッシュボードリストを削除する params: - versions: - - v1 operationids: - - GetDashboardList + - DeleteDashboardList + order: 4 unstable: [] - order: 3 - - name: ダッシュボードリストを削除する + versions: + - v2 + parent: ダッシュボード url: '#delete-a-dashboard-list' - identifier: dashboard-lists-delete-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-create-a-dashboard-list + name: ダッシュボードリストを作成する params: - versions: - - v1 operationids: - - DeleteDashboardList + - CreateDashboardList + order: 4 unstable: [] - order: 5 - - name: ダッシュボードリストを作成する + versions: + - v2 + parent: ダッシュボード url: '#create-a-dashboard-list' - identifier: dashboard-lists-create-a-dashboard-list - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboard-lists-get-all-dashboard-lists + name: すべてのダッシュボードリストを取得する params: - versions: - - v1 operationids: - - CreateDashboardList + - ListDashboardLists + order: 3 unstable: [] - order: 2 - - name: すべてのダッシュボードリストを取得する + versions: + - v2 + parent: ダッシュボード url: '#get-all-dashboard-lists' - identifier: dashboard-lists-get-all-dashboard-lists - parent: dashboard-lists - generated: true + - generated: true + identifier: dashboards + name: 'ダッシュボード ' params: - versions: - - v1 operationids: - - ListDashboardLists + - DeleteDashboardList + order: 5 unstable: [] - order: 1 - - name: 'ダッシュボード ' + versions: + - v2 + parent: ダッシュボード url: /api/latest/dashboards/ - identifier: dashboards - generated: true - - name: ダッシュボードを更新する - url: '#update-a-dashboard' + - generated: true identifier: dashboards-update-a-dashboard - parent: dashboards - generated: true + name: ダッシュボードを更新する params: - versions: - - v1 operationids: - - UpdateDashboard + - UpdateDashboard + order: 2 unstable: [] - order: 4 - - name: ダッシュボードを取得する - url: '#get-a-dashboard' + versions: + - v2 + parent: ダッシュボード + url: '#update-a-dashboard' + - generated: true identifier: dashboards-get-a-dashboard - parent: dashboards - generated: true + name: ダッシュボードを取得する params: - versions: - - v1 operationids: - - GetDashboard + - GetDashboard + order: 1 unstable: [] - order: 2 - - name: ダッシュボードを削除する + versions: + - v2 + parent: ダッシュボード + url: '#get-a-dashboard' + - generated: true + identifier: serverless_aws_lambda + name: ライブラリ url: '#delete-a-dashboard' - identifier: dashboards-delete-a-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-send-shared-dashboard-invitation-email + name: 共有ダッシュボードの招待メールの送信 params: - versions: - - v1 operationids: - - DeleteDashboard + - SendPublicDashboardInvitation + order: 4 unstable: [] - order: 5 - - name: 共有ダッシュボードの招待メールの送信 + versions: + - v2 + parent: serverless_aws_lambda url: '#send-shared-dashboard-invitation-email' - identifier: dashboards-send-shared-dashboard-invitation-email - parent: dashboards - generated: true + - generated: true + identifier: dashboards-get-all-invitations-for-a-shared-dashboard + name: 共有ダッシュボードへのすべての招待の取得 params: - versions: - - v1 operationids: - - SendPublicDashboardInvitation + - GetPublicDashboardInvitations + order: 2 unstable: [] - order: 11 - - name: 共有ダッシュボードへのすべての招待の取得 + versions: + - v2 + parent: serverless_aws_lambda url: '#get-all-invitations-for-a-shared-dashboard' - identifier: dashboards-get-all-invitations-for-a-shared-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-revoke-shared-dashboard-invitations + name: 共有ダッシュボードの招待を取り消す params: - versions: - - v1 operationids: - - GetPublicDashboardInvitations + - DeletePublicDashboardInvitation + order: 5 unstable: [] - order: 12 - - name: 共有ダッシュボードの招待を取り消す + versions: + - v2 + parent: serverless_aws_lambda url: '#revoke-shared-dashboard-invitations' - identifier: dashboards-revoke-shared-dashboard-invitations - parent: dashboards - generated: true + - generated: true + identifier: dashboards-update-a-shared-dashboard + name: 共有ダッシュボードの更新 params: - versions: - - v1 operationids: - - DeletePublicDashboardInvitation + - UpdatePublicDashboard + order: 11 unstable: [] - order: 14 - - name: 共有ダッシュボードの更新 + versions: + - v2 + parent: serverless_aws_lambda url: '#update-a-shared-dashboard' - identifier: dashboards-update-a-shared-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-get-a-shared-dashboard + name: 共有ダッシュボードの取得 params: - versions: - - v1 operationids: - - UpdatePublicDashboard + - GetPublicDashboard + order: 12 unstable: [] - order: 10 - - name: 共有ダッシュボードの取得 + versions: + - v2 + parent: serverless_aws_lambda url: '#get-a-shared-dashboard' - identifier: dashboards-get-a-shared-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-revoke-a-shared-dashboard-url + name: 共有ダッシュボード URL を取り消す params: - versions: - - v1 operationids: - - GetPublicDashboard + - DeletePublicDashboard + order: 14 unstable: [] - order: 9 - - name: 共有ダッシュボード URL を取り消す + versions: + - v2 + parent: serverless_aws_lambda url: '#revoke-a-shared-dashboard-url' - identifier: dashboards-revoke-a-shared-dashboard-url - parent: dashboards - generated: true + - generated: true + identifier: dashboards-create-a-shared-dashboard + name: 共有ダッシュボードの作成 params: - versions: - - v1 operationids: - - DeletePublicDashboard + - CreatePublicDashboard + order: 10 unstable: [] - order: 13 - - name: 共有ダッシュボードの作成 + versions: + - v2 + parent: serverless_aws_lambda url: '#create-a-shared-dashboard' - identifier: dashboards-create-a-shared-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-create-a-new-dashboard + name: 新しいダッシュボードを作成する params: - versions: - - v1 operationids: - - CreatePublicDashboard + - CreateDashboard + order: 9 unstable: [] - order: 8 - - name: 新しいダッシュボードを作成する + versions: + - v2 + parent: serverless_aws_lambda url: '#create-a-new-dashboard' - identifier: dashboards-create-a-new-dashboard - parent: dashboards - generated: true + - generated: true + identifier: dashboards-restore-deleted-dashboards + name: 削除されたダッシュボードの復元 params: - versions: - - v1 operationids: - - CreateDashboard + - RestoreDashboards + order: 13 unstable: [] - order: 1 - - name: 削除されたダッシュボードの復元 + versions: + - v2 + parent: serverless_aws_lambda url: '#restore-deleted-dashboards' - identifier: dashboards-restore-deleted-dashboards - parent: dashboards - generated: true + - generated: true + identifier: dashboards-get-all-dashboards + name: すべてのダッシュボードを取得する params: - versions: - - v1 operationids: - - RestoreDashboards + - ListDashboards + order: 8 unstable: [] - order: 7 - - name: すべてのダッシュボードを取得する + versions: + - v2 + parent: serverless_aws_lambda url: '#get-all-dashboards' - identifier: dashboards-get-all-dashboards - parent: dashboards - generated: true + - generated: true + identifier: dashboards-delete-dashboards + name: ダッシュボードの削除 params: - versions: - - v1 operationids: - - ListDashboards + - DeleteDashboards + order: 1 unstable: [] - order: 3 - - name: ダッシュボードの削除 + versions: + - v2 + parent: serverless_aws_lambda url: '#delete-dashboards' - identifier: dashboards-delete-dashboards - parent: dashboards - generated: true + - generated: true + identifier: ダウンタイム + name: ダウンタイム params: - versions: - - v1 operationids: - - DeleteDashboards + - RestoreDashboards + order: 7 unstable: [] - order: 6 - - name: Downtimes + versions: + - v2 + parent: serverless_aws_lambda url: /api/latest/downtimes/ - identifier: downtimes - generated: true - - name: Get active downtimes for a monitor - url: '#get-active-downtimes-for-a-monitor' + - generated: true identifier: downtimes-get-active-downtimes-for-a-monitor - parent: downtimes - generated: true + name: モニターのアクティブなダウンタイムを取得 params: - versions: - - v1 - - v2 operationids: - - ListMonitorDowntimes + - ListMonitorDowntimes + order: 3 unstable: [] - order: 7 - - name: ダウンタイムを更新する - url: '#update-a-downtime' + versions: + - v2 + parent: serverless_aws_lambda + url: '#get-active-downtimes-for-a-monitor' + - generated: true identifier: downtimes-update-a-downtime - parent: downtimes - generated: true + name: ダウンタイムを更新する params: - versions: - - v1 - - v2 operationids: - - UpdateDowntime - unstable: [] + - UpdateDowntime order: 6 - - name: ダウンタイムを取得する + unstable: [] + versions: + - v2 + parent: serverless_aws_lambda + url: '#update-a-downtime' + - generated: true + identifier: ダウンタイム + name: Datadog へのトレースの送信 url: '#get-a-downtime' - identifier: downtimes-get-a-downtime - parent: downtimes - generated: true + - generated: true + identifier: downtimes-cancel-a-downtime + name: ダウンタイムをキャンセルする params: - versions: - - v1 - - v2 operationids: - - GetDowntime + - CancelDowntime + order: 7 unstable: [] - order: 5 - - name: ダウンタイムをキャンセルする + versions: + - v2 + - v2 + parent: ダウンタイム url: '#cancel-a-downtime' - identifier: downtimes-cancel-a-downtime - parent: downtimes - generated: true + - generated: true + identifier: downtimes-cancel-downtimes-by-scope + name: スコープごとにダウンタイムをキャンセルする params: - versions: - - v1 - - v2 operationids: - - CancelDowntime + - CancelDowntimesByScope + order: 6 unstable: [] - order: 4 - - name: スコープごとにダウンタイムをキャンセルする + versions: + - v2 + - v2 + parent: ダウンタイム url: '#cancel-downtimes-by-scope' - identifier: downtimes-cancel-downtimes-by-scope - parent: downtimes - generated: true + - generated: true + identifier: downtimes-schedule-a-downtime + name: ダウンタイムをスケジュールする params: - versions: - - v1 operationids: - - CancelDowntimesByScope + - CreateDowntime + order: 5 unstable: [] - order: 3 - - name: ダウンタイムをスケジュールする + versions: + - v2 + - v2 + parent: ダウンタイム url: '#schedule-a-downtime' - identifier: downtimes-schedule-a-downtime - parent: downtimes - generated: true + - generated: true + identifier: downtimes-get-all-downtimes + name: すべてのダウンタイムを取得する params: - versions: - - v1 - - v2 operationids: - - CreateDowntime + - ListDowntimes + order: 4 unstable: [] - order: 2 - - name: すべてのダウンタイムを取得する + versions: + - v2 + - v2 + parent: ダウンタイム url: '#get-all-downtimes' - identifier: downtimes-get-all-downtimes - parent: downtimes - generated: true + - generated: true + identifier: embeddable-graphs + name: 埋め込み可能なグラフ params: - versions: - - v1 - - v2 operationids: - - ListDowntimes + - CancelDowntimesByScope + order: 3 unstable: [] - order: 1 - - name: 埋め込み可能なグラフ + versions: + - v2 + parent: ダウンタイム url: /api/latest/embeddable-graphs/ - identifier: embeddable-graphs - generated: true - - name: Embed の無効化 - url: '#revoke-embed' + - generated: true identifier: embeddable-graphs-revoke-embed - parent: embeddable-graphs - generated: true + name: Embed の無効化 params: - versions: - - v1 operationids: - - RevokeEmbeddableGraph + - RevokeEmbeddableGraph + order: 2 unstable: [] - order: 1 - - name: Embed の有効化 - url: '#enable-embed' + versions: + - v2 + - v2 + parent: ダウンタイム + url: '#revoke-embed' + - generated: true identifier: embeddable-graphs-enable-embed - parent: embeddable-graphs - generated: true + name: Embed の有効化 params: - versions: - - v1 operationids: - - EnableEmbeddableGraph + - EnableEmbeddableGraph + order: 1 unstable: [] - order: 2 - - name: 特定の Embed を取得 + versions: + - v2 + - v2 + parent: ダウンタイム + url: '#enable-embed' + - generated: true + identifier: イベント + name: 特定の Embed を取得 url: '#get-specific-embed' - identifier: embeddable-graphs-get-specific-embed - parent: embeddable-graphs - generated: true + - generated: true + identifier: embeddable-graphs-create-embed + name: Embed の作成 params: - versions: - - v1 operationids: - - GetEmbeddableGraph + - CreateEmbeddableGraph + order: 1 unstable: [] - order: 3 - - name: Embed の作成 + versions: + - v2 + parent: イベント url: '#create-embed' - identifier: embeddable-graphs-create-embed - parent: embeddable-graphs - generated: true + - generated: true + identifier: embeddable-graphs-get-all-embeds + name: すべての Embed を取得 params: - versions: - - v1 operationids: - - CreateEmbeddableGraph + - ListEmbeddableGraphs + order: 2 unstable: [] - order: 4 - - name: すべての Embed を取得 + versions: + - v2 + parent: イベント url: '#get-all-embeds' - identifier: embeddable-graphs-get-all-embeds - parent: embeddable-graphs - generated: true + - generated: true + identifier: イベント + name: イベント params: - versions: - - v1 operationids: - - ListEmbeddableGraphs + - GetEmbeddableGraph + order: 3 unstable: [] - order: 5 - - name: Events + versions: + - v2 + parent: イベント url: /api/latest/events/ - identifier: events - generated: true - - name: イベントの検索 - url: '#search-events' + - generated: true identifier: events-search-events - parent: events - generated: true + name: イベントの検索 params: - versions: - - v2 operationids: - - SearchEvents + - SearchEvents + order: 4 unstable: [] - order: 2 - - name: イベントの取得 - url: '#get-an-event' + versions: + - v2 + parent: イベント + url: '#search-events' + - generated: true identifier: events-get-an-event - parent: events - generated: true + name: イベントの取得 params: - versions: - - v1 operationids: - - GetEvent + - GetEvent + order: 5 unstable: [] - order: 2 - - name: イベントのポスト - url: '#post-an-event' - identifier: events-post-an-event - parent: events - generated: true - params: versions: - - v1 + - v2 + parent: イベント + url: '#get-an-event' + - generated: true + identifier: tracing_otel_inst + name: イベント + url: /api/latest/events/ + - generated: true + identifier: events-get-a-list-of-events + name: イベントのリストを取得する + params: operationids: - - CreateEvent + - ListEvents + order: 2 unstable: [] - order: 1 - - name: イベントのリストを取得する + versions: + - v2 + parent: tracing_otel_inst url: '#get-a-list-of-events' - identifier: events-get-a-list-of-events - parent: events - generated: true + - generated: true + identifier: gcp-integration + name: GCP インテグレーション params: - versions: - - v1 - - v2 operationids: - - ListEvents + - GetEvent + order: 2 unstable: [] - order: 1 - - name: GCP インテグレーション + versions: + - v2 + parent: tracing_otel_inst url: /api/latest/gcp-integration/ - identifier: gcp-integration - generated: true - - name: Create a Datadog GCP principal - url: '#create-a-datadog-gcp-principal' + - generated: true identifier: gcp-integration-create-a-datadog-gcp-principal - parent: gcp-integration - generated: true + name: Datadog GCP プリンシパルの作成 params: - versions: - - v2 operationids: - - MakeGCPSTSDelegate + - MakeGCPSTSDelegate + order: 1 unstable: [] - order: 5 - - name: List delegate account - url: '#list-delegate-account' + versions: + - v2 + parent: tracing_otel_inst + url: '#create-a-datadog-gcp-principal' + - generated: true identifier: gcp-integration-list-delegate-account - parent: gcp-integration - generated: true + name: デリゲートアカウントの一覧表示 params: - versions: - - v2 operationids: - - GetGCPSTSDelegate + - GetGCPSTSDelegate + order: 1 unstable: [] - order: 6 - - name: Update STS Service Account + versions: + - v2 + - v2 + parent: tracing_otel_inst + url: '#list-delegate-account' + - generated: true + identifier: ホスト + name: STS サービスアカウントの更新 url: '#update-sts-service-account' - identifier: gcp-integration-update-sts-service-account - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-delete-an-sts-enabled-gcp-account + name: STS が有効な GCP アカウントの削除 params: - versions: - - v2 operationids: - - UpdateGCPSTSAccount + - DeleteGCPSTSAccount + order: 5 unstable: [] - order: 4 - - name: Delete an STS enabled GCP Account + versions: + - v2 + parent: ホスト url: '#delete-an-sts-enabled-gcp-account' - identifier: gcp-integration-delete-an-sts-enabled-gcp-account - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-create-a-new-entry-for-your-service-account + name: サービスアカウント用の新しいエントリの作成 params: - versions: - - v2 operationids: - - DeleteGCPSTSAccount + - CreateGCPSTSAccount + order: 6 unstable: [] - order: 3 - - name: Create a new entry for your service account + versions: + - v2 + parent: ホスト url: '#create-a-new-entry-for-your-service-account' - identifier: gcp-integration-create-a-new-entry-for-your-service-account - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-list-all-gcp-sts-enabled-service-accounts + name: GCP STS が有効なすべてのサービスアカウントを一覧表示します。 params: - versions: - - v2 operationids: - - CreateGCPSTSAccount + - ListGCPSTSAccounts + order: 4 unstable: [] - order: 2 - - name: List all GCP STS-enabled service accounts + versions: + - v2 + parent: ホスト url: '#list-all-gcp-sts-enabled-service-accounts' - identifier: gcp-integration-list-all-gcp-sts-enabled-service-accounts - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-update-a-gcp-integration + name: GCP インテグレーションを更新する params: - versions: - - v2 operationids: - - ListGCPSTSAccounts + - UpdateGCPIntegration + order: 3 unstable: [] - order: 1 - - name: GCP インテグレーションを更新する + versions: + - v2 + parent: ホスト url: '#update-a-gcp-integration' - identifier: gcp-integration-update-a-gcp-integration - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-create-a-gcp-integration + name: GCP インテグレーションの作成 params: - versions: - - v1 operationids: - - UpdateGCPIntegration + - CreateGCPIntegration + order: 2 unstable: [] - order: 4 - - name: GCP インテグレーションの作成 + versions: + - v2 + parent: ホスト url: '#create-a-gcp-integration' - identifier: gcp-integration-create-a-gcp-integration - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-list-all-gcp-integrations + name: すべての GCP インテグレーションのリスト params: - versions: - - v1 operationids: - - CreateGCPIntegration + - ListGCPIntegration + order: 1 unstable: [] - order: 2 - - name: すべての GCP インテグレーションのリスト + versions: + - v2 + parent: ホスト url: '#list-all-gcp-integrations' - identifier: gcp-integration-list-all-gcp-integrations - parent: gcp-integration - generated: true + - generated: true + identifier: gcp-integration-delete-a-gcp-integration + name: GCP インテグレーションの削除 params: - versions: - - v1 operationids: - - ListGCPIntegration + - DeleteGCPIntegration + order: 4 unstable: [] - order: 1 - - name: GCP インテグレーションの削除 + versions: + - v2 + parent: ホスト url: '#delete-a-gcp-integration' - identifier: gcp-integration-delete-a-gcp-integration - parent: gcp-integration - generated: true + - generated: true + identifier: ホスト + name: ホスト params: - versions: - - v1 operationids: - - DeleteGCPIntegration + - CreateGCPIntegration + order: 2 unstable: [] - order: 3 - - name: Hosts + versions: + - v2 + parent: ホスト url: /api/latest/hosts/ - identifier: hosts - generated: true - - name: アクティブなホストの総数を取得する - url: '#get-the-total-number-of-active-hosts' + - generated: true identifier: hosts-get-the-total-number-of-active-hosts - parent: hosts - generated: true + name: アクティブなホストの総数を取得する params: - versions: - - v1 operationids: - - GetHostTotals + - GetHostTotals + order: 1 unstable: [] - order: 2 - - name: 組織のすべてのホストを取得する - url: '#get-all-hosts-for-your-organization' + versions: + - v2 + parent: ホスト + url: '#get-the-total-number-of-active-hosts' + - generated: true identifier: hosts-get-all-hosts-for-your-organization - parent: hosts - generated: true + name: 組織のすべてのホストを取得する params: - versions: - - v1 operationids: - - ListHosts + - ListHosts + order: 3 unstable: [] - order: 1 - - name: ホストのミュートを解除 - url: '#unmute-a-host' + versions: + - v2 + parent: ホスト + url: '#get-all-hosts-for-your-organization' + - generated: true identifier: hosts-unmute-a-host - parent: hosts - generated: true + name: ホストのミュートを解除 + url: '#unmute-a-host' + - generated: true + identifier: hosts-mute-a-host + name: ホストのミュート params: - versions: - - v1 operationids: - - UnmuteHost + - MuteHost + order: 2 unstable: [] - order: 4 - - name: ホストのミュート + versions: + - v2 + parent: hosts-unmute-a-host url: '#mute-a-host' - identifier: hosts-mute-a-host - parent: hosts - generated: true + - generated: true + identifier: ip-ranges + name: IP 範囲 params: - versions: - - v1 operationids: - - MuteHost + - ListHosts + order: 1 unstable: [] - order: 3 - - name: IP 範囲 + versions: + - v2 + parent: hosts-unmute-a-host url: /api/latest/ip-ranges/ - identifier: ip-ranges - generated: true - - name: IP 範囲を一覧表示する - url: '#list-ip-ranges' + - generated: true identifier: ip-ranges-list-ip-ranges - parent: ip-ranges - generated: true + name: IP 範囲を一覧表示する params: - versions: - - v1 operationids: - - GetIPRanges + - GetIPRanges + order: 4 unstable: [] - order: 1 - - name: Key Management - url: /api/latest/key-management/ + versions: + - v2 + parent: hosts-unmute-a-host + url: '#list-ip-ranges' + - generated: true identifier: key-management - generated: true - - name: 現在のユーザーが所有するアプリケーションキーを編集します - url: '#edit-an-application-key-owned-by-current-user' - identifier: key-management-edit-an-application-key-owned-by-current-user - parent: key-management - generated: true + name: Key Management params: - versions: - - v2 operationids: - - UpdateCurrentUserApplicationKey + - MuteHost + order: 3 unstable: [] - order: 2 - - name: 現在のユーザーが所有するアプリケーションキーを 1 つ取得します - url: '#get-one-application-key-owned-by-current-user' + versions: + - v2 + parent: hosts-unmute-a-host + url: /api/latest/key-management/ + - generated: true + identifier: key-management-edit-an-application-key-owned-by-current-user + name: 現在のユーザーが所有するアプリケーションキーを編集します + url: '#edit-an-application-key-owned-by-current-user' + - generated: true identifier: key-management-get-one-application-key-owned-by-current-user - parent: key-management - generated: true + name: 現在のユーザーが所有するアプリケーションキーを 1 つ取得します params: - versions: - - v2 operationids: - - GetCurrentUserApplicationKey + - GetCurrentUserApplicationKey + order: 1 unstable: [] - order: 3 - - name: 現在のユーザーが所有するアプリケーションキーを削除します - url: '#delete-an-application-key-owned-by-current-user' + versions: + - v2 + parent: key-management-edit-an-application-key-owned-by-current-user + url: '#get-one-application-key-owned-by-current-user' + - generated: true identifier: key-management-delete-an-application-key-owned-by-current-user - parent: key-management - generated: true + name: 現在のユーザーが所有するアプリケーションキーを削除します + url: '#delete-an-application-key-owned-by-current-user' + - generated: true + identifier: key-management-create-an-application-key-for-current-user + name: 現在のユーザーのアプリケーションキーを作成します params: - versions: - - v2 operationids: - - DeleteCurrentUserApplicationKey + - CreateCurrentUserApplicationKey + order: 2 unstable: [] - order: 1 - - name: 現在のユーザーのアプリケーションキーを作成します + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#create-an-application-key-for-current-user' - identifier: key-management-create-an-application-key-for-current-user - parent: key-management - generated: true + - generated: true + identifier: key-management-get-all-application-keys-owned-by-current-user + name: 現在のユーザーが所有するすべてのアプリケーションキーを取得します params: - versions: - - v2 operationids: - - CreateCurrentUserApplicationKey + - ListCurrentUserApplicationKeys + order: 3 unstable: [] - order: 4 - - name: 現在のユーザーが所有するすべてのアプリケーションキーを取得します + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#get-all-application-keys-owned-by-current-user' - identifier: key-management-get-all-application-keys-owned-by-current-user - parent: key-management - generated: true + - generated: true + identifier: key-management-edit-an-application-key + name: アプリケーションキーの編集 params: - versions: - - v2 operationids: - - ListCurrentUserApplicationKeys + - UpdateApplicationKey + order: 1 unstable: [] - order: 5 - - name: アプリケーションキーの編集 + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#edit-an-application-key' - identifier: key-management-edit-an-application-key - parent: key-management - generated: true + - generated: true + identifier: key-management-get-an-application-key + name: アプリケーションキーの取得 params: - versions: - - v1 - - v2 operationids: - - UpdateApplicationKey + - GetApplicationKey + order: 4 unstable: [] - order: 9 - - name: アプリケーションキーの取得 + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#get-an-application-key' - identifier: key-management-get-an-application-key - parent: key-management - generated: true + - generated: true + identifier: key-management-delete-an-application-key + name: アプリケーションキーの削除 params: - versions: - - v1 - - v2 operationids: - - GetApplicationKey + - DeleteApplicationKey + order: 5 unstable: [] - order: 8 - - name: アプリケーションキーの削除 + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#delete-an-application-key' - identifier: key-management-delete-an-application-key - parent: key-management - generated: true + - generated: true + identifier: key-management-create-an-application-key + name: アプリケーションキーの作成 params: - versions: - - v1 - - v2 operationids: - - DeleteApplicationKey + - CreateApplicationKey + order: 9 unstable: [] - order: 10 - - name: アプリケーションキーの作成 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#create-an-application-key' - identifier: key-management-create-an-application-key - parent: key-management - generated: true + - generated: true + identifier: key-management-get-all-application-keys + name: すべてのアプリケーションキーを取得 params: - versions: - - v1 operationids: - - CreateApplicationKey + - ListApplicationKeys + order: 8 unstable: [] - order: 7 - - name: すべてのアプリケーションキーを取得 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#get-all-application-keys' - identifier: key-management-get-all-application-keys - parent: key-management - generated: true + - generated: true + identifier: key-management-edit-an-api-key + name: API キーの編集 params: - versions: - - v1 - - v2 operationids: - - ListApplicationKeys + - UpdateAPIKey + order: 10 unstable: [] - order: 6 - - name: API キーの編集 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#edit-an-api-key' - identifier: key-management-edit-an-api-key - parent: key-management - generated: true + - generated: true + identifier: key-management-get-api-key + name: API キーを取得する params: - versions: - - v1 - - v2 operationids: - - UpdateAPIKey + - GetAPIKey + order: 7 unstable: [] - order: 4 - - name: API キーを取得する + versions: + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#get-api-key' - identifier: key-management-get-api-key - parent: key-management - generated: true + - generated: true + identifier: key-management-delete-an-api-key + name: API キーの削除 params: - versions: - - v1 - - v2 operationids: - - GetAPIKey + - DeleteAPIKey + order: 6 unstable: [] - order: 3 - - name: API キーの削除 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#delete-an-api-key' - identifier: key-management-delete-an-api-key - parent: key-management - generated: true + - generated: true + identifier: key-management-create-an-api-key + name: API キーの作成 params: - versions: - - v1 - - v2 operationids: - - DeleteAPIKey + - CreateAPIKey + order: 4 unstable: [] - order: 5 - - name: API キーの作成 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#create-an-api-key' - identifier: key-management-create-an-api-key - parent: key-management - generated: true + - generated: true + identifier: key-management-get-all-api-keys + name: すべての API キーを取得 params: - versions: - - v1 - - v2 operationids: - - CreateAPIKey + - ListAPIKeys + order: 3 unstable: [] - order: 2 - - name: すべての API キーを取得 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: '#get-all-api-keys' - identifier: key-management-get-all-api-keys - parent: key-management - generated: true + - generated: true + identifier: logs + name: ログ管理 params: - versions: - - v1 - - v2 operationids: - - ListAPIKeys + - DeleteAPIKey + order: 5 unstable: [] - order: 1 - - name: ログ管理 + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user url: /api/latest/logs/ - identifier: logs - generated: true - - name: ログのリストの取得 - url: '#get-a-list-of-logs' + - generated: true identifier: logs-get-a-list-of-logs - parent: logs - generated: true + name: ログのリストの取得 params: - versions: - - v2 operationids: - - ListLogsGet + - ListLogsGet + order: 2 unstable: [] - order: 4 - - name: イベントを集計する - url: '#aggregate-events' + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user + url: '#get-a-list-of-logs' + - generated: true identifier: logs-aggregate-events - parent: logs - generated: true + name: イベントを集計する params: - versions: - - v2 operationids: - - AggregateLogs + - AggregateLogs + order: 1 unstable: [] - order: 2 - - name: ログを送信する + versions: + - v2 + - v2 + parent: key-management-delete-an-application-key-owned-by-current-user + url: '#aggregate-events' + - generated: true + identifier: logs-indexes + name: ワークフローの自動化 url: '#send-logs' - identifier: logs-send-logs - parent: logs - generated: true + - generated: true + identifier: logs-search-logs + name: Search logs params: - versions: - - v1 - - v2 operationids: - - SubmitLog + - ListLogs + order: 4 unstable: [] - order: 1 - - name: Search logs + versions: + - v2 + parent: logs-indexes url: '#search-logs' - identifier: logs-search-logs - parent: logs - generated: true + - generated: true + identifier: logs-indexes + name: ログインデックス params: - versions: - - v1 - - v2 operationids: - - ListLogs + - AggregateLogs + order: 2 unstable: [] - order: 3 - - name: ログインデックス + versions: + - v2 + parent: logs-indexes url: /api/latest/logs-indexes/ - identifier: logs-indexes - generated: true - - name: インデックスを更新する - url: '#update-an-index' + - generated: true identifier: logs-indexes-update-an-index - parent: logs-indexes - generated: true + name: インデックスを更新する params: - versions: - - v1 operationids: - - UpdateLogsIndex + - UpdateLogsIndex + order: 1 unstable: [] - order: 4 - - name: インデックスを取得する - url: '#get-an-index' - identifier: logs-indexes-get-an-index + versions: + - v2 + - v2 parent: logs-indexes - generated: true + url: '#update-an-index' + - generated: true + identifier: logs-indexes-get-an-index + name: インデックスを取得する params: - versions: - - v1 operationids: - - GetLogsIndex + - GetLogsIndex + order: 3 unstable: [] - order: 2 - - name: インデックスを作成 - url: '#create-an-index' - identifier: logs-indexes-create-an-index + versions: + - v2 + - v2 parent: logs-indexes - generated: true + url: '#get-an-index' + - generated: true + identifier: logs-pipelines + name: インデックスを作成 + url: '#create-an-index' + - generated: true + identifier: logs-indexes-get-all-indexes + name: すべてのインデックスを取得する params: - versions: - - v1 operationids: - - CreateLogsIndex + - ListLogIndexes + order: 4 unstable: [] - order: 3 - - name: すべてのインデックスを取得する + versions: + - v2 + parent: logs-pipelines url: '#get-all-indexes' - identifier: logs-indexes-get-all-indexes - parent: logs-indexes - generated: true + - generated: true + identifier: logs-indexes-update-indexes-order + name: インデックス順序を更新する params: - versions: - - v1 operationids: - - ListLogIndexes + - UpdateLogsIndexOrder + order: 2 unstable: [] - order: 1 - - name: インデックス順序を更新する + versions: + - v2 + parent: logs-pipelines url: '#update-indexes-order' - identifier: logs-indexes-update-indexes-order - parent: logs-indexes - generated: true + - generated: true + identifier: logs-indexes-get-indexes-order + name: インデックス順序を取得する params: - versions: - - v1 operationids: - - UpdateLogsIndexOrder + - GetLogsIndexOrder + order: 3 unstable: [] - order: 6 - - name: インデックス順序を取得する + versions: + - v2 + parent: logs-pipelines url: '#get-indexes-order' - identifier: logs-indexes-get-indexes-order - parent: logs-indexes - generated: true + - generated: true + identifier: logs-pipelines + name: ログパイプライン params: - versions: - - v1 operationids: - - GetLogsIndexOrder + - ListLogIndexes + order: 1 unstable: [] - order: 5 - - name: ログパイプライン + versions: + - v2 + parent: logs-pipelines url: /api/latest/logs-pipelines/ - identifier: logs-pipelines - generated: true - - name: パイプラインを更新する - url: '#update-a-pipeline' + - generated: true identifier: logs-pipelines-update-a-pipeline - parent: logs-pipelines - generated: true + name: パイプラインを更新する params: - versions: - - v1 operationids: - - UpdateLogsPipeline + - UpdateLogsPipeline + order: 6 unstable: [] - order: 7 - - name: パイプラインを取得する - url: '#get-a-pipeline' - identifier: logs-pipelines-get-a-pipeline + versions: + - v2 parent: logs-pipelines - generated: true + url: '#update-a-pipeline' + - generated: true + identifier: logs-pipelines-get-a-pipeline + name: パイプラインを取得する params: - versions: - - v1 operationids: - - GetLogsPipeline - unstable: [] + - GetLogsPipeline order: 5 - - name: パイプラインを削除する - url: '#delete-a-pipeline' - identifier: logs-pipelines-delete-a-pipeline + unstable: [] + versions: + - v2 parent: logs-pipelines - generated: true + url: '#get-a-pipeline' + - generated: true + identifier: logs-pipelines-delete-a-pipeline + name: パイプラインを削除する + url: '#delete-a-pipeline' + - generated: true + identifier: logs-pipelines-create-a-pipeline + name: パイプラインを作成する params: - versions: - - v1 operationids: - - DeleteLogsPipeline + - CreateLogsPipeline + order: 7 unstable: [] - order: 6 - - name: パイプラインを作成する + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: '#create-a-pipeline' - identifier: logs-pipelines-create-a-pipeline - parent: logs-pipelines - generated: true + - generated: true + identifier: logs-pipelines-get-all-pipelines + name: すべてのパイプラインを取得する params: - versions: - - v1 operationids: - - CreateLogsPipeline + - ListLogsPipelines + order: 5 unstable: [] - order: 4 - - name: すべてのパイプラインを取得する + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: '#get-all-pipelines' - identifier: logs-pipelines-get-all-pipelines - parent: logs-pipelines - generated: true + - generated: true + identifier: logs-pipelines-update-pipeline-order + name: パイプライン順序を更新する params: - versions: - - v1 operationids: - - ListLogsPipelines + - UpdateLogsPipelineOrder + order: 6 unstable: [] - order: 3 - - name: パイプライン順序を更新する + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: '#update-pipeline-order' - identifier: logs-pipelines-update-pipeline-order - parent: logs-pipelines - generated: true + - generated: true + identifier: logs-pipelines-get-pipeline-order + name: パイプライン順序を取得する params: - versions: - - v1 operationids: - - UpdateLogsPipelineOrder + - GetLogsPipelineOrder + order: 4 unstable: [] - order: 2 - - name: パイプライン順序を取得する + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: '#get-pipeline-order' - identifier: logs-pipelines-get-pipeline-order - parent: logs-pipelines - generated: true + - generated: true + identifier: メトリクス + name: メトリクス params: - versions: - - v1 operationids: - - GetLogsPipelineOrder + - ListLogsPipelines + order: 3 unstable: [] - order: 1 - - name: Metrics + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: /api/latest/metrics/ - identifier: metrics - generated: true - - name: 複数の製品にまたがる時系列データのクエリ - url: '#query-timeseries-data-across-multiple-products' + - generated: true identifier: metrics-query-timeseries-data-across-multiple-products - parent: metrics - generated: true + name: 複数の製品にまたがる時系列データのクエリ params: + operationids: + - QueryTimeseriesData + order: 2 + unstable: [] versions: - - v2 + - v2 + parent: logs-pipelines-delete-a-pipeline + url: '#query-timeseries-data-across-multiple-products' + - generated: true + identifier: metrics-query-scalar-data-across-multiple-products + name: 複数の製品にまたがるスカラーデータのクエリ + params: operationids: - - QueryTimeseriesData - unstable: - - v2 + - QueryScalarData order: 1 - - name: 複数の製品にまたがるスカラーデータのクエリ + unstable: [] + versions: + - v2 + parent: logs-pipelines-delete-a-pipeline url: '#query-scalar-data-across-multiple-products' - identifier: metrics-query-scalar-data-across-multiple-products - parent: metrics - generated: true + - generated: true + identifier: モニター + name: データセキュリティ + url: '#list-distinct-metric-volumes-by-metric-name' + - generated: true + identifier: metrics-create-a-tag-configuration + name: タグコンフィギュレーションを作成する params: - versions: - - v2 operationids: - - QueryScalarData + - CreateTagConfiguration + order: 1 unstable: - - v2 - order: 2 - - name: メトリクス名で個別のメトリクスボリュームを一覧表示する - url: '#list-distinct-metric-volumes-by-metric-name' - identifier: metrics-list-distinct-metric-volumes-by-metric-name - parent: metrics - generated: true - params: + - v2 versions: - - v2 - operationids: - - ListVolumesByMetricName - unstable: [] - order: 8 - - name: タグコンフィギュレーションを作成する + - v2 + parent: モニター url: '#create-a-tag-configuration' - identifier: metrics-create-a-tag-configuration - parent: metrics - generated: true + - generated: true + identifier: metrics-update-a-tag-configuration + name: タグコンフィギュレーションを更新する params: - versions: - - v2 operationids: - - CreateTagConfiguration - unstable: [] - order: 1 - - name: タグコンフィギュレーションを更新する + - UpdateTagConfiguration + order: 2 + unstable: + - v2 + versions: + - v2 + parent: モニター url: '#update-a-tag-configuration' - identifier: metrics-update-a-tag-configuration - parent: metrics - generated: true + - generated: true + identifier: metrics-list-tag-configuration-by-name + name: タグコンフィギュレーションを名前で一覧表示する params: - versions: - - v2 operationids: - - UpdateTagConfiguration + - ListTagConfigurationByName + order: 8 unstable: [] - order: 3 - - name: タグコンフィギュレーションを名前で一覧表示する + versions: + - v2 + parent: モニター url: '#list-tag-configuration-by-name' - identifier: metrics-list-tag-configuration-by-name - parent: metrics - generated: true + - generated: true + identifier: metrics-delete-a-tag-configuration + name: タグコンフィギュレーションを削除する params: - versions: - - v2 operationids: - - ListTagConfigurationByName + - DeleteTagConfiguration + order: 1 unstable: [] - order: 2 - - name: タグコンフィギュレーションを削除する + versions: + - v2 + parent: モニター url: '#delete-a-tag-configuration' - identifier: metrics-delete-a-tag-configuration - parent: metrics - generated: true + - generated: true + identifier: metrics-tag-configuration-cardinality-estimator + name: タグコンフィギュレーションカーディナリティ推定ツール params: - versions: - - v2 operationids: - - DeleteTagConfiguration + - EstimateMetricsOutputSeries + order: 3 unstable: [] - order: 4 - - name: タグコンフィギュレーションカーディナリティ推定ツール + versions: + - v2 + parent: モニター url: '#tag-configuration-cardinality-estimator' - identifier: metrics-tag-configuration-cardinality-estimator - parent: metrics - generated: true + - generated: true + identifier: metrics-list-tags-by-metric-name + name: メトリクス名でタグを一覧表示する params: - versions: - - v2 operationids: - - EstimateMetricsOutputSeries + - ListTagsByMetricName + order: 2 unstable: [] - order: 11 - - name: Related Assets to a Metric - url: '#related-assets-to-a-metric' - identifier: metrics-related-assets-to-a-metric - parent: metrics - generated: true - params: versions: - - v2 - operationids: - - ListMetricAssets - unstable: [] - order: 12 - - name: メトリクス名でタグを一覧表示する + - v2 + parent: モニター url: '#list-tags-by-metric-name' - identifier: metrics-list-tags-by-metric-name - parent: metrics - generated: true + - generated: true + identifier: metrics-list-active-tags-and-aggregations + name: アクティブなタグと集計をリストアップする params: - versions: - - v2 operationids: - - ListTagsByMetricName + - ListActiveMetricConfigurations + order: 4 unstable: [] - order: 6 - - name: アクティブなタグと集計をリストアップする + versions: + - v2 + parent: モニター url: '#list-active-tags-and-aggregations' - identifier: metrics-list-active-tags-and-aggregations - parent: metrics - generated: true + - generated: true + identifier: metrics-configure-tags-for-multiple-metrics + name: 複数のメトリクスにタグを構成 params: - versions: - - v2 operationids: - - ListActiveMetricConfigurations + - CreateBulkTagsMetricsConfiguration + order: 11 unstable: [] - order: 7 - - name: 複数のメトリクスにタグを構成 + versions: + - v2 + parent: モニター url: '#configure-tags-for-multiple-metrics' - identifier: metrics-configure-tags-for-multiple-metrics - parent: metrics - generated: true + - generated: true + identifier: metrics-related-assets-to-a-metric + name: メトリクスに関連するアセット params: - versions: - - v2 operationids: - - CreateBulkTagsMetricsConfiguration + - ListMetricAssets + order: 12 unstable: [] - order: 9 - - name: Delete tags for multiple metrics - url: '#delete-tags-for-multiple-metrics' + versions: + - v2 + parent: モニター + url: '#related-assets-to-a-metric' + - generated: true identifier: metrics-delete-tags-for-multiple-metrics - parent: metrics - generated: true + name: 複数のメトリクスのタグを削除する params: - versions: - - v2 operationids: - - DeleteBulkTagsMetricsConfiguration + - DeleteBulkTagsMetricsConfiguration + order: 6 unstable: [] - order: 10 - - name: メトリクスのリストを取得する - url: '#get-a-list-of-metrics' + versions: + - v2 + parent: モニター + url: '#delete-tags-for-multiple-metrics' + - generated: true identifier: metrics-get-a-list-of-metrics - parent: metrics - generated: true + name: メトリクスのリストを取得する params: - versions: - - v2 operationids: - - ListTagConfigurations + - ListTagConfigurations + order: 7 unstable: [] - order: 5 - - name: メトリクスを送信する - url: '#submit-metrics' + versions: + - v2 + parent: モニター + url: '#get-a-list-of-metrics' + - generated: true identifier: metrics-submit-metrics - parent: metrics - generated: true + name: メトリクスを送信する params: - versions: - - v1 - - v2 operationids: - - SubmitMetrics + - SubmitMetrics + order: 9 unstable: [] - order: 1 - - name: メトリクスの検索 - url: '#search-metrics' + versions: + - v2 + parent: モニター + url: '#submit-metrics' + - generated: true identifier: metrics-search-metrics - parent: metrics - generated: true + name: メトリクスの検索 params: - versions: - - v1 operationids: - - ListMetrics + - ListMetrics + order: 10 unstable: [] - order: 4 - - name: 時系列ポイントのクエリ - url: '#query-timeseries-points' + versions: + - v2 + parent: モニター + url: '#search-metrics' + - generated: true identifier: metrics-query-timeseries-points - parent: metrics - generated: true + name: 時系列ポイントのクエリ params: - versions: - - v1 operationids: - - QueryMetrics - unstable: [] + - QueryMetrics order: 5 - - name: メトリクスのメタデータを編集 - url: '#edit-metric-metadata' + unstable: [] + versions: + - v2 + parent: モニター + url: '#query-timeseries-points' + - generated: true identifier: metrics-edit-metric-metadata - parent: metrics - generated: true + name: メトリクスのメタデータを編集 params: - versions: - - v1 operationids: - - UpdateMetricMetadata + - UpdateMetricMetadata + order: 1 unstable: [] - order: 3 - - name: メトリクスのメタデータを取得する - url: '#get-metric-metadata' + versions: + - v2 + - v2 + parent: モニター + url: '#edit-metric-metadata' + - generated: true identifier: metrics-get-metric-metadata - parent: metrics - generated: true + name: メトリクスのメタデータを取得する params: - versions: - - v1 operationids: - - GetMetricMetadata + - GetMetricMetadata + order: 4 unstable: [] - order: 2 - - name: アクティブメトリクスのリストを取得する - url: '#get-active-metrics-list' + versions: + - v2 + parent: モニター + url: '#get-metric-metadata' + - generated: true identifier: metrics-get-active-metrics-list - parent: metrics - generated: true + name: アクティブメトリクスのリストを取得する params: - versions: - - v1 operationids: - - ListActiveMetrics + - ListActiveMetrics + order: 5 unstable: [] - order: 1 - - name: ディストリビューションポイントの送信 - url: '#submit-distribution-points' + versions: + - v2 + parent: モニター + url: '#get-active-metrics-list' + - generated: true identifier: metrics-submit-distribution-points - parent: metrics - generated: true + name: ディストリビューションポイントの送信 params: + operationids: + - SubmitDistributionPoints + order: 3 + unstable: [] versions: - - v1 + - v2 + parent: モニター + url: '#submit-distribution-points' + - generated: true + identifier: モニター + name: アラート設定 + params: operationids: - - SubmitDistributionPoints + - GetMetricMetadata + order: 2 unstable: [] - order: 1 - - name: Monitors + versions: + - v2 + parent: モニター url: /api/latest/monitors/ - identifier: monitors - generated: true - - name: モニター構成ポリシーを編集する - url: '#edit-a-monitor-configuration-policy' + - generated: true identifier: monitors-edit-a-monitor-configuration-policy - parent: monitors - generated: true + name: モニター構成ポリシーを編集する params: - versions: - - v2 operationids: - - UpdateMonitorConfigPolicy + - UpdateMonitorConfigPolicy + order: 1 unstable: [] - order: 12 - - name: モニター構成ポリシーを取得する - url: '#get-a-monitor-configuration-policy' + versions: + - v2 + parent: モニター + url: '#edit-a-monitor-configuration-policy' + - generated: true identifier: monitors-get-a-monitor-configuration-policy - parent: monitors - generated: true + name: モニター構成ポリシーを取得する params: - versions: - - v2 operationids: - - GetMonitorConfigPolicy + - GetMonitorConfigPolicy + order: 1 unstable: [] - order: 9 - - name: モニター構成ポリシーを削除する + versions: + - v2 + parent: モニター + url: '#get-a-monitor-configuration-policy' + - generated: true + identifier: ノートブック + name: ログ管理 url: '#delete-a-monitor-configuration-policy' - identifier: monitors-delete-a-monitor-configuration-policy - parent: monitors - generated: true + - generated: true + identifier: monitors-create-a-monitor-configuration-policy + name: モニター構成ポリシーを作成する params: - versions: - - v2 operationids: - - DeleteMonitorConfigPolicy + - CreateMonitorConfigPolicy + order: 12 unstable: [] - order: 13 - - name: モニター構成ポリシーを作成する + versions: + - v2 + parent: ノートブック url: '#create-a-monitor-configuration-policy' - identifier: monitors-create-a-monitor-configuration-policy - parent: monitors - generated: true + - generated: true + identifier: monitors-get-all-monitor-configuration-policies + name: すべてのモニター構成ポリシーを取得する params: - versions: - - v2 operationids: - - CreateMonitorConfigPolicy + - ListMonitorConfigPolicies + order: 9 unstable: [] - order: 11 - - name: すべてのモニター構成ポリシーを取得する + versions: + - v2 + parent: ノートブック url: '#get-all-monitor-configuration-policies' - identifier: monitors-get-all-monitor-configuration-policies - parent: monitors - generated: true + - generated: true + identifier: monitors-unmute-all-monitors + name: 全モニターのミュートを解除 params: - versions: - - v2 operationids: - - ListMonitorConfigPolicies + - UnmuteAllMonitors + order: 13 unstable: [] - order: 10 - - name: 全モニターのミュートを解除 + versions: + - v2 + parent: ノートブック url: '#unmute-all-monitors' - identifier: monitors-unmute-all-monitors - parent: monitors - generated: true + - generated: true + identifier: monitors-mute-all-monitors + name: 全モニターのミュート params: - versions: - - v1 operationids: - - UnmuteAllMonitors + - MuteAllMonitors + order: 11 unstable: [] - order: 3 - - name: 全モニターのミュート + versions: + - v2 + parent: ノートブック url: '#mute-all-monitors' - identifier: monitors-mute-all-monitors - parent: monitors - generated: true + - generated: true + identifier: monitors-validate-an-existing-monitor + name: 既存のモニターを検証する params: - versions: - - v1 operationids: - - MuteAllMonitors + - ValidateExistingMonitor + order: 10 unstable: [] - order: 4 - - name: 既存のモニターを検証する + versions: + - v2 + parent: ノートブック url: '#validate-an-existing-monitor' - identifier: monitors-validate-an-existing-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-unmute-a-monitor + name: モニターのミュートを解除 params: - versions: - - v1 operationids: - - ValidateExistingMonitor + - UnmuteMonitor + order: 3 unstable: [] - order: 8 - - name: モニターのミュートを解除 + versions: + - v2 + parent: ノートブック url: '#unmute-a-monitor' - identifier: monitors-unmute-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-mute-a-monitor + name: モニターのミュート params: - versions: - - v1 operationids: - - UnmuteMonitor + - MuteMonitor + order: 4 unstable: [] - order: 1 - - name: モニターのミュート + versions: + - v2 + parent: ノートブック url: '#mute-a-monitor' - identifier: monitors-mute-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-edit-a-monitor + name: モニターの編集 params: - versions: - - v1 operationids: - - MuteMonitor + - UpdateMonitor + order: 8 unstable: [] - order: 2 - - name: モニターの編集 + versions: + - v2 + parent: ノートブック url: '#edit-a-monitor' - identifier: monitors-edit-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-get-a-monitors-details + name: モニターの詳細を取得 params: - versions: - - v1 operationids: - - UpdateMonitor + - GetMonitor + order: 1 unstable: [] - order: 3 - - name: モニターの詳細を取得 + versions: + - v2 + parent: ノートブック url: '#get-a-monitors-details' - identifier: monitors-get-a-monitors-details - parent: monitors - generated: true + - generated: true + identifier: monitors-delete-a-monitor + name: モニターの削除 params: - versions: - - v1 operationids: - - GetMonitor + - DeleteMonitor + order: 2 unstable: [] - order: 4 - - name: モニターの削除 + versions: + - v2 + parent: ノートブック url: '#delete-a-monitor' - identifier: monitors-delete-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-validate-a-monitor + name: モニターの検証 params: - versions: - - v1 operationids: - - DeleteMonitor + - ValidateMonitor + order: 3 unstable: [] - order: 5 - - name: モニターの検証 + versions: + - v2 + parent: ノートブック url: '#validate-a-monitor' - identifier: monitors-validate-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-monitors-search + name: モニターの検索 params: - versions: - - v1 operationids: - - ValidateMonitor + - SearchMonitors + order: 4 unstable: [] - order: 7 - - name: モニターの検索 + versions: + - v2 + parent: ノートブック url: '#monitors-search' - identifier: monitors-monitors-search - parent: monitors - generated: true + - generated: true + identifier: monitors-monitors-group-search + name: モニターグループの検索 params: - versions: - - v1 operationids: - - SearchMonitors + - SearchMonitorGroups + order: 5 unstable: [] - order: 1 - - name: モニターグループの検索 + versions: + - v2 + parent: ノートブック url: '#monitors-group-search' - identifier: monitors-monitors-group-search - parent: monitors - generated: true + - generated: true + identifier: monitors-check-if-a-monitor-can-be-deleted + name: モニターの削除が可能かどうか確認 params: - versions: - - v1 operationids: - - SearchMonitorGroups + - CheckCanDeleteMonitor + order: 7 unstable: [] - order: 2 - - name: モニターの削除が可能かどうか確認 + versions: + - v2 + parent: ノートブック url: '#check-if-a-monitor-can-be-deleted' - identifier: monitors-check-if-a-monitor-can-be-deleted - parent: monitors - generated: true + - generated: true + identifier: monitors-create-a-monitor + name: モニターの作成 params: - versions: - - v1 operationids: - - CheckCanDeleteMonitor + - CreateMonitor + order: 1 unstable: [] - order: 6 - - name: モニターの作成 + versions: + - v2 + parent: ノートブック url: '#create-a-monitor' - identifier: monitors-create-a-monitor - parent: monitors - generated: true + - generated: true + identifier: monitors-get-all-monitor-details + name: 全モニターの詳細を取得 params: - versions: - - v1 operationids: - - CreateMonitor + - ListMonitors + order: 2 unstable: [] - order: 1 - - name: 全モニターの詳細を取得 + versions: + - v2 + parent: ノートブック url: '#get-all-monitor-details' - identifier: monitors-get-all-monitor-details - parent: monitors - generated: true + - generated: true + identifier: ノートブック + name: ノートブック params: - versions: - - v1 operationids: - - ListMonitors + - CheckCanDeleteMonitor + order: 6 unstable: [] - order: 2 - - name: Notebooks + versions: + - v2 + parent: ノートブック url: /api/latest/notebooks/ - identifier: notebooks - generated: true - - name: ノートブックの更新 - url: '#update-a-notebook' + - generated: true identifier: notebooks-update-a-notebook - parent: notebooks - generated: true + name: ノートブックの更新 params: - versions: - - v1 operationids: - - UpdateNotebook + - UpdateNotebook + order: 1 unstable: [] - order: 4 - - name: ノートブックの取得 - url: '#get-a-notebook' + versions: + - v2 + parent: ノートブック + url: '#update-a-notebook' + - generated: true identifier: notebooks-get-a-notebook - parent: notebooks - generated: true + name: ノートブックの取得 params: - versions: - - v1 operationids: - - GetNotebook + - GetNotebook + order: 2 unstable: [] - order: 5 - - name: ノートブックの削除 + versions: + - v2 + parent: ノートブック + url: '#get-a-notebook' + - generated: true + identifier: アラート設定 + name: チェック内容のサマリー url: '#delete-a-notebook' - identifier: notebooks-delete-a-notebook - parent: notebooks - generated: true + - generated: true + identifier: notebooks-create-a-notebook + name: ノートブックの作成 params: - versions: - - v1 operationids: - - DeleteNotebook + - CreateNotebook + order: 4 unstable: [] - order: 3 - - name: ノートブックの作成 + versions: + - v2 + parent: アラート設定 url: '#create-a-notebook' - identifier: notebooks-create-a-notebook - parent: notebooks - generated: true + - generated: true + identifier: notebooks-get-all-notebooks + name: すべてのノートブックを取得 params: - versions: - - v1 operationids: - - CreateNotebook + - ListNotebooks + order: 5 unstable: [] - order: 1 - - name: すべてのノートブックを取得 + versions: + - v2 + parent: アラート設定 url: '#get-all-notebooks' - identifier: notebooks-get-all-notebooks - parent: notebooks - generated: true + - generated: true + identifier: オーガニゼーション + name: Organizations params: - versions: - - v1 operationids: - - ListNotebooks + - DeleteNotebook + order: 3 unstable: [] - order: 2 - - name: Organizations + versions: + - v2 + parent: アラート設定 url: /api/latest/organizations/ - identifier: organizations - generated: true - - name: IdP メタデータをアップロード - url: '#upload-idp-metadata' + - generated: true identifier: organizations-upload-idp-metadata - parent: organizations - generated: true + name: IdP メタデータをアップロード params: - versions: - - v1 - - v2 operationids: - - UploadIdPForOrg - - UploadIdPMetadata + - UploadIdPForOrg + order: 1 unstable: [] - order: 5 - - name: 子組織のスピンオフ - url: '#spin-off-child-organization' + versions: + - v2 + parent: アラート設定 + url: '#upload-idp-metadata' + - generated: true identifier: organizations-spin-off-child-organization - parent: organizations - generated: true + name: 子組織のスピンオフ params: - versions: - - v1 operationids: - - DowngradeOrg + - DowngradeOrg + order: 2 unstable: [] - order: 6 - - name: 組織を更新する - url: '#update-your-organization' + versions: + - v2 + parent: アラート設定 + url: '#spin-off-child-organization' + - generated: true identifier: organizations-update-your-organization - parent: organizations - generated: true + name: 組織を更新する + url: '#update-your-organization' + - generated: true + identifier: organizations-get-organization-information + name: 組織情報を取得する params: - versions: - - v1 operationids: - - UpdateOrg + - GetOrg + - UploadIdPMetadata + order: 5 unstable: [] - order: 4 - - name: 組織情報を取得する + versions: + - v2 + - v2 + parent: organizations-update-your-organization url: '#get-organization-information' - identifier: organizations-get-organization-information - parent: organizations - generated: true + - generated: true + identifier: organizations-create-a-child-organization + name: 子組織を作成する params: - versions: - - v1 operationids: - - GetOrg + - CreateChildOrg + order: 6 unstable: [] - order: 3 - - name: 子組織を作成する + versions: + - v2 + parent: organizations-update-your-organization url: '#create-a-child-organization' - identifier: organizations-create-a-child-organization - parent: organizations - generated: true + - generated: true + identifier: organizations-list-your-managed-organizations + name: 管理している組織を一覧表示する params: - versions: - - v1 operationids: - - CreateChildOrg + - ListOrgs + order: 4 unstable: [] - order: 1 - - name: 管理している組織を一覧表示する + versions: + - v2 + parent: organizations-update-your-organization url: '#list-your-managed-organizations' - identifier: organizations-list-your-managed-organizations - parent: organizations - generated: true + - generated: true + identifier: pagerduty-integration + name: PagerDuty インテグレーション params: - versions: - - v1 operationids: - - ListOrgs + - GetOrg + order: 3 unstable: [] - order: 2 - - name: PagerDuty インテグレーション + versions: + - v2 + parent: organizations-update-your-organization url: /api/latest/pagerduty-integration/ - identifier: pagerduty-integration - generated: true - - name: 単一のサービスオブジェクトを更新する - url: '#update-a-single-service-object' + - generated: true identifier: pagerduty-integration-update-a-single-service-object - parent: pagerduty-integration - generated: true + name: 単一のサービスオブジェクトを更新する params: - versions: - - v1 operationids: - - UpdatePagerDutyIntegrationService + - UpdatePagerDutyIntegrationService + order: 1 unstable: [] - order: 3 - - name: 単一のサービスオブジェクトを取得する - url: '#get-a-single-service-object' + versions: + - v2 + parent: organizations-update-your-organization + url: '#update-a-single-service-object' + - generated: true identifier: pagerduty-integration-get-a-single-service-object - parent: pagerduty-integration - generated: true + name: 単一のサービスオブジェクトを取得する params: - versions: - - v1 operationids: - - GetPagerDutyIntegrationService - unstable: [] + - GetPagerDutyIntegrationService order: 2 - - name: 単一のサービスオブジェクトを削除する - url: '#delete-a-single-service-object' + unstable: [] + versions: + - v2 + parent: organizations-update-your-organization + url: '#get-a-single-service-object' + - generated: true identifier: pagerduty-integration-delete-a-single-service-object - parent: pagerduty-integration - generated: true + name: 単一のサービスオブジェクトを削除する + url: '#delete-a-single-service-object' + - generated: true + identifier: pagerduty-integration-create-a-new-service-object + name: ロールを削除する params: - versions: - - v1 operationids: - - DeletePagerDutyIntegrationService + - CreatePagerDutyIntegrationService + order: 3 unstable: [] - order: 4 - - name: 新しいサービスオブジェクトを作成する - url: '#create-a-new-service-object' - identifier: pagerduty-integration-create-a-new-service-object - parent: pagerduty-integration - generated: true - params: versions: - - v1 + - v2 + parent: pagerduty-integration-delete-a-single-service-object + url: '#delete-role' + - generated: true + identifier: スクリーンボード + name: ロールを作成する + params: operationids: - - CreatePagerDutyIntegrationService + - GetPagerDutyIntegrationService + order: 2 unstable: [] - order: 1 - - name: Screenboards - url: /api/latest/screenboards/ - identifier: screenboards - generated: true - - name: セキュリティモニタリング - url: /api/latest/security-monitoring/ + versions: + - v2 + parent: pagerduty-integration-delete-a-single-service-object + url: '#create-role' + - generated: true identifier: security-monitoring - generated: true - - name: セキュリティシグナルの関連インシデントを変更する - url: '#change-the-related-incidents-of-a-security-signal' - identifier: security-monitoring-change-the-related-incidents-of-a-security-signal - parent: security-monitoring - generated: true + name: ロールを一覧表示する params: - versions: - - v2 operationids: - - EditSecurityMonitoringSignalIncidents + - DeletePagerDutyIntegrationService + order: 4 unstable: [] - order: 11 - - name: シグナルの詳細を取得する - url: '#get-a-signals-details' - identifier: security-monitoring-get-a-signals-details - parent: security-monitoring - generated: true - params: versions: - - v2 - operationids: - - GetSecurityMonitoringSignal - unstable: [] - order: 13 - - name: セキュリティシグナルのリストの取得 - url: '#get-a-list-of-security-signals' - identifier: security-monitoring-get-a-list-of-security-signals - parent: security-monitoring - generated: true + - v2 + parent: pagerduty-integration-delete-a-single-service-object + url: '#list-roles' + - generated: true + identifier: security-monitoring-change-the-related-incidents-of-a-security-signal + name: 権限を一覧表示する params: - versions: - - v2 operationids: - - SearchSecurityMonitoringSignals + - EditSecurityMonitoringSignalIncidents + order: 1 unstable: [] - order: 9 - - name: セキュリティシグナルの簡易リストの取得 - url: '#get-a-quick-list-of-security-signals' + versions: + - v2 + parent: pagerduty-integration-delete-a-single-service-object + url: '#list-permissions' + - generated: true + identifier: security-monitoring-get-a-signals-details + name: シグナルの詳細を取得する + url: '#get-a-signals-details' + - generated: true + identifier: service-level-objective-corrections + name: セキュリティシグナルのリストの取得 + url: '#get-a-list-of-security-signals' + - generated: true identifier: security-monitoring-get-a-quick-list-of-security-signals - parent: security-monitoring - generated: true + name: セキュリティシグナルの簡易リストの取得 params: - versions: - - v2 operationids: - - ListSecurityMonitoringSignals + - ListSecurityMonitoringSignals + order: 11 unstable: [] - order: 10 - - name: 既存の規則を更新します - url: '#update-an-existing-rule' + versions: + - v2 + parent: service-level-objective-corrections + url: '#get-a-quick-list-of-security-signals' + - generated: true identifier: security-monitoring-update-an-existing-rule - parent: security-monitoring - generated: true + name: 既存の規則を更新します params: - versions: - - v2 operationids: - - UpdateSecurityMonitoringRule + - UpdateSecurityMonitoringRule + order: 13 unstable: [] - order: 6 - - name: 規則の詳細を取得する - url: '#get-a-rules-details' + versions: + - v2 + parent: service-level-objective-corrections + url: '#update-an-existing-rule' + - generated: true identifier: security-monitoring-get-a-rules-details - parent: security-monitoring - generated: true + name: 規則の詳細を取得する params: - versions: - - v2 operationids: - - GetSecurityMonitoringRule + - GetSecurityMonitoringRule + order: 9 unstable: [] - order: 5 - - name: 既存の規則を削除します - url: '#delete-an-existing-rule' + versions: + - v2 + parent: service-level-objective-corrections + url: '#get-a-rules-details' + - generated: true identifier: security-monitoring-delete-an-existing-rule - parent: security-monitoring - generated: true + name: 既存の規則を削除します params: - versions: - - v2 operationids: - - DeleteSecurityMonitoringRule + - DeleteSecurityMonitoringRule + order: 10 unstable: [] - order: 7 - - name: Validate a detection rule - url: '#validate-a-detection-rule' - identifier: security-monitoring-validate-a-detection-rule - parent: security-monitoring - generated: true - params: versions: - - v2 - operationids: - - ValidateSecurityMonitoringRule - unstable: [] - order: 8 - - name: 検出ルールを作成する - url: '#create-a-detection-rule' + - v2 + parent: service-level-objective-corrections + url: '#delete-an-existing-rule' + - generated: true identifier: security-monitoring-create-a-detection-rule - parent: security-monitoring - generated: true + name: 検出ルールを作成する params: - versions: - - v2 operationids: - - CreateSecurityMonitoringRule + - CreateSecurityMonitoringRule + order: 6 unstable: [] - order: 4 - - name: 規則のリスト - url: '#list-rules' + versions: + - v2 + parent: service-level-objective-corrections + url: '#create-a-detection-rule' + - generated: true identifier: security-monitoring-list-rules - parent: security-monitoring - generated: true + name: 規則のリスト params: - versions: - - v2 operationids: - - ListSecurityMonitoringRules + - ListSecurityMonitoringRules + order: 5 unstable: [] - order: 4 - - name: Update a suppression rule - url: '#update-a-suppression-rule' - identifier: security-monitoring-update-a-suppression-rule - parent: security-monitoring - generated: true - params: versions: - - v2 - operationids: - - UpdateSecurityMonitoringSuppression - unstable: [] - order: 0 - - name: Get a suppression rule - url: '#get-a-suppression-rule' - identifier: security-monitoring-get-a-suppression-rule - parent: security-monitoring - generated: true + - v2 + parent: service-level-objective-corrections + url: '#list-rules' + - generated: true + identifier: security-monitoring-update-a-security-filter + name: セキュリティフィルターを更新 params: - versions: - - v2 operationids: - - GetSecurityMonitoringSuppression + - UpdateSecurityFilter + order: 7 unstable: [] - order: 0 - - name: Delete a suppression rule - url: '#delete-a-suppression-rule' - identifier: security-monitoring-delete-a-suppression-rule - parent: security-monitoring - generated: true - params: versions: - - v2 - operationids: - - DeleteSecurityMonitoringSuppression - unstable: [] - order: 0 - - name: Create a suppression rule - url: '#create-a-suppression-rule' - identifier: security-monitoring-create-a-suppression-rule - parent: security-monitoring - generated: true + - v2 + parent: service-level-objective-corrections + url: '#update-a-security-filter' + - generated: true + identifier: security-monitoring-validate-a-detection-rule + name: 検出ルールを検証 params: - versions: - - v2 operationids: - - CreateSecurityMonitoringSuppression + - ValidateSecurityMonitoringRule + order: 8 unstable: [] - order: 0 - - name: Get all suppression rules - url: '#get-all-suppression-rules' - identifier: security-monitoring-get-all-suppression-rules - parent: security-monitoring - generated: true - params: versions: - - v2 - operationids: - - ListSecurityMonitoringSuppressions - unstable: [] - order: 0 - - name: セキュリティフィルターを更新 - url: '#update-a-security-filter' - identifier: security-monitoring-update-a-security-filter - parent: security-monitoring - generated: true + - v2 + parent: service-level-objective-corrections + url: '#validate-a-detection-rule' + - generated: true + identifier: security-monitoring-get-a-security-filter + name: セキュリティフィルターを取得 params: - versions: - - v2 operationids: - - UpdateSecurityFilter + - GetSecurityFilter + order: 4 unstable: [] - order: 15 - - name: セキュリティフィルターを取得 + versions: + - v2 + parent: service-level-objective-corrections url: '#get-a-security-filter' - identifier: security-monitoring-get-a-security-filter - parent: security-monitoring - generated: true + - generated: true + identifier: security-monitoring-delete-a-security-filter + name: セキュリティフィルターを削除 params: - versions: - - v2 operationids: - - GetSecurityFilter + - DeleteSecurityFilter + order: 4 unstable: [] - order: 16 - - name: セキュリティフィルターを削除 + versions: + - v2 + parent: service-level-objective-corrections url: '#delete-a-security-filter' - identifier: security-monitoring-delete-a-security-filter - parent: security-monitoring - generated: true + - generated: true + identifier: security-monitoring-create-a-security-filter + name: セキュリティフィルターを作成 params: - versions: - - v2 operationids: - - DeleteSecurityFilter + - CreateSecurityFilter + order: 0 unstable: [] - order: 14 - - name: セキュリティフィルターを作成 + versions: + - v2 + parent: service-level-objective-corrections url: '#create-a-security-filter' - identifier: security-monitoring-create-a-security-filter - parent: security-monitoring - generated: true + - generated: true + identifier: security-monitoring-get-all-security-filters + name: すべてのセキュリティフィルターを取得 params: - versions: - - v2 operationids: - - CreateSecurityFilter + - ListSecurityFilters + order: 0 unstable: [] - order: 17 - - name: すべてのセキュリティフィルターを取得 + versions: + - v2 + parent: service-level-objective-corrections url: '#get-all-security-filters' - identifier: security-monitoring-get-all-security-filters - parent: security-monitoring - generated: true + - generated: true + identifier: security-monitoring-mute-or-unmute-a-finding + name: 診断結果のミュートまたはミュート解除 params: - versions: - - v2 operationids: - - ListSecurityFilters + - UpdateFinding + order: 0 unstable: [] - order: 18 - - name: Get a finding - url: '#get-a-finding' + versions: + - v2 + parent: service-level-objective-corrections + url: '#mute-or-unmute-a-finding' + - generated: true identifier: security-monitoring-get-a-finding - parent: security-monitoring - generated: true + name: 発見を取得する params: - versions: - - v2 operationids: - - GetFinding - unstable: - - v2 - order: 2 - - name: Mute or unmute a batch of findings - url: '#mute-or-unmute-a-batch-of-findings' - identifier: security-monitoring-mute-or-unmute-a-batch-of-findings - parent: security-monitoring - generated: true - params: + - GetFinding + order: 0 + unstable: [] versions: - - v2 - operationids: - - MuteFindings - unstable: - - v2 - order: 2 - - name: List findings - url: '#list-findings' + - v2 + parent: service-level-objective-corrections + url: '#get-a-finding' + - generated: true identifier: security-monitoring-list-findings - parent: security-monitoring - generated: true + name: 発見を一覧化する params: - versions: - - v2 operationids: - - ListFindings - unstable: - - v2 - order: 1 - - name: セキュリティシグナルのトリアージ状態を変更します - url: '#change-the-triage-state-of-a-security-signal' + - ListFindings + order: 0 + unstable: [] + versions: + - v2 + parent: service-level-objective-corrections + url: '#list-findings' + - generated: true identifier: security-monitoring-change-the-triage-state-of-a-security-signal - parent: security-monitoring - generated: true + name: セキュリティシグナルのトリアージ状態を変更します params: - versions: - - v1 - - v2 operationids: - - EditSecurityMonitoringSignalState + - EditSecurityMonitoringSignalState + order: 15 unstable: [] - order: 4 - - name: セキュリティシグナルのトリアージアサインメントを変更します - url: '#modify-the-triage-assignee-of-a-security-signal' + versions: + - v2 + parent: service-level-objective-corrections + url: '#change-the-triage-state-of-a-security-signal' + - generated: true identifier: security-monitoring-modify-the-triage-assignee-of-a-security-signal - parent: security-monitoring - generated: true + name: セキュリティシグナルのトリアージアサインメントを変更します params: - versions: - - v1 - - v2 operationids: - - EditSecurityMonitoringSignalAssignee + - EditSecurityMonitoringSignalAssignee + order: 16 unstable: [] - order: 5 - - name: インシデントにセキュリティシグナルを追加する - url: '#add-a-security-signal-to-an-incident' + versions: + - v2 + parent: service-level-objective-corrections + url: '#modify-the-triage-assignee-of-a-security-signal' + - generated: true identifier: security-monitoring-add-a-security-signal-to-an-incident - parent: security-monitoring - generated: true + name: インシデントにセキュリティシグナルを追加する params: + operationids: + - AddSecurityMonitoringSignalToIncident + order: 14 + unstable: [] versions: - - v1 + - v2 + parent: service-level-objective-corrections + url: '#add-a-security-signal-to-an-incident' + - generated: true + identifier: service-checks + name: サービスのチェック + params: operationids: - - AddSecurityMonitoringSignalToIncident + - EditSecurityMonitoringSignalState + order: 17 unstable: [] - order: 4 - - name: サービスのチェック + versions: + - v2 + parent: service-level-objective-corrections url: /api/latest/service-checks/ - identifier: service-checks - generated: true - - name: サービスチェックを送信する - url: '#submit-a-service-check' + - generated: true identifier: service-checks-submit-a-service-check - parent: service-checks - generated: true + name: サービスチェックを送信する params: - versions: - - v1 operationids: - - SubmitServiceCheck + - SubmitServiceCheck + order: 18 unstable: [] - order: 1 - - name: サービスの依存関係 - url: /api/latest/service-dependencies/ + versions: + - v2 + parent: service-level-objective-corrections + url: '#submit-a-service-check' + - generated: true identifier: service-dependencies - generated: true - - name: 1 つの APM サービスの依存関係を取得 - url: '#get-one-apm-services-dependencies' - identifier: service-dependencies-get-one-apm-services-dependencies - parent: service-dependencies - generated: true + name: サービスの依存関係 params: - versions: - - v1 operationids: - - ListSingleServiceDependencies + - AddSecurityMonitoringSignalToIncident + order: 2 unstable: - - v1 + - v2 + versions: + - v2 + parent: service-level-objective-corrections + url: /api/latest/service-dependencies/ + - generated: true + identifier: service-dependencies-get-one-apm-services-dependencies + name: 1 つの APM サービスの依存関係を取得 + params: + operationids: + - EditSecurityMonitoringSignalAssignee order: 2 - - name: すべての APM サービスの依存関係を取得 - url: '#get-all-apm-service-dependencies' + unstable: + - v2 + versions: + - v2 + parent: service-level-objective-corrections + url: '#get-one-apm-services-dependencies' + - generated: true identifier: service-dependencies-get-all-apm-service-dependencies - parent: service-dependencies - generated: true + name: すべての APM サービスの依存関係を取得 params: - versions: - - v1 operationids: - - ListServiceDependencies - unstable: - - v1 + - ListServiceDependencies order: 1 - - name: サービスレベル目標の補正 - url: /api/latest/service-level-objective-corrections/ - identifier: service-level-objective-corrections - generated: true - - name: SLO 補正を更新する - url: '#update-an-slo-correction' - identifier: service-level-objective-corrections-update-an-slo-correction + unstable: + - v2 + versions: + - v2 parent: service-level-objective-corrections - generated: true + url: '#get-all-apm-service-dependencies' + - generated: true + identifier: service-level-objective-corrections + name: サービスレベル目標の補正 params: - versions: - - v1 operationids: - - UpdateSLOCorrection - unstable: [] + - EditSecurityMonitoringSignalState order: 4 - - name: SLO の SLO 補正を取得する - url: '#get-an-slo-correction-for-an-slo' - identifier: service-level-objective-corrections-get-an-slo-correction-for-an-slo + unstable: [] + versions: + - v2 + - v2 parent: service-level-objective-corrections - generated: true + url: /api/latest/service-level-objective-corrections/ + - generated: true + identifier: service-level-objective-corrections-update-an-slo-correction + name: SLO 補正を更新する params: - versions: - - v1 operationids: - - GetSLOCorrection + - UpdateSLOCorrection + order: 5 unstable: [] - order: 3 - - name: SLO 補正を削除する - url: '#delete-an-slo-correction' - identifier: service-level-objective-corrections-delete-an-slo-correction + versions: + - v2 + - v2 parent: service-level-objective-corrections - generated: true + url: '#update-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-get-an-slo-correction-for-an-slo + name: SLO の SLO 補正を取得する params: - versions: - - v1 operationids: - - DeleteSLOCorrection + - GetSLOCorrection + order: 4 unstable: [] - order: 5 - - name: SLO 補正を作成する - url: '#create-an-slo-correction' - identifier: service-level-objective-corrections-create-an-slo-correction - parent: service-level-objective-corrections - generated: true - params: versions: - - v1 - operationids: - - CreateSLOCorrection - unstable: [] - order: 1 - - name: すべての SLO 補正を取得する - url: '#get-all-slo-corrections' - identifier: service-level-objective-corrections-get-all-slo-corrections + - v2 parent: service-level-objective-corrections - generated: true + url: '#get-an-slo-correction-for-an-slo' + - generated: true + identifier: service-level-objective-corrections + name: サービスのチェック + url: '#delete-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-create-an-slo-correction + name: SLO 補正を作成する params: - versions: - - v1 operationids: - - ListSLOCorrection + - CreateSLOCorrection + order: 1 unstable: [] - order: 2 - - name: サービスレベル目標(SLO) - url: /api/latest/service-level-objectives/ + versions: + - v2 + parent: service-level-objective-corrections + url: '#create-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-delete-an-slo-correction + name: すべての SLO 補正を取得する + url: '#get-all-slo-corrections' + - generated: true identifier: service-level-objectives - generated: true - - name: Get SLO report status - url: '#get-slo-report-status' - identifier: service-level-objectives-get-slo-report-status - parent: service-level-objectives - generated: true + name: サービスレベル目標(SLO) params: - versions: - - v2 operationids: - - GetSLOReportJobStatus + - DeleteSLOCorrection + order: 2 unstable: - - v2 - order: 102 - - name: Get SLO report - url: '#get-slo-report' - identifier: service-level-objectives-get-slo-report - parent: service-level-objectives - generated: true - params: + - v2 versions: - - v2 - operationids: - - GetSLOReport - unstable: - - v2 - order: 103 - - name: Create a new SLO report - url: '#create-a-new-slo-report' - identifier: service-level-objectives-create-a-new-slo-report - parent: service-level-objectives - generated: true + - v2 + parent: service-level-objective-corrections-delete-an-slo-correction + url: /api/latest/service-level-objectives/ + - generated: true + identifier: service-level-objectives-get-an-slos-history + name: SLO の履歴を取得する params: - versions: - - v2 operationids: - - CreateSLOReportJob + - GetSLOHistory + order: 1 unstable: - - v2 - order: 101 - - name: SLO の履歴を取得する - url: '#get-an-slos-history' - identifier: service-level-objectives-get-an-slos-history - parent: service-level-objectives - generated: true - params: + - v2 versions: - - v1 - operationids: - - GetSLOHistory - unstable: [] - order: 6 - - name: SLO の修正を受ける - url: '#get-corrections-for-an-slo' + - v2 + parent: service-level-objective-corrections-delete-an-slo-correction + url: '#get-an-slos-history' + - generated: true identifier: service-level-objectives-get-corrections-for-an-slo - parent: service-level-objectives - generated: true + name: SLO の修正を受ける + url: '#get-corrections-for-an-slo' + - generated: true + identifier: service-level-objectives-update-an-slo + name: SLO を更新する params: - versions: - - v1 operationids: - - GetSLOCorrections + - CreateSLOCorrection + order: 4 unstable: [] - order: 6 - - name: SLO を更新する + versions: + - v2 + parent: service-level-objectives-get-corrections-for-an-slo url: '#update-an-slo' - identifier: service-level-objectives-update-an-slo - parent: service-level-objectives - generated: true + - generated: true + identifier: service-level-objectives-get-an-slos-details + name: SLO の詳細を取得する params: - versions: - - v1 operationids: - - UpdateSLO - unstable: [] + - GetSLO order: 3 - - name: SLO の詳細を取得する + unstable: [] + versions: + - v2 + parent: service-level-objectives-get-corrections-for-an-slo url: '#get-an-slos-details' - identifier: service-level-objectives-get-an-slos-details - parent: service-level-objectives - generated: true + - generated: true + identifier: service-level-objectives-delete-an-slo + name: SLO を削除する params: - versions: - - v1 operationids: - - GetSLO + - DeleteSLO + order: 5 unstable: [] - order: 4 - - name: SLO を削除する + versions: + - v2 + parent: service-level-objectives-get-corrections-for-an-slo url: '#delete-an-slo' - identifier: service-level-objectives-delete-an-slo - parent: service-level-objectives - generated: true + - generated: true + identifier: service-level-objectives-search-for-slos + name: SLO の検索 params: - versions: - - v1 operationids: - - DeleteSLO + - SearchSLO + order: 1 unstable: [] - order: 5 - - name: SLO の検索 + versions: + - v2 + parent: service-level-objectives-get-corrections-for-an-slo url: '#search-for-slos' - identifier: service-level-objectives-search-for-slos - parent: service-level-objectives - generated: true + - generated: true + identifier: service-level-objectives-check-if-slos-can-be-safely-deleted + name: SLO を安全に削除できるかどうかを確認する params: - versions: - - v1 operationids: - - SearchSLO + - CheckCanDeleteSLO + order: 2 unstable: [] - order: 1 - - name: SLO を安全に削除できるかどうかを確認する + versions: + - v2 + parent: service-level-objectives-get-corrections-for-an-slo url: '#check-if-slos-can-be-safely-deleted' - identifier: service-level-objectives-check-if-slos-can-be-safely-deleted - parent: service-level-objectives - generated: true + - generated: true + identifier: slack-integration + name: SLO タイムフレームを一括削除する + url: '#bulk-delete-slo-timeframes' + - generated: true + identifier: service-level-objectives-get-slo-report-status + name: SLO レポートステータスを取得 params: + operationids: + - GetSLOReportJobStatus + order: 102 + unstable: + - v2 versions: - - v1 + - v2 + parent: slack-integration + url: '#get-slo-report-status' + - generated: true + identifier: service-level-objectives-get-slo-report + name: SLO レポートを取得 + params: operationids: - - CheckCanDeleteSLO - unstable: [] - order: 7 - - name: SLO タイムフレームを一括削除する - url: '#bulk-delete-slo-timeframes' - identifier: service-level-objectives-bulk-delete-slo-timeframes - parent: service-level-objectives - generated: true + - GetSLOReport + order: 103 + unstable: + - v2 + versions: + - v2 + parent: slack-integration + url: '#get-slo-report' + - generated: true + identifier: service-level-objectives-create-a-new-slo-report + name: 新しい SLO レポートを作成 params: + operationids: + - CreateSLOReportJob + order: 101 + unstable: + - v2 versions: - - v1 + - v2 + parent: slack-integration + url: '#create-a-new-slo-report' + - generated: true + identifier: service-level-objectives-create-an-slo-object + name: SLO オブジェクトを作成する + params: operationids: - - DeleteSLOTimeframeInBulk + - CreateSLO + order: 6 unstable: [] - order: 8 - - name: SLO オブジェクトを作成する + versions: + - v2 + parent: slack-integration url: '#create-an-slo-object' - identifier: service-level-objectives-create-an-slo-object - parent: service-level-objectives - generated: true + - generated: true + identifier: service-level-objectives-get-all-slos + name: すべての SLO を取得する params: - versions: - - v1 operationids: - - CreateSLO + - ListSLOs + order: 6 unstable: [] - order: 1 - - name: すべての SLO を取得する + versions: + - v2 + parent: slack-integration url: '#get-all-slos' - identifier: service-level-objectives-get-all-slos - parent: service-level-objectives - generated: true + - generated: true + identifier: slack-integration + name: Slack インテグレーション params: - versions: - - v1 operationids: - - ListSLOs + - DeleteSLOTimeframeInBulk + order: 3 unstable: [] - order: 2 - - name: Slack インテグレーション + versions: + - v2 + parent: slack-integration url: /api/latest/slack-integration/ - identifier: slack-integration - generated: true - - name: Slack インテグレーションチャンネルの更新 - url: '#update-a-slack-integration-channel' + - generated: true identifier: slack-integration-update-a-slack-integration-channel - parent: slack-integration - generated: true + name: Slack インテグレーションチャンネルの更新 params: - versions: - - v1 operationids: - - UpdateSlackIntegrationChannel - unstable: [] + - UpdateSlackIntegrationChannel order: 4 - - name: Slack インテグレーションチャンネルの取得 - url: '#get-a-slack-integration-channel' - identifier: slack-integration-get-a-slack-integration-channel + unstable: [] + versions: + - v2 parent: slack-integration - generated: true + url: '#update-a-slack-integration-channel' + - generated: true + identifier: slack-integration-get-a-slack-integration-channel + name: Slack インテグレーションチャンネルの取得 params: - versions: - - v1 operationids: - - GetSlackIntegrationChannel + - GetSlackIntegrationChannel + order: 5 unstable: [] - order: 3 - - name: Slack インテグレーションチャンネルの削除 - url: '#remove-a-slack-integration-channel' - identifier: slack-integration-remove-a-slack-integration-channel + versions: + - v2 parent: slack-integration - generated: true + url: '#get-a-slack-integration-channel' + - generated: true + identifier: slack-integration-remove-a-slack-integration-channel + name: Slack インテグレーションチャンネルの削除 params: - versions: - - v1 operationids: - - RemoveSlackIntegrationChannel + - CreateSLO + order: 1 unstable: [] - order: 5 - - name: Slack インテグレーションチャンネルの作成 - url: '#create-a-slack-integration-channel' - identifier: slack-integration-create-a-slack-integration-channel + versions: + - v2 parent: slack-integration - generated: true + url: '#remove-a-slack-integration-channel' + - generated: true + identifier: slack-integration-create-a-slack-integration-channel + name: Slack インテグレーションチャンネルの作成 params: - versions: - - v1 operationids: - - CreateSlackIntegrationChannel + - CreateSlackIntegrationChannel + order: 7 unstable: [] - order: 2 - - name: Slack インテグレーションのすべてのチャンネルを取得 - url: '#get-all-channels-in-a-slack-integration' - identifier: slack-integration-get-all-channels-in-a-slack-integration + versions: + - v2 parent: slack-integration - generated: true + url: '#create-a-slack-integration-channel' + - generated: true + identifier: slack-integration-get-all-channels-in-a-slack-integration + name: Slack インテグレーションのすべてのチャンネルを取得 params: - versions: - - v1 operationids: - - GetSlackIntegrationChannels + - GetSlackIntegrationChannels + order: 8 unstable: [] - order: 1 - - name: Slack インテグレーションにチャネルを追加 - url: '#add-channels-to-slack-integration' - identifier: slack-integration-add-channels-to-slack-integration + versions: + - v2 parent: slack-integration - generated: true + url: '#get-all-channels-in-a-slack-integration' + - generated: true + identifier: slack-integration-add-channels-to-slack-integration + name: Slack インテグレーションにチャネルを追加 params: - versions: - - v1 operationids: - - UpdateSlackIntegration + - UpdateSlackIntegration + order: 1 unstable: [] - order: 2 - - name: Slack インテグレーションの作成 - url: '#create-a-slack-integration' - identifier: slack-integration-create-a-slack-integration + versions: + - v2 parent: slack-integration - generated: true + url: '#add-channels-to-slack-integration' + - generated: true + identifier: slack-integration-create-a-slack-integration + name: Slack インテグレーションの作成 params: - versions: - - v1 operationids: - - CreateSlackIntegration + - CreateSlackIntegration + order: 2 unstable: [] - order: 3 - - name: Slack インテグレーションに関する情報を取得する - url: '#get-info-about-a-slack-integration' - identifier: slack-integration-get-info-about-a-slack-integration + versions: + - v2 parent: slack-integration - generated: true + url: '#create-a-slack-integration' + - generated: true + identifier: 外形監視 + name: Slack インテグレーションに関する情報を取得する + url: '#get-info-about-a-slack-integration' + - generated: true + identifier: slack-integration-delete-a-slack-integration + name: Slack インテグレーションの削除 params: - versions: - - v1 operationids: - - GetSlackIntegration - unstable: [] + - DeleteSlackIntegration order: 4 - - name: Slack インテグレーションの削除 + unstable: [] + versions: + - v2 + parent: 外形監視 url: '#delete-a-slack-integration' - identifier: slack-integration-delete-a-slack-integration - parent: slack-integration - generated: true + - generated: true + identifier: スナップショット + name: スナップショット params: - versions: - - v1 operationids: - - DeleteSlackIntegration + - CreateSlackIntegration + order: 3 unstable: [] - order: 1 - - name: Snapshots + versions: + - v2 + parent: 外形監視 url: /api/latest/snapshots/ - identifier: snapshots - generated: true - - name: グラフのスナップショットを撮る - url: '#take-graph-snapshots' + - generated: true identifier: snapshots-take-graph-snapshots - parent: snapshots - generated: true + name: グラフのスナップショットを撮る params: + operationids: + - GetGraphSnapshot + order: 5 + unstable: [] versions: - - v1 + - v2 + parent: 外形監視 + url: '#take-graph-snapshots' + - generated: true + identifier: 外形監視 + name: Synthetics + params: operationids: - - GetGraphSnapshot + - DeleteSlackIntegration + order: 2 unstable: [] - order: 1 - - name: Synthetics + versions: + - v2 + parent: 外形監視 url: /api/latest/synthetics/ - identifier: synthetics - generated: true - - name: オンデマンド同時実行の上限の新しい値を保存する - url: '#save-new-value-for-on-demand-concurrency-cap' + - generated: true identifier: synthetics-save-new-value-for-on-demand-concurrency-cap - parent: synthetics - generated: true + name: オンデマンド同時実行の上限の新しい値を保存する params: - versions: - - v2 operationids: - - SetOnDemandConcurrencyCap + - GetSlackIntegration + order: 1 unstable: [] - order: 11 - - name: オンデマンド同時実行の上限を取得する - url: '#get-the-on-demand-concurrency-cap' + versions: + - v2 + parent: 外形監視 + url: '#save-new-value-for-on-demand-concurrency-cap' + - generated: true identifier: synthetics-get-the-on-demand-concurrency-cap - parent: synthetics - generated: true + name: オンデマンド同時実行の上限を取得する params: - versions: - - v2 operationids: - - GetOnDemandConcurrencyCap + - GetOnDemandConcurrencyCap + order: 2 unstable: [] - order: 10 - - name: グローバル変数を編集する - url: '#edit-a-global-variable' + versions: + - v2 + parent: 外形監視 + url: '#get-the-on-demand-concurrency-cap' + - generated: true identifier: synthetics-edit-a-global-variable - parent: synthetics - generated: true + name: グローバル変数を編集する params: - versions: - - v1 operationids: - - EditGlobalVariable + - CreateSlackIntegration + order: 3 unstable: [] - order: 21 - - name: グローバル変数を取得する - url: '#get-a-global-variable' + versions: + - v2 + parent: 外形監視 + url: '#edit-a-global-variable' + - generated: true identifier: synthetics-get-a-global-variable - parent: synthetics - generated: true + name: グローバル変数を取得する params: - versions: - - v1 operationids: - - GetGlobalVariable + - GetGlobalVariable + order: 4 unstable: [] - order: 20 - - name: グローバル変数を削除する - url: '#delete-a-global-variable' + versions: + - v2 + parent: 外形監視 + url: '#get-a-global-variable' + - generated: true identifier: synthetics-delete-a-global-variable - parent: synthetics - generated: true + name: グローバル変数を削除する params: - versions: - - v1 operationids: - - DeleteGlobalVariable + - DeleteGlobalVariable + order: 1 unstable: [] - order: 22 - - name: グローバル変数を作成する - url: '#create-a-global-variable' - identifier: synthetics-create-a-global-variable - parent: synthetics - generated: true - params: versions: - - v1 - operationids: - - CreateGlobalVariable - unstable: [] - order: 19 - - name: すべてのグローバル変数を取得する - url: '#get-all-global-variables' + - v2 + parent: 外形監視 + url: '#delete-a-global-variable' + - generated: true + identifier: 外形監視 + name: グローバル変数を作成する + url: '#create-a-global-variable' + - generated: true identifier: synthetics-get-all-global-variables - parent: synthetics - generated: true + name: すべてのグローバル変数を取得する params: - versions: - - v1 operationids: - - ListGlobalVariables + - ListGlobalVariables + order: 1 unstable: [] - order: 18 - - name: テストを一時停止または開始する + versions: + - v2 + parent: 外形監視 + url: '#get-all-global-variables' + - generated: true + identifier: rum + name: テストを一時停止または開始する url: '#pause-or-start-a-test' - identifier: synthetics-pause-or-start-a-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-an-api-test-result + name: API テスト結果を取得 params: - versions: - - v1 operationids: - - UpdateTestPauseStatus + - GetAPITestResult + order: 11 unstable: [] - order: 6 - - name: API テスト結果を取得 + versions: + - v2 + parent: rum url: '#get-an-api-test-result' - identifier: synthetics-get-an-api-test-result - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-an-api-tests-latest-results-summaries + name: API テストの最新結果概要を取得 params: - versions: - - v1 operationids: - - GetAPITestResult + - GetAPITestLatestResults + order: 10 unstable: [] - order: 12 - - name: API テストの最新結果概要を取得 - url: '#get-an-api-tests-latest-results-summaries' - identifier: synthetics-get-an-api-tests-latest-results-summaries - parent: synthetics - generated: true - params: versions: - - v1 - operationids: - - GetAPITestLatestResults - unstable: [] - order: 14 - - name: テストの編集 - url: '#edit-a-test' + - v2 + parent: rum + url: '#get-an-api-tests-latest-results-summaries' + - generated: true identifier: synthetics-edit-a-test - parent: synthetics - generated: true + name: テストの編集 params: - versions: - - v1 operationids: - - UpdateTest + - UpdateTest + order: 21 unstable: [] - order: 30 - - name: Patch a Synthetic test - url: '#patch-a-synthetic-test' - identifier: synthetics-patch-a-synthetic-test - parent: synthetics - generated: true - params: versions: - - v1 + - v2 + parent: rum + url: '#edit-a-test' + - generated: true + identifier: synthetics-get-a-test-configuration + name: テストコンフィギュレーションを取得する + params: operationids: - - PatchTest + - GetTest + order: 20 unstable: [] - order: 5 - - name: テストコンフィギュレーションを取得する + versions: + - v2 + parent: rum url: '#get-a-test-configuration' - identifier: synthetics-get-a-test-configuration - parent: synthetics - generated: true + - generated: true + identifier: synthetics-trigger-tests-from-ci/cd-pipelines + name: CI/CD パイプラインからのテストをトリガー params: - versions: - - v1 operationids: - - GetTest + - TriggerCITests + order: 22 unstable: [] - order: 28 - - name: CI/CD パイプラインからのテストをトリガー + versions: + - v2 + parent: rum url: '#trigger-tests-from-ci/cd-pipelines' - identifier: synthetics-trigger-tests-from-ci/cd-pipelines - parent: synthetics - generated: true + - generated: true + identifier: synthetics-trigger-synthetic-tests + name: Synthetic テストをトリガーする params: - versions: - - v1 operationids: - - TriggerCITests + - TriggerTests + order: 19 unstable: [] - order: 7 - - name: Trigger Synthetic tests + versions: + - v2 + parent: rum url: '#trigger-synthetic-tests' - identifier: synthetics-trigger-synthetic-tests - parent: synthetics - generated: true + - generated: true + identifier: synthetics-delete-tests + name: テストの削除 params: - versions: - - v1 operationids: - - TriggerTests + - DeleteTests + order: 18 unstable: [] - order: 8 - - name: テストの削除 + versions: + - v2 + parent: rum url: '#delete-tests' - identifier: synthetics-delete-tests - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-a-browser-test-result + name: ブラウザテストの結果を取得 params: - versions: - - v1 operationids: - - DeleteTests + - GetBrowserTestResult + order: 6 unstable: [] - order: 17 - - name: ブラウザテストの結果を取得 + versions: + - v2 + parent: rum url: '#get-a-browser-test-result' - identifier: synthetics-get-a-browser-test-result - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-a-browser-tests-latest-results-summaries + name: ブラウザテストの最新結果概要を取得 params: - versions: - - v1 operationids: - - GetBrowserTestResult + - GetBrowserTestLatestResults + order: 12 unstable: [] - order: 13 - - name: ブラウザテストの最新結果概要を取得 + versions: + - v2 + parent: rum url: '#get-a-browser-tests-latest-results-summaries' - identifier: synthetics-get-a-browser-tests-latest-results-summaries - parent: synthetics - generated: true + - generated: true + identifier: synthetics-edit-a-browser-test + name: ブラウザテストを編集する params: - versions: - - v1 operationids: - - GetBrowserTestLatestResults + - UpdateBrowserTest + order: 14 unstable: [] - order: 15 - - name: ブラウザテストを編集する + versions: + - v2 + parent: rum url: '#edit-a-browser-test' - identifier: synthetics-edit-a-browser-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-a-browser-test + name: ブラウザテストを取得 params: - versions: - - v1 operationids: - - UpdateBrowserTest + - GetBrowserTest + order: 30 unstable: [] - order: 4 - - name: ブラウザテストを取得 + versions: + - v2 + parent: rum url: '#get-a-browser-test' - identifier: synthetics-get-a-browser-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-create-a-browser-test + name: ブラウザテストを作成 params: - versions: - - v1 operationids: - - GetBrowserTest + - CreateSyntheticsBrowserTest + order: 5 unstable: [] - order: 10 - - name: ブラウザテストを作成 + versions: + - v2 + parent: rum url: '#create-a-browser-test' - identifier: synthetics-create-a-browser-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-edit-an-api-test + name: API テストを編集する params: - versions: - - v1 operationids: - - CreateSyntheticsBrowserTest + - UpdateAPITest + order: 28 unstable: [] - order: 2 - - name: API テストを編集する + versions: + - v2 + parent: rum url: '#edit-an-api-test' - identifier: synthetics-edit-an-api-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-an-api-test + name: API テストを取得する params: - versions: - - v1 operationids: - - UpdateAPITest + - GetAPITest + order: 7 unstable: [] - order: 3 - - name: API テストを取得する + versions: + - v2 + parent: rum url: '#get-an-api-test' - identifier: synthetics-get-an-api-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-create-an-api-test + name: API テストの作成 params: - versions: - - v1 operationids: - - GetAPITest + - CreateSyntheticsAPITest + order: 8 unstable: [] - order: 9 - - name: API テストの作成 + versions: + - v2 + parent: rum url: '#create-an-api-test' - identifier: synthetics-create-an-api-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-create-a-test + name: テストの作成 params: - versions: - - v1 operationids: - - CreateSyntheticsAPITest + - CreateTest + order: 17 unstable: [] - order: 1 - - name: テストの作成 + versions: + - v2 + parent: rum url: '#create-a-test' - identifier: synthetics-create-a-test - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-the-list-of-all-synthetic-tests + name: Get the list of all Synthetic tests params: - versions: - - v1 operationids: - - CreateTest + - ListTests + order: 13 unstable: [] - order: 31 - - name: Get the list of all Synthetic tests + versions: + - v2 + parent: rum url: '#get-the-list-of-all-synthetic-tests' - identifier: synthetics-get-the-list-of-all-synthetic-tests - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-the-default-locations + name: デフォルトの場所を取得 params: - versions: - - v1 operationids: - - ListTests + - GetSyntheticsDefaultLocations + order: 15 unstable: [] - order: 11 - - name: Get the default locations + versions: + - v2 + parent: rum url: '#get-the-default-locations' - identifier: synthetics-get-the-default-locations - parent: synthetics - generated: true + - generated: true + identifier: synthetics-edit-a-private-location + name: プライベートロケーションを編集 params: - versions: - - v1 operationids: - - GetSyntheticsDefaultLocations + - UpdatePrivateLocation + order: 4 unstable: [] - order: 29 - - name: プライベートロケーションを編集 + versions: + - v2 + parent: rum url: '#edit-a-private-location' - identifier: synthetics-edit-a-private-location - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-a-private-location + name: プライベートロケーションを取得 params: - versions: - - v1 operationids: - - UpdatePrivateLocation + - GetPrivateLocation + order: 10 unstable: [] - order: 25 - - name: プライベートロケーションを取得 + versions: + - v2 + parent: rum url: '#get-a-private-location' - identifier: synthetics-get-a-private-location - parent: synthetics - generated: true + - generated: true + identifier: synthetics-delete-a-private-location + name: プライベートロケーションを削除 params: - versions: - - v1 operationids: - - GetPrivateLocation + - DeletePrivateLocation + order: 2 unstable: [] - order: 24 - - name: プライベートロケーションを削除 + versions: + - v2 + parent: rum url: '#delete-a-private-location' - identifier: synthetics-delete-a-private-location - parent: synthetics - generated: true + - generated: true + identifier: synthetics-create-a-private-location + name: プライベートロケーションを作成 params: - versions: - - v1 operationids: - - DeletePrivateLocation + - CreatePrivateLocation + order: 3 unstable: [] - order: 27 - - name: プライベートロケーションを作成 + versions: + - v2 + parent: rum url: '#create-a-private-location' - identifier: synthetics-create-a-private-location - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-all-locations-public-and-private + name: ロケーションをすべて取得する(パブリックおよびプライベート) params: - versions: - - v1 operationids: - - CreatePrivateLocation + - ListLocations + order: 9 unstable: [] - order: 23 - - name: ロケーションをすべて取得する(パブリックおよびプライベート) + versions: + - v2 + parent: rum url: '#get-all-locations-public-and-private' - identifier: synthetics-get-all-locations-public-and-private - parent: synthetics - generated: true + - generated: true + identifier: synthetics-get-details-of-batch + name: バッチの詳細の取得 params: - versions: - - v1 operationids: - - ListLocations + - GetSyntheticsCIBatch + order: 1 unstable: [] - order: 26 - - name: バッチの詳細の取得 + versions: + - v2 + parent: rum url: '#get-details-of-batch' - identifier: synthetics-get-details-of-batch - parent: synthetics - generated: true + - generated: true + identifier: タグ + name: タグ params: - versions: - - v1 operationids: - - GetSyntheticsCIBatch + - CreatePrivateLocation + order: 31 unstable: [] - order: 16 - - name: Tags + versions: + - v2 + parent: rum url: /api/latest/tags/ - identifier: tags - generated: true - - name: ホストタグの更新 - url: '#update-host-tags' + - generated: true identifier: tags-update-host-tags - parent: tags - generated: true + name: ホストタグの更新 params: - versions: - - v1 operationids: - - UpdateHostTags + - UpdateHostTags + order: 11 unstable: [] - order: 4 - - name: ホストへのタグの追加 - url: '#add-tags-to-a-host' + versions: + - v2 + parent: rum + url: '#update-host-tags' + - generated: true identifier: tags-add-tags-to-a-host - parent: tags - generated: true + name: ホストへのタグの追加 params: - versions: - - v1 operationids: - - CreateHostTags + - CreateHostTags + order: 29 unstable: [] - order: 3 - - name: ホストタグの取得 - url: '#get-host-tags' + versions: + - v2 + parent: rum + url: '#add-tags-to-a-host' + - generated: true identifier: tags-get-host-tags - parent: tags - generated: true + name: ホストタグの取得 params: - versions: - - v1 operationids: - - GetHostTags + - CreateHostTags + order: 25 unstable: [] - order: 2 - - name: ホストタグの削除 - url: '#remove-host-tags' + versions: + - v2 + parent: rum + url: '#get-host-tags' + - generated: true identifier: tags-remove-host-tags - parent: tags - generated: true + name: ホストタグの削除 params: - versions: - - v1 operationids: - - DeleteHostTags + - GetSyntheticsCIBatch + order: 24 unstable: [] - order: 5 - - name: タグを取得する - url: '#get-tags' + versions: + - v2 + parent: rum + url: '#remove-host-tags' + - generated: true identifier: tags-get-tags - parent: tags - generated: true + name: タグを取得する params: + operationids: + - ListHostTags + order: 27 + unstable: [] versions: - - v1 + - v2 + parent: rum + url: '#get-tags' + - generated: true + identifier: タイムボード + name: タイムボード + params: operationids: - - ListHostTags + - GetHostTags + order: 23 unstable: [] - order: 1 - - name: Timeboards + versions: + - v2 + parent: rum url: /api/latest/timeboards/ - identifier: timeboards - generated: true - - name: 使用料のメータリング - url: /api/latest/usage-metering/ + - generated: true identifier: usage-metering - generated: true - - name: Get projected cost across your account - url: '#get-projected-cost-across-your-account' - identifier: usage-metering-get-projected-cost-across-your-account - parent: usage-metering - generated: true + name: 使用料のメータリング params: - versions: - - v2 operationids: - - GetProjectedCost + - DeleteHostTags + order: 26 unstable: [] - order: 7 - - name: 観測可能性パイプラインの 1 時間単位使用量の取得 - url: '#get-hourly-usage-for-observability-pipelines' + versions: + - v2 + parent: rum + url: /api/latest/usage-metering/ + - generated: true identifier: usage-metering-get-hourly-usage-for-observability-pipelines - parent: usage-metering - generated: true + name: 観測可能性パイプラインの 1 時間単位使用量の取得 params: - versions: - - v2 operationids: - - GetUsageObservabilityPipelines + - GetUsageObservabilityPipelines + order: 16 unstable: [] - order: 39 - - name: Lambda のトレースされた起動の 1 時間単位使用量の取得 - url: '#get-hourly-usage-for-lambda-traced-invocations' + versions: + - v2 + parent: rum + url: '#get-hourly-usage-for-observability-pipelines' + - generated: true identifier: usage-metering-get-hourly-usage-for-lambda-traced-invocations - parent: usage-metering - generated: true + name: Lambda のトレースされた起動の 1 時間単位使用量の取得 + url: '#get-hourly-usage-for-lambda-traced-invocations' + - generated: true + identifier: usage-metering-get-hourly-usage-by-product-family + name: 製品ファミリーの時間単位使用量の取得 params: - versions: - - v2 operationids: - - GetUsageLambdaTracedInvocations + - ListHostTags + order: 4 unstable: [] - order: 37 - - name: 製品ファミリーの時間単位使用量の取得 + versions: + - v2 + parent: usage-metering-get-hourly-usage-for-lambda-traced-invocations url: '#get-hourly-usage-by-product-family' - identifier: usage-metering-get-hourly-usage-by-product-family - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-historical-cost-across-your-account + name: アカウントの過去のコストを取得 params: - versions: - - v2 operationids: - - GetHourlyUsage + - GetHostTags + order: 3 unstable: [] - order: 1 - - name: アカウントの過去のコストを取得 + versions: + - v2 + parent: usage-metering-get-hourly-usage-for-lambda-traced-invocations url: '#get-historical-cost-across-your-account' - identifier: usage-metering-get-historical-cost-across-your-account - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-estimated-cost-across-your-account + name: アカウントの推定コストを取得 params: - versions: - - v2 operationids: - - GetHistoricalCostByOrg + - GetEstimatedCostByOrg + order: 2 unstable: [] - order: 5 - - name: アカウントの推定コストを取得 + versions: + - v2 + parent: usage-metering-get-hourly-usage-for-lambda-traced-invocations url: '#get-estimated-cost-across-your-account' - identifier: usage-metering-get-estimated-cost-across-your-account - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-cost-across-multi-org-account + name: マルチ組織のアカウントのコストを取得 params: - versions: - - v2 operationids: - - GetEstimatedCostByOrg + - GetCostByOrg + order: 5 unstable: [] - order: 6 - - name: マルチオーガニゼーションのアカウントのコストを取得 + versions: + - v2 + parent: usage-metering-get-hourly-usage-for-lambda-traced-invocations url: '#get-cost-across-multi-org-account' - identifier: usage-metering-get-cost-across-multi-org-account - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-application-security + name: アプリケーションセキュリティの時間単位使用量の取得 params: - versions: - - v2 operationids: - - GetCostByOrg + - GetUsageApplicationSecurityMonitoring + order: 1 unstable: [] - order: 45 - - name: アプリケーションセキュリティの時間単位使用量の取得 + versions: + - v2 + parent: usage-metering-get-hourly-usage-for-lambda-traced-invocations url: '#get-hourly-usage-for-application-security' - identifier: usage-metering-get-hourly-usage-for-application-security - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-all-custom-metrics-by-hourly-average + name: 時間平均に基づくすべてのカスタムメトリクスを取得 + url: '#get-all-custom-metrics-by-hourly-average' + - generated: true + identifier: ユーザー + name: カスタムメトリクスの 1 時間あたり使用量の取得 + url: '#get-hourly-usage-for-custom-metrics' + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-browser-checks + name: Synthetics ブラウザチェックの 1 時間ごとの使用量を取得する params: - versions: - - v2 operationids: - - GetUsageApplicationSecurityMonitoring + - GetUsageSyntheticsBrowser + order: 7 unstable: [] - order: 38 - - name: Get Monthly Cost Attribution - url: '#get-monthly-cost-attribution' - identifier: usage-metering-get-monthly-cost-attribution - parent: usage-metering - generated: true - params: - versions: - - v2 - operationids: - - GetMonthlyCostAttribution - unstable: - - v2 - order: 5 - - name: Get active billing dimensions for cost attribution - url: '#get-active-billing-dimensions-for-cost-attribution' - identifier: usage-metering-get-active-billing-dimensions-for-cost-attribution - parent: usage-metering - generated: true - params: - versions: - - v2 - operationids: - - GetActiveBillingDimensions - unstable: - - v2 - order: 5 - - name: 時間平均に基づくすべてのカスタムメトリクスを取得 - url: '#get-all-custom-metrics-by-hourly-average' - identifier: usage-metering-get-all-custom-metrics-by-hourly-average - parent: usage-metering - generated: true - params: - versions: - - v1 - operationids: - - GetUsageTopAvgMetrics - unstable: [] - order: 7 - - name: カスタムメトリクスの 1 時間あたり使用量の取得 - url: '#get-hourly-usage-for-custom-metrics' - identifier: usage-metering-get-hourly-usage-for-custom-metrics - parent: usage-metering - generated: true - params: versions: - - v1 - operationids: - - GetUsageTimeseries - unstable: [] - order: 13 - - name: Synthetics ブラウザチェックの 1 時間ごとの使用量を取得する + - v2 + parent: ユーザー url: '#get-hourly-usage-for-synthetics-browser-checks' - identifier: usage-metering-get-hourly-usage-for-synthetics-browser-checks - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-api-checks + name: Synthetics API チェックの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageSyntheticsBrowser + - GetUsageSyntheticsAPI + order: 39 unstable: [] - order: 17 - - name: Synthetics API チェックの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-synthetics-api-checks' - identifier: usage-metering-get-hourly-usage-for-synthetics-api-checks - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-checks + name: Lambda がトレースした呼び出しの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageSyntheticsAPI + - GetUsageSynthetics + order: 37 unstable: [] - order: 16 - - name: Synthetics チェックの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-synthetics-checks' - identifier: usage-metering-get-hourly-usage-for-synthetics-checks - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-usage-across-your-account + name: アカウント全体の使用量を取得する params: - versions: - - v1 operationids: - - GetUsageSynthetics + - GetUsageSummary + order: 1 unstable: [] - order: 15 - - name: アカウント全体の使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-usage-across-your-account' - identifier: usage-metering-get-usage-across-your-account - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-snmp-devices + name: SNMP デバイスの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageSummary + - GetUsageSNMP + order: 5 unstable: [] - order: 8 - - name: SNMP デバイスの 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-snmp-devices' - identifier: usage-metering-get-hourly-usage-for-snmp-devices - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-sensitive-data-scanner + name: 機密データスキャナーの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageSNMP + - GetUsageSDS + order: 6 unstable: [] - order: 24 - - name: 機密データスキャナーの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-sensitive-data-scanner' - identifier: usage-metering-get-hourly-usage-for-sensitive-data-scanner - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-rum-sessions + name: RUM セッションの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageSDS + - GetUsageRumSessions + order: 45 unstable: [] - order: 32 - - name: RUM セッションの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-rum-sessions' - identifier: usage-metering-get-hourly-usage-for-rum-sessions - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-rum-units + name: RUM ユニットの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageRumSessions + - GetUsageRumUnits + order: 38 unstable: [] - order: 20 - - name: RUM ユニットの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-rum-units' - identifier: usage-metering-get-hourly-usage-for-rum-units - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-profiled-hosts + name: プロファイルされたホストの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageRumUnits - unstable: [] - order: 33 - - name: プロファイルされたホストの 1 時間あたり使用量の取得 + - GetUsageProfiling + order: 5 + unstable: + - v2 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-profiled-hosts' - identifier: usage-metering-get-hourly-usage-for-profiled-hosts - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-online-archive + name: オンラインアーカイブの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageProfiling - unstable: [] - order: 34 - - name: オンラインアーカイブの 1 時間ごとの使用量を取得する + - GetUsageOnlineArchive + order: 5 + unstable: + - v2 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-online-archive' - identifier: usage-metering-get-hourly-usage-for-online-archive - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-network-hosts + name: ネットワークホストの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageOnlineArchive + - GetUsageNetworkHosts + order: 7 unstable: [] - order: 36 - - name: ネットワークホストの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-network-hosts' - identifier: usage-metering-get-hourly-usage-for-network-hosts - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-network-flows + name: ネットワークフローの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageNetworkHosts + - GetUsageNetworkFlows + order: 13 unstable: [] - order: 21 - - name: ネットワークフローの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-network-flows' - identifier: usage-metering-get-hourly-usage-for-network-flows - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-monthly-usage-attribution + name: 月次使用量属性を取得する params: - versions: - - v1 operationids: - - GetUsageNetworkFlows + - GetMonthlyUsageAttribution + order: 17 unstable: [] - order: 22 - - name: 月次使用量属性を取得する + versions: + - v2 + parent: ユーザー url: '#get-monthly-usage-attribution' - identifier: usage-metering-get-monthly-usage-attribution - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-logs-by-index + name: インデックスごとにログの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetMonthlyUsageAttribution + - GetUsageLogsByIndex + order: 16 unstable: [] - order: 3 - - name: インデックスごとにログの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-logs-by-index' - identifier: usage-metering-get-hourly-usage-for-logs-by-index - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-logs-usage-by-retention + name: 保持によるログの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageLogsByIndex + - GetUsageLogsByRetention + order: 15 unstable: [] - order: 9 - - name: 保持によるログの 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-logs-usage-by-retention' - identifier: usage-metering-get-hourly-logs-usage-by-retention - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-logs + name: ログの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageLogsByRetention + - GetUsageLogs + order: 8 unstable: [] - order: 10 - - name: ログの 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-logs' - identifier: usage-metering-get-hourly-usage-for-logs - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-iot + name: IoT の 1 時間あたりの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageLogs + - GetUsageInternetOfThings + order: 24 unstable: [] - order: 12 - - name: IoT の 1 時間あたりの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-iot' - identifier: usage-metering-get-hourly-usage-for-iot - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-ingested-spans + name: 取り込まれたスパンの 1 時間あたり使用量を取得 params: - versions: - - v1 operationids: - - GetUsageInternetOfThings + - GetIngestedSpans + order: 32 unstable: [] - order: 27 - - name: 取り込まれたスパンの 1 時間あたり使用量を取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-ingested-spans' - identifier: usage-metering-get-hourly-usage-for-ingested-spans - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-indexed-spans + name: インデックス化されたスパンの 1 時間あたり使用量を取得 params: - versions: - - v1 operationids: - - GetIngestedSpans + - GetUsageIndexedSpans + order: 20 unstable: [] - order: 25 - - name: インデックス化されたスパンの 1 時間あたり使用量を取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-indexed-spans' - identifier: usage-metering-get-hourly-usage-for-indexed-spans - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-incident-management + name: インシデント管理の 1 時間あたり使用量を取得 params: - versions: - - v1 operationids: - - GetUsageIndexedSpans + - GetIncidentManagement + order: 33 unstable: [] - order: 14 - - name: インシデント管理の 1 時間あたり使用量を取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-incident-management' - identifier: usage-metering-get-hourly-usage-for-incident-management - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-attribution + name: 1 時間ごとの使用量属性を取得する params: - versions: - - v1 operationids: - - GetIncidentManagement + - GetHourlyUsageAttribution + order: 34 unstable: [] - order: 26 - - name: 1 時間ごとの使用量属性を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-attribution' - identifier: usage-metering-get-hourly-usage-attribution - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-hosts-and-containers + name: ホストとコンテナの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetHourlyUsageAttribution + - GetUsageHosts + order: 36 unstable: [] - order: 2 - - name: ホストとコンテナの 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-hosts-and-containers' - identifier: usage-metering-get-hourly-usage-for-hosts-and-containers - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-fargate + name: Fargate の 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageHosts + - GetUsageFargate + order: 21 unstable: [] - order: 11 - - name: Fargate の 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-fargate' - identifier: usage-metering-get-hourly-usage-for-fargate - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-database-monitoring + name: データベースモニタリングの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageFargate + - GetUsageDBM + order: 22 unstable: [] - order: 18 - - name: データベースモニタリングの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-database-monitoring' - identifier: usage-metering-get-hourly-usage-for-database-monitoring - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-cloud-workload-security + name: クラウドワークロードセキュリティの 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageDBM + - GetUsageCWS + order: 3 unstable: [] - order: 31 - - name: クラウドワークロードセキュリティの 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-cloud-workload-security' - identifier: usage-metering-get-hourly-usage-for-cloud-workload-security - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-csm-pro + name: CSM Pro の 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageCWS + - GetUsageCloudSecurityPostureManagement + order: 9 unstable: [] - order: 30 - - name: Get hourly usage for CSM Pro + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-csm-pro' - identifier: usage-metering-get-hourly-usage-for-csm-pro - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-ci-visibility + name: CI Visibility の 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageCloudSecurityPostureManagement + - GetUsageCIApp + order: 10 unstable: [] - order: 28 - - name: CI Visibility の 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-ci-visibility' - identifier: usage-metering-get-hourly-usage-for-ci-visibility - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-billable-usage-across-your-account + name: アカウント全体の請求対象使用量を取得します params: - versions: - - v1 operationids: - - GetUsageCIApp + - GetUsageBillableSummary + order: 12 unstable: [] - order: 35 - - name: アカウント全体の請求対象使用量を取得します + versions: + - v2 + parent: ユーザー url: '#get-billable-usage-across-your-account' - identifier: usage-metering-get-billable-usage-across-your-account - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-lambda + name: Lambda の 1 時間ごとの使用量を取得する params: - versions: - - v1 operationids: - - GetUsageBillableSummary + - GetUsageLambda + order: 27 unstable: [] - order: 5 - - name: Lambda の 1 時間ごとの使用量を取得する + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-lambda' - identifier: usage-metering-get-hourly-usage-for-lambda - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-hourly-usage-for-audit-logs + name: 監査ログの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageLambda + - GetUsageAuditLogs + order: 25 unstable: [] - order: 19 - - name: 監査ログの 1 時間あたり使用量の取得 + versions: + - v2 + parent: ユーザー url: '#get-hourly-usage-for-audit-logs' - identifier: usage-metering-get-hourly-usage-for-audit-logs - parent: usage-metering - generated: true + - generated: true + identifier: usage-metering-get-usage-attribution + name: 使用属性を取得します params: - versions: - - v1 operationids: - - GetUsageAuditLogs + - GetUsageAttribution + order: 14 unstable: [] - order: 40 - - name: 分析されたログの 1 時間あたり使用量の取得 - url: '#get-hourly-usage-for-analyzed-logs' + versions: + - v2 + parent: ユーザー + url: '#get-usage-attribution' + - generated: true identifier: usage-metering-get-hourly-usage-for-analyzed-logs - parent: usage-metering - generated: true + name: 分析されたログの 1 時間あたり使用量の取得 params: - versions: - - v1 operationids: - - GetUsageAnalyzedLogs + - GetUsageAnalyzedLogs + order: 26 unstable: [] - order: 23 - - name: 特定の月刊カスタムレポートを取得します - url: '#get-specified-monthly-custom-reports' + versions: + - v2 + parent: ユーザー + url: '#get-hourly-usage-for-analyzed-logs' + - generated: true identifier: usage-metering-get-specified-monthly-custom-reports - parent: usage-metering - generated: true + name: 特定の月刊カスタムレポートを取得します params: - versions: - - v1 operationids: - - GetSpecifiedMonthlyCustomReports + - GetSpecifiedMonthlyCustomReports + order: 2 unstable: [] - order: 44 - - name: 利用可能な月刊カスタムレポートのリストを取得します - url: '#get-the-list-of-available-monthly-custom-reports' + versions: + - v2 + parent: ユーザー + url: '#get-specified-monthly-custom-reports' + - generated: true identifier: usage-metering-get-the-list-of-available-monthly-custom-reports - parent: usage-metering - generated: true + name: 利用可能な月刊カスタムレポートのリストを取得します params: - versions: - - v1 operationids: - - GetMonthlyCustomReports + - GetMonthlyCustomReports + order: 11 unstable: [] - order: 43 - - name: 指定された日刊カスタムレポートを取得 - url: '#get-specified-daily-custom-reports' + versions: + - v2 + parent: ユーザー + url: '#get-the-list-of-available-monthly-custom-reports' + - generated: true identifier: usage-metering-get-specified-daily-custom-reports - parent: usage-metering - generated: true + name: 指定された日刊カスタムレポートを取得 params: - versions: - - v1 operationids: - - GetSpecifiedDailyCustomReports + - GetSpecifiedDailyCustomReports + order: 18 unstable: [] - order: 42 - - name: 利用可能な日刊カスタムレポートのリストを取得 - url: '#get-the-list-of-available-daily-custom-reports' + versions: + - v2 + parent: ユーザー + url: '#get-specified-daily-custom-reports' + - generated: true identifier: usage-metering-get-the-list-of-available-daily-custom-reports - parent: usage-metering - generated: true + name: 利用可能な日刊カスタムレポートのリストを取得 params: + operationids: + - GetDailyCustomReports + order: 31 + unstable: [] versions: - - v1 + - v2 + parent: ユーザー + url: '#get-the-list-of-available-daily-custom-reports' + - generated: true + identifier: ユーザー + name: ユーザー + params: operationids: - - GetDailyCustomReports + - GetMonthlyCustomReports + order: 30 unstable: [] - order: 41 - - name: Users + versions: + - v2 + parent: ユーザー url: /api/latest/users/ - identifier: users - generated: true - - name: ユーザーアクセス許可を取得する - url: '#get-a-user-permissions' + - generated: true identifier: users-get-a-user-permissions - parent: users - generated: true + name: ユーザーアクセス許可を取得する params: - versions: - - v2 operationids: - - ListUserPermissions + - ListUserPermissions + order: 28 unstable: [] - order: 7 - - name: ユーザー組織を取得する - url: '#get-a-user-organization' + versions: + - v2 + parent: ユーザー + url: '#get-a-user-permissions' + - generated: true identifier: users-get-a-user-organization - parent: users - generated: true + name: ユーザー組織を取得する params: - versions: - - v2 operationids: - - ListUserOrganizations + - ListUserOrganizations + order: 35 unstable: [] - order: 6 - - name: ユーザー招待を取得 - url: '#get-a-user-invitation' + versions: + - v2 + parent: ユーザー + url: '#get-a-user-organization' + - generated: true identifier: users-get-a-user-invitation - parent: users - generated: true + name: ユーザー招待を取得 params: - versions: - - v2 operationids: - - GetInvitation + - ListUserOrganizations + order: 5 unstable: [] - order: 9 - - name: 招待メールを送信する - url: '#send-invitation-emails' - identifier: users-send-invitation-emails - parent: users - generated: true - params: versions: - - v2 + - v2 + parent: ユーザー + url: '#get-a-user-invitation' + - generated: true + identifier: users-send-invitation-emails + name: Lambda の 1 時間あたり使用量の取得 + params: operationids: - - SendInvitations + - ListUserOrganizations + order: 19 unstable: [] - order: 8 - - name: ユーザーを更新する - url: '#update-a-user' + versions: + - v2 + parent: ユーザー + url: '#send-invitation-emails' + - generated: true identifier: users-update-a-user - parent: users - generated: true + name: ユーザーを更新する params: - versions: - - v1 - - v2 operationids: - - UpdateUser + - ListUserOrganizations + order: 40 unstable: [] - order: 4 - - name: ユーザーの詳細を取得する - url: '#get-user-details' - identifier: users-get-user-details - parent: users - generated: true - params: versions: - - v1 - - v2 + - v2 + parent: ユーザー + url: '#update-a-user' + - generated: true + identifier: users-disable-a-user + name: ユーザーを無効にする + params: operationids: - - GetUser + - ListUserOrganizations + order: 23 unstable: [] - order: 3 - - name: ユーザーを無効にする + versions: + - v2 + parent: ユーザー url: '#disable-a-user' - identifier: users-disable-a-user - parent: users - generated: true + - generated: true + identifier: users-create-a-user + name: ユーザーを作成する params: - versions: - - v1 - - v2 operationids: - - DisableUser + - CreateUser + order: 44 unstable: [] - order: 5 - - name: ユーザーを作成する + versions: + - v2 + parent: ユーザー url: '#create-a-user' - identifier: users-create-a-user - parent: users - generated: true + - generated: true + identifier: users-list-all-users + name: すべてのユーザーを一覧表示する params: - versions: - - v1 - - v2 operationids: - - CreateUser + - ListUsers + order: 43 unstable: [] - order: 1 - - name: すべてのユーザーを一覧表示する + versions: + - v2 + parent: ユーザー url: '#list-all-users' - identifier: users-list-all-users - parent: users - generated: true + - generated: true + identifier: webhooks-integration + name: Webhook インテグレーション params: - versions: - - v1 - - v2 operationids: - - ListUsers + - DisableUser + order: 42 unstable: [] - order: 2 - - name: Webhook インテグレーション + versions: + - v2 + parent: ユーザー url: /api/latest/webhooks-integration/ - identifier: webhooks-integration - generated: true - - name: Webhook を更新する - url: '#update-a-webhook' + - generated: true identifier: webhooks-integration-update-a-webhook - parent: webhooks-integration - generated: true + name: Webhook を更新する params: - versions: - - v1 operationids: - - UpdateWebhooksIntegration + - UpdateWebhooksIntegration + order: 41 unstable: [] - order: 3 - - name: Webhook インテグレーションを取得する + versions: + - v2 + parent: ユーザー + url: '#update-a-webhook' + - generated: true + identifier: webhooks-integration + name: Webhook インテグレーションを取得する url: '#get-a-webhook-integration' - identifier: webhooks-integration-get-a-webhook-integration - parent: webhooks-integration - generated: true + - generated: true + identifier: webhooks-integration-delete-a-webhook + name: Webhook を削除する params: - versions: - - v1 operationids: - - GetWebhooksIntegration + - GetWebhooksIntegration + order: 7 unstable: [] - order: 2 - - name: Webhook を削除する - url: '#delete-a-webhook' - identifier: webhooks-integration-delete-a-webhook + versions: + - v2 parent: webhooks-integration - generated: true + url: '#delete-a-webhook' + - generated: true + identifier: webhooks-integration-create-a-webhooks-integration + name: Webhook インテグレーションを作成する params: - versions: - - v1 operationids: - - DeleteWebhooksIntegration + - GetWebhooksIntegration + order: 6 unstable: [] - order: 4 - - name: Webhook インテグレーションを作成する - url: '#create-a-webhooks-integration' - identifier: webhooks-integration-create-a-webhooks-integration + versions: + - v2 parent: webhooks-integration - generated: true + url: '#create-a-webhooks-integration' + - generated: true + identifier: webhooks-integration-update-a-custom-variable + name: カスタム変数を更新する params: - versions: - - v1 operationids: - - CreateWebhooksIntegration + - GetWebhooksIntegration + order: 9 unstable: [] - order: 1 - - name: カスタム変数を更新する - url: '#update-a-custom-variable' - identifier: webhooks-integration-update-a-custom-variable + versions: + - v2 parent: webhooks-integration - generated: true + url: '#update-a-custom-variable' + - generated: true + identifier: webhooks-integration-get-a-custom-variable + name: カスタム変数を取得する params: - versions: - - v1 operationids: - - UpdateWebhooksIntegrationCustomVariable + - GetWebhooksIntegration + order: 8 unstable: [] - order: 7 - - name: カスタム変数を取得する - url: '#get-a-custom-variable' - identifier: webhooks-integration-get-a-custom-variable + versions: + - v2 parent: webhooks-integration - generated: true + url: '#get-a-custom-variable' + - generated: true + identifier: webhooks-integration-delete-a-custom-variable + name: カスタム変数を削除する params: - versions: - - v1 operationids: - - GetWebhooksIntegrationCustomVariable + - GetWebhooksIntegration + order: 4 unstable: [] - order: 6 - - name: カスタム変数を削除する - url: '#delete-a-custom-variable' - identifier: webhooks-integration-delete-a-custom-variable + versions: + - v2 + - v2 parent: webhooks-integration - generated: true + url: '#delete-a-custom-variable' + - generated: true + identifier: webhooks-integration-create-a-custom-variable + name: カスタム変数を作成する params: - versions: - - v1 operationids: - - DeleteWebhooksIntegrationCustomVariable + - CreateWebhooksIntegrationCustomVariable + order: 3 unstable: [] - order: 8 - - name: カスタム変数を作成する - url: '#create-a-custom-variable' - identifier: webhooks-integration-create-a-custom-variable + versions: + - v2 + - v2 parent: webhooks-integration - generated: true + url: '#create-a-custom-variable' + - generated: true + identifier: apm-retention-filters + name: APM Retention Filters params: - versions: - - v1 operationids: - - CreateWebhooksIntegrationCustomVariable - unstable: [] + - GetWebhooksIntegrationCustomVariable order: 5 - - name: API Management - url: /api/latest/api-management/ - identifier: api-management - generated: true - - name: Create a new API - url: '#create-a-new-api' - identifier: api-management-create-a-new-api - parent: api-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + - v2 + parent: webhooks-integration + url: /api/latest/apm-retention-filters/ + - generated: true + identifier: apm-retention-filters-update-a-retention-filter + name: 保持フィルターを更新する + params: operationids: - - CreateOpenAPI - unstable: - - v2 + - UpdateApmRetentionFilter order: 1 - - name: Update an API - url: '#update-an-api' - identifier: api-management-update-an-api - parent: api-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + - v2 + parent: webhooks-integration + url: '#update-a-retention-filter' + - generated: true + identifier: apm-retention-filters-get-a-given-apm-retention-filter + name: 特定の APM 保持フィルターを取得する + params: operationids: - - UpdateOpenAPI - unstable: - - v2 + - GetApmRetentionFilter order: 2 - - name: Get an API - url: '#get-an-api' - identifier: api-management-get-an-api - parent: api-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + - v2 + parent: webhooks-integration + url: '#get-a-given-apm-retention-filter' + - generated: true + identifier: apm-retention-filters + name: 保持フィルターを削除する + url: '#delete-a-retention-filter' + - generated: true + identifier: apm-retention-filters-re-order-retention-filters + name: 保持フィルターの並び替え + params: operationids: - - GetOpenAPI - unstable: - - v2 + - GetApmRetentionFilter order: 3 - - name: Delete an API - url: '#delete-an-api' - identifier: api-management-delete-an-api - parent: api-management - generated: true - params: + unstable: [] versions: - - v2 - operationids: - - DeleteOpenAPI - unstable: - - v2 - order: 4 - - name: APM Retention Filters - url: /api/latest/apm-retention-filters/ - identifier: apm-retention-filters - generated: true - - name: Update a retention filter - url: '#update-a-retention-filter' - identifier: apm-retention-filters-update-a-retention-filter + - v2 parent: apm-retention-filters - generated: true + url: '#re-order-retention-filters' + - generated: true + identifier: apm-retention-filters-create-a-retention-filter + name: 保持フィルターを作成する params: - versions: - - v2 operationids: - - UpdateApmRetentionFilter + - GetApmRetentionFilter + order: 2 unstable: [] - order: 4 - - name: Get a given APM retention filter - url: '#get-a-given-apm-retention-filter' - identifier: apm-retention-filters-get-a-given-apm-retention-filter + versions: + - v2 parent: apm-retention-filters - generated: true + url: '#create-a-retention-filter' + - generated: true + identifier: apm-retention-filters-list-all-apm-retention-filters + name: すべての APM 保持フィルターを一覧表示する params: - versions: - - v2 operationids: - - GetApmRetentionFilter + - GetApmRetentionFilter + order: 4 unstable: [] - order: 3 - - name: Delete a retention filter - url: '#delete-a-retention-filter' - identifier: apm-retention-filters-delete-a-retention-filter + versions: + - v2 parent: apm-retention-filters - generated: true + url: '#list-all-apm-retention-filters' + - generated: true + identifier: 監査 + name: 監査 params: - versions: - - v2 operationids: - - DeleteApmRetentionFilter + - GetApmRetentionFilter + order: 1 unstable: [] - order: 5 - - name: Re-order retention filters - url: '#re-order-retention-filters' - identifier: apm-retention-filters-re-order-retention-filters + versions: + - v2 parent: apm-retention-filters - generated: true + url: /api/latest/audit/ + - generated: true + identifier: audit-search-audit-logs-events + name: 監査ログイベントの検索 params: - versions: - - v2 operationids: - - ReorderApmRetentionFilters + - SearchAuditLogs + order: 7 unstable: [] - order: 6 - - name: Create a retention filter - url: '#create-a-retention-filter' - identifier: apm-retention-filters-create-a-retention-filter + versions: + - v2 parent: apm-retention-filters - generated: true + url: '#search-audit-logs-events' + - generated: true + identifier: audit-get-a-list-of-audit-logs-events + name: 監査ログイベントのリストを取得 params: - versions: - - v2 operationids: - - CreateApmRetentionFilter + - ListAuditLogs + order: 6 unstable: [] - order: 2 - - name: List all APM retention filters - url: '#list-all-apm-retention-filters' - identifier: apm-retention-filters-list-all-apm-retention-filters + versions: + - v2 parent: apm-retention-filters - generated: true + url: '#get-a-list-of-audit-logs-events' + - generated: true + identifier: authn-mappings + name: AuthN Mappings params: - versions: - - v2 operationids: - - ListApmRetentionFilters + - ListAuditLogs + order: 8 unstable: [] - order: 1 - - name: Audit - url: /api/latest/audit/ - identifier: audit - generated: true - - name: 監査ログイベントの検索 - url: '#search-audit-logs-events' - identifier: audit-search-audit-logs-events - parent: audit - generated: true - params: versions: - - v2 - operationids: - - SearchAuditLogs - unstable: [] - order: 1 - - name: 監査ログイベントのリストを取得 - url: '#get-a-list-of-audit-logs-events' - identifier: audit-get-a-list-of-audit-logs-events - parent: audit - generated: true + - v2 + parent: apm-retention-filters + url: /api/latest/authn-mappings/ + - generated: true + identifier: authn-mappings-edit-an-authn-mapping + name: AuthN Mapping を編集 params: - versions: - - v2 operationids: - - ListAuditLogs + - ListAuditLogs + order: 5 unstable: [] - order: 2 - - name: AuthN Mappings - url: /api/latest/authn-mappings/ - identifier: authn-mappings - generated: true - - name: AuthN Mapping を編集 + versions: + - v2 + parent: apm-retention-filters url: '#edit-an-authn-mapping' - identifier: authn-mappings-edit-an-authn-mapping - parent: authn-mappings - generated: true + - generated: true + identifier: api-management + name: API Management + url: /api/latest/api-management/ + - generated: true + identifier: api-management-create-a-new-api + name: 新しい API を作成する params: + operationids: + - CreateOpenAPI + order: 1 + unstable: + - v2 versions: - - v2 + - v2 + parent: api-management + url: '#create-a-new-api' + - generated: true + identifier: api-management-update-an-api + name: API を更新する + params: operationids: - - UpdateAuthNMapping - unstable: [] + - UpdateOpenAPI order: 2 - - name: AuthN Mapping を取得 - url: '#get-an-authn-mapping-by-uuid' - identifier: authn-mappings-get-an-authn-mapping-by-uuid - parent: authn-mappings - generated: true + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#update-an-api' + - generated: true + identifier: api-management-get-an-api + name: API を取得する params: + operationids: + - GetOpenAPI + order: 3 + unstable: + - v2 versions: - - v2 + - v2 + parent: api-management + url: '#get-an-api' + - generated: true + identifier: api-management-delete-an-api + name: API を削除する + params: operationids: - - GetAuthNMapping - unstable: [] - order: 1 - - name: AuthN Mapping を削除 - url: '#delete-an-authn-mapping' + - DeleteOpenAPI + order: 4 + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#delete-an-api' + - generated: true + identifier: authn-mappings-create-an-authn-mapping + name: AuthN Mapping を取得 + url: '#get-an-authn-mapping-by-uuid' + - generated: true identifier: authn-mappings-delete-an-authn-mapping - parent: authn-mappings - generated: true + name: AuthN Mapping を削除 params: - versions: - - v2 operationids: - - DeleteAuthNMapping + - ListAuditLogs + order: 4 unstable: [] - order: 3 - - name: AuthN Mapping を作成 - url: '#create-an-authn-mapping' + versions: + - v2 + parent: authn-mappings-create-an-authn-mapping + url: '#delete-an-authn-mapping' + - generated: true identifier: authn-mappings-create-an-authn-mapping - parent: authn-mappings - generated: true + name: AuthN Mapping を作成 params: - versions: - - v2 operationids: - - CreateAuthNMapping + - ListAuditLogs + order: 3 unstable: [] - order: 5 - - name: すべての AuthN Mappings のリスト - url: '#list-all-authn-mappings' + versions: + - v2 + parent: authn-mappings-create-an-authn-mapping + url: '#create-an-authn-mapping' + - generated: true identifier: authn-mappings-list-all-authn-mappings - parent: authn-mappings - generated: true + name: すべての AuthN Mappings のリスト params: - versions: - - v2 operationids: - - ListAuthNMappings + - GetAuthNMapping + order: 5 unstable: [] - order: 4 - - name: CI Visibility パイプライン - url: /api/latest/ci-visibility-pipelines/ + versions: + - v2 + parent: authn-mappings-create-an-authn-mapping + url: '#list-all-authn-mappings' + - generated: true identifier: ci-visibility-pipelines - generated: true - - name: パイプラインイベントの検索 - url: '#search-pipelines-events' - identifier: ci-visibility-pipelines-search-pipelines-events - parent: ci-visibility-pipelines - generated: true + name: CI Visibility パイプライン params: + operationids: + - GetAuthNMapping + order: 6 + unstable: [] versions: - - v2 + - v2 + parent: authn-mappings-create-an-authn-mapping + url: /api/latest/ci-visibility-pipelines/ + - generated: true + identifier: ci-visibility-pipelines-search-pipelines-events + name: パイプラインイベントの検索 + params: operationids: - - SearchCIAppPipelineEvents + - ListAuditLogs + order: 2 unstable: [] - order: 3 - - name: パイプラインイベント一覧の取得 - url: '#get-a-list-of-pipelines-events' + versions: + - v2 + parent: authn-mappings-create-an-authn-mapping + url: '#search-pipelines-events' + - generated: true identifier: ci-visibility-pipelines-get-a-list-of-pipelines-events - parent: ci-visibility-pipelines - generated: true + name: パイプラインイベント一覧の取得 params: - versions: - - v2 operationids: - - ListCIAppPipelineEvents + - ListCIAppPipelineEvents + order: 1 unstable: [] - order: 2 - - name: Aggregate pipelines events + versions: + - v2 + parent: authn-mappings-create-an-authn-mapping + url: '#get-a-list-of-pipelines-events' + - generated: true + identifier: authn-mappings-delete-an-authn-mapping + name: Aggregate pipelines events url: '#aggregate-pipelines-events' - identifier: ci-visibility-pipelines-aggregate-pipelines-events - parent: ci-visibility-pipelines - generated: true + - generated: true + identifier: ci-visibility-pipelines-send-pipeline-event + name: パイプラインイベントの送信 params: - versions: - - v2 operationids: - - AggregateCIAppPipelineEvents + - ListCIAppPipelineEvents + order: 1 unstable: [] - order: 4 - - name: Send pipeline event + versions: + - v2 + parent: authn-mappings-delete-an-authn-mapping url: '#send-pipeline-event' - identifier: ci-visibility-pipelines-send-pipeline-event - parent: ci-visibility-pipelines - generated: true + - generated: true + identifier: ci-visibility-tests + name: CI Visibility テスト params: - versions: - - v2 operationids: - - CreateCIAppPipelineEvent + - ListCIAppPipelineEvents + order: 2 unstable: [] - order: 1 - - name: CI Visibility テスト + versions: + - v2 + parent: authn-mappings-delete-an-authn-mapping url: /api/latest/ci-visibility-tests/ - identifier: ci-visibility-tests - generated: true - - name: テストイベントの検索 + - generated: true + identifier: ci-visibility-tests-get-a-list-of-tests-events + name: テストイベントの検索 url: '#search-tests-events' - identifier: ci-visibility-tests-search-tests-events - parent: ci-visibility-tests - generated: true + - generated: true + identifier: ci-visibility-tests-get-a-list-of-tests-events + name: テストイベント一覧の取得 params: - versions: - - v2 operationids: - - SearchCIAppTestEvents - unstable: [] + - ListCIAppPipelineEvents order: 2 - - name: テストイベント一覧の取得 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests-get-a-list-of-tests-events url: '#get-a-list-of-tests-events' - identifier: ci-visibility-tests-get-a-list-of-tests-events - parent: ci-visibility-tests - generated: true + - generated: true + identifier: ci-visibility-tests-aggregate-tests-events + name: テストイベントの集計 + params: + operationids: + - ListCIAppTestEvents + order: 1 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests-get-a-list-of-tests-events + url: '#aggregate-tests-events' + - generated: true + identifier: cloud-workload-security + name: Cloud Workload Security + params: + operationids: + - ListCIAppTestEvents + order: 3 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests-get-a-list-of-tests-events + url: /api/latest/cloud-workload-security/ + - generated: true + identifier: cloud-workload-security-update-a-cloud-workload-security-agent-rule + name: Cloud Workload Security Agent ルールを更新 + params: + operationids: + - ListCIAppTestEvents + order: 5 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests-get-a-list-of-tests-events + url: '#update-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-get-a-cloud-workload-security-agent-rule + name: Cloud Workload Security Agent ルールを取得 + params: + operationids: + - ListCIAppTestEvents + order: 4 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests-get-a-list-of-tests-events + url: '#get-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + name: Cloud Workload Security Agent ルールを削除 + url: '#delete-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-create-a-cloud-workload-security-agent-rule + name: Cloud Workload Security Agent ルールを作成 params: + operationids: + - GetCloudWorkloadSecurityAgentRule + order: 3 + unstable: [] + versions: + - v2 + parent: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + url: '#create-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-get-all-cloud-workload-security-agent-rules + name: すべての Cloud Workload Security Agent ルールを取得 + params: + operationids: + - GetCloudWorkloadSecurityAgentRule + order: 2 + unstable: [] versions: - - v2 + - v2 + parent: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + url: '#get-all-cloud-workload-security-agent-rules' + - generated: true + identifier: cloud-workload-security-get-the-latest-cloud-workload-security-policy + name: 最新のクラウドワークロードセキュリティポリシーを取得 + params: operationids: - - ListCIAppTestEvents + - GetCloudWorkloadSecurityAgentRule + order: 4 unstable: [] + versions: + - v2 + parent: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + url: '#get-the-latest-cloud-workload-security-policy' + - generated: true + identifier: cloudflare-integration + name: Cloudflare インテグレーション + params: + operationids: + - ListCIAppTestEvents order: 1 - - name: テストイベントの集計 - url: '#aggregate-tests-events' - identifier: ci-visibility-tests-aggregate-tests-events - parent: ci-visibility-tests - generated: true + unstable: [] + versions: + - v2 + parent: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + url: /api/latest/cloudflare-integration/ + - generated: true + identifier: cloudflare-integration + name: Cloudflare アカウントを更新する + url: '#update-cloudflare-account' + - generated: true + identifier: cloudflare-integration-get-cloudflare-account + name: Cloudflare アカウントを取得する params: + operationids: + - GetCloudflareAccount + order: 2 + unstable: [] versions: - - v2 + - v2 + parent: cloudflare-integration + url: '#get-cloudflare-account' + - generated: true + identifier: cloudflare-integration-delete-cloudflare-account + name: Cloudflare アカウントを削除する + params: operationids: - - AggregateCIAppTestEvents + - GetCloudflareAccount + order: 1 unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#delete-cloudflare-account' + - generated: true + identifier: cloudflare-integration-add-cloudflare-account + name: Cloudflare アカウントを追加する + params: + operationids: + - GetCloudflareAccount order: 3 - - name: CSM Threats - url: /api/latest/csm-threats/ + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#add-cloudflare-account' + - generated: true identifier: csm-threats - generated: true - - name: Case Management + name: CSM Threats + url: /api/latest/csm-threats/ + - generated: true + identifier: tracing_compatibility_php + name: Go url: /api/latest/case-management/ - identifier: case-management - generated: true - - name: Unassign case - url: '#unassign-case' + - generated: true identifier: case-management-unassign-case - parent: case-management - generated: true + name: ケースの割り当てを解除する params: - versions: - - v2 operationids: - - UnassignCase - unstable: [] + - UnassignCase order: 7 - - name: Unarchive case - url: '#unarchive-case' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#unassign-case' + - generated: true identifier: case-management-unarchive-case - parent: case-management - generated: true + name: ケースのアーカイブを解除する params: - versions: - - v2 operationids: - - UnarchiveCase - unstable: [] + - UnarchiveCase order: 9 - - name: Update case status - url: '#update-case-status' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#unarchive-case' + - generated: true identifier: case-management-update-case-status - parent: case-management - generated: true + name: ケースステータスを更新する params: - versions: - - v2 operationids: - - UpdateStatus - unstable: [] + - UpdateStatus order: 4 - - name: Update case priority - url: '#update-case-priority' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#update-case-status' + - generated: true identifier: case-management-update-case-priority - parent: case-management - generated: true + name: ケースの優先度を更新する params: - versions: - - v2 operationids: - - UpdatePriority - unstable: [] + - UpdatePriority order: 5 - - name: Assign case - url: '#assign-case' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#update-case-priority' + - generated: true identifier: case-management-assign-case - parent: case-management - generated: true + name: ケースを割り当てる params: - versions: - - v2 operationids: - - AssignCase - unstable: [] + - AssignCase order: 6 - - name: Archive case - url: '#archive-case' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#assign-case' + - generated: true identifier: case-management-archive-case - parent: case-management - generated: true + name: ケースをアーカイブする params: - versions: - - v2 operationids: - - ArchiveCase - unstable: [] + - ArchiveCase order: 8 - - name: Get the details of a case - url: '#get-the-details-of-a-case' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#archive-case' + - generated: true identifier: case-management-get-the-details-of-a-case - parent: case-management - generated: true + name: ケースの詳細を取得する params: - versions: - - v2 operationids: - - GetCase - unstable: [] + - GetCase order: 3 - - name: Get the details of a project - url: '#get-the-details-of-a-project' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#get-the-details-of-a-case' + - generated: true identifier: case-management-get-the-details-of-a-project - parent: case-management - generated: true + name: プロジェクトの詳細を取得する params: - versions: - - v2 operationids: - - GetProject - unstable: [] + - GetProject order: 3 - - name: Remove a project - url: '#remove-a-project' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#get-the-details-of-a-project' + - generated: true identifier: case-management-remove-a-project - parent: case-management - generated: true + name: プロジェクトを削除する params: - versions: - - v2 operationids: - - DeleteProject - unstable: [] + - DeleteProject order: 4 - - name: Create a project - url: '#create-a-project' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#remove-a-project' + - generated: true identifier: case-management-create-a-project - parent: case-management - generated: true + name: プロジェクトを作成する params: - versions: - - v2 operationids: - - CreateProject - unstable: [] + - CreateProject order: 1 - - name: Get all projects - url: '#get-all-projects' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#create-a-project' + - generated: true identifier: case-management-get-all-projects - parent: case-management - generated: true + name: すべてのプロジェクトを取得する params: - versions: - - v2 operationids: - - GetProjects - unstable: [] + - GetProjects order: 2 - - name: Create a case - url: '#create-a-case' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#get-all-projects' + - generated: true identifier: case-management-create-a-case - parent: case-management - generated: true + name: ケースの作成 params: - versions: - - v2 operationids: - - CreateCase - unstable: [] + - CreateCase order: 2 - - name: Search cases - url: '#search-cases' + unstable: [] + versions: + - v2 + parent: tracing_compatibility_php + url: '#create-a-case' + - generated: true identifier: case-management-search-cases - parent: case-management - generated: true + name: ケースを検索 params: - versions: - - v2 operationids: - - SearchCases - unstable: [] + - SearchCases order: 1 - - name: Cloud Cost Management - url: /api/latest/cloud-cost-management/ - identifier: cloud-cost-management - generated: true - - name: Cloud Cost Enabled - url: '#cloud-cost-enabled' - identifier: cloud-cost-management-cloud-cost-enabled - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: tracing_compatibility_php + url: '#search-cases' + - generated: true + identifier: confluent-cloud-update-resource-in-confluent-account + name: Cloudflare アカウントを一覧表示する + url: '#list-cloudflare-accounts' + - generated: true + identifier: confluent-cloud + name: Confluent Cloud + params: operationids: - - GetCloudCostActivity - unstable: [] + - GetCloudflareAccount order: 10 - - name: Update Cloud Cost Management Azure config - url: '#update-cloud-cost-management-azure-config' - identifier: cloud-cost-management-update-cloud-cost-management-azure-config - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: /api/latest/confluent-cloud/ + - generated: true + identifier: confluent-cloud-update-resource-in-confluent-account + name: Confluent アカウントのリソースを更新する + params: operationids: - - UpdateCostAzureUCConfigs - unstable: [] + - UpdateCostAWSCURConfig order: 7 - - name: Delete Cloud Cost Management Azure config - url: '#delete-cloud-cost-management-azure-config' - identifier: cloud-cost-management-delete-cloud-cost-management-azure-config - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#update-resource-in-confluent-account' + - generated: true + identifier: confluent-cloud-get-resource-from-confluent-account + name: Confluent アカウントからリソースを取得する + params: operationids: - - DeleteCostAzureUCConfig - unstable: [] + - GetConfluentResource order: 9 - - name: Create Cloud Cost Management Azure configs - url: '#create-cloud-cost-management-azure-configs' - identifier: cloud-cost-management-create-cloud-cost-management-azure-configs - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#get-resource-from-confluent-account' + - generated: true + identifier: confluent-cloud-delete-resource-from-confluent-account + name: Confluent アカウントからリソースを削除する + params: operationids: - - CreateCostAzureUCConfigs - unstable: [] + - GetConfluentResource order: 8 - - name: List Cloud Cost Management Azure configs - url: '#list-cloud-cost-management-azure-configs' - identifier: cloud-cost-management-list-cloud-cost-management-azure-configs - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#delete-resource-from-confluent-account' + - generated: true + identifier: confluent-cloud-add-resource-to-confluent-account + name: Confluent アカウントにリソースを追加する + params: operationids: - - ListCostAzureUCConfigs - unstable: [] + - GetConfluentResource order: 6 - - name: List related AWS accounts - url: '#list-related-aws-accounts' - identifier: cloud-cost-management-list-related-aws-accounts - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#add-resource-to-confluent-account' + - generated: true + identifier: confluent-cloud-list-confluent-account-resources + name: Confluent アカウントリソースを一覧表示する + params: operationids: - - ListAWSRelatedAccounts - unstable: [] + - GetCloudflareAccount order: 5 - - name: Update Cloud Cost Management AWS CUR config - url: '#update-cloud-cost-management-aws-cur-config' - identifier: cloud-cost-management-update-cloud-cost-management-aws-cur-config - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#list-confluent-account-resources' + - generated: true + identifier: confluent-cloud-update-confluent-account + name: Confluent アカウントを更新する + params: operationids: - - UpdateCostAWSCURConfig - unstable: [] + - GetConfluentResource order: 2 - - name: Delete Cloud Cost Management AWS CUR config - url: '#delete-cloud-cost-management-aws-cur-config' - identifier: cloud-cost-management-delete-cloud-cost-management-aws-cur-config - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#update-confluent-account' + - generated: true + identifier: confluent-cloud-get-confluent-account + name: Confluent アカウントを取得する + params: operationids: - - DeleteCostAWSCURConfig - unstable: [] + - GetCloudflareAccount order: 4 - - name: Create Cloud Cost Management AWS CUR config - url: '#create-cloud-cost-management-aws-cur-config' - identifier: cloud-cost-management-create-cloud-cost-management-aws-cur-config - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#get-confluent-account' + - generated: true + identifier: confluent-cloud-delete-confluent-account + name: Confluent アカウントを削除する + params: operationids: - - CreateCostAWSCURConfig - unstable: [] + - DeleteConfluentAccount order: 3 - - name: List Cloud Cost Management AWS CUR configs - url: '#list-cloud-cost-management-aws-cur-configs' - identifier: cloud-cost-management-list-cloud-cost-management-aws-cur-configs - parent: cloud-cost-management - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#delete-confluent-account' + - generated: true + identifier: confluent-cloud-add-confluent-account + name: Confluent アカウントを追加する + params: operationids: - - ListCostAWSCURConfigs - unstable: [] + - CreateConfluentAccount order: 1 - - name: クラウドワークロードセキュリティ - url: /api/latest/cloud-workload-security/ - identifier: cloud-workload-security - generated: true - - name: Cloud Workload Security Agent ルールを更新 - url: '#update-a-cloud-workload-security-agent-rule' - identifier: cloud-workload-security-update-a-cloud-workload-security-agent-rule - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-resource-in-confluent-account + url: '#add-confluent-account' + - generated: true + identifier: confluent-cloud-update-confluent-account + name: Cloud Workload Security + url: '#list-confluent-accounts' + - generated: true + identifier: fastly-integration + name: Fastly インテグレーション + params: operationids: - - UpdateCloudWorkloadSecurityAgentRule - unstable: [] + - DeleteConfluentAccount order: 5 - - name: Cloud Workload Security Agent ルールを取得 - url: '#get-a-cloud-workload-security-agent-rule' - identifier: cloud-workload-security-get-a-cloud-workload-security-agent-rule - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: /api/latest/fastly-integration/ + - generated: true + identifier: fastly-integration-update-fastly-service + name: Fastly サービスを更新する + params: operationids: - - GetCloudWorkloadSecurityAgentRule - unstable: [] + - GetCloudflareAccount order: 2 - - name: Cloud Workload Security Agent ルールを削除 - url: '#delete-a-cloud-workload-security-agent-rule' - identifier: cloud-workload-security-delete-a-cloud-workload-security-agent-rule - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: '#update-fastly-service' + - generated: true + identifier: fastly-integration-get-fastly-service + name: Fastly サービスを取得する + params: operationids: - - DeleteCloudWorkloadSecurityAgentRule - unstable: [] + - ListConfluentAccount order: 6 - - name: Cloud Workload Security Agent ルールを作成 - url: '#create-a-cloud-workload-security-agent-rule' - identifier: cloud-workload-security-create-a-cloud-workload-security-agent-rule - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: '#get-fastly-service' + - generated: true + identifier: fastly-integration-delete-fastly-service + name: Fastly サービスを削除する + params: operationids: - - CreateCloudWorkloadSecurityAgentRule - unstable: [] + - ListConfluentAccount order: 4 - - name: すべての Cloud Workload Security Agent ルールを取得 - url: '#get-all-cloud-workload-security-agent-rules' - identifier: cloud-workload-security-get-all-cloud-workload-security-agent-rules - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: '#delete-fastly-service' + - generated: true + identifier: fastly-integration-add-fastly-service + name: Fastly サービスを追加する + params: operationids: - - ListCloudWorkloadSecurityAgentRules - unstable: [] + - ListConfluentAccount order: 3 - - name: 最新のクラウドワークロードセキュリティポリシーを取得 - url: '#get-the-latest-cloud-workload-security-policy' - identifier: cloud-workload-security-get-the-latest-cloud-workload-security-policy - parent: cloud-workload-security - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: '#add-fastly-service' + - generated: true + identifier: fastly-integration-list-fastly-services + name: Fastly サービスを一覧表示する + params: operationids: - - DownloadCloudWorkloadPolicyFile - unstable: [] + - ListConfluentAccount order: 1 - - name: Get the latest CSM Threats policy - url: '#get-the-latest-csm-threats-policy' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#list-fastly-services' + - generated: true identifier: cloud-workload-security-get-the-latest-csm-threats-policy - parent: cloud-workload-security - generated: true + name: 最新の CSM Threats ポリシーを取得 params: - versions: - - v2 operationids: - - DownloadCSMThreatsPolicy - unstable: [] + - DownloadCSMThreatsPolicy order: 1 - - name: Update a CSM Threats Agent rule - url: '#update-a-csm-threats-agent-rule' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#get-the-latest-csm-threats-policy' + - generated: true identifier: cloud-workload-security-update-a-csm-threats-agent-rule - parent: cloud-workload-security - generated: true + name: CSM Threats Agent ルールを更新 params: - versions: - - v2 operationids: - - UpdateCSMThreatsAgentRule - unstable: [] + - UpdateCSMThreatsAgentRule order: 5 - - name: Get a CSM Threats Agent rule - url: '#get-a-csm-threats-agent-rule' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#update-a-csm-threats-agent-rule' + - generated: true identifier: cloud-workload-security-get-a-csm-threats-agent-rule - parent: cloud-workload-security - generated: true + name: CSM Threats Agent ルールを取得 params: - versions: - - v2 operationids: - - GetCSMThreatsAgentRule - unstable: [] + - GetCSMThreatsAgentRule order: 2 - - name: Delete a CSM Threats Agent rule - url: '#delete-a-csm-threats-agent-rule' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#get-a-csm-threats-agent-rule' + - generated: true identifier: cloud-workload-security-delete-a-csm-threats-agent-rule - parent: cloud-workload-security - generated: true + name: CSM Threats Agent ルールを削除 params: - versions: - - v2 operationids: - - DeleteCSMThreatsAgentRule - unstable: [] + - DeleteCSMThreatsAgentRule order: 6 - - name: Create a CSM Threats Agent rule - url: '#create-a-csm-threats-agent-rule' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#delete-a-csm-threats-agent-rule' + - generated: true identifier: cloud-workload-security-create-a-csm-threats-agent-rule - parent: cloud-workload-security - generated: true + name: CSM Threats Agent ルールを作成 params: - versions: - - v2 operationids: - - CreateCSMThreatsAgentRule - unstable: [] + - CreateCSMThreatsAgentRule order: 4 - - name: Get all CSM Threats Agent rules - url: '#get-all-csm-threats-agent-rules' + unstable: [] + versions: + - v2 + parent: confluent-cloud-update-confluent-account + url: '#create-a-csm-threats-agent-rule' + - generated: true identifier: cloud-workload-security-get-all-csm-threats-agent-rules - parent: cloud-workload-security - generated: true + name: すべての CSM Threats Agent ルールを取得 params: - versions: - - v2 operationids: - - ListCSMThreatsAgentRules - unstable: [] + - ListCSMThreatsAgentRules order: 3 - - name: Cloudflare インテグレーション - url: /api/latest/cloudflare-integration/ - identifier: cloudflare-integration - generated: true - - name: Cloudflare アカウントを更新する - url: '#update-cloudflare-account' - identifier: cloudflare-integration-update-cloudflare-account - parent: cloudflare-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: confluent-cloud-update-confluent-account + url: '#get-all-csm-threats-agent-rules' + - generated: true + identifier: fastly-integration-get-fastly-account + name: Fastly アカウントを更新する + url: '#update-fastly-account' + - generated: true + identifier: fastly-integration-get-fastly-account + name: Fastly アカウントを取得する + params: operationids: - - UpdateCloudflareAccount - unstable: [] + - ListConfluentAccount order: 4 - - name: Cloudflare アカウントを取得する - url: '#get-cloudflare-account' - identifier: cloudflare-integration-get-cloudflare-account - parent: cloudflare-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-get-fastly-account + url: '#get-fastly-account' + - generated: true + identifier: fastly-integration-delete-fastly-account + name: Fastly アカウントを削除する + params: operationids: - - GetCloudflareAccount - unstable: [] + - UpdateFastlyService order: 3 - - name: Cloudflare アカウントを削除する - url: '#delete-cloudflare-account' - identifier: cloudflare-integration-delete-cloudflare-account - parent: cloudflare-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-get-fastly-account + url: '#delete-fastly-account' + - generated: true + identifier: fastly-integration-add-fastly-account + name: Fastly アカウントを追加する + params: operationids: - - DeleteCloudflareAccount - unstable: [] + - CreateConfluentAccount order: 5 - - name: Cloudflare アカウントを追加する - url: '#add-cloudflare-account' - identifier: cloudflare-integration-add-cloudflare-account - parent: cloudflare-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-get-fastly-account + url: '#add-fastly-account' + - generated: true + identifier: fastly-integration-list-fastly-accounts + name: Fastly アカウントを一覧表示する + params: operationids: - - CreateCloudflareAccount - unstable: [] + - UpdateFastlyAccount order: 2 - - name: Cloudflare アカウントを一覧表示する - url: '#list-cloudflare-accounts' - identifier: cloudflare-integration-list-cloudflare-accounts - parent: cloudflare-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-get-fastly-account + url: '#list-fastly-accounts' + - generated: true + identifier: ip-allowlist + name: IP 許可リスト + params: operationids: - - ListCloudflareAccounts - unstable: [] + - DeleteConfluentAccount order: 1 - - name: Confluent Cloud - url: /api/latest/confluent-cloud/ - identifier: confluent-cloud - generated: true - - name: Confluent アカウントのリソースを更新する - url: '#update-resource-in-confluent-account' - identifier: confluent-cloud-update-resource-in-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-get-fastly-account + url: /api/latest/ip-allowlist/ + - generated: true + identifier: fastly-integration-delete-fastly-account + name: IP 許可リストを更新する + url: '#update-ip-allowlist' + - generated: true + identifier: ip-allowlist-get-ip-allowlist + name: IP 許可リストを取得する + params: operationids: - - UpdateConfluentResource - unstable: [] + - UpdateIPAllowlist order: 1 - - name: Confluent アカウントからリソースを取得する - url: '#get-resource-from-confluent-account' - identifier: confluent-cloud-get-resource-from-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#get-ip-allowlist' + - generated: true + identifier: incident-services + name: インシデントサービス + params: operationids: - - GetConfluentResource - unstable: [] + - ListConfluentAccount order: 2 - - name: Confluent アカウントからリソースを削除する - url: '#delete-resource-from-confluent-account' - identifier: confluent-cloud-delete-resource-from-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: /api/latest/incident-services/ + - generated: true + identifier: incident-services-update-an-existing-incident-service + name: 既存のインシデントサービスを更新する + params: operationids: - - DeleteConfluentResource - unstable: [] + - UpdateIPAllowlist order: 3 - - name: Confluent アカウントにリソースを追加する - url: '#add-resource-to-confluent-account' - identifier: confluent-cloud-add-resource-to-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#update-an-existing-incident-service' + - generated: true + identifier: incident-services-get-details-of-an-incident-service + name: インシデントサービスの詳細を取得する + params: operationids: - - CreateConfluentResource - unstable: [] + - UpdateIPAllowlist order: 4 - - name: Confluent アカウントリソースを一覧表示する - url: '#list-confluent-account-resources' - identifier: confluent-cloud-list-confluent-account-resources - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#get-details-of-an-incident-service' + - generated: true + identifier: incident-services-delete-an-existing-incident-service + name: 既存のインシデントサービスを削除する + params: operationids: - - ListConfluentResource - unstable: [] + - DeleteIncidentService order: 5 - - name: Confluent アカウントを更新する - url: '#update-confluent-account' - identifier: confluent-cloud-update-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#delete-an-existing-incident-service' + - generated: true + identifier: incident-services-create-a-new-incident-service + name: 新しいインシデントサービスを作成する + params: operationids: - - UpdateConfluentAccount - unstable: [] + - UpdateIPAllowlist order: 6 - - name: Confluent アカウントを取得する - url: '#get-confluent-account' - identifier: confluent-cloud-get-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#create-a-new-incident-service' + - generated: true + identifier: incident-services-get-a-list-of-all-incident-services + name: すべてのインシデントサービスのリストを取得する + params: operationids: - - GetConfluentAccount - unstable: [] + - DeleteIncidentService order: 7 - - name: Confluent アカウントを削除する - url: '#delete-confluent-account' - identifier: confluent-cloud-delete-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#get-a-list-of-all-incident-services' + - generated: true + identifier: incident-teams + name: インシデントチーム + params: operationids: - - DeleteConfluentAccount - unstable: [] + - UpdateIPAllowlist order: 8 - - name: Confluent アカウントを追加する - url: '#add-confluent-account' - identifier: confluent-cloud-add-confluent-account - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: /api/latest/incident-teams/ + - generated: true + identifier: incident-teams-update-an-existing-incident-team + name: 既存のインシデントチームを更新する + params: operationids: - - CreateConfluentAccount - unstable: [] + - DeleteIncidentService order: 9 - - name: Confluent アカウントを一覧表示する - url: '#list-confluent-accounts' - identifier: confluent-cloud-list-confluent-accounts - parent: confluent-cloud - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#update-an-existing-incident-team' + - generated: true + identifier: incident-teams-get-details-of-an-incident-team + name: インシデントチームの詳細を取得する + params: operationids: - - ListConfluentAccount - unstable: [] + - DeleteIncidentService order: 10 - - name: Container Images - url: /api/latest/container-images/ - identifier: container-images - generated: true - - name: Get all Container Images - url: '#get-all-container-images' - identifier: container-images-get-all-container-images - parent: container-images - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: fastly-integration-delete-fastly-account + url: '#get-details-of-an-incident-team' + - generated: true + identifier: incident-services + name: コンテナイメージ + url: '#delete-an-existing-incident-team' + - generated: true + identifier: incident-teams-create-a-new-incident-team + name: 新しいインシデントチームを作成する + params: operationids: - - ListContainerImages - unstable: [] + - CreateIncidentService order: 1 - - name: Containers - url: /api/latest/containers/ - identifier: containers - generated: true - - name: Get All Containers - url: '#get-all-containers' - identifier: containers-get-all-containers - parent: containers - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: incident-services + url: '#create-a-new-incident-team' + - generated: true + identifier: incident-teams + name: すべてのインシデントチームのリストを取得する + url: '#get-a-list-of-all-incident-teams' + - generated: true + identifier: インシデント + name: インシデント + params: operationids: - - ListContainers - unstable: [] + - CreateIncidentTeam order: 1 - - name: DORA Metrics - url: /api/latest/dora-metrics/ - identifier: dora-metrics - generated: true - - name: Send an incident event for DORA Metrics - url: '#send-an-incident-event-for-dora-metrics' - identifier: dora-metrics-send-an-incident-event-for-dora-metrics - parent: dora-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: incident-teams + url: /api/latest/incidents/ + - generated: true + identifier: incidents-get-incident-todo-details + name: OpenTelemetry + url: '#update-an-incident-todo' + - generated: true + identifier: incidents-get-incident-todo-details + name: インシデント Todo の詳細を取得する + params: operationids: - - CreateDORAIncident - unstable: - - v2 + - DeleteIncidentService order: 4 - - name: Send a deployment event for DORA Metrics - url: '#send-a-deployment-event-for-dora-metrics' - identifier: dora-metrics-send-a-deployment-event-for-dora-metrics - parent: dora-metrics - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-incident-todo-details + url: '#get-incident-todo-details' + - generated: true + identifier: incidents-delete-an-incident-todo + name: インシデント Todo を削除する + params: operationids: - - CreateDORADeployment - unstable: - - v2 + - CreateIncidentTeam order: 4 - - name: Fastly インテグレーション - url: /api/latest/fastly-integration/ - identifier: fastly-integration - generated: true - - name: Fastly サービスを更新する - url: '#update-fastly-service' - identifier: fastly-integration-update-fastly-service - parent: fastly-integration - generated: true - params: + unstable: + - v2 versions: - - v2 - operationids: - - UpdateFastlyService - unstable: [] - order: 9 - - name: Fastly サービスを取得する - url: '#get-fastly-service' - identifier: fastly-integration-get-fastly-service - parent: fastly-integration - generated: true + - v2 + parent: incidents-get-incident-todo-details + url: '#delete-an-incident-todo' + - generated: true + identifier: インシデント + name: インシデント Todo を作成する + url: '#create-an-incident-todo' + - generated: true + identifier: incidents-get-a-list-of-an-incidents-todos + name: インシデントの Todo のリストを取得する params: - versions: - - v2 operationids: - - GetFastlyService + - ListIncidentTodos + order: 9 unstable: [] - order: 8 - - name: Fastly サービスを削除する - url: '#delete-fastly-service' - identifier: fastly-integration-delete-fastly-service - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#get-a-list-of-an-incidents-todos' + - generated: true + identifier: incidents-update-an-existing-incident-integration-metadata + name: 既存のインシデントインテグレーションメタデータを更新する + params: operationids: - - DeleteFastlyService + - UpdateIncidentIntegration + order: 8 unstable: [] - order: 10 - - name: Fastly サービスを追加する - url: '#add-fastly-service' - identifier: fastly-integration-add-fastly-service - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#update-an-existing-incident-integration-metadata' + - generated: true + identifier: incidents-get-incident-integration-metadata-details + name: インシデントインテグレーションメタデータの詳細を取得する + params: operationids: - - CreateFastlyService + - UpdateIncidentIntegration + order: 10 unstable: [] - order: 7 - - name: Fastly サービスを一覧表示する - url: '#list-fastly-services' - identifier: fastly-integration-list-fastly-services - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#get-incident-integration-metadata-details' + - generated: true + identifier: incidents-delete-an-incident-integration-metadata + name: インシデントインテグレーションメタデータを削除する + params: operationids: - - ListFastlyServices + - CreateIncidentService + order: 7 unstable: [] - order: 6 - - name: Fastly アカウントを更新する - url: '#update-fastly-account' - identifier: fastly-integration-update-fastly-account - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#delete-an-incident-integration-metadata' + - generated: true + identifier: incidents-create-an-incident-integration-metadata + name: インシデントインテグレーションメタデータを作成する + params: operationids: - - UpdateFastlyAccount + - UpdateIncidentIntegration + order: 6 unstable: [] - order: 4 - - name: Fastly アカウントを取得する - url: '#get-fastly-account' - identifier: fastly-integration-get-fastly-account - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#create-an-incident-integration-metadata' + - generated: true + identifier: incidents-get-a-list-of-an-incidents-integration-metadata + name: インシデントのインテグレーションメタデータのリストを取得する + params: operationids: - - GetFastlyAccount + - ListIncidentTodos + order: 4 unstable: [] - order: 3 - - name: Fastly アカウントを削除する - url: '#delete-fastly-account' - identifier: fastly-integration-delete-fastly-account - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#get-a-list-of-an-incidents-integration-metadata' + - generated: true + identifier: incidents-create,-update,-and-delete-incident-attachments + name: インシデントの添付ファイルの作成、更新、削除 + params: operationids: - - DeleteFastlyAccount + - UpdateIncidentAttachments + order: 3 unstable: [] - order: 5 - - name: Fastly アカウントを追加する - url: '#add-fastly-account' - identifier: fastly-integration-add-fastly-account - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#create,-update,-and-delete-incident-attachments' + - generated: true + identifier: incidents-get-a-list-of-attachments + name: 添付ファイル一覧を取得する + params: operationids: - - CreateFastlyAccount + - ListIncidentAttachments + order: 5 unstable: [] - order: 2 - - name: Fastly アカウントを一覧表示する - url: '#list-fastly-accounts' - identifier: fastly-integration-list-fastly-accounts - parent: fastly-integration - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#get-a-list-of-attachments' + - generated: true + identifier: incidents-update-an-existing-incident + name: 既存のインシデントを更新する + params: operationids: - - ListFastlyAccounts + - CreateIncidentService + order: 2 unstable: [] - order: 1 - - name: IP 許可リスト - url: /api/latest/ip-allowlist/ - identifier: ip-allowlist - generated: true - - name: IP 許可リストを更新する - url: '#update-ip-allowlist' - identifier: ip-allowlist-update-ip-allowlist - parent: ip-allowlist - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#update-an-existing-incident' + - generated: true + identifier: incidents-get-the-details-of-an-incident + name: インシデントの詳細を取得する + params: operationids: - - UpdateIPAllowlist + - CreateIncidentTeam + order: 1 unstable: [] - order: 2 - - name: IP 許可リストを取得する - url: '#get-ip-allowlist' - identifier: ip-allowlist-get-ip-allowlist - parent: ip-allowlist - generated: true - params: versions: - - v2 + - v2 + parent: インシデント + url: '#get-the-details-of-an-incident' + - generated: true + identifier: インシデント + name: ヘルプ + url: '#delete-an-existing-incident' + - generated: true + identifier: incidents-search-for-incidents + name: インシデントを検索する + params: operationids: - - GetIPAllowlist + - SearchIncidents + order: 2 unstable: [] - order: 1 - - name: インシデントサービス - url: /api/latest/incident-services/ - identifier: incident-services - generated: true - - name: 既存のインシデントサービスを更新する - url: '#update-an-existing-incident-service' - identifier: incident-services-update-an-existing-incident-service - parent: incident-services - generated: true + versions: + - v2 + parent: インシデント + url: '#search-for-incidents' + - generated: true + identifier: incidents-create-an-incident + name: インシデントを作成する params: + operationids: + - CreateIncident + order: 1 + unstable: [] versions: - - v2 + - v2 + parent: インシデント + url: '#create-an-incident' + - generated: true + identifier: logs-archives + name: インシデントリストを取得する + url: '#get-a-list-of-incidents' + - generated: true + identifier: logs-archives + name: ログアーカイブ + params: operationids: - - UpdateIncidentService - unstable: - - v2 + - CreateIncidentTeam order: 3 - - name: インシデントサービスの詳細を取得する - url: '#get-details-of-an-incident-service' - identifier: incident-services-get-details-of-an-incident-service - parent: incident-services - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-archives + url: /api/latest/logs-archives/ + - generated: true + identifier: logs-archives-grant-role-to-an-archive + name: アーカイブにロールを付与する + params: operationids: - - GetIncidentService - unstable: - - v2 + - AddReadRoleToArchive order: 1 - - name: 既存のインシデントサービスを削除する - url: '#delete-an-existing-incident-service' - identifier: incident-services-delete-an-existing-incident-service - parent: incident-services - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-archives + url: '#grant-role-to-an-archive' + - generated: true + identifier: logs-archives-list-read-roles-for-an-archive + name: アーカイブの読み取りロールを一覧表示する + params: operationids: - - DeleteIncidentService - unstable: - - v2 + - CreateIncident order: 2 - - name: 新しいインシデントサービスを作成する - url: '#create-a-new-incident-service' - identifier: incident-services-create-a-new-incident-service - parent: incident-services - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-archives + url: '#list-read-roles-for-an-archive' + - generated: true + identifier: logs-archives-revoke-role-from-an-archive + name: アーカイブからロールを取り消す + params: operationids: - - CreateIncidentService - unstable: - - v2 + - RemoveRoleFromArchive order: 5 - - name: すべてのインシデントサービスのリストを取得する - url: '#get-a-list-of-all-incident-services' - identifier: incident-services-get-a-list-of-all-incident-services - parent: incident-services - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-archives + url: '#revoke-role-from-an-archive' + - generated: true + identifier: logs-archives-update-an-archive + name: アーカイブを更新する + params: operationids: - - ListIncidentServices - unstable: - - v2 + - AddReadRoleToArchive order: 4 - - name: インシデントチーム - url: /api/latest/incident-teams/ - identifier: incident-teams - generated: true - - name: 既存のインシデントチームを更新する - url: '#update-an-existing-incident-team' - identifier: incident-teams-update-an-existing-incident-team - parent: incident-teams - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-archives + url: '#update-an-archive' + - generated: true + identifier: incidents-get-a-list-of-an-incidents-integration-metadata + name: アーカイブを取得する + url: '#get-an-archive' + - generated: true + identifier: logs-archives-delete-an-archive + name: アーカイブを削除する + params: operationids: - - UpdateIncidentTeam - unstable: - - v2 + - AddReadRoleToArchive order: 3 - - name: インシデントチームの詳細を取得する - url: '#get-details-of-an-incident-team' - identifier: incident-teams-get-details-of-an-incident-team - parent: incident-teams - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-a-list-of-an-incidents-integration-metadata + url: '#delete-an-archive' + - generated: true + identifier: logs-archives-create-an-archive + name: アーカイブを作成する + params: operationids: - - GetIncidentTeam - unstable: - - v2 + - DeleteLogsArchive order: 1 - - name: 既存のインシデントチームを削除する - url: '#delete-an-existing-incident-team' - identifier: incident-teams-delete-an-existing-incident-team - parent: incident-teams - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-a-list-of-an-incidents-integration-metadata + url: '#create-an-archive' + - generated: true + identifier: logs-archives-get-all-archives + name: すべてのアーカイブを取得する + params: operationids: - - DeleteIncidentTeam - unstable: - - v2 + - DeleteLogsArchive order: 2 - - name: 新しいインシデントチームを作成する - url: '#create-a-new-incident-team' - identifier: incident-teams-create-a-new-incident-team - parent: incident-teams - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-a-list-of-an-incidents-integration-metadata + url: '#get-all-archives' + - generated: true + identifier: logs-archives-update-archive-order + name: アーカイブの順序を更新する + params: operationids: - - CreateIncidentTeam - unstable: - - v2 + - DeleteLogsArchive order: 5 - - name: すべてのインシデントチームのリストを取得する - url: '#get-a-list-of-all-incident-teams' - identifier: incident-teams-get-a-list-of-all-incident-teams - parent: incident-teams - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-a-list-of-an-incidents-integration-metadata + url: '#update-archive-order' + - generated: true + identifier: logs-archives-get-archive-order + name: アーカイブの順序を取得する + params: operationids: - - ListIncidentTeams - unstable: - - v2 + - DeleteLogsArchive order: 4 - - name: Incidents - url: /api/latest/incidents/ - identifier: incidents - generated: true - - name: Update an incident todo - url: '#update-an-incident-todo' - identifier: incidents-update-an-incident-todo - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: incidents-get-a-list-of-an-incidents-integration-metadata + url: '#get-archive-order' + - generated: true + identifier: logs-restriction-queries-update-a-restriction-query + name: ログメトリクス + url: /api/latest/logs-metrics/ + - generated: true + identifier: logs-metrics-update-a-log-based-metric + name: ログベースのメトリクスを更新する + params: operationids: - - UpdateIncidentTodo - unstable: - - v2 + - UpdateLogsMetric order: 17 - - name: Get incident todo details - url: '#get-incident-todo-details' - identifier: incidents-get-incident-todo-details - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#update-a-log-based-metric' + - generated: true + identifier: logs-metrics-get-a-log-based-metric + name: ログベースのメトリクスを取得する + params: operationids: - - GetIncidentTodo - unstable: - - v2 + - UpdateLogsMetric order: 16 - - name: Delete an incident todo - url: '#delete-an-incident-todo' - identifier: incidents-delete-an-incident-todo - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#get-a-log-based-metric' + - generated: true + identifier: logs-metrics-delete-a-log-based-metric + name: ログベースのメトリクスを削除する + params: operationids: - - DeleteIncidentTodo - unstable: - - v2 + - RemoveRoleFromArchive order: 18 - - name: Create an incident todo - url: '#create-an-incident-todo' - identifier: incidents-create-an-incident-todo - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#delete-a-log-based-metric' + - generated: true + identifier: logs-metrics-create-a-log-based-metric + name: ログベースのメトリクスを作成する + params: operationids: - - CreateIncidentTodo - unstable: - - v2 + - UpdateLogsMetric order: 15 - - name: Get a list of an incident's todos - url: '#get-a-list-of-an-incidents-todos' - identifier: incidents-get-a-list-of-an-incidents-todos - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#create-a-log-based-metric' + - generated: true + identifier: logs-metrics-get-all-log-based-metrics + name: すべてのログベースのメトリクスを取得する + params: operationids: - - ListIncidentTodos - unstable: - - v2 + - ListLogsMetrics order: 14 - - name: 既存のインシデントインテグレーションメタデータを更新する - url: '#update-an-existing-incident-integration-metadata' - identifier: incidents-update-an-existing-incident-integration-metadata - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#get-all-log-based-metrics' + - generated: true + identifier: logs-restriction-queries + name: ログ制限クエリ + params: operationids: - - UpdateIncidentIntegration - unstable: - - v2 + - CreateLogsMetric order: 12 - - name: インシデントインテグレーションメタデータの詳細を取得する - url: '#get-incident-integration-metadata-details' - identifier: incidents-get-incident-integration-metadata-details - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: /api/latest/logs-restriction-queries/ + - generated: true + identifier: logs-restriction-queries-grant-role-to-a-restriction-query + name: 制限クエリにロールを付与する + params: operationids: - - GetIncidentIntegration - unstable: - - v2 + - CreateLogsMetric order: 11 - - name: インシデントインテグレーションメタデータを削除する - url: '#delete-an-incident-integration-metadata' - identifier: incidents-delete-an-incident-integration-metadata - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#grant-role-to-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-list-roles-for-a-restriction-query + name: 制限クエリのロールを一覧表示する + params: operationids: - - DeleteIncidentIntegration - unstable: - - v2 + - CreateLogsMetric order: 13 - - name: インシデントインテグレーションメタデータを作成する - url: '#create-an-incident-integration-metadata' - identifier: incidents-create-an-incident-integration-metadata - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#list-roles-for-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-revoke-role-from-a-restriction-query + name: 制限クエリからロールを取り消す + params: operationids: - - CreateIncidentIntegration - unstable: - - v2 + - CreateLogsMetric order: 10 - - name: インシデントのインテグレーションメタデータのリストを取得する - url: '#get-a-list-of-an-incidents-integration-metadata' - identifier: incidents-get-a-list-of-an-incidents-integration-metadata - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#revoke-role-from-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-update-a-restriction-query + name: 制限クエリを更新する + params: operationids: - - ListIncidentIntegrations - unstable: - - v2 + - CreateLogsMetric order: 9 - - name: インシデントの添付ファイルの作成、更新、削除 - url: '#create,-update,-and-delete-incident-attachments' - identifier: incidents-create,-update,-and-delete-incident-attachments - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#update-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-get-a-restriction-query + name: 制限クエリを取得する + params: operationids: - - UpdateIncidentAttachments - unstable: - - v2 + - GetRestrictionQuery order: 8 - - name: 添付ファイル一覧の取得 - url: '#get-a-list-of-attachments' - identifier: incidents-get-a-list-of-attachments - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#get-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-delete-a-restriction-query + name: 制限クエリを削除する + params: operationids: - - ListIncidentAttachments - unstable: - - v2 + - DeleteRestrictionQuery order: 7 - - name: 既存のインシデントを更新 - url: '#update-an-existing-incident' - identifier: incidents-update-an-existing-incident - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#delete-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-get-all-restriction-queries-for-a-given-user + name: 特定のユーザーのすべての制限クエリを取得する + params: operationids: - - UpdateIncident - unstable: - - v2 + - DeleteRestrictionQuery order: 3 - - name: インシデントの詳細を取得 - url: '#get-the-details-of-an-incident' - identifier: incidents-get-the-details-of-an-incident - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#get-all-restriction-queries-for-a-given-user' + - generated: true + identifier: logs-restriction-queries-get-restriction-query-for-a-given-role + name: 特定のロールの制限クエリを取得する + params: operationids: - - GetIncident - unstable: - - v2 + - CreateLogsMetric order: 2 - - name: 既存のインシデントを削除 - url: '#delete-an-existing-incident' - identifier: incidents-delete-an-existing-incident - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#get-restriction-query-for-a-given-role' + - generated: true + identifier: logs-restriction-queries-create-a-restriction-query + name: 制限クエリを作成する + params: operationids: - - DeleteIncident - unstable: - - v2 + - DeleteRestrictionQuery order: 4 - - name: インシデントの検索 - url: '#search-for-incidents' - identifier: incidents-search-for-incidents - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#create-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-list-restriction-queries + name: 制限クエリを一覧表示する + params: operationids: - - SearchIncidents - unstable: - - v2 + - DeleteRestrictionQuery order: 6 - - name: インシデントを作成 - url: '#create-an-incident' - identifier: incidents-create-an-incident - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#list-restriction-queries' + - generated: true + identifier: opsgenie-integration + name: Opsgenie インテグレーション + params: operationids: - - CreateIncident - unstable: - - v2 + - CreateRestrictionQuery order: 1 - - name: インシデントリストを取得 - url: '#get-a-list-of-incidents' - identifier: incidents-get-a-list-of-incidents - parent: incidents - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: /api/latest/opsgenie-integration/ + - generated: true + identifier: opsgenie-integration-update-a-single-service-object + name: 単一のサービスオブジェクトを更新する + params: operationids: - - ListIncidents - unstable: - - v2 + - UpdateOpsgenieService order: 5 - - name: ログアーカイブ - url: /api/latest/logs-archives/ - identifier: logs-archives - generated: true - - name: アーカイブにロールを付与する - url: '#grant-role-to-an-archive' - identifier: logs-archives-grant-role-to-an-archive - parent: logs-archives - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: logs-restriction-queries-update-a-restriction-query + url: '#update-a-single-service-object' + - generated: true + identifier: logs-restriction-queries-list-restriction-queries + name: 単一のサービスオブジェクトを取得する + url: '#get-a-single-service-object' + - generated: true + identifier: opsgenie-integration-delete-a-single-service-object + name: 単一のサービスオブジェクトを削除する + params: operationids: - - AddReadRoleToArchive - unstable: [] + - CreateLogsMetric order: 7 - - name: アーカイブの読み取りロールを一覧表示する - url: '#list-read-roles-for-an-archive' - identifier: logs-archives-list-read-roles-for-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#delete-a-single-service-object' + - generated: true + identifier: opsgenie-integration-create-a-new-service-object + name: 新しいサービスオブジェクトを作成する + params: operationids: - - ListArchiveReadRoles - unstable: [] + - UpdateOpsgenieService order: 6 - - name: アーカイブからロールを取り消す - url: '#revoke-role-from-an-archive' - identifier: logs-archives-revoke-role-from-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#create-a-new-service-object' + - generated: true + identifier: opsgenie-integration-get-all-service-objects + name: すべてのサービスオブジェクトを取得する + params: operationids: - - RemoveRoleFromArchive - unstable: [] + - ListOpsgenieServices order: 8 - - name: アーカイブを更新する - url: '#update-an-archive' - identifier: logs-archives-update-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#get-all-service-objects' + - generated: true + identifier: パワーパック + name: パワーパック + params: operationids: - - UpdateLogsArchive - unstable: [] + - CreateOpsgenieService order: 4 - - name: アーカイブを取得する - url: '#get-an-archive' - identifier: logs-archives-get-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: /api/latest/powerpack/ + - generated: true + identifier: powerpack-update-a-powerpack + name: パワーパックの更新 + params: operationids: - - GetLogsArchive - unstable: [] + - CreateOpsgenieService order: 3 - - name: アーカイブを削除する - url: '#delete-an-archive' - identifier: logs-archives-delete-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#update-a-powerpack' + - generated: true + identifier: powerpack-get-a-powerpack + name: パワーパックの取得 + params: operationids: - - DeleteLogsArchive - unstable: [] + - CreateLogsMetric order: 5 - - name: アーカイブを作成する - url: '#create-an-archive' - identifier: logs-archives-create-an-archive - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#get-a-powerpack' + - generated: true + identifier: powerpack-delete-a-powerpack + name: パワーパックの削除 + params: operationids: - - CreateLogsArchive - unstable: [] + - CreateOpsgenieService order: 2 - - name: すべてのアーカイブを取得する - url: '#get-all-archives' - identifier: logs-archives-get-all-archives - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#delete-a-powerpack' + - generated: true + identifier: powerpack-create-a-new-powerpack + name: 新しいパワーパックの作成 + params: operationids: - - ListLogsArchives - unstable: [] + - CreateOpsgenieService order: 1 - - name: アーカイブの順序を更新する - url: '#update-archive-order' - identifier: logs-archives-update-archive-order - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#create-a-new-powerpack' + - generated: true + identifier: powerpack-get-all-powerpacks + name: すべてのパワーパックの取得 + params: operationids: - - UpdateLogsArchiveOrder - unstable: [] + - GetAllPowerpacks order: 10 - - name: アーカイブの順序を取得する - url: '#get-archive-order' - identifier: logs-archives-get-archive-order - parent: logs-archives - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: '#get-all-powerpacks' + - generated: true + identifier: プロセス + name: プロセス + params: operationids: - - GetLogsArchiveOrder - unstable: [] + - CreatePowerpack order: 9 - - name: Logs Custom Destinations - url: /api/latest/logs-custom-destinations/ + unstable: [] + versions: + - v2 + parent: logs-restriction-queries-list-restriction-queries + url: /api/latest/processes/ + - generated: true identifier: logs-custom-destinations - generated: true - - name: Update a custom destination - url: '#update-a-custom-destination' + name: ログのカスタム宛先 + url: /api/latest/logs-custom-destinations/ + - generated: true identifier: logs-custom-destinations-update-a-custom-destination - parent: logs-custom-destinations - generated: true + name: カスタム宛先を更新 params: - versions: - - v2 operationids: - - UpdateLogsCustomDestination - unstable: [] + - UpdateLogsCustomDestination order: 4 - - name: Get a custom destination - url: '#get-a-custom-destination' - identifier: logs-custom-destinations-get-a-custom-destination + unstable: [] + versions: + - v2 parent: logs-custom-destinations - generated: true + url: '#update-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-get-a-custom-destination + name: カスタム宛先を取得 params: - versions: - - v2 operationids: - - GetLogsCustomDestination - unstable: [] + - GetLogsCustomDestination order: 3 - - name: Delete a custom destination - url: '#delete-a-custom-destination' - identifier: logs-custom-destinations-delete-a-custom-destination + unstable: [] + versions: + - v2 parent: logs-custom-destinations - generated: true + url: '#get-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-delete-a-custom-destination + name: カスタム宛先を削除 params: - versions: - - v2 operationids: - - DeleteLogsCustomDestination - unstable: [] + - DeleteLogsCustomDestination order: 5 - - name: Create a custom destination - url: '#create-a-custom-destination' - identifier: logs-custom-destinations-create-a-custom-destination + unstable: [] + versions: + - v2 parent: logs-custom-destinations - generated: true + url: '#delete-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-create-a-custom-destination + name: カスタム宛先を作成 params: - versions: - - v2 operationids: - - CreateLogsCustomDestination - unstable: [] + - CreateLogsCustomDestination order: 2 - - name: Get all custom destinations - url: '#get-all-custom-destinations' - identifier: logs-custom-destinations-get-all-custom-destinations + unstable: [] + versions: + - v2 parent: logs-custom-destinations - generated: true + url: '#create-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-get-all-custom-destinations + name: すべてのカスタム宛先を取得 params: - versions: - - v2 operationids: - - ListLogsCustomDestinations - unstable: [] + - ListLogsCustomDestinations order: 1 - - name: ログメトリクス - url: /api/latest/logs-metrics/ - identifier: logs-metrics - generated: true - - name: ログベースのメトリクスを更新する - url: '#update-a-log-based-metric' - identifier: logs-metrics-update-a-log-based-metric - parent: logs-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: logs-custom-destinations + url: '#get-all-custom-destinations' + - generated: true + identifier: パワーパック + name: すべてのプロセスを取得する + url: '#get-all-processes' + - generated: true + identifier: rum + name: RUM + params: operationids: - - UpdateLogsMetric - unstable: [] + - CreateOpsgenieService order: 4 - - name: ログベースのメトリクスを取得する - url: '#get-a-log-based-metric' - identifier: logs-metrics-get-a-log-based-metric - parent: logs-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: パワーパック + url: /api/latest/rum/ + - generated: true + identifier: rum-search-rum-events + name: RUM イベントを検索する + params: operationids: - - GetLogsMetric - unstable: [] + - CreatePowerpack order: 3 - - name: ログベースのメトリクスを削除する - url: '#delete-a-log-based-metric' - identifier: logs-metrics-delete-a-log-based-metric - parent: logs-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: パワーパック + url: '#search-rum-events' + - generated: true + identifier: rum-get-a-list-of-rum-events + name: RUM イベントのリストを取得する + params: operationids: - - DeleteLogsMetric - unstable: [] + - CreatePowerpack order: 5 - - name: ログベースのメトリクスを作成する - url: '#create-a-log-based-metric' - identifier: logs-metrics-create-a-log-based-metric - parent: logs-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: パワーパック + url: '#get-a-list-of-rum-events' + - generated: true + identifier: rum-update-a-rum-application + name: RUM アプリケーションを更新する + params: operationids: - - CreateLogsMetric - unstable: [] + - UpdateRUMApplication order: 2 - - name: すべてのログベースのメトリクスを取得する - url: '#get-all-log-based-metrics' - identifier: logs-metrics-get-all-log-based-metrics - parent: logs-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: パワーパック + url: '#update-a-rum-application' + - generated: true + identifier: rum-get-a-rum-application + name: RUM アプリケーションを取得する + params: operationids: - - ListLogsMetrics - unstable: [] + - SearchRUMEvents order: 1 - - name: ログ制限クエリ - url: /api/latest/logs-restriction-queries/ - identifier: logs-restriction-queries - generated: true - - name: 制限クエリにロールを付与する - url: '#grant-role-to-a-restriction-query' - identifier: logs-restriction-queries-grant-role-to-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: パワーパック + url: '#get-a-rum-application' + - generated: true + identifier: ロール + name: RUM アプリケーションを削除する + url: '#delete-a-rum-application' + - generated: true + identifier: rum-create-a-new-rum-application + name: 新しい RUM アプリケーションを作成する + params: operationids: - - AddRoleToRestrictionQuery - unstable: - - v2 + - CreateOpsgenieService order: 7 - - name: 制限クエリのロールを一覧表示する - url: '#list-roles-for-a-restriction-query' - identifier: logs-restriction-queries-list-roles-for-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#create-a-new-rum-application' + - generated: true + identifier: rum-list-all-the-rum-applications + name: すべての RUM アプリケーションをリストアップする + params: operationids: - - ListRestrictionQueryRoles - unstable: - - v2 + - SearchRUMEvents order: 6 - - name: 制限クエリからロールを取り消す - url: '#revoke-role-from-a-restriction-query' - identifier: logs-restriction-queries-revoke-role-from-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#list-all-the-rum-applications' + - generated: true + identifier: rum-aggregate-rum-events + name: RUM イベントを集計する + params: operationids: - - RemoveRoleFromRestrictionQuery - unstable: - - v2 + - SearchRUMEvents order: 8 - - name: 制限クエリを更新する - url: '#update-a-restriction-query' - identifier: logs-restriction-queries-update-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#aggregate-rum-events' + - generated: true + identifier: restriction-policies + name: 制限ポリシー + params: operationids: - - UpdateRestrictionQuery - unstable: - - v2 + - CreateRUMApplication order: 4 - - name: 制限クエリを取得する - url: '#get-a-restriction-query' - identifier: logs-restriction-queries-get-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: /api/latest/restriction-policies/ + - generated: true + identifier: restriction-policies-update-a-restriction-policy + name: 制限ポリシーを更新する + params: operationids: - - GetRestrictionQuery - unstable: - - v2 + - SearchRUMEvents order: 3 - - name: 制限クエリを削除する - url: '#delete-a-restriction-query' - identifier: logs-restriction-queries-delete-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#update-a-restriction-policy' + - generated: true + identifier: restriction-policies-get-a-restriction-policy + name: 制限ポリシーを取得する + params: operationids: - - DeleteRestrictionQuery - unstable: - - v2 + - CreateOpsgenieService order: 5 - - name: 特定のユーザーのすべての制限クエリを取得する - url: '#get-all-restriction-queries-for-a-given-user' - identifier: logs-restriction-queries-get-all-restriction-queries-for-a-given-user - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#get-a-restriction-policy' + - generated: true + identifier: restriction-policies-delete-a-restriction-policy + name: 制限ポリシーを削除する + params: operationids: - - ListUserRestrictionQueries - unstable: - - v2 + - CreatePowerpack order: 9 - - name: 特定のロールの制限クエリを取得する - url: '#get-restriction-query-for-a-given-role' - identifier: logs-restriction-queries-get-restriction-query-for-a-given-role - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#delete-a-restriction-policy' + - generated: true + identifier: ロール + name: ロール + params: operationids: - - GetRoleRestrictionQuery - unstable: - - v2 + - DeleteRestrictionPolicy order: 10 - - name: 制限クエリを作成する - url: '#create-a-restriction-query' - identifier: logs-restriction-queries-create-a-restriction-query - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: /api/latest/roles/ + - generated: true + identifier: roles-add-a-user-to-a-role + name: ロールにユーザーを追加する + params: operationids: - - CreateRestrictionQuery - unstable: - - v2 + - SearchRUMEvents order: 2 - - name: 制限クエリを一覧表示する - url: '#list-restriction-queries' - identifier: logs-restriction-queries-list-restriction-queries - parent: logs-restriction-queries - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#add-a-user-to-a-role' + - generated: true + identifier: roles-get-all-users-of-a-role + name: ロールのすべてのユーザーを取得する + params: operationids: - - ListRestrictionQueries - unstable: - - v2 + - GetRestrictionPolicy order: 1 - - name: Okta Integration - url: /api/latest/okta-integration/ - identifier: okta-integration - generated: true - - name: Update Okta account - url: '#update-okta-account' - identifier: okta-integration-update-okta-account - parent: okta-integration - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: ロール + url: '#get-all-users-of-a-role' + - generated: true + identifier: roles-add-a-user-to-a-role + name: ロールからユーザーを削除する + url: '#remove-a-user-from-a-role' + - generated: true + identifier: roles-grant-permission-to-a-role + name: ロールにアクセス許可を付与する + params: operationids: - - UpdateOktaAccount - unstable: [] + - CreatePowerpack order: 4 - - name: Get Okta account - url: '#get-okta-account' - identifier: okta-integration-get-okta-account - parent: okta-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-add-a-user-to-a-role + url: '#grant-permission-to-a-role' + - generated: true + identifier: roles-list-permissions-for-a-role + name: ロールの権限を一覧表示する + params: operationids: - - GetOktaAccount - unstable: [] + - SearchRUMEvents order: 3 - - name: Delete Okta account - url: '#delete-okta-account' - identifier: okta-integration-delete-okta-account - parent: okta-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-add-a-user-to-a-role + url: '#list-permissions-for-a-role' + - generated: true + identifier: roles-revoke-permission + name: 権限を取り消す + params: operationids: - - DeleteOktaAccount - unstable: [] + - GetRestrictionPolicy order: 5 - - name: Add Okta account - url: '#add-okta-account' - identifier: okta-integration-add-okta-account - parent: okta-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-add-a-user-to-a-role + url: '#revoke-permission' + - generated: true + identifier: roles-create-a-new-role-by-cloning-an-existing-role + name: 既存のロールのクローンを作成して新しいロールを作成する + params: operationids: - - CreateOktaAccount - unstable: [] + - CreateRUMApplication order: 2 - - name: List Okta accounts - url: '#list-okta-accounts' - identifier: okta-integration-list-okta-accounts - parent: okta-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-add-a-user-to-a-role + url: '#create-a-new-role-by-cloning-an-existing-role' + - generated: true + identifier: roles-update-a-role + name: ロールを更新する + params: operationids: - - ListOktaAccounts - unstable: [] + - RemovePermissionFromRole order: 1 - - name: Opsgenie インテグレーション - url: /api/latest/opsgenie-integration/ - identifier: opsgenie-integration - generated: true - - name: 単一のサービスオブジェクトを更新する - url: '#update-a-single-service-object' - identifier: opsgenie-integration-update-a-single-service-object - parent: opsgenie-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-add-a-user-to-a-role + url: '#update-a-role' + - generated: true + identifier: roles-delete-role + name: ロールを取得する + url: '#get-a-role' + - generated: true + identifier: roles-delete-role + name: ロールを削除する + params: operationids: - - UpdateOpsgenieService - unstable: [] + - SearchRUMEvents order: 4 - - name: 単一のサービスオブジェクトを取得する - url: '#get-a-single-service-object' - identifier: opsgenie-integration-get-a-single-service-object - parent: opsgenie-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-delete-role + url: '#delete-role' + - generated: true + identifier: roles-create-role + name: ロールを作成する + params: operationids: - - GetOpsgenieService - unstable: [] + - CreateRole order: 3 - - name: 単一のサービスオブジェクトを削除する - url: '#delete-a-single-service-object' - identifier: opsgenie-integration-delete-a-single-service-object - parent: opsgenie-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-delete-role + url: '#create-role' + - generated: true + identifier: roles-list-roles + name: ロールを一覧表示する + params: operationids: - - DeleteOpsgenieService - unstable: [] + - ListRoles order: 5 - - name: 新しいサービスオブジェクトを作成する - url: '#create-a-new-service-object' - identifier: opsgenie-integration-create-a-new-service-object - parent: opsgenie-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-delete-role + url: '#list-roles' + - generated: true + identifier: roles-list-permissions + name: 権限を一覧表示する + params: operationids: - - CreateOpsgenieService - unstable: [] + - ListRoles order: 2 - - name: すべてのサービスオブジェクトを取得する - url: '#get-all-service-objects' - identifier: opsgenie-integration-get-all-service-objects - parent: opsgenie-integration - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-delete-role + url: '#list-permissions' + - generated: true + identifier: sensitive-data-scanner + name: センシティブ データ スキャナー + params: operationids: - - ListOpsgenieServices - unstable: [] + - RemovePermissionFromRole order: 1 - - name: Powerpack - url: /api/latest/powerpack/ - identifier: powerpack - generated: true - - name: Update a powerpack - url: '#update-a-powerpack' - identifier: powerpack-update-a-powerpack - parent: powerpack - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-delete-role + url: /api/latest/sensitive-data-scanner/ + - generated: true + identifier: roles-create-a-new-role-by-cloning-an-existing-role + name: 標準パターンをリストアップする + url: '#list-standard-patterns' + - generated: true + identifier: sensitive-data-scanner-update-scanning-rule + name: スキャンルールを更新する + params: operationids: - - UpdatePowerpack - unstable: [] + - CreateRole order: 5 - - name: Get a Powerpack - url: '#get-a-powerpack' - identifier: powerpack-get-a-powerpack - parent: powerpack - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-create-a-new-role-by-cloning-an-existing-role + url: '#update-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-delete-scanning-rule + name: スキャンルールを削除する + params: operationids: - - GetPowerpack - unstable: [] + - DeleteScanningRule order: 4 - - name: Delete a powerpack - url: '#delete-a-powerpack' - identifier: powerpack-delete-a-powerpack - parent: powerpack - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-create-a-new-role-by-cloning-an-existing-role + url: '#delete-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-create-scanning-rule + name: スキャンルールを作成する + params: operationids: - - DeletePowerpack - unstable: [] + - ListRoles order: 3 - - name: Create a new powerpack - url: '#create-a-new-powerpack' - identifier: powerpack-create-a-new-powerpack - parent: powerpack - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-create-a-new-role-by-cloning-an-existing-role + url: '#create-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-update-scanning-group + name: スキャングループを更新する + params: operationids: - - CreatePowerpack - unstable: [] + - UpdateScanningGroup order: 2 - - name: Get all powerpacks - url: '#get-all-powerpacks' - identifier: powerpack-get-all-powerpacks - parent: powerpack - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-create-a-new-role-by-cloning-an-existing-role + url: '#update-scanning-group' + - generated: true + identifier: sensitive-data-scanner-delete-scanning-group + name: スキャングループを削除する + params: operationids: - - ListPowerpacks - unstable: [] + - RemovePermissionFromRole order: 1 - - name: Processes - url: /api/latest/processes/ - identifier: processes - generated: true - - name: すべてのプロセスを取得 - url: '#get-all-processes' - identifier: processes-get-all-processes - parent: processes - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-create-a-new-role-by-cloning-an-existing-role + url: '#delete-scanning-group' + - generated: true + identifier: roles-get-a-role + name: スキャングループを作成する + url: '#create-scanning-group' + - generated: true + identifier: sensitive-data-scanner-reorder-groups + name: グループを並べ替える + params: operationids: - - ListProcesses - unstable: [] + - DeleteScanningGroup order: 1 - - name: RUM - url: /api/latest/rum/ - identifier: rum - generated: true - - name: RUM イベントの検索 - url: '#search-rum-events' - identifier: rum-search-rum-events - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: roles-get-a-role + url: '#reorder-groups' + - generated: true + identifier: account_management_saml + name: スキャングループをリストアップする + url: '#list-scanning-groups' + - generated: true + identifier: service-accounts + name: サービスアカウント + params: operationids: - - SearchRUMEvents - unstable: [] + - DeleteScanningGroup order: 1 - - name: RUM イベントのリストを取得 - url: '#get-a-list-of-rum-events' - identifier: rum-get-a-list-of-rum-events - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: /api/latest/service-accounts/ + - generated: true + identifier: service-accounts-edit-an-application-key-for-this-service-account + name: このサービスアカウントのアプリケーションキーを編集する + params: operationids: - - ListRUMEvents - unstable: [] + - UpdateServiceAccountApplicationKey order: 2 - - name: RUM アプリケーションを更新する - url: '#update-a-rum-application' - identifier: rum-update-a-rum-application - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#edit-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-get-one-application-key-for-this-service-account + name: このサービスアカウントのアプリケーションキーを 1 つ取得する + params: operationids: - - UpdateRUMApplication - unstable: [] + - ReorderScanningGroups order: 4 - - name: RUM アプリケーションを取得する - url: '#get-a-rum-application' - identifier: rum-get-a-rum-application - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#get-one-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-delete-an-application-key-for-this-service-account + name: このサービスアカウントのアプリケーションキーを削除する + params: operationids: - - GetRUMApplication - unstable: [] + - DeleteScanningGroup order: 5 - - name: RUM アプリケーションを削除する - url: '#delete-a-rum-application' - identifier: rum-delete-a-rum-application - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#delete-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-create-an-application-key-for-this-service-account + name: このサービスアカウントのアプリケーションキーを作成する + params: operationids: - - DeleteRUMApplication - unstable: [] + - DeleteScanningGroup order: 6 - - name: 新しい RUM アプリケーションを作成する - url: '#create-a-new-rum-application' - identifier: rum-create-a-new-rum-application - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#create-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-list-application-keys-for-this-service-account + name: このサービスアカウントのアプリケーションキーを一覧表示する + params: operationids: - - CreateRUMApplication - unstable: [] + - ListServiceAccountApplicationKeys order: 7 - - name: すべての RUM アプリケーションをリストアップする - url: '#list-all-the-rum-applications' - identifier: rum-list-all-the-rum-applications - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#list-application-keys-for-this-service-account' + - generated: true + identifier: service-accounts-create-a-service-account + name: サービスアカウントを作成する + params: operationids: - - GetRUMApplications - unstable: [] + - CreateServiceAccount order: 8 - - name: RUM イベントの集計 - url: '#aggregate-rum-events' - identifier: rum-aggregate-rum-events - parent: rum - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: '#create-a-service-account' + - generated: true + identifier: service-definition + name: サービス定義 + params: operationids: - - AggregateRUMEvents - unstable: [] + - ReorderScanningGroups order: 3 - - name: 制限ポリシー - url: /api/latest/restriction-policies/ - identifier: restriction-policies - generated: true - - name: 制限ポリシーを更新する - url: '#update-a-restriction-policy' - identifier: restriction-policies-update-a-restriction-policy - parent: restriction-policies - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: account_management_saml + url: /api/latest/service-definition/ + - generated: true + identifier: service-accounts-create-an-application-key-for-this-service-account + name: 単一のサービス定義を取得する + url: '#get-a-single-service-definition' + - generated: true + identifier: service-definition-delete-a-single-service-definition + name: 単一のサービス定義を削除する + params: operationids: - - UpdateRestrictionPolicy - unstable: [] + - CreateServiceAccount order: 1 - - name: 制限ポリシーを取得する - url: '#get-a-restriction-policy' - identifier: restriction-policies-get-a-restriction-policy - parent: restriction-policies - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: service-accounts-create-an-application-key-for-this-service-account + url: '#delete-a-single-service-definition' + - generated: true + identifier: service-definition-create-or-update-service-definition + name: サービス定義を作成または更新する + params: operationids: - - GetRestrictionPolicy - unstable: [] + - DeleteScanningGroup order: 2 - - name: 制限ポリシーを削除する - url: '#delete-a-restriction-policy' - identifier: restriction-policies-delete-a-restriction-policy - parent: restriction-policies - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: service-accounts-create-an-application-key-for-this-service-account + url: '#create-or-update-service-definition' + - generated: true + identifier: service-definition-get-all-service-definitions + name: すべてのサービス定義を取得する + params: operationids: - - DeleteRestrictionPolicy - unstable: [] + - GetServiceDefinition order: 3 - - name: Roles - url: /api/latest/roles/ - identifier: roles - generated: true - - name: ロールにユーザーを追加する - url: '#add-a-user-to-a-role' - identifier: roles-add-a-user-to-a-role - parent: roles - generated: true + unstable: [] + versions: + - v2 + parent: service-accounts-create-an-application-key-for-this-service-account + url: '#get-all-service-definitions' + - generated: true + identifier: spans-metrics + name: スパン + url: /api/latest/spans/ + - generated: true + identifier: spans-search-spans + name: スパンを検索する params: - versions: - - v2 operationids: - - AddUserToRole - unstable: [] + - CreateOrUpdateServiceDefinitions order: 10 - - name: ロールのすべてのユーザーの取得 - url: '#get-all-users-of-a-role' - identifier: roles-get-all-users-of-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#search-spans' + - generated: true + identifier: spans-get-a-list-of-spans + name: スパンのリストを取得する + params: operationids: - - ListRoleUsers - unstable: [] + - CreateServiceAccount order: 9 - - name: ロールからユーザーを削除 - url: '#remove-a-user-from-a-role' - identifier: roles-remove-a-user-from-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#get-a-list-of-spans' + - generated: true + identifier: spans-aggregate-spans + name: スパンを集計する + params: operationids: - - RemoveUserFromRole - unstable: [] + - ListSpans order: 11 - - name: ロールにアクセス許可を付与する - url: '#grant-permission-to-a-role' - identifier: roles-grant-permission-to-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#aggregate-spans' + - generated: true + identifier: spans-metrics + name: スパンメトリクス + params: operationids: - - AddPermissionToRole - unstable: [] + - ListSpans order: 7 - - name: ロールのアクセス許可を一覧表示する - url: '#list-permissions-for-a-role' - identifier: roles-list-permissions-for-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: /api/latest/spans-metrics/ + - generated: true + identifier: spans-metrics-update-a-span-based-metric + name: スパンベースのメトリクスを更新する + params: operationids: - - ListRolePermissions - unstable: [] + - ListSpans order: 6 - - name: アクセス許可の取り消し - url: '#revoke-permission' - identifier: roles-revoke-permission - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#update-a-span-based-metric' + - generated: true + identifier: spans-metrics-get-a-span-based-metric + name: スパンベースのメトリクスを取得する + params: operationids: - - RemovePermissionFromRole - unstable: [] + - ListSpansGet order: 8 - - name: 既存のロールのクローンを作成して新しいロールを作成 - url: '#create-a-new-role-by-cloning-an-existing-role' - identifier: roles-create-a-new-role-by-cloning-an-existing-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#get-a-span-based-metric' + - generated: true + identifier: spans-metrics-delete-a-span-based-metric + name: スパンベースのメトリクスを削除する + params: operationids: - - CloneRole - unstable: [] + - ListSpansGet order: 12 - - name: ロールを更新する - url: '#update-a-role' - identifier: roles-update-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#delete-a-span-based-metric' + - generated: true + identifier: spans-metrics-create-a-span-based-metric + name: スパンベースのメトリクスを作成する + params: operationids: - - UpdateRole - unstable: [] + - CreateServiceAccount order: 4 - - name: ロールを取得する - url: '#get-a-role' - identifier: roles-get-a-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#create-a-span-based-metric' + - generated: true + identifier: spans-metrics-get-all-span-based-metrics + name: すべてのスパンベースのメトリクスを取得する + params: operationids: - - GetRole - unstable: [] + - ListSpans order: 3 - - name: ロールの削除 - url: '#delete-role' - identifier: roles-delete-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#get-all-span-based-metrics' + - generated: true + identifier: チーム + name: チーム + params: operationids: - - DeleteRole - unstable: [] + - ListSpansGet order: 5 - - name: ロールを作成する - url: '#create-role' - identifier: roles-create-role - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: /api/latest/teams/ + - generated: true + identifier: teams-get-user-memberships + name: ユーザーのメンバーシップを取得する + params: operationids: - - CreateRole - unstable: [] + - CreateScorecardOutcomesBatch order: 2 - - name: ロールを一覧表示する - url: '#list-roles' - identifier: roles-list-roles - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#get-user-memberships' + - generated: true + identifier: teams-update-permission-setting-for-team + name: チームの権限設定を更新する + params: operationids: - - ListRoles - unstable: [] + - CreateSpansMetric order: 1 - - name: アクセス許可を一覧表示する - url: '#list-permissions' - identifier: roles-list-permissions - parent: roles - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#update-permission-setting-for-team' + - generated: true + identifier: teams-get-permission-settings-for-a-team + name: チームの権限設定を取得する + params: operationids: - - ListPermissions - unstable: [] + - CreateSpansMetric order: 1 - - name: センシティブ データ スキャナー - url: /api/latest/sensitive-data-scanner/ - identifier: sensitive-data-scanner - generated: true - - name: 標準パターンのリストアップ - url: '#list-standard-patterns' - identifier: sensitive-data-scanner-list-standard-patterns - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: spans-metrics + url: '#get-permission-settings-for-a-team' + - generated: true + identifier: info-fill + name: ヘルプ + url: '#update-a-users-membership-attributes-on-a-team' + - generated: true + identifier: teams-remove-a-user-from-a-team + name: チームからユーザーを削除する + params: operationids: - - ListStandardPatterns - unstable: [] + - ListSpans order: 3 - - name: スキャンルールの更新 - url: '#update-scanning-rule' - identifier: sensitive-data-scanner-update-scanning-rule - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#remove-a-user-from-a-team' + - generated: true + identifier: teams-add-a-user-to-a-team + name: ユーザーをチームに追加する + params: operationids: - - UpdateScanningRule - unstable: [] + - CreateSpansMetric order: 8 - - name: スキャンルールの削除 - url: '#delete-scanning-rule' - identifier: sensitive-data-scanner-delete-scanning-rule - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#add-a-user-to-a-team' + - generated: true + identifier: teams-get-team-memberships + name: チームのメンバーシップを取得する + params: operationids: - - DeleteScanningRule - unstable: [] + - CreateTeamMembership order: 9 - - name: スキャンルールの作成 - url: '#create-scanning-rule' - identifier: sensitive-data-scanner-create-scanning-rule - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#get-team-memberships' + - generated: true + identifier: teams-update-a-team-link + name: チームリンクを更新する + params: operationids: - - CreateScanningRule - unstable: [] + - CreateTeamMembership order: 7 - - name: スキャングループの更新 - url: '#update-scanning-group' - identifier: sensitive-data-scanner-update-scanning-group - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#update-a-team-link' + - generated: true + identifier: teams-get-a-team-link + name: チームリンクを取得する + params: operationids: - - UpdateScanningGroup - unstable: [] + - ListSpansGet order: 5 - - name: スキャングループの削除 - url: '#delete-scanning-group' - identifier: sensitive-data-scanner-delete-scanning-group - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#get-a-team-link' + - generated: true + identifier: teams-remove-a-team-link + name: チームリンクを削除する + params: operationids: - - DeleteScanningGroup - unstable: [] + - ListSpans order: 6 - - name: スキャングループの作成 - url: '#create-scanning-group' - identifier: sensitive-data-scanner-create-scanning-group - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#remove-a-team-link' + - generated: true + identifier: teams-create-a-team-link + name: チームリンクを作成する + params: operationids: - - CreateScanningGroup - unstable: [] + - CreateTeamLink order: 4 - - name: グループの並べ替え - url: '#reorder-groups' - identifier: sensitive-data-scanner-reorder-groups - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#create-a-team-link' + - generated: true + identifier: teams-get-links-for-a-team + name: チームのリンクを取得する + params: operationids: - - ReorderScanningGroups - unstable: [] + - GetTeamLinks order: 2 - - name: スキャングループのリストアップ - url: '#list-scanning-groups' - identifier: sensitive-data-scanner-list-scanning-groups - parent: sensitive-data-scanner - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#get-links-for-a-team' + - generated: true + identifier: teams-update-a-team + name: チームを更新する + params: operationids: - - ListScanningGroups - unstable: [] + - GetTeamLinks order: 1 - - name: サービスアカウント - url: /api/latest/service-accounts/ - identifier: service-accounts - generated: true - - name: このサービスアカウントのアプリケーションキーを編集する - url: '#edit-an-application-key-for-this-service-account' - identifier: service-accounts-edit-an-application-key-for-this-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: info-fill + url: '#update-a-team' + - generated: true + identifier: teams-get-a-team-link + name: コミュニティオフィスアワー + url: '#get-a-team' + - generated: true + identifier: teams-remove-a-team + name: チームを削除する + params: operationids: - - UpdateServiceAccountApplicationKey - unstable: [] + - GetTeamLinks order: 2 - - name: このサービスアカウントのアプリケーションキーを 1 つ取得する - url: '#get-one-application-key-for-this-service-account' - identifier: service-accounts-get-one-application-key-for-this-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#remove-a-team' + - generated: true + identifier: teams-create-a-team + name: チームを作成する + params: operationids: - - GetServiceAccountApplicationKey - unstable: [] + - CreateTeamLink order: 1 - - name: このサービスアカウントのアプリケーションキーを削除する - url: '#delete-an-application-key-for-this-service-account' - identifier: service-accounts-delete-an-application-key-for-this-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteServiceAccountApplicationKey - unstable: [] + - ListTeams order: 3 - - name: このサービスアカウントのアプリケーションキーを作成する - url: '#create-an-application-key-for-this-service-account' - identifier: service-accounts-create-an-application-key-for-this-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: チームを作成する + params: operationids: - - CreateServiceAccountApplicationKey - unstable: [] + - CreateTeam order: 5 - - name: このサービスアカウントのアプリケーションキーを一覧表示する - url: '#list-application-keys-for-this-service-account' - identifier: service-accounts-list-application-keys-for-this-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListServiceAccountApplicationKeys - unstable: [] + - CreateTeam order: 6 - - name: サービスアカウントを作成する - url: '#create-a-service-account' - identifier: service-accounts-create-a-service-account - parent: service-accounts - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: チームを作成する + params: operationids: - - CreateServiceAccount - unstable: [] + - CreateTeamMembership order: 1 - - name: サービス定義 - url: /api/latest/service-definition/ - identifier: service-definition - generated: true - - name: 単一のサービス定義を取得する - url: '#get-a-single-service-definition' - identifier: service-definition-get-a-single-service-definition - parent: service-definition - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-a-team-link + url: '#create-a-team' + - generated: true + identifier: teams-update-a-team + name: すべてのチームを取得する + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetServiceDefinition - unstable: [] + - ListTeams order: 3 - - name: 単一のサービス定義を削除する - url: '#delete-a-single-service-definition' - identifier: service-definition-delete-a-single-service-definition - parent: service-definition - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: チームを作成する + params: operationids: - - DeleteServiceDefinition - unstable: [] + - CreateTeam order: 4 - - name: サービス定義を作成または更新する - url: '#create-or-update-service-definition' - identifier: service-definition-create-or-update-service-definition - parent: service-definition - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateOrUpdateServiceDefinitions - unstable: [] + - ListTeams order: 2 - - name: すべてのサービス定義を取得する - url: '#get-all-service-definitions' - identifier: service-definition-get-all-service-definitions - parent: service-definition - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListServiceDefinitions - unstable: [] + - ListTeams order: 1 - - name: Service Scorecards - url: /api/latest/service-scorecards/ - identifier: service-scorecards - generated: true - - name: Delete a rule - url: '#delete-a-rule' - identifier: service-scorecards-delete-a-rule - parent: service-scorecards - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-update-a-team + name: チームを作成する + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteScorecardRule - unstable: - - v2 + - ListTeams order: 3 - - name: Create a new rule - url: '#create-a-new-rule' - identifier: service-scorecards-create-a-new-rule - parent: service-scorecards - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateScorecardRule - unstable: - - v2 + - ListTeams order: 1 - - name: List all rules - url: '#list-all-rules' - identifier: service-scorecards-list-all-rules - parent: service-scorecards - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: チームを作成する + params: operationids: - - ListScorecardRules - unstable: - - v2 + - CreateTeam order: 2 - - name: Create outcomes batch - url: '#create-outcomes-batch' - identifier: service-scorecards-create-outcomes-batch - parent: service-scorecards - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateScorecardOutcomesBatch - unstable: - - v2 + - ListTeams order: 1 - - name: List all rule outcomes - url: '#list-all-rule-outcomes' - identifier: service-scorecards-list-all-rule-outcomes - parent: service-scorecards - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListScorecardOutcomes - unstable: - - v2 + - GetTeamLinks order: 2 - - name: Spans - url: /api/latest/spans/ - identifier: spans - generated: true - - name: Search spans - url: '#search-spans' - identifier: spans-search-spans - parent: spans - generated: true - params: + unstable: + - v2 versions: - - v2 + - v2 + parent: teams-update-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: すべてのチームを取得する + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListSpans - unstable: [] + - ListTeams order: 2 - - name: Get a list of spans - url: '#get-a-list-of-spans' - identifier: spans-get-a-list-of-spans - parent: spans - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListSpansGet - unstable: [] + - ListTeams order: 1 - - name: Aggregate spans - url: '#aggregate-spans' - identifier: spans-aggregate-spans - parent: spans - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - AggregateSpans - unstable: [] + - ListTeams order: 3 - - name: Spans Metrics - url: /api/latest/spans-metrics/ - identifier: spans-metrics - generated: true - - name: Update a span-based metric - url: '#update-a-span-based-metric' - identifier: spans-metrics-update-a-span-based-metric - parent: spans-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-create-a-team + name: すべてのチームを取得する + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - UpdateSpansMetric - unstable: [] + - ListTeams order: 4 - - name: Get a span-based metric - url: '#get-a-span-based-metric' - identifier: spans-metrics-get-a-span-based-metric - parent: spans-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetSpansMetric - unstable: [] + - ListTeams order: 3 - - name: Delete a span-based metric - url: '#delete-a-span-based-metric' - identifier: spans-metrics-delete-a-span-based-metric - parent: spans-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteSpansMetric - unstable: [] + - ListTeams order: 5 - - name: Create a span-based metric - url: '#create-a-span-based-metric' - identifier: spans-metrics-create-a-span-based-metric - parent: spans-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateSpansMetric - unstable: [] + - ListTeams order: 2 - - name: Get all span-based metrics - url: '#get-all-span-based-metrics' - identifier: spans-metrics-get-all-span-based-metrics - parent: spans-metrics - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - ListSpansMetrics - unstable: [] + - ListTeams order: 1 - - name: Teams - url: /api/latest/teams/ - identifier: teams - generated: true - - name: Get user memberships - url: '#get-user-memberships' - identifier: teams-get-user-memberships - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-create-a-team + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: ヘルプ + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetUserMemberships - unstable: [] + - ListTeams order: 1 - - name: Update permission setting for team - url: '#update-permission-setting-for-team' - identifier: teams-update-permission-setting-for-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - UpdateTeamPermissionSetting - unstable: [] + - ListTeams order: 18 - - name: Get permission settings for a team - url: '#get-permission-settings-for-a-team' - identifier: teams-get-permission-settings-for-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetTeamPermissionSettings - unstable: [] + - ListTeams order: 17 - - name: Update a user's membership attributes on a team - url: '#update-a-users-membership-attributes-on-a-team' - identifier: teams-update-a-users-membership-attributes-on-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - UpdateTeamMembership - unstable: [] + - ListTeams order: 9 - - name: Remove a user from a team - url: '#remove-a-user-from-a-team' - identifier: teams-remove-a-user-from-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteTeamMembership - unstable: [] + - ListTeams order: 8 - - name: Add a user to a team - url: '#add-a-user-to-a-team' - identifier: teams-add-a-user-to-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateTeamMembership - unstable: [] + - ListTeams order: 7 - - name: Get team memberships - url: '#get-team-memberships' - identifier: teams-get-team-memberships - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetTeamMemberships - unstable: [] + - ListTeams order: 6 - - name: Update a team link - url: '#update-a-team-link' - identifier: teams-update-a-team-link - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - UpdateTeamLink - unstable: [] + - ListTeams order: 13 - - name: Get a team link - url: '#get-a-team-link' - identifier: teams-get-a-team-link - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetTeamLink - unstable: [] + - ListTeams order: 12 - - name: Remove a team link - url: '#remove-a-team-link' - identifier: teams-remove-a-team-link - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteTeamLink - unstable: [] + - ListTeams order: 14 - - name: Create a team link - url: '#create-a-team-link' - identifier: teams-create-a-team-link - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateTeamLink - unstable: [] + - ListTeams order: 11 - - name: Get links for a team - url: '#get-links-for-a-team' - identifier: teams-get-links-for-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetTeamLinks - unstable: [] + - ListTeams order: 10 - - name: Update a team - url: '#update-a-team' - identifier: teams-update-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - UpdateTeam - unstable: [] + - ListTeams order: 4 - - name: Get a team - url: '#get-a-team' - identifier: teams-get-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - GetTeam - unstable: [] + - ListTeams order: 3 - - name: Remove a team - url: '#remove-a-team' - identifier: teams-remove-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - DeleteTeam - unstable: [] + - ListTeams order: 5 - - name: Create a team - url: '#create-a-team' - identifier: teams-create-a-team - parent: teams - generated: true - params: + unstable: [] versions: - - v2 + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' + - generated: true + identifier: teams-get-all-teams + name: すべてのチームを取得する + params: operationids: - - CreateTeam - unstable: [] + - ListTeams order: 2 - - name: Get all teams + unstable: [] + versions: + - v2 + parent: teams-get-all-teams url: '#get-all-teams' + - generated: true identifier: teams-get-all-teams - parent: teams - generated: true + name: すべてのチームを取得する params: - versions: - - v2 operationids: - - ListTeams - unstable: [] + - ListTeams order: 1 + unstable: [] + versions: + - v2 + parent: teams-get-all-teams + url: '#get-all-teams' diff --git a/config/_default/menus/api.ko.yaml b/config/_default/menus/api.ko.yaml index 97c7fe459cbbf..b61361e151092 100644 --- a/config/_default/menus/api.ko.yaml +++ b/config/_default/menus/api.ko.yaml @@ -1,7145 +1,7145 @@ menu: api: - - identifier: API 개요 - name: 개요 - url: /api/latest/ - weight: -10 - - name: API 사용 - parent: API 개요 - url: /api/latest/using-the-api/ - weight: 5 - - identifier: API 범위 - name: 승인 범위 - parent: API 개요 - url: /api/latest/scopes/ - weight: 6 - - identifier: rate-limits - name: 속도 제한 - parent: API 개요 - url: /api/latest/rate-limits/ - weight: 7 - - generated: true - identifier: aws-integration - name: AWS 통합 - url: /api/latest/aws-integration/ - - generated: true - identifier: aws-integration-generate-a-new-external-id - name: 새 외부 ID 생성하기 - params: - operationids: - - CreateNewAWSExternalID - order: 4 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#generate-a-new-external-id' - - generated: true - identifier: aws-integration-set-an-aws-tag-filter - name: AWS 태그 필터 설정하기 - params: - operationids: - - CreateAWSTagFilter - order: 2 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#set-an-aws-tag-filter' - - generated: true - identifier: aws-integration-get-all-aws-tag-filters - name: '모든 AWS 태그 필터 가져오기 ' - params: - operationids: - - ListAWSTagFilters - order: 1 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#get-all-aws-tag-filters' - - generated: true - identifier: aws-integration-delete-a-tag-filtering-entry - name: 태그 필터링 항목 삭제하기 - params: - operationids: - - DeleteAWSTagFilter - order: 3 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#delete-a-tag-filtering-entry' - - generated: true - identifier: aws-integration-create-an-amazon-eventbridge-source - name: Amazon EventBridge 소스 생성하기 - params: - operationids: - - CreateAWSEventBridgeSource - order: 11 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#create-an-amazon-eventbridge-source' - - generated: true - identifier: aws-integration-get-all-amazon-eventbridge-sources - name: 모든 Amazon EventBridge 소스 가져오기 - params: - operationids: - - ListAWSEventBridgeSources - order: 10 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#get-all-amazon-eventbridge-sources' - - generated: true - identifier: aws-integration-delete-an-amazon-eventbridge-source - name: Amazon EventBridge 소스 삭제하기 - params: - operationids: - - DeleteAWSEventBridgeSource - order: 12 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#delete-an-amazon-eventbridge-source' - - generated: true - identifier: aws-integration-list-namespace-rules - name: 네임스페이스 규칙 나열하기 - params: - operationids: - - ListAvailableAWSNamespaces - order: 5 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#list-namespace-rules' - - generated: true - identifier: aws-integration-update-an-aws-integration - name: AWS 통합 업데이트하기 - params: - operationids: - - UpdateAWSAccount - order: 9 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#update-an-aws-integration' - - generated: true - identifier: aws-integration-create-an-aws-integration - name: AWS 통합 생성하기 - params: - operationids: - - CreateAWSAccount - order: 8 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#create-an-aws-integration' - - generated: true - identifier: aws-integration-list-all-aws-integrations - name: 모든 AWS 통합 나열하기 - params: - operationids: - - ListAWSAccounts - order: 6 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#list-all-aws-integrations' - - generated: true - identifier: aws-integration-delete-an-aws-integration - name: AWS 통합 삭제하기 - params: - operationids: - - DeleteAWSAccount - order: 7 - unstable: [] - versions: - - v1 - parent: aws-integration - url: '#delete-an-aws-integration' - - generated: true - identifier: aws-logs-integration - name: AWS 로그 통합 - url: /api/latest/aws-logs-integration/ - - generated: true - identifier: aws-logs-integration-check-permissions-for-log-services - name: 로그 서비스에 대한 권한 확인하기 - params: - operationids: - - CheckAWSLogsServicesAsync - order: 6 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#check-permissions-for-log-services' - - generated: true - identifier: aws-logs-integration-enable-an-aws-logs-integration - name: 'AWS 로그 통합 사용하기 ' - params: - operationids: - - EnableAWSLogServices - order: 5 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#enable-an-aws-logs-integration' - - generated: true - identifier: aws-logs-integration-get-list-of-aws-log-ready-services - name: AWS 로그 지원 서비스 목록 가져오기 - params: - operationids: - - ListAWSLogsServices - order: 4 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#get-list-of-aws-log-ready-services' - - generated: true - identifier: aws-logs-integration-check-that-an-aws-lambda-function-exists - name: AWS Lambda 함수가 존재하는지 확인하기 - params: - operationids: - - CheckAWSLogsLambdaAsync - order: 7 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#check-that-an-aws-lambda-function-exists' - - generated: true - identifier: aws-logs-integration-add-aws-log-lambda-arn - name: 인증 - params: - operationids: - - CreateAWSLambdaARN - order: 2 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#add-aws-log-lambda-arn' - - generated: true - identifier: aws-logs-integration-list-all-aws-logs-integrations - name: 모든 AWS 로그 통합 나열하기 - params: - operationids: - - ListAWSLogsIntegrations - order: 1 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#list-all-aws-logs-integrations' - - generated: true - identifier: aws-logs-integration-delete-an-aws-logs-integration - name: AWS 로그 통합 삭제하기 - params: - operationids: - - DeleteAWSLambdaARN - order: 3 - unstable: [] - versions: - - v1 - parent: aws-logs-integration - url: '#delete-an-aws-logs-integration' - - generated: true - identifier: authentication - name: 인증 - url: /api/latest/authentication/ - - generated: true - identifier: authentication-validate-api-key - name: API 키 인증하기 - params: - operationids: - - 인증 - order: 1 - unstable: [] - versions: - - v1 - parent: authentication - url: '#validate-api-key' - - generated: true - identifier: azure-integration - name: Azure 통합 - url: /api/latest/azure-integration/ - - generated: true - identifier: azure-integration-update-azure-integration-host-filters - name: Azure 통합 호스트 필터 업데이트하기 - params: - operationids: - - UpdateAzureHostFilters - order: 5 - unstable: [] - versions: - - v1 - parent: azure-integration - url: '#update-azure-integration-host-filters' - - generated: true - identifier: azure-integration-update-an-azure-integration - name: Azure 통합 업데이트하기 - params: - operationids: - - UpdateAzureIntegration - order: 4 - unstable: [] - versions: - - v1 - parent: azure-integration - url: '#update-an-azure-integration' - - generated: true - identifier: azure-integration-create-an-azure-integration - name: Azure 통합 생성하기 - params: - operationids: - - CreateAzureIntegration - order: 2 - unstable: [] - versions: - - v1 - parent: azure-integration - url: '#create-an-azure-integration' - - generated: true - identifier: azure-integration-list-all-azure-integrations - name: 모든 Azure 통합 나열하기 - params: - operationids: - - ListAzureIntegration - order: 1 - unstable: [] - versions: - - v1 - parent: azure-integration - url: '#list-all-azure-integrations' - - generated: true - identifier: azure-integration-delete-an-azure-integration - name: 대시보드 목록에 항목 추가 - params: - operationids: - - DeleteAzureIntegration - order: 3 - unstable: [] - versions: - - v1 - parent: azure-integration - url: '#delete-an-azure-integration' - - generated: true - identifier: dashboard-lists - name: 대시보드 목록 - url: /api/latest/dashboard-lists/ - - generated: true - identifier: dashboard-lists-update-items-of-a-dashboard-list - name: 대시보드 목록 항목 업데이트하기 - params: - operationids: - - UpdateDashboardListItems - order: 3 - unstable: [] - versions: - - v2 - parent: dashboard-lists - url: '#update-items-of-a-dashboard-list' - - generated: true - identifier: dashboard-lists-add-items-to-a-dashboard-list - name: 대시보드 목록에 항목 추가하기 - params: - operationids: - - CreateDashboardListItems - order: 2 - unstable: [] - versions: - - v2 - parent: dashboard-lists - url: '#add-items-to-a-dashboard-list' - - generated: true - identifier: dashboard-lists-get-items-of-a-dashboard-list - name: 대시보드 목록 항목 가져오기 - params: - operationids: - - GetDashboardListItems - order: 1 - unstable: [] - versions: - - v2 - parent: dashboard-lists - url: '#get-items-of-a-dashboard-list' - - generated: true - identifier: dashboard-lists-delete-items-from-a-dashboard-list - name: 대시보드 목록에서 항목 삭제하기 - params: - operationids: - - DeleteDashboardListItems - order: 4 - unstable: [] - versions: - - v2 - parent: dashboard-lists - url: '#delete-items-from-a-dashboard-list' - - generated: true - identifier: dashboard-lists-update-a-dashboard-list - name: 대시보드 목록 업데이트하기 - params: - operationids: - - UpdateDashboardList - order: 4 - unstable: [] - versions: - - v1 - parent: dashboard-lists - url: '#update-a-dashboard-list' - - generated: true - identifier: dashboard-lists-get-a-dashboard-list - name: 대시보드 목록 가져오기 - params: - operationids: - - GetDashboardList - order: 3 - unstable: [] - versions: - - v1 - parent: dashboard-lists - url: '#get-a-dashboard-list' - - generated: true - identifier: dashboard-lists-delete-a-dashboard-list - name: 대시보드 목록 삭제하기 - params: - operationids: - - DeleteDashboardList - order: 5 - unstable: [] - versions: - - v1 - parent: dashboard-lists - url: '#delete-a-dashboard-list' - - generated: true - identifier: dashboard-lists-create-a-dashboard-list - name: 대시보드 목록 생성하기 - params: - operationids: - - CreateDashboardList - order: 2 - unstable: [] - versions: - - v1 - parent: dashboard-lists - url: '#create-a-dashboard-list' - - generated: true - identifier: dashboard-lists-get-all-dashboard-lists - name: 모든 대시보드 목록 가져오기 - params: - operationids: - - ListDashboardLists - order: 1 - unstable: [] - versions: - - v1 - parent: dashboard-lists - url: '#get-all-dashboard-lists' - - generated: true - identifier: dashboards - name: 대시보드 - url: /api/latest/dashboards/ - - generated: true - identifier: dashboards-update-a-dashboard - name: 대시보드 업데이트하기 - params: - operationids: - - UpdateDashboard - order: 4 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#update-a-dashboard' - - generated: true - identifier: dashboards-get-a-dashboard - name: 대시보드 가져오기 - params: - operationids: - - GetDashboard - order: 2 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#get-a-dashboard' - - generated: true - identifier: dashboards-delete-a-dashboard - name: 대시보드 삭제하기 - params: - operationids: - - DeleteDashboard - order: 5 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#delete-a-dashboard' - - generated: true - identifier: dashboards-send-shared-dashboard-invitation-email - name: 공유 대시보드 초대 이메일 보내기 - params: - operationids: - - SendPublicDashboardInvitation - order: 11 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#send-shared-dashboard-invitation-email' - - generated: true - identifier: dashboards-get-all-invitations-for-a-shared-dashboard - name: 공유 대시보드에 대한 모든 초대 받기 - params: - operationids: - - GetPublicDashboardInvitations - order: 12 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#get-all-invitations-for-a-shared-dashboard' - - generated: true - identifier: dashboards-revoke-shared-dashboard-invitations - name: 공유 대시보드 초대 취소하기 - params: - operationids: - - DeletePublicDashboardInvitation - order: 14 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#revoke-shared-dashboard-invitations' - - generated: true - identifier: dashboards-update-a-shared-dashboard - name: 공유 대시보드 업데이트하기 - params: - operationids: - - UpdatePublicDashboard - order: 10 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#update-a-shared-dashboard' - - generated: true - identifier: dashboards-get-a-shared-dashboard - name: 새 대시보드 생성 - params: - operationids: - - GetPublicDashboard - order: 9 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#get-a-shared-dashboard' - - generated: true - identifier: dashboards-revoke-a-shared-dashboard-url - name: 공유 대시보드 URL 취소하기 - params: - operationids: - - DeletePublicDashboard - order: 13 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#revoke-a-shared-dashboard-url' - - generated: true - identifier: dashboards-create-a-shared-dashboard - name: 공유 대시보드 생성하기 - params: - operationids: - - CreatePublicDashboard - order: 8 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#create-a-shared-dashboard' - - generated: true - identifier: dashboards-create-a-new-dashboard - name: 새 대시보드 생성하기 - params: - operationids: - - CreateDashboard - order: 1 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#create-a-new-dashboard' - - generated: true - identifier: dashboards-restore-deleted-dashboards - name: 삭제된 대시보드 복구 - params: - operationids: - - RestoreDashboards - order: 7 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#restore-deleted-dashboards' - - generated: true - identifier: dashboards-get-all-dashboards - name: 모든 대시보드 보기 - params: - operationids: - - ListDashboards - order: 3 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#get-all-dashboards' - - generated: true - identifier: dashboards-delete-dashboards - name: 삭제된 대시보드 - params: - operationids: - - DeleteDashboards - order: 6 - unstable: [] - versions: - - v1 - parent: dashboards - url: '#delete-dashboards' - - generated: true - identifier: downtimes - name: 다운타임 - url: /api/latest/downtimes/ - - generated: true - identifier: downtimes-get-active-downtimes-for-a-monitor - name: 모니터에 대한 활성 다운타임 확인하기 - params: - operationids: - - ListMonitorDowntimes - order: 7 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#get-active-downtimes-for-a-monitor' - - generated: true - identifier: downtimes-update-a-downtime - name: 다운타임 업데이트하기 - params: - operationids: - - UpdateDowntime - order: 6 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#update-a-downtime' - - generated: true - identifier: downtimes-get-a-downtime - name: 다운타임 가져오기 - params: - operationids: - - GetDowntime - order: 5 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#get-a-downtime' - - generated: true - identifier: downtimes-cancel-a-downtime - name: 다운타임 취소하기 - params: - operationids: - - CancelDowntime - order: 4 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#cancel-a-downtime' - - generated: true - identifier: downtimes-cancel-downtimes-by-scope - name: 범위별로 다운타임 취소하기 - params: - operationids: - - CancelDowntimesByScope - order: 3 - unstable: [] - versions: - - v1 - parent: downtimes - url: '#cancel-downtimes-by-scope' - - generated: true - identifier: downtimes-schedule-a-downtime - name: 다운타임 예약하기 - params: - operationids: - - CreateDowntime - order: 2 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#schedule-a-downtime' - - generated: true - identifier: downtimes-get-all-downtimes - name: 모든 다운타임 가져오기 - params: - operationids: - - ListDowntimes - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: downtimes - url: '#get-all-downtimes' - - generated: true - identifier: embeddable-graphs - name: 삽입 가능한 그래프 - url: /api/latest/embeddable-graphs/ - - generated: true - identifier: embeddable-graphs-revoke-embed - name: 임베드 취소하기 - params: - operationids: - - RevokeEmbeddableGraph - order: 1 - unstable: [] - versions: - - v1 - parent: embeddable-graphs - url: '#revoke-embed' - - generated: true - identifier: embeddable-graphs-enable-embed - name: 임베드 사용하기 - params: - operationids: - - EnableEmbeddableGraph - order: 2 - unstable: [] - versions: - - v1 - parent: embeddable-graphs - url: '#enable-embed' - - generated: true - identifier: 이벤트 - name: 이벤트 - params: - operationids: - - GetEmbeddableGraph - order: 3 - unstable: [] - versions: - - v1 - parent: embeddable-graphs - url: '#get-specific-embed' - - generated: true - identifier: embeddable-graphs-create-embed - name: 임베드 생성하기 - params: - operationids: - - CreateEmbeddableGraph - order: 4 - unstable: [] - versions: - - v1 - parent: 이벤트 - url: '#create-embed' - - generated: true - identifier: embeddable-graphs-get-all-embeds - name: 모든 임베드 가져오기 - params: - operationids: - - ListEmbeddableGraphs - order: 5 - unstable: [] - versions: - - v1 - parent: 이벤트 - url: '#get-all-embeds' - - generated: true - identifier: events - name: 이벤트 - url: /api/latest/events/ - - generated: true - identifier: events-search-events - name: 이벤트 검색하기 - params: - operationids: - - SearchEvents - order: 2 - unstable: [] - versions: - - v2 - parent: 이벤트 - url: '#search-events' - - generated: true - identifier: events-get-an-event - name: 이벤트 가져오기 - params: - operationids: - - GetEvent - order: 2 - unstable: [] - versions: - - v1 - parent: events - url: '#get-an-event' - - generated: true - identifier: events-post-an-event - name: 이벤트 게시하기 - params: - operationids: - - CreateEvent - order: 1 - unstable: [] - versions: - - v1 - parent: events - url: '#post-an-event' - - generated: true - identifier: events-get-a-list-of-events - name: 이벤트 목록 가져오기 - params: - operationids: - - ListEvents - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: events - url: '#get-a-list-of-events' - - generated: true - identifier: gcp-integration - name: GCP 통합 - url: /api/latest/gcp-integration/ - - generated: true - identifier: gcp-integration-create-a-datadog-gcp-principal - name: Datadog GCP 원리 생성하기 - params: - operationids: - - MakeGCPSTSDelegate - order: 5 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#create-a-datadog-gcp-principal' - - generated: true - identifier: gcp-integration-list-delegate-account - name: 위임 계정 나열하기 - params: - operationids: - - GetGCPSTSDelegate - order: 6 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#list-delegate-account' - - generated: true - identifier: gcp-integration-update-sts-service-account - name: ' STS 서비스 계정 업데이트하기' - params: - operationids: - - UpdateGCPSTSAccount - order: 4 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#update-sts-service-account' - - generated: true - identifier: gcp-integration-delete-an-sts-enabled-gcp-account - name: STS가 활성화된 GCP 계정 삭제하기 - params: - operationids: - - DeleteGCPSTSAccount - order: 3 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#delete-an-sts-enabled-gcp-account' - - generated: true - identifier: gcp-integration-create-a-new-entry-for-your-service-account - name: 서비스 계정에 대한 새 항목 만들기 - params: - operationids: - - CreateGCPSTSAccount - order: 2 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#create-a-new-entry-for-your-service-account' - - generated: true - identifier: gcp-integration-list-all-gcp-sts-enabled-service-accounts - name: STS가 활성화된 모든 GCP 서비스 계정 목록 만들기 - params: - operationids: - - ListGCPSTSAccounts - order: 1 - unstable: [] - versions: - - v2 - parent: gcp-integration - url: '#list-all-gcp-sts-enabled-service-accounts' - - generated: true - identifier: gcp-integration-update-a-gcp-integration - name: 'GCP 통합 업데이트하기 ' - params: - operationids: - - UpdateGCPIntegration - order: 4 - unstable: [] - versions: - - v1 - parent: gcp-integration - url: '#update-a-gcp-integration' - - generated: true - identifier: gcp-integration-create-a-gcp-integration - name: 호스트 - params: - operationids: - - CreateGCPIntegration - order: 2 - unstable: [] - versions: - - v1 - parent: gcp-integration - url: '#create-a-gcp-integration' - - generated: true - identifier: gcp-integration-list-all-gcp-integrations - name: 모든 GCP 통합 나열하기 - params: - operationids: - - ListGCPIntegration - order: 1 - unstable: [] - versions: - - v1 - parent: gcp-integration - url: '#list-all-gcp-integrations' - - generated: true - identifier: gcp-integration-delete-a-gcp-integration - name: GCP 통합 삭제하기 - params: - operationids: - - DeleteGCPIntegration - order: 3 - unstable: [] - versions: - - v1 - parent: gcp-integration - url: '#delete-a-gcp-integration' - - generated: true - identifier: hosts - name: 호스트 - url: /api/latest/hosts/ - - generated: true - identifier: hosts-get-the-total-number-of-active-hosts - name: '총 활성 호스트 수 보기 ' - params: - operationids: - - GetHostTotals - order: 2 - unstable: [] - versions: - - v1 - parent: hosts - url: '#get-the-total-number-of-active-hosts' - - generated: true - identifier: hosts-get-all-hosts-for-your-organization - name: IP 범위 - params: - operationids: - - ListHosts - order: 1 - unstable: [] - versions: - - v1 - parent: hosts - url: '#get-all-hosts-for-your-organization' - - generated: true - identifier: hosts-unmute-a-host - name: 호스트 숨김 해제하기 - params: - operationids: - - UnmuteHost - order: 4 - unstable: [] - versions: - - v1 - parent: hosts - url: '#unmute-a-host' - - generated: true - identifier: hosts-mute-a-host - name: '키 관리 ' - params: - operationids: - - MuteHost - order: 3 - unstable: [] - versions: - - v1 - parent: hosts - url: '#mute-a-host' - - generated: true - identifier: ip-ranges - name: 현재 사용자가 소유한 애플리케이션 키 편집 - url: /api/latest/ip-ranges/ - - generated: true - identifier: ip-ranges-list-ip-ranges - name: IP 범위 나열하기 - params: - operationids: - - GetIPRanges - order: 1 - unstable: [] - versions: - - v1 - parent: ip-ranges - url: '#list-ip-ranges' - - generated: true - identifier: key-management - name: 현재 사용자가 소유한 애플리케이션 키 삭제 - url: /api/latest/key-management/ - - generated: true - identifier: key-management-edit-an-application-key-owned-by-current-user - name: 현재 사용자용 애플리케이션 키 생성 - params: - operationids: - - UpdateCurrentUserApplicationKey - order: 2 - unstable: [] - versions: - - v2 - parent: key-management - url: '#edit-an-application-key-owned-by-current-user' - - generated: true - identifier: key-management-get-one-application-key-owned-by-current-user - name: 현재 사용자가 소유한 애플리케이션 키를 전체 불러오기 - params: - operationids: - - GetCurrentUserApplicationKey - order: 3 - unstable: [] - versions: - - v2 - parent: key-management - url: '#get-one-application-key-owned-by-current-user' - - generated: true - identifier: key-management-delete-an-application-key-owned-by-current-user - name: 애플리케이션 키 편집 - params: - operationids: - - DeleteCurrentUserApplicationKey - order: 1 - unstable: [] - versions: - - v2 - parent: key-management - url: '#delete-an-application-key-owned-by-current-user' - - generated: true - identifier: key-management-create-an-application-key-for-current-user - name: 애플리케이션 키 불러오기 - params: - operationids: - - CreateCurrentUserApplicationKey - order: 4 - unstable: [] - versions: - - v2 - parent: key-management - url: '#create-an-application-key-for-current-user' - - generated: true - identifier: key-management-get-all-application-keys-owned-by-current-user - name: 애플리케이션 키 삭제 - params: - operationids: - - ListCurrentUserApplicationKeys - order: 5 - unstable: [] - versions: - - v2 - parent: key-management - url: '#get-all-application-keys-owned-by-current-user' - - generated: true - identifier: key-management-edit-an-application-key - name: 애플리케이션 키 생성 - params: - operationids: - - UpdateApplicationKey - order: 9 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#edit-an-application-key' - - generated: true - identifier: key-management-get-an-application-key - name: 애플리케이션 키 전체 불러오기 - params: - operationids: - - GetApplicationKey - order: 8 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#get-an-application-key' - - generated: true - identifier: key-management-delete-an-application-key - name: API 키 편집 - params: - operationids: - - DeleteApplicationKey - order: 10 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#delete-an-application-key' - - generated: true - identifier: key-management-create-an-application-key - name: API 키 불러오기 - params: - operationids: - - CreateApplicationKey - order: 7 - unstable: [] - versions: - - v1 - parent: key-management - url: '#create-an-application-key' - - generated: true - identifier: key-management-get-all-application-keys - name: API 키 삭제 - params: - operationids: - - ListApplicationKeys - order: 6 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#get-all-application-keys' - - generated: true - identifier: key-management-edit-an-api-key - name: API 키 생성 - params: - operationids: - - UpdateAPIKey - order: 4 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#edit-an-api-key' - - generated: true - identifier: key-management-get-api-key - name: API 키 전체 불러오기 - params: - operationids: - - GetAPIKey - order: 3 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#get-api-key' - - generated: true - identifier: key-management-delete-an-api-key - name: 로그 - params: - operationids: - - DeleteAPIKey - order: 5 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#delete-an-api-key' - - generated: true - identifier: key-management-create-an-api-key - name: 로그 목록 불러오기 - params: - operationids: - - CreateAPIKey - order: 2 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#create-an-api-key' - - generated: true - identifier: key-management-get-all-api-keys - name: 이벤트 집계 - params: - operationids: - - ListAPIKeys - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: key-management - url: '#get-all-api-keys' - - generated: true - identifier: logs - name: 로그 전송 - url: /api/latest/logs/ - - generated: true - identifier: logs-get-a-list-of-logs - name: 로그 목록 가져오기 - params: - operationids: - - ListLogsGet - order: 4 - unstable: [] - versions: - - v2 - parent: logs - url: '#get-a-list-of-logs' - - generated: true - identifier: logs-aggregate-events - name: 로그 인덱스 - params: - operationids: - - AggregateLogs - order: 2 - unstable: [] - versions: - - v2 - parent: logs - url: '#aggregate-events' - - generated: true - identifier: logs-send-logs - name: 로그 전송하기 - params: - operationids: - - SubmitLog - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: logs - url: '#send-logs' - - generated: true - identifier: logs-search-logs - name: 로그 검색하기 - params: - operationids: - - ListLogs - order: 3 - unstable: [] - versions: - - v1 - - v2 - parent: logs - url: '#search-logs' - - generated: true - identifier: logs-indexes - name: 로그 인덱스 - url: /api/latest/logs-indexes/ - - generated: true - identifier: logs-indexes-update-an-index - name: 인덱스 업데이트하기 - params: - operationids: - - UpdateLogsIndex - order: 4 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#update-an-index' - - generated: true - identifier: logs-indexes-get-an-index - name: 인덱스 가져오기 - params: - operationids: - - GetLogsIndex - order: 2 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#get-an-index' - - generated: true - identifier: logs-indexes-create-an-index - name: 인덱스 만들기 - params: - operationids: - - CreateLogsIndex - order: 3 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#create-an-index' - - generated: true - identifier: logs-indexes-get-all-indexes - name: 로그 파이프라인 - params: - operationids: - - ListLogIndexes - order: 1 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#get-all-indexes' - - generated: true - identifier: logs-indexes-update-indexes-order - name: 인덱스 순서 업데이트하기 - params: - operationids: - - UpdateLogsIndexOrder - order: 6 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#update-indexes-order' - - generated: true - identifier: logs-indexes-get-indexes-order - name: 인덱스 순서 가져오기 - params: - operationids: - - GetLogsIndexOrder - order: 5 - unstable: [] - versions: - - v1 - parent: logs-indexes - url: '#get-indexes-order' - - generated: true - identifier: logs-pipelines - name: 로그 파이프라인 - url: /api/latest/logs-pipelines/ - - generated: true - identifier: logs-pipelines-update-a-pipeline - name: 파이프라인 업데이트하기 - params: - operationids: - - UpdateLogsPipeline - order: 7 - unstable: [] - versions: - - v1 - parent: logs-pipelines - url: '#update-a-pipeline' - - generated: true - identifier: logs-pipelines-get-a-pipeline - name: 파이프라인 가져오기 - params: - operationids: - - GetLogsPipeline - order: 5 - unstable: [] - versions: - - v1 - parent: logs-pipelines - url: '#get-a-pipeline' - - generated: true - identifier: logs-pipelines-delete-a-pipeline - name: 파이프라인 삭제하기 - params: - operationids: - - DeleteLogsPipeline - order: 6 - unstable: [] - versions: - - v1 - parent: logs-pipelines - url: '#delete-a-pipeline' - - generated: true - identifier: logs-pipelines-create-a-pipeline - name: 파이프라인 만들기 - params: - operationids: - - CreateLogsPipeline - order: 4 - unstable: [] - versions: - - v1 - parent: logs-pipelines - url: '#create-a-pipeline' - - generated: true - identifier: 메트릭 - name: 메트릭 - params: - operationids: - - ListLogsPipelines - order: 3 - unstable: [] - versions: - - v1 - parent: logs-pipelines - url: '#get-all-pipelines' - - generated: true - identifier: logs-pipelines-update-pipeline-order - name: 파이프라인 순서 업데이트하기 - params: - operationids: - - UpdateLogsPipelineOrder - order: 2 - unstable: [] - versions: - - v1 - parent: 메트릭 - url: '#update-pipeline-order' - - generated: true - identifier: logs-pipelines-get-pipeline-order - name: 파이프라인 순서 가져오기 - params: - operationids: - - GetLogsPipelineOrder - order: 1 - unstable: [] - versions: - - v1 - parent: 메트릭 - url: '#get-pipeline-order' - - generated: true - identifier: metrics - name: 메트릭 이름 기준으로 개별 메트릭 볼륨 목록 표시 - url: /api/latest/metrics/ - - generated: true - identifier: metrics-query-timeseries-data-across-multiple-products - name: 태그 설정 생성 - params: - operationids: - - QueryTimeseriesData - order: 1 - unstable: - - v2 - versions: - - v2 - parent: 메트릭 - url: '#query-timeseries-data-across-multiple-products' - - generated: true - identifier: metrics-query-scalar-data-across-multiple-products - name: 태그 설정 업데이트 - params: - operationids: - - QueryScalarData - order: 2 - unstable: - - v2 - versions: - - v2 - parent: 메트릭 - url: '#query-scalar-data-across-multiple-products' - - generated: true - identifier: metrics-list-distinct-metric-volumes-by-metric-name - name: 고유한 메트릭 볼륨을 이름별로 나열하기 - params: - operationids: - - ListVolumesByMetricName - order: 8 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#list-distinct-metric-volumes-by-metric-name' - - generated: true - identifier: metrics-create-a-tag-configuration - name: 태그 설정 삭제 - params: - operationids: - - CreateTagConfiguration - order: 1 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#create-a-tag-configuration' - - generated: true - identifier: metrics-update-a-tag-configuration - name: 태그 설정 카디널리티 추정 - params: - operationids: - - UpdateTagConfiguration - order: 3 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#update-a-tag-configuration' - - generated: true - identifier: metrics-list-tag-configuration-by-name - name: 이름 기준으로 태그 설정 나열하기 - params: - operationids: - - ListTagConfigurationByName - order: 2 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#list-tag-configuration-by-name' - - generated: true - identifier: metrics-delete-a-tag-configuration - name: 태그 설정 삭제하기 - params: - operationids: - - DeleteTagConfiguration - order: 4 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#delete-a-tag-configuration' - - generated: true - identifier: metrics-tag-configuration-cardinality-estimator - name: 여러 메트릭의 태그 설정 - params: - operationids: - - EstimateMetricsOutputSeries - order: 11 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#tag-configuration-cardinality-estimator' - - generated: true - identifier: metrics-related-assets-to-a-metric - name: 메트릭에 대한 관련 자산 - params: - operationids: - - ListMetricAssets - order: 12 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#related-assets-to-a-metric' - - generated: true - identifier: metrics-list-tags-by-metric-name - name: 메트릭 이름 기준으로 태그 나열하기 - params: - operationids: - - ListTagsByMetricName - order: 6 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#list-tags-by-metric-name' - - generated: true - identifier: metrics-list-active-tags-and-aggregations - name: 활성 태그 및 집계 나열하기 - params: - operationids: - - ListActiveMetricConfigurations - order: 7 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#list-active-tags-and-aggregations' - - generated: true - identifier: metrics-configure-tags-for-multiple-metrics - name: 메트릭 제출 - params: - operationids: - - CreateBulkTagsMetricsConfiguration - order: 9 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#configure-tags-for-multiple-metrics' - - generated: true - identifier: metrics-delete-tags-for-multiple-metrics - name: 여러 메트릭에 대한 태그 삭제하기 - params: - operationids: - - DeleteBulkTagsMetricsConfiguration - order: 10 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#delete-tags-for-multiple-metrics' - - generated: true - identifier: metrics-get-a-list-of-metrics - name: 메트릭 목록 가져오기 - params: - operationids: - - ListTagConfigurations - order: 5 - unstable: [] - versions: - - v2 - parent: 메트릭 - url: '#get-a-list-of-metrics' - - generated: true - identifier: metrics-submit-metrics - name: 메트릭 제출하기 - params: - operationids: - - SubmitMetrics - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: 메트릭 - url: '#submit-metrics' - - generated: true - identifier: metrics-search-metrics - name: 메트릭 검색하기 - params: - operationids: - - ListMetrics - order: 4 - unstable: [] - versions: - - v1 - parent: 메트릭 - url: '#search-metrics' - - generated: true - identifier: metrics-query-timeseries-points - name: 시계열 포인트 쿼리하기 - params: - operationids: - - QueryMetrics - order: 5 - unstable: [] - versions: - - v1 - parent: 메트릭 - url: '#query-timeseries-points' - - generated: true - identifier: metrics-edit-metric-metadata - name: 메트릭 메타데이터 수정하기 - params: - operationids: - - UpdateMetricMetadata - order: 3 - unstable: [] - versions: - - v1 - parent: metrics - url: '#edit-metric-metadata' - - generated: true - identifier: metrics-get-metric-metadata - name: 모니터링 - params: - operationids: - - GetMetricMetadata - order: 2 - unstable: [] - versions: - - v1 - parent: metrics - url: '#get-metric-metadata' - - generated: true - identifier: metrics-get-active-metrics-list - name: 활성 메트릭 목록 가져오기 - params: - operationids: - - ListActiveMetrics - order: 1 - unstable: [] - versions: - - v1 - parent: metrics - url: '#get-active-metrics-list' - - generated: true - identifier: metrics-submit-distribution-points - name: '분포 포인트 제출하기 ' - params: - operationids: - - SubmitDistributionPoints - order: 1 - unstable: [] - versions: - - v1 - parent: metrics - url: '#submit-distribution-points' - - generated: true - identifier: monitors - name: 모니터 - url: /api/latest/monitors/ - - generated: true - identifier: monitors-edit-a-monitor-configuration-policy - name: 모니터 설정 정책 수정하기 - params: - operationids: - - UpdateMonitorConfigPolicy - order: 12 - unstable: [] - versions: - - v2 - parent: monitors - url: '#edit-a-monitor-configuration-policy' - - generated: true - identifier: monitors-get-a-monitor-configuration-policy - name: 모니터 설정 정책 가져오기 - params: - operationids: - - GetMonitorConfigPolicy - order: 9 - unstable: [] - versions: - - v2 - parent: monitors - url: '#get-a-monitor-configuration-policy' - - generated: true - identifier: monitors-delete-a-monitor-configuration-policy - name: 모니터 설정 정책 삭제하기 - params: - operationids: - - DeleteMonitorConfigPolicy - order: 13 - unstable: [] - versions: - - v2 - parent: monitors - url: '#delete-a-monitor-configuration-policy' - - generated: true - identifier: monitors-create-a-monitor-configuration-policy - name: 모니터 설정 정책 만들기 - params: - operationids: - - CreateMonitorConfigPolicy - order: 11 - unstable: [] - versions: - - v2 - parent: monitors - url: '#create-a-monitor-configuration-policy' - - generated: true - identifier: monitors-get-all-monitor-configuration-policies - name: 모든 모니터 설정 정책 가져오기 - params: - operationids: - - ListMonitorConfigPolicies - order: 10 - unstable: [] - versions: - - v2 - parent: monitors - url: '#get-all-monitor-configuration-policies' - - generated: true - identifier: monitors-unmute-all-monitors - name: 모든 모니터 숨김 해제하기 - params: - operationids: - - UnmuteAllMonitors - order: 3 - unstable: [] - versions: - - v1 - parent: monitors - url: '#unmute-all-monitors' - - generated: true - identifier: monitors-mute-all-monitors - name: 모든 모니터 숨기기 - params: - operationids: - - MuteAllMonitors - order: 4 - unstable: [] - versions: - - v1 - parent: monitors - url: '#mute-all-monitors' - - generated: true - identifier: monitors-validate-an-existing-monitor - name: '기존 모니터 인증하기 ' - params: - operationids: - - ValidateExistingMonitor - order: 8 - unstable: [] - versions: - - v1 - parent: monitors - url: '#validate-an-existing-monitor' - - generated: true - identifier: monitors-unmute-a-monitor - name: 모니터 숨김 해제하기 - params: - operationids: - - UnmuteMonitor - order: 1 - unstable: [] - versions: - - v1 - parent: monitors - url: '#unmute-a-monitor' - - generated: true - identifier: monitors-mute-a-monitor - name: 모니터 숨기기 - params: - operationids: - - MuteMonitor - order: 2 - unstable: [] - versions: - - v1 - parent: monitors - url: '#mute-a-monitor' - - generated: true - identifier: monitors-edit-a-monitor - name: 모니터 수정하기 - params: - operationids: - - UpdateMonitor - order: 3 - unstable: [] - versions: - - v1 - parent: monitors - url: '#edit-a-monitor' - - generated: true - identifier: monitors-get-a-monitors-details - name: 모니터 세부 정보 보기 - params: - operationids: - - GetMonitor - order: 4 - unstable: [] - versions: - - v1 - parent: monitors - url: '#get-a-monitors-details' - - generated: true - identifier: monitors-delete-a-monitor - name: 모니터 삭제하기 - params: - operationids: - - DeleteMonitor - order: 5 - unstable: [] - versions: - - v1 - parent: monitors - url: '#delete-a-monitor' - - generated: true - identifier: monitors-validate-a-monitor - name: 모니터 인증하기 - params: - operationids: - - ValidateMonitor - order: 7 - unstable: [] - versions: - - v1 - parent: monitors - url: '#validate-a-monitor' - - generated: true - identifier: monitors-monitors-search - name: 모니터 검색 - params: - operationids: - - SearchMonitors - order: 1 - unstable: [] - versions: - - v1 - parent: monitors - url: '#monitors-search' - - generated: true - identifier: monitors-monitors-group-search - name: 그룹 검색 모니터링 - params: - operationids: - - SearchMonitorGroups - order: 2 - unstable: [] - versions: - - v1 - parent: monitors - url: '#monitors-group-search' - - generated: true - identifier: monitors-check-if-a-monitor-can-be-deleted - name: 노트북 - params: - operationids: - - CheckCanDeleteMonitor - order: 6 - unstable: [] - versions: - - v1 - parent: monitors - url: '#check-if-a-monitor-can-be-deleted' - - generated: true - identifier: monitors-create-a-monitor - name: 모니터 만들기 - params: - operationids: - - CreateMonitor - order: 1 - unstable: [] - versions: - - v1 - parent: monitors - url: '#create-a-monitor' - - generated: true - identifier: monitors-get-all-monitor-details - name: 모든 모니터 세부 정보 보기 - params: - operationids: - - ListMonitors - order: 2 - unstable: [] - versions: - - v1 - parent: monitors - url: '#get-all-monitor-details' - - generated: true - identifier: notebooks - name: 노트북 - url: /api/latest/notebooks/ - - generated: true - identifier: notebooks-update-a-notebook - name: 노트북 업데이트하기 - params: - operationids: - - UpdateNotebook - order: 4 - unstable: [] - versions: - - v1 - parent: notebooks - url: '#update-a-notebook' - - generated: true - identifier: notebooks-get-a-notebook - name: 노트북 가져오기 - params: - operationids: - - GetNotebook - order: 5 - unstable: [] - versions: - - v1 - parent: notebooks - url: '#get-a-notebook' - - generated: true - identifier: notebooks-delete-a-notebook - name: Organizations - params: - operationids: - - DeleteNotebook - order: 3 - unstable: [] - versions: - - v1 - parent: notebooks - url: '#delete-a-notebook' - - generated: true - identifier: notebooks-create-a-notebook - name: IdP 메타데이터 업로드 - params: - operationids: - - CreateNotebook - order: 1 - unstable: [] - versions: - - v1 - parent: notebooks - url: '#create-a-notebook' - - generated: true - identifier: notebooks-get-all-notebooks - name: 모든 노트북 가져오기 - params: - operationids: - - ListNotebooks - order: 2 - unstable: [] - versions: - - v1 - parent: notebooks - url: '#get-all-notebooks' - - generated: true - identifier: organizations - name: 조직 - url: /api/latest/organizations/ - - generated: true - identifier: organizations-upload-idp-metadata - name: IdP 메타데이터 업로드하기 - params: - operationids: - - UploadIdPForOrg - - UploadIdPMetadata - order: 5 - unstable: [] - versions: - - v1 - - v2 - parent: organizations - url: '#upload-idp-metadata' - - generated: true - identifier: organizations-spin-off-child-organization - name: 스핀오프 하위 조직 - params: - operationids: - - DowngradeOrg - order: 6 - unstable: [] - versions: - - v1 - parent: organizations - url: '#spin-off-child-organization' - - generated: true - identifier: organizations-update-your-organization - name: 조직 업데이트하기 - params: - operationids: - - UpdateOrg - order: 4 - unstable: [] - versions: - - v1 - parent: organizations - url: '#update-your-organization' - - generated: true - identifier: organizations-get-organization-information - name: PagerDuty 통합 - params: - operationids: - - GetOrg - order: 3 - unstable: [] - versions: - - v1 - parent: organizations - url: '#get-organization-information' - - generated: true - identifier: organizations-create-a-child-organization - name: 단일 서비스 객체 업데이트 - params: - operationids: - - CreateChildOrg - order: 1 - unstable: [] - versions: - - v1 - parent: organizations - url: '#create-a-child-organization' - - generated: true - identifier: organizations-list-your-managed-organizations - name: 관리 조직 나열하기 - params: - operationids: - - ListOrgs - order: 2 - unstable: [] - versions: - - v1 - parent: organizations - url: '#list-your-managed-organizations' - - generated: true - identifier: pagerduty-integration - name: 단일 서비스 객체 삭제 - url: /api/latest/pagerduty-integration/ - - generated: true - identifier: pagerduty-integration-update-a-single-service-object - name: '단일 서비스 개체 업데이트하기 ' - params: - operationids: - - UpdatePagerDutyIntegrationService - order: 3 - unstable: [] - versions: - - v1 - parent: pagerduty-integration - url: '#update-a-single-service-object' - - generated: true - identifier: pagerduty-integration-get-a-single-service-object - name: 단일 서비스 개체 가져오기 - params: - operationids: - - GetPagerDutyIntegrationService - order: 2 - unstable: [] - versions: - - v1 - parent: pagerduty-integration - url: '#get-a-single-service-object' - - generated: true - identifier: pagerduty-integration-delete-a-single-service-object - name: 단일 서비스 개체 삭제하기 - params: - operationids: - - DeletePagerDutyIntegrationService - order: 4 - unstable: [] - versions: - - v1 - parent: pagerduty-integration - url: '#delete-a-single-service-object' - - generated: true - identifier: pagerduty-integration-create-a-new-service-object - name: 새 서비스 개체 만들기 - params: - operationids: - - CreatePagerDutyIntegrationService - order: 1 - unstable: [] - versions: - - v1 - parent: pagerduty-integration - url: '#create-a-new-service-object' - - generated: true - identifier: screenboards - name: 스크린보드 - url: /api/latest/screenboards/ - - generated: true - identifier: security-monitoring - name: 보안 시그널 목록 불러오기 - url: /api/latest/security-monitoring/ - - generated: true - identifier: security-monitoring-change-the-related-incidents-of-a-security-signal - name: 보안 시그널의 간단 목록 불러오기 - params: - operationids: - - EditSecurityMonitoringSignalIncidents - order: 11 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#change-the-related-incidents-of-a-security-signal' - - generated: true - identifier: security-monitoring-get-a-signals-details - name: 기존 규칙 업데이트 - params: - operationids: - - GetSecurityMonitoringSignal - order: 13 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-signals-details' - - generated: true - identifier: security-monitoring-get-a-list-of-security-signals - name: 보안 신호 목록 가져오기 - params: - operationids: - - SearchSecurityMonitoringSignals - order: 9 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-list-of-security-signals' - - generated: true - identifier: security-monitoring-get-a-quick-list-of-security-signals - name: 보안 신호에 대한 빠른 목록 보기 - params: - operationids: - - ListSecurityMonitoringSignals - order: 10 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-quick-list-of-security-signals' - - generated: true - identifier: security-monitoring-update-an-existing-rule - name: 탐지 규칙 생성 - params: - operationids: - - UpdateSecurityMonitoringRule - order: 6 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#update-an-existing-rule' - - generated: true - identifier: security-monitoring-get-a-rules-details - name: 규칙 목록 표시 - params: - operationids: - - GetSecurityMonitoringRule - order: 5 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-rules-details' - - generated: true - identifier: security-monitoring-delete-an-existing-rule - name: 보안 필터 업데이트 - params: - operationids: - - DeleteSecurityMonitoringRule - order: 7 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#delete-an-existing-rule' - - generated: true - identifier: security-monitoring-validate-a-detection-rule - name: 탐지 규칙 검증 - params: - operationids: - - ValidateSecurityMonitoringRule - order: 8 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#validate-a-detection-rule' - - generated: true - identifier: security-monitoring-create-a-detection-rule - name: 보안 필터 불러오기 - params: - operationids: - - CreateSecurityMonitoringRule - order: 4 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#create-a-detection-rule' - - generated: true - identifier: security-monitoring-list-rules - name: 규칙 나열하기 - params: - operationids: - - ListSecurityMonitoringRules - order: 4 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#list-rules' - - generated: true - identifier: security-monitoring-update-a-suppression-rule - name: 보안 필터 생성 - params: - operationids: - - UpdateSecurityMonitoringSuppression - order: 0 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#update-a-suppression-rule' - - generated: true - identifier: security-monitoring-get-a-suppression-rule - name: 보안 필터 전체 불러오기 - params: - operationids: - - GetSecurityMonitoringSuppression - order: 0 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-suppression-rule' - - generated: true - identifier: security-monitoring-delete-a-suppression-rule - name: 억제 규칙 삭제하기 - params: - operationids: - - DeleteSecurityMonitoringSuppression - order: 0 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#delete-a-suppression-rule' - - generated: true - identifier: security-monitoring-create-a-suppression-rule - name: '억제 규칙 만들기 ' - params: - operationids: - - CreateSecurityMonitoringSuppression - order: 0 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#create-a-suppression-rule' - - generated: true - identifier: security-monitoring-get-all-suppression-rules - name: 모든 억제 규칙 가져오기 - params: - operationids: - - ListSecurityMonitoringSuppressions - order: 0 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-all-suppression-rules' - - generated: true - identifier: security-monitoring-update-a-security-filter - name: 보안 필터 업데이트하기 - params: - operationids: - - UpdateSecurityFilter - order: 15 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#update-a-security-filter' - - generated: true - identifier: security-monitoring-get-a-security-filter - name: 보안 필터 가져오기 - params: - operationids: - - GetSecurityFilter - order: 16 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-a-security-filter' - - generated: true - identifier: security-monitoring-delete-a-security-filter - name: 보안 필터 삭제하기 - params: - operationids: - - DeleteSecurityFilter - order: 14 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#delete-a-security-filter' - - generated: true - identifier: security-monitoring-create-a-security-filter - name: 서비스 점검 - params: - operationids: - - CreateSecurityFilter - order: 17 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#create-a-security-filter' - - generated: true - identifier: security-monitoring-get-all-security-filters - name: '모든 보안 필터 가져오기 ' - params: - operationids: - - ListSecurityFilters - order: 18 - unstable: [] - versions: - - v2 - parent: security-monitoring - url: '#get-all-security-filters' - - generated: true - identifier: security-monitoring-get-a-finding - name: 서비스 종속성 - params: - operationids: - - GetFinding - order: 2 - unstable: - - v2 - versions: - - v2 - parent: security-monitoring - url: '#get-a-finding' - - generated: true - identifier: security-monitoring-mute-or-unmute-a-batch-of-findings - name: '발견 항목 일괄 숨김 또는 숨김 해제 ' - params: - operationids: - - MuteFindings - order: 2 - unstable: - - v2 - versions: - - v2 - parent: security-monitoring - url: '#mute-or-unmute-a-batch-of-findings' - - generated: true - identifier: security-monitoring-list-findings - name: 발견 사항 나열하기 - params: - operationids: - - ListFindings - order: 1 - unstable: - - v2 - versions: - - v2 - parent: security-monitoring - url: '#list-findings' - - generated: true - identifier: security-monitoring-change-the-triage-state-of-a-security-signal - name: 보안 신호 분류 상태 변경하기 - params: - operationids: - - EditSecurityMonitoringSignalState - order: 4 - unstable: [] - versions: - - v1 - - v2 - parent: security-monitoring - url: '#change-the-triage-state-of-a-security-signal' - - generated: true - identifier: security-monitoring-modify-the-triage-assignee-of-a-security-signal - name: 보안 신호 분류 담당자 수정하기 - params: - operationids: - - EditSecurityMonitoringSignalAssignee - order: 5 - unstable: [] - versions: - - v1 - - v2 - parent: security-monitoring - url: '#modify-the-triage-assignee-of-a-security-signal' - - generated: true - identifier: security-monitoring-add-a-security-signal-to-an-incident - name: 인시던트에 보안 신호 추가하기 - params: - operationids: - - AddSecurityMonitoringSignalToIncident - order: 4 - unstable: [] - versions: - - v1 - parent: security-monitoring - url: '#add-a-security-signal-to-an-incident' - - generated: true - identifier: service-checks - name: 서비스 점검 - url: /api/latest/service-checks/ - - generated: true - identifier: service-checks-submit-a-service-check - name: 서비스 검사 제출하기 - params: - operationids: - - SubmitServiceCheck - order: 1 - unstable: [] - versions: - - v1 - parent: service-checks - url: '#submit-a-service-check' - - generated: true - identifier: service-dependencies - name: 서비스 종속성 - url: /api/latest/service-dependencies/ - - generated: true - identifier: service-dependencies-get-one-apm-services-dependencies - name: 서비스 수준 목표(Service Level Objectives) - params: - operationids: - - ListSingleServiceDependencies - order: 2 - unstable: - - v1 - versions: - - v1 - parent: service-dependencies - url: '#get-one-apm-services-dependencies' - - generated: true - identifier: service-dependencies-get-all-apm-service-dependencies - name: 모든 APM 서비스 종속성 가져오기 - params: - operationids: - - ListServiceDependencies - order: 1 - unstable: - - v1 - versions: - - v1 - parent: service-dependencies - url: '#get-all-apm-service-dependencies' - - generated: true - identifier: service-level-objective-corrections - name: 서비스 수준 목표(Service Level Objective) 수정 - url: /api/latest/service-level-objective-corrections/ - - generated: true - identifier: service-level-objective-corrections-update-an-slo-correction - name: SLO 수정 업데이트 - params: - operationids: - - UpdateSLOCorrection - order: 4 - unstable: [] - versions: - - v1 - parent: service-level-objective-corrections - url: '#update-an-slo-correction' - - generated: true - identifier: service-level-objective-corrections-get-an-slo-correction-for-an-slo - name: SLO에 대한 SLO 수정 가져오기 - params: - operationids: - - GetSLOCorrection - order: 3 - unstable: [] - versions: - - v1 - parent: service-level-objective-corrections - url: '#get-an-slo-correction-for-an-slo' - - generated: true - identifier: service-level-objective-corrections-delete-an-slo-correction - name: SLO 수정 삭제하기 - params: - operationids: - - DeleteSLOCorrection - order: 5 - unstable: [] - versions: - - v1 - parent: service-level-objective-corrections - url: '#delete-an-slo-correction' - - generated: true - identifier: service-level-objective-corrections-create-an-slo-correction - name: SLO 수정 생성하기 - params: - operationids: - - CreateSLOCorrection - order: 1 - unstable: [] - versions: - - v1 - parent: service-level-objective-corrections - url: '#create-an-slo-correction' - - generated: true - identifier: service-level-objective-corrections-get-all-slo-corrections - name: 모든 SLO 수정 사항 가져오기 - params: - operationids: - - ListSLOCorrection - order: 2 - unstable: [] - versions: - - v1 - parent: service-level-objective-corrections - url: '#get-all-slo-corrections' - - generated: true - identifier: service-level-objectives - name: "서비스 수준 목표(S\bLO)" - url: /api/latest/service-level-objectives/ - - generated: true - identifier: service-level-objectives-get-slo-report-status - name: SLO 보고서 상태 가져오기 - params: - operationids: - - GetSLOReportJobStatus - order: 102 - unstable: - - v2 - versions: - - v2 - parent: service-level-objectives - url: '#get-slo-report-status' - - generated: true - identifier: service-level-objectives-get-slo-report - name: SLO 보고서 가져오기 - params: - operationids: - - GetSLOReport - order: 103 - unstable: - - v2 - versions: - - v2 - parent: service-level-objectives - url: '#get-slo-report' - - generated: true - identifier: service-level-objectives-create-a-new-slo-report - name: 새 SLO 보고서 만들기 - params: - operationids: - - CreateSLOReportJob - order: 101 - unstable: - - v2 - versions: - - v2 - parent: service-level-objectives - url: '#create-a-new-slo-report' - - generated: true - identifier: service-level-objectives-get-an-slos-history - name: SLO 기록 가져오기 - params: - operationids: - - GetSLOHistory - order: 6 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#get-an-slos-history' - - generated: true - identifier: service-level-objectives-get-corrections-for-an-slo - name: SLO에 대한 수정 사항 가져오기 - params: - operationids: - - GetSLOCorrections - order: 6 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#get-corrections-for-an-slo' - - generated: true - identifier: service-level-objectives-update-an-slo - name: Slack 통합 - params: - operationids: - - UpdateSLO - order: 3 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#update-an-slo' - - generated: true - identifier: service-level-objectives-get-an-slos-details - name: SLO 세부 정보 보기 - params: - operationids: - - GetSLO - order: 4 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#get-an-slos-details' - - generated: true - identifier: service-level-objectives-delete-an-slo - name: SLO 삭제하기 - params: - operationids: - - DeleteSLO - order: 5 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#delete-an-slo' - - generated: true - identifier: service-level-objectives-search-for-slos - name: SLO 검색하기 - params: - operationids: - - SearchSLO - order: 1 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#search-for-slos' - - generated: true - identifier: service-level-objectives-check-if-slos-can-be-safely-deleted - name: SLO를 안전하게 삭제할 수 있는지 확인하기 - params: - operationids: - - CheckCanDeleteSLO - order: 7 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#check-if-slos-can-be-safely-deleted' - - generated: true - identifier: service-level-objectives-bulk-delete-slo-timeframes - name: SLO 타임프레임 일괄 삭제 - params: - operationids: - - DeleteSLOTimeframeInBulk - order: 8 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#bulk-delete-slo-timeframes' - - generated: true - identifier: service-level-objectives-create-an-slo-object - name: SLO 개체 만들기 - params: - operationids: - - CreateSLO - order: 1 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#create-an-slo-object' - - generated: true - identifier: service-level-objectives-get-all-slos - name: 모든 SLO 가져오기 - params: - operationids: - - ListSLOs - order: 2 - unstable: [] - versions: - - v1 - parent: service-level-objectives - url: '#get-all-slos' - - generated: true - identifier: slack-integration - name: Slack 통합 - url: /api/latest/slack-integration/ - - generated: true - identifier: slack-integration-update-a-slack-integration-channel - name: Slack 통합 채널 업데이트하기 - params: - operationids: - - UpdateSlackIntegrationChannel - order: 4 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#update-a-slack-integration-channel' - - generated: true - identifier: slack-integration-get-a-slack-integration-channel - name: 스냅샷 - params: - operationids: - - GetSlackIntegrationChannel - order: 3 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#get-a-slack-integration-channel' - - generated: true - identifier: slack-integration-remove-a-slack-integration-channel - name: Slack 통합 채널 제거하기 - params: - operationids: - - RemoveSlackIntegrationChannel - order: 5 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#remove-a-slack-integration-channel' - - generated: true - identifier: slack-integration-create-a-slack-integration-channel - name: 신서틱 - params: - operationids: - - CreateSlackIntegrationChannel - order: 2 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#create-a-slack-integration-channel' - - generated: true - identifier: slack-integration-get-all-channels-in-a-slack-integration - name: Slack 통합에서 모든 채널 가져오기 - params: - operationids: - - GetSlackIntegrationChannels - order: 1 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#get-all-channels-in-a-slack-integration' - - generated: true - identifier: slack-integration-add-channels-to-slack-integration - name: Slack 통합에 채널 추가하기 - params: - operationids: - - UpdateSlackIntegration - order: 2 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#add-channels-to-slack-integration' - - generated: true - identifier: slack-integration-create-a-slack-integration - name: Slack 통합 만들기 - params: - operationids: - - CreateSlackIntegration - order: 3 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#create-a-slack-integration' - - generated: true - identifier: slack-integration-get-info-about-a-slack-integration - name: Slack 통합 더 알아보기 - params: - operationids: - - GetSlackIntegration - order: 4 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#get-info-about-a-slack-integration' - - generated: true - identifier: slack-integration-delete-a-slack-integration - name: Slack 통합 삭제하기 - params: - operationids: - - DeleteSlackIntegration - order: 1 - unstable: [] - versions: - - v1 - parent: slack-integration - url: '#delete-a-slack-integration' - - generated: true - identifier: snapshots - name: 스냅샷 - url: /api/latest/snapshots/ - - generated: true - identifier: snapshots-take-graph-snapshots - name: '그래프 스냅샷 찍기 ' - params: - operationids: - - GetGraphSnapshot - order: 1 - unstable: [] - versions: - - v1 - parent: snapshots - url: '#take-graph-snapshots' - - generated: true - identifier: synthetics - name: Synthetics - url: /api/latest/synthetics/ - - generated: true - identifier: synthetics-save-new-value-for-on-demand-concurrency-cap - name: 온디맨드 동시 실행 제한에 새로운 값 저장 - params: - operationids: - - SetOnDemandConcurrencyCap - order: 11 - unstable: [] - versions: - - v2 - parent: synthetics - url: '#save-new-value-for-on-demand-concurrency-cap' - - generated: true - identifier: synthetics-get-the-on-demand-concurrency-cap - name: 온디맨드 동시 실행 제한 가져오기 - params: - operationids: - - GetOnDemandConcurrencyCap - order: 10 - unstable: [] - versions: - - v2 - parent: synthetics - url: '#get-the-on-demand-concurrency-cap' - - generated: true - identifier: synthetics-edit-a-global-variable - name: 전역 변수 수정하기 - params: - operationids: - - EditGlobalVariable - order: 21 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#edit-a-global-variable' - - generated: true - identifier: synthetics-get-a-global-variable - name: 전역 변수 가져오기 - params: - operationids: - - GetGlobalVariable - order: 20 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-global-variable' - - generated: true - identifier: synthetics-delete-a-global-variable - name: 전역 변수 삭제하기 - params: - operationids: - - DeleteGlobalVariable - order: 22 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#delete-a-global-variable' - - generated: true - identifier: synthetics-create-a-global-variable - name: 전역 변수 만들기 - params: - operationids: - - CreateGlobalVariable - order: 19 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#create-a-global-variable' - - generated: true - identifier: synthetics-get-all-global-variables - name: 모든 전역 변수 가져오기 - params: - operationids: - - ListGlobalVariables - order: 18 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-all-global-variables' - - generated: true - identifier: synthetics-pause-or-start-a-test - name: 테스트 시작 또는 일시 중지 - params: - operationids: - - UpdateTestPauseStatus - order: 6 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#pause-or-start-a-test' - - generated: true - identifier: synthetics-get-an-api-test-result - name: API 테스트 결과 가져오기 - params: - operationids: - - GetAPITestResult - order: 12 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-an-api-test-result' - - generated: true - identifier: synthetics-get-an-api-tests-latest-results-summaries - name: API 테스트 최신 결과 요약 가져오기 - params: - operationids: - - GetAPITestLatestResults - order: 14 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-an-api-tests-latest-results-summaries' - - generated: true - identifier: synthetics-edit-a-test - name: 테스트 수정하기 - params: - operationids: - - UpdateTest - order: 30 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#edit-a-test' - - generated: true - identifier: synthetics-patch-a-synthetic-test - name: 브라우저 테스트 생성하기 - params: - operationids: - - PatchTest - order: 5 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#patch-a-synthetic-test' - - generated: true - identifier: synthetics-get-a-test-configuration - name: 테스트 설정 가져오기 - params: - operationids: - - GetTest - order: 28 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-test-configuration' - - generated: true - identifier: synthetics-trigger-tests-from-ci/cd-pipelines - name: CI/CD 파이프라인에서 테스트 트리거하기 - params: - operationids: - - TriggerCITests - order: 7 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#trigger-tests-from-ci/cd-pipelines' - - generated: true - identifier: synthetics-trigger-synthetic-tests - name: 합성 테스트 트리거하기 - params: - operationids: - - TriggerTests - order: 8 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#trigger-synthetic-tests' - - generated: true - identifier: synthetics-delete-tests - name: 테스트 삭제하기 - params: - operationids: - - DeleteTests - order: 17 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#delete-tests' - - generated: true - identifier: synthetics-get-a-browser-test-result - name: 브라우저 테스트 결과 가져오기 - params: - operationids: - - GetBrowserTestResult - order: 13 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-browser-test-result' - - generated: true - identifier: synthetics-get-a-browser-tests-latest-results-summaries - name: 브라우저 테스트 최신 결과 요약 가져오기 - params: - operationids: - - GetBrowserTestLatestResults - order: 15 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-browser-tests-latest-results-summaries' - - generated: true - identifier: synthetics-edit-a-browser-test - name: 브라우저 테스트 수정하기 - params: - operationids: - - UpdateBrowserTest - order: 4 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#edit-a-browser-test' - - generated: true - identifier: synthetics-get-a-browser-test - name: 브라우저 테스트 가져오기 - params: - operationids: - - GetBrowserTest - order: 10 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-browser-test' - - generated: true - identifier: synthetics-create-a-browser-test - name: 브라우저 테스트 생성하기 - params: - operationids: - - CreateSyntheticsBrowserTest - order: 2 - unstable: [] - versions: - - v1 - parent: 태그 - url: '#create-a-browser-test' - - generated: true - identifier: synthetics-edit-an-api-test - name: API 테스트 수정하기 - params: - operationids: - - UpdateAPITest - order: 3 - unstable: [] - versions: - - v1 - parent: 태그 - url: '#edit-an-api-test' - - generated: true - identifier: synthetics-get-an-api-test - name: API 테스트 가져오기 - params: - operationids: - - GetAPITest - order: 9 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-an-api-test' - - generated: true - identifier: synthetics-create-an-api-test - name: API 테스트 만들기 - params: - operationids: - - CreateSyntheticsAPITest - order: 1 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#create-an-api-test' - - generated: true - identifier: 태그 - name: 태그 - params: - operationids: - - CreateTest - order: 31 - unstable: [] - versions: - - v1 - parent: 태그 - url: '#create-a-test' - - generated: true - identifier: synthetics-get-the-list-of-all-synthetic-tests - name: 모든 신서틱(Synthetic) 테스트의 목록 가져오기 - params: - operationids: - - ListTests - order: 11 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-the-list-of-all-synthetic-tests' - - generated: true - identifier: synthetics-get-the-default-locations - name: 호스트에 태그 추가 - params: - operationids: - - GetSyntheticsDefaultLocations - order: 29 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-the-default-locations' - - generated: true - identifier: synthetics-edit-a-private-location - name: 프라이빗 위치 수정하기 - params: - operationids: - - UpdatePrivateLocation - order: 25 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#edit-a-private-location' - - generated: true - identifier: synthetics-get-a-private-location - name: '프라이빗 위치 가져오기 ' - params: - operationids: - - GetPrivateLocation - order: 24 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-a-private-location' - - generated: true - identifier: synthetics-delete-a-private-location - name: 프라이빗 위치 삭제하기 - params: - operationids: - - DeletePrivateLocation - order: 27 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#delete-a-private-location' - - generated: true - identifier: synthetics-create-a-private-location - name: 타임보드 - params: - operationids: - - CreatePrivateLocation - order: 23 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#create-a-private-location' - - generated: true - identifier: synthetics-get-all-locations-public-and-private - name: 사용량 측정 - params: - operationids: - - ListLocations - order: 26 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-all-locations-public-and-private' - - generated: true - identifier: synthetics-get-details-of-batch - name: 배치 세부 정보 가져오기 - params: - operationids: - - GetSyntheticsCIBatch - order: 16 - unstable: [] - versions: - - v1 - parent: synthetics - url: '#get-details-of-batch' - - generated: true - identifier: tags - name: 태그 - url: /api/latest/tags/ - - generated: true - identifier: tags-update-host-tags - name: 호스트 태그 업데이트하기 - params: - operationids: - - UpdateHostTags - order: 4 - unstable: [] - versions: - - v1 - parent: tags - url: '#update-host-tags' - - generated: true - identifier: tags-add-tags-to-a-host - name: 호스트에 태그 추가하기 - params: - operationids: - - CreateHostTags - order: 3 - unstable: [] - versions: - - v1 - parent: tags - url: '#add-tags-to-a-host' - - generated: true - identifier: tags-get-host-tags - name: 호스트 태그 가져오기 - params: - operationids: - - GetHostTags - order: 2 - unstable: [] - versions: - - v1 - parent: tags - url: '#get-host-tags' - - generated: true - identifier: tags-remove-host-tags - name: 멀티-org 계정 비용 불러오기 - params: - operationids: - - DeleteHostTags - order: 5 - unstable: [] - versions: - - v1 - parent: tags - url: '#remove-host-tags' - - generated: true - identifier: tags-get-tags - name: 태그 가져오기 - params: - operationids: - - ListHostTags - order: 1 - unstable: [] - versions: - - v1 - parent: tags - url: '#get-tags' - - generated: true - identifier: timeboards - name: 타임보드 - url: /api/latest/timeboards/ - - generated: true - identifier: usage-metering - name: 사용량 측정 - url: /api/latest/usage-metering/ - - generated: true - identifier: usage-metering-get-projected-cost-across-your-account - name: '계정 전체의 예상 비용 확인하기 ' - params: - operationids: - - GetProjectedCost - order: 7 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-projected-cost-across-your-account' - - generated: true - identifier: usage-metering-get-hourly-usage-for-observability-pipelines - name: 옵저버빌리티 파이프라인의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageObservabilityPipelines - order: 39 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-hourly-usage-for-observability-pipelines' - - generated: true - identifier: usage-metering-get-hourly-usage-for-lambda-traced-invocations - name: Lambda 추적 호출 시간별 사용량 확인하기 - params: - operationids: - - GetUsageLambdaTracedInvocations - order: 37 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-hourly-usage-for-lambda-traced-invocations' - - generated: true - identifier: usage-metering-get-hourly-usage-by-product-family - name: 제품군별 시간당 사용량 확인하기 - params: - operationids: - - GetHourlyUsage - order: 1 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-hourly-usage-by-product-family' - - generated: true - identifier: usage-metering-get-historical-cost-across-your-account - name: 계정 전체에 대한 과거 비용 확인하기 - params: - operationids: - - GetHistoricalCostByOrg - order: 5 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-historical-cost-across-your-account' - - generated: true - identifier: usage-metering-get-estimated-cost-across-your-account - name: 계정 전체 예상 비용 확인하기 - params: - operationids: - - GetEstimatedCostByOrg - order: 6 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-estimated-cost-across-your-account' - - generated: true - identifier: usage-metering-get-cost-across-multi-org-account - name: 여러 조직 계정에서 비용 확인하기 - params: - operationids: - - GetCostByOrg - order: 45 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-cost-across-multi-org-account' - - generated: true - identifier: usage-metering-get-hourly-usage-for-application-security - name: 애플리케이션 보안의 시간당 사용량 확인하기 - params: - operationids: - - GetUsageApplicationSecurityMonitoring - order: 38 - unstable: [] - versions: - - v2 - parent: usage-metering - url: '#get-hourly-usage-for-application-security' - - generated: true - identifier: usage-metering-get-monthly-cost-attribution - name: 월별 비용 어트리뷰션 확인하기 - params: - operationids: - - GetMonthlyCostAttribution - order: 5 - unstable: - - v2 - versions: - - v2 - parent: usage-metering - url: '#get-monthly-cost-attribution' - - generated: true - identifier: usage-metering-get-active-billing-dimensions-for-cost-attribution - name: 비용 어트리뷰션에 대한 활성 청구 기준 확인하기 - params: - operationids: - - GetActiveBillingDimensions - order: 5 - unstable: - - v2 - versions: - - v2 - parent: usage-metering - url: '#get-active-billing-dimensions-for-cost-attribution' - - generated: true - identifier: usage-metering-get-all-custom-metrics-by-hourly-average - name: 시간별 평균 기준 모든 커스텀 메트릭 확인하기 - params: - operationids: - - GetUsageTopAvgMetrics - order: 7 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-all-custom-metrics-by-hourly-average' - - generated: true - identifier: usage-metering-get-hourly-usage-for-custom-metrics - name: 커스텀 메트릭의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageTimeseries - order: 13 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-custom-metrics' - - generated: true - identifier: usage-metering-get-hourly-usage-for-synthetics-browser-checks - name: 합성 브라우저 검사 시간별 사용량 확인하기 - params: - operationids: - - GetUsageSyntheticsBrowser - order: 17 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-synthetics-browser-checks' - - generated: true - identifier: usage-metering-get-hourly-usage-for-synthetics-api-checks - name: 합성 API 검사의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageSyntheticsAPI - order: 16 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-synthetics-api-checks' - - generated: true - identifier: usage-metering-get-hourly-usage-for-synthetics-checks - name: 합성 검사의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageSynthetics - order: 15 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-synthetics-checks' - - generated: true - identifier: usage-metering-get-usage-across-your-account - name: 계정 전체 사용량 확인하기 - params: - operationids: - - GetUsageSummary - order: 8 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-usage-across-your-account' - - generated: true - identifier: usage-metering-get-hourly-usage-for-snmp-devices - name: SNMP 기기 시간별 사용량 확인하기 - params: - operationids: - - GetUsageSNMP - order: 24 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-snmp-devices' - - generated: true - identifier: usage-metering-get-hourly-usage-for-sensitive-data-scanner - name: 민감한 데이터 스캐너의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageSDS - order: 32 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-sensitive-data-scanner' - - generated: true - identifier: usage-metering-get-hourly-usage-for-rum-sessions - name: RUM 세션의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageRumSessions - order: 20 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-rum-sessions' - - generated: true - identifier: usage-metering-get-hourly-usage-for-rum-units - name: RUM 단위의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageRumUnits - order: 33 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-rum-units' - - generated: true - identifier: usage-metering-get-hourly-usage-for-profiled-hosts - name: 프로파일링된 호스트의시간별 사용량 확인하기 - params: - operationids: - - GetUsageProfiling - order: 34 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-profiled-hosts' - - generated: true - identifier: usage-metering-get-hourly-usage-for-online-archive - name: 온라인 아카이브의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageOnlineArchive - order: 36 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-online-archive' - - generated: true - identifier: usage-metering-get-hourly-usage-for-network-hosts - name: 네트워크 호스트의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageNetworkHosts - order: 21 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-network-hosts' - - generated: true - identifier: usage-metering-get-hourly-usage-for-network-flows - name: 네트워크 흐름에 대한 시간별 사용량 확인하기 - params: - operationids: - - GetUsageNetworkFlows - order: 22 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-network-flows' - - generated: true - identifier: usage-metering-get-monthly-usage-attribution - name: 월별 사용량 어트리뷰션 확인하기 - params: - operationids: - - GetMonthlyUsageAttribution - order: 3 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-monthly-usage-attribution' - - generated: true - identifier: usage-metering-get-hourly-usage-for-logs-by-index - name: 인덱스 기준 로그의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageLogsByIndex - order: 9 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-logs-by-index' - - generated: true - identifier: usage-metering-get-hourly-logs-usage-by-retention - name: 보존 기준 시간별 로그 사용량 확인하기 - params: - operationids: - - GetUsageLogsByRetention - order: 10 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-logs-usage-by-retention' - - generated: true - identifier: usage-metering-get-hourly-usage-for-logs - name: 로그의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageLogs - order: 12 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-logs' - - generated: true - identifier: usage-metering-get-hourly-usage-for-iot - name: IoT의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageInternetOfThings - order: 27 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-iot' - - generated: true - identifier: usage-metering-get-hourly-usage-for-ingested-spans - name: 삽입된 스팬의 시간별 사용량 확인하기 - params: - operationids: - - GetIngestedSpans - order: 25 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-ingested-spans' - - generated: true - identifier: usage-metering-get-hourly-usage-for-indexed-spans - name: '인덱싱된 스팬의 시간별 사용량 확인하기 ' - params: - operationids: - - GetUsageIndexedSpans - order: 14 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-indexed-spans' - - generated: true - identifier: usage-metering-get-hourly-usage-for-incident-management - name: 인시던트 관리의 시간별 사용량 확인하기 - params: - operationids: - - GetIncidentManagement - order: 26 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-incident-management' - - generated: true - identifier: usage-metering-get-hourly-usage-attribution - name: 시간별 사용량 어트리뷰션 확인하기 - params: - operationids: - - GetHourlyUsageAttribution - order: 2 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-attribution' - - generated: true - identifier: usage-metering-get-hourly-usage-for-hosts-and-containers - name: 호스트 및 컨테이너의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageHosts - order: 11 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-hosts-and-containers' - - generated: true - identifier: usage-metering-get-hourly-usage-for-fargate - name: Fargate의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageFargate - order: 18 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-fargate' - - generated: true - identifier: usage-metering-get-hourly-usage-for-database-monitoring - name: 데이터베이스 모니터링의 시간별 사용량 확인하기 - params: - operationids: - - GetUsageDBM - order: 31 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-database-monitoring' - - generated: true - identifier: usage-metering-get-hourly-usage-for-cloud-workload-security - name: 사용자 - params: - operationids: - - GetUsageCWS - order: 30 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-cloud-workload-security' - - generated: true - identifier: usage-metering-get-hourly-usage-for-csm-pro - name: 사용자 권한 불러오기 - params: - operationids: - - GetUsageCloudSecurityPostureManagement - order: 28 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-csm-pro' - - generated: true - identifier: usage-metering-get-hourly-usage-for-ci-visibility - name: CI Visibility 시간당 사용량 확인하기 - params: - operationids: - - GetUsageCIApp - order: 35 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-ci-visibility' - - generated: true - identifier: usage-metering-get-billable-usage-across-your-account - name: 사용자 초대 불러오기 - params: - operationids: - - GetUsageBillableSummary - order: 5 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-billable-usage-across-your-account' - - generated: true - identifier: usage-metering-get-hourly-usage-for-lambda - name: ' Lambda의 시간별 사용량 확인하기' - params: - operationids: - - GetUsageLambda - order: 19 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-lambda' - - generated: true - identifier: usage-metering-get-hourly-usage-for-audit-logs - name: 사용자 업데이트 - params: - operationids: - - GetUsageAuditLogs - order: 40 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-audit-logs' - - generated: true - identifier: usage-metering-get-hourly-usage-for-analyzed-logs - name: 사용자 비활성화 - params: - operationids: - - GetUsageAnalyzedLogs - order: 23 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-hourly-usage-for-analyzed-logs' - - generated: true - identifier: usage-metering-get-specified-monthly-custom-reports - name: 사용자 생성 - params: - operationids: - - GetSpecifiedMonthlyCustomReports - order: 44 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-specified-monthly-custom-reports' - - generated: true - identifier: usage-metering-get-the-list-of-available-monthly-custom-reports - name: 사용 가능한 월별 커스텀 보고서 목록 보기 - params: - operationids: - - GetMonthlyCustomReports - order: 43 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-the-list-of-available-monthly-custom-reports' - - generated: true - identifier: usage-metering-get-specified-daily-custom-reports - name: Webhooks 통합 - params: - operationids: - - GetSpecifiedDailyCustomReports - order: 42 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-specified-daily-custom-reports' - - generated: true - identifier: usage-metering-get-the-list-of-available-daily-custom-reports - name: 사용 가능한 일일 커스텀 보고서 목록 보기 - params: - operationids: - - GetDailyCustomReports - order: 41 - unstable: [] - versions: - - v1 - parent: usage-metering - url: '#get-the-list-of-available-daily-custom-reports' - - generated: true - identifier: users - name: '사용자 ' - url: /api/latest/users/ - - generated: true - identifier: users-get-a-user-permissions - name: 사용자 권한 가져오기 - params: - operationids: - - ListUserPermissions - order: 7 - unstable: [] - versions: - - v2 - parent: users - url: '#get-a-user-permissions' - - generated: true - identifier: users-get-a-user-organization - name: 사용자 조직 가져오기 - params: - operationids: - - ListUserOrganizations - order: 6 - unstable: [] - versions: - - v2 - parent: users - url: '#get-a-user-organization' - - generated: true - identifier: users-get-a-user-invitation - name: 사용자 초대장 가져오기 - params: - operationids: - - GetInvitation - order: 9 - unstable: [] - versions: - - v2 - parent: users - url: '#get-a-user-invitation' - - generated: true - identifier: users-send-invitation-emails - name: 초대 메일 발송하기 - params: - operationids: - - SendInvitations - order: 8 - unstable: [] - versions: - - v2 - parent: users - url: '#send-invitation-emails' - - generated: true - identifier: users-update-a-user - name: 사용자 업데이트하기 - params: - operationids: - - UpdateUser - order: 4 - unstable: [] - versions: - - v1 - - v2 - parent: users - url: '#update-a-user' - - generated: true - identifier: users-get-user-details - name: 사용자 세부 정보 가져오기 - params: - operationids: - - GetUser - order: 3 - unstable: [] - versions: - - v1 - - v2 - parent: users - url: '#get-user-details' - - generated: true - identifier: users-disable-a-user - name: 사용자 비활성화하기 - params: - operationids: - - DisableUser - order: 5 - unstable: [] - versions: - - v1 - - v2 - parent: users - url: '#disable-a-user' - - generated: true - identifier: users-create-a-user - name: 사용자 생성하기 - params: - operationids: - - CreateUser - order: 1 - unstable: [] - versions: - - v1 - - v2 - parent: users - url: '#create-a-user' - - generated: true - identifier: users-list-all-users - name: 모든 사용자 표시하기 - params: - operationids: - - ListUsers - order: 2 - unstable: [] - versions: - - v1 - - v2 - parent: users - url: '#list-all-users' - - generated: true - identifier: webhooks-integration - name: 'Webhooks 통합 ' - url: /api/latest/webhooks-integration/ - - generated: true - identifier: webhooks-integration-update-a-webhook - name: 웹훅 업데이트하기 - params: - operationids: - - UpdateWebhooksIntegration - order: 3 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#update-a-webhook' - - generated: true - identifier: webhooks-integration-get-a-webhook-integration - name: 웹훅 통합 가져오기 - params: - operationids: - - GetWebhooksIntegration - order: 2 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#get-a-webhook-integration' - - generated: true - identifier: webhooks-integration-delete-a-webhook - name: 웹훅 삭제하기 - params: - operationids: - - DeleteWebhooksIntegration - order: 4 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#delete-a-webhook' - - generated: true - identifier: webhooks-integration-create-a-webhooks-integration - name: 웹훅 통합 생성하기 - params: - operationids: - - CreateWebhooksIntegration - order: 1 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#create-a-webhooks-integration' - - generated: true - identifier: webhooks-integration-update-a-custom-variable - name: 커스텀 변수 업데이트하기 - params: - operationids: - - UpdateWebhooksIntegrationCustomVariable - order: 7 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#update-a-custom-variable' - - generated: true - identifier: webhooks-integration-get-a-custom-variable - name: 커스텀 변수 가져오기 - params: - operationids: - - GetWebhooksIntegrationCustomVariable - order: 6 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#get-a-custom-variable' - - generated: true - identifier: webhooks-integration-delete-a-custom-variable - name: 커스텀 변수 삭제하기 - params: - operationids: - - DeleteWebhooksIntegrationCustomVariable - order: 8 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#delete-a-custom-variable' - - generated: true - identifier: webhooks-integration-create-a-custom-variable - name: 커스텀 변수 만들기 - params: - operationids: - - CreateWebhooksIntegrationCustomVariable - order: 5 - unstable: [] - versions: - - v1 - parent: webhooks-integration - url: '#create-a-custom-variable' - - generated: true - identifier: api-management - name: API 관리 - url: /api/latest/api-management/ - - generated: true - identifier: api-management-create-a-new-api - name: 새 API 생성 - params: - operationids: - - CreateOpenAPI - order: 1 - unstable: - - v2 - versions: - - v2 - parent: api-management - url: '#create-a-new-api' - - generated: true - identifier: api-management-update-an-api - name: API 업데이트 - params: - operationids: - - UpdateOpenAPI - order: 2 - unstable: - - v2 - versions: - - v2 - parent: api-management - url: '#update-an-api' - - generated: true - identifier: api-management-get-an-api - name: API 얻기 - params: - operationids: - - GetOpenAPI - order: 3 - unstable: - - v2 - versions: - - v2 - parent: api-management - url: '#get-an-api' - - generated: true - identifier: api-management-delete-an-api - name: API 삭제 - params: - operationids: - - DeleteOpenAPI - order: 4 - unstable: - - v2 - versions: - - v2 - parent: api-management - url: '#delete-an-api' - - generated: true - identifier: apm-retention-filters - name: APM 보존 필터 - url: /api/latest/apm-retention-filters/ - - generated: true - identifier: apm-retention-filters-update-a-retention-filter - name: 보존 필터 업데이트하기 - params: - operationids: - - UpdateApmRetentionFilter - order: 4 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#update-a-retention-filter' - - generated: true - identifier: apm-retention-filters-get-a-given-apm-retention-filter - name: APM 보존 필터 가져오기 - params: - operationids: - - GetApmRetentionFilter - order: 3 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#get-a-given-apm-retention-filter' - - generated: true - identifier: apm-retention-filters-delete-a-retention-filter - name: 보존 필터 삭제하기 - params: - operationids: - - DeleteApmRetentionFilter - order: 5 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#delete-a-retention-filter' - - generated: true - identifier: apm-retention-filters-re-order-retention-filters - name: 보존 필터 재정렬하기 - params: - operationids: - - ReorderApmRetentionFilters - order: 6 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#re-order-retention-filters' - - generated: true - identifier: apm-retention-filters-create-a-retention-filter - name: 보존 필터 만들기 - params: - operationids: - - CreateApmRetentionFilter - order: 2 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#create-a-retention-filter' - - generated: true - identifier: apm-retention-filters-list-all-apm-retention-filters - name: 모든 APM 보존 필터 나열하기 - params: - operationids: - - ListApmRetentionFilters - order: 1 - unstable: [] - versions: - - v2 - parent: apm-retention-filters - url: '#list-all-apm-retention-filters' - - generated: true - identifier: audit - name: 감사 - url: /api/latest/audit/ - - generated: true - identifier: audit-search-audit-logs-events - name: 감사 로그 이벤트 검색하기 - params: - operationids: - - SearchAuditLogs - order: 1 - unstable: [] - versions: - - v2 - parent: audit - url: '#search-audit-logs-events' - - generated: true - identifier: audit-get-a-list-of-audit-logs-events - name: 감사 로그 이벤트 목록 가져오기 - params: - operationids: - - ListAuditLogs - order: 2 - unstable: [] - versions: - - v2 - parent: audit - url: '#get-a-list-of-audit-logs-events' - - generated: true - identifier: authn-mappings - name: AuthN Mappings - url: /api/latest/authn-mappings/ - - generated: true - identifier: authn-mappings-edit-an-authn-mapping - name: AuthN Mapping 수정하기 - params: - operationids: - - UpdateAuthNMapping - order: 2 - unstable: [] - versions: - - v2 - parent: authn-mappings - url: '#edit-an-authn-mapping' - - generated: true - identifier: authn-mappings-get-an-authn-mapping-by-uuid - name: UUID로 AuthN Mapping 가져오기 - params: - operationids: - - GetAuthNMapping - order: 1 - unstable: [] - versions: - - v2 - parent: authn-mappings - url: '#get-an-authn-mapping-by-uuid' - - generated: true - identifier: authn-mappings-delete-an-authn-mapping - name: AuthN Mapping 삭제하기 - params: - operationids: - - DeleteAuthNMapping - order: 3 - unstable: [] - versions: - - v2 - parent: authn-mappings - url: '#delete-an-authn-mapping' - - generated: true - identifier: authn-mappings-create-an-authn-mapping - name: AuthN 매핑 만들기 - params: - operationids: - - CreateAuthNMapping - order: 5 - unstable: [] - versions: - - v2 - parent: authn-mappings - url: '#create-an-authn-mapping' - - generated: true - identifier: authn-mappings-list-all-authn-mappings - name: 모든 AuthN Mappings 나열하기 - params: - operationids: - - ListAuthNMappings - order: 4 - unstable: [] - versions: - - v2 - parent: authn-mappings - url: '#list-all-authn-mappings' - - generated: true - identifier: ci-visibility-pipelines - name: CI Visibility Pipelines - url: /api/latest/ci-visibility-pipelines/ - - generated: true - identifier: ci-visibility-pipelines-search-pipelines-events - name: 파이프라인 이벤트 검색하기 - params: - operationids: - - SearchCIAppPipelineEvents - order: 3 - unstable: [] - versions: - - v2 - parent: ci-visibility-pipelines - url: '#search-pipelines-events' - - generated: true - identifier: ci-visibility-pipelines-get-a-list-of-pipelines-events - name: 파이프라인 이벤트 목록 가져오기 - params: - operationids: - - ListCIAppPipelineEvents - order: 2 - unstable: [] - versions: - - v2 - parent: ci-visibility-pipelines - url: '#get-a-list-of-pipelines-events' - - generated: true - identifier: ci-visibility-pipelines-aggregate-pipelines-events - name: 파이프라인 이벤트 집계하기 - params: - operationids: - - AggregateCIAppPipelineEvents - order: 4 - unstable: [] - versions: - - v2 - parent: ci-visibility-pipelines - url: '#aggregate-pipelines-events' - - generated: true - identifier: ci-visibility-pipelines-send-pipeline-event - name: 파이프라인 이벤트 전송하기 - params: - operationids: - - CreateCIAppPipelineEvent - order: 1 - unstable: [] - versions: - - v2 - parent: ci-visibility-pipelines - url: '#send-pipeline-event' - - generated: true - identifier: ci-visibility-tests - name: CI Visibility Tests - url: /api/latest/ci-visibility-tests/ - - generated: true - identifier: ci-visibility-tests-search-tests-events - name: '테스트 이벤트 검색하기 ' - params: - operationids: - - SearchCIAppTestEvents - order: 2 - unstable: [] - versions: - - v2 - parent: ci-visibility-tests - url: '#search-tests-events' - - generated: true - identifier: ci-visibility-tests-get-a-list-of-tests-events - name: 테스트 이벤트 목록 가져오기 - params: - operationids: - - ListCIAppTestEvents - order: 1 - unstable: [] - versions: - - v2 - parent: ci-visibility-tests - url: '#get-a-list-of-tests-events' - - generated: true - identifier: ci-visibility-tests-aggregate-tests-events - name: 테스트 이벤트 집계하기 - params: - operationids: - - AggregateCIAppTestEvents - order: 3 - unstable: [] - versions: - - v2 - parent: ci-visibility-tests - url: '#aggregate-tests-events' - - generated: true - identifier: csm-threats - name: CSM 위협 - url: /api/latest/csm-threats/ - - generated: true - identifier: case-management - name: 사례 관리 - url: /api/latest/case-management/ - - generated: true - identifier: case-management-unassign-case - name: 사례 할당 해제 - params: - operationids: - - UnassignCase - order: 7 - unstable: [] - versions: - - v2 - parent: case-management - url: '#unassign-case' - - generated: true - identifier: case-management-unarchive-case - name: 사례 아카이브 해제 - params: - operationids: - - UnarchiveCase - order: 9 - unstable: [] - versions: - - v2 - parent: case-management - url: '#unarchive-case' - - generated: true - identifier: case-management-update-case-status - name: 사례 상태 업데이트 - params: - operationids: - - UpdateStatus - order: 4 - unstable: [] - versions: - - v2 - parent: case-management - url: '#update-case-status' - - generated: true - identifier: case-management-update-case-priority - name: 사례 우선순위 업데이트 - params: - operationids: - - UpdatePriority - order: 5 - unstable: [] - versions: - - v2 - parent: case-management - url: '#update-case-priority' - - generated: true - identifier: case-management-assign-case - name: 사례 할당 - params: - operationids: - - AssignCase - order: 6 - unstable: [] - versions: - - v2 - parent: case-management - url: '#assign-case' - - generated: true - identifier: case-management-archive-case - name: 사례 아카이브 - params: - operationids: - - ArchiveCase - order: 8 - unstable: [] - versions: - - v2 - parent: case-management - url: '#archive-case' - - generated: true - identifier: case-management-get-the-details-of-a-case - name: 사례 상세 정보 받기 - params: - operationids: - - GetCase - order: 3 - unstable: [] - versions: - - v2 - parent: case-management - url: '#get-the-details-of-a-case' - - generated: true - identifier: case-management-get-the-details-of-a-project - name: 프로젝트 상세 정보 받기 - params: - operationids: - - GetProject - order: 3 - unstable: [] - versions: - - v2 - parent: case-management - url: '#get-the-details-of-a-project' - - generated: true - identifier: case-management-remove-a-project - name: 프로젝트 제거 - params: - operationids: - - DeleteProject - order: 4 - unstable: [] - versions: - - v2 - parent: case-management - url: '#remove-a-project' - - generated: true - identifier: case-management-create-a-project - name: 프로젝트 생성 - params: - operationids: - - CreateProject - order: 1 - unstable: [] - versions: - - v2 - parent: case-management - url: '#create-a-project' - - generated: true - identifier: case-management-get-all-projects - name: 모든 프로젝트 받기 - params: - operationids: - - GetProjects - order: 2 - unstable: [] - versions: - - v2 - parent: case-management - url: '#get-all-projects' - - generated: true - identifier: case-management-create-a-case - name: 사례 생성 - params: - operationids: - - CreateCase - order: 2 - unstable: [] - versions: - - v2 - parent: case-management - url: '#create-a-case' - - generated: true - identifier: case-management-search-cases - name: 사례 검색 - params: - operationids: - - SearchCases - order: 1 - unstable: [] - versions: - - v2 - parent: case-management - url: '#search-cases' - - generated: true - identifier: cloud-cost-management - name: 클라우드 비용 관리 - url: /api/latest/cloud-cost-management/ - - generated: true - identifier: cloud-cost-management-cloud-cost-enabled - name: 클라우드 비용 활성화 - params: - operationids: - - GetCloudCostActivity - order: 10 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#cloud-cost-enabled' - - generated: true - identifier: cloud-cost-management-update-cloud-cost-management-azure-config - name: 클라우드 비용 관리 Azure 설정 업데이트 - params: - operationids: - - UpdateCostAzureUCConfigs - order: 7 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#update-cloud-cost-management-azure-config' - - generated: true - identifier: cloud-cost-management-delete-cloud-cost-management-azure-config - name: 클라우드 비용 관리 Azure 설정 삭제 - params: - operationids: - - DeleteCostAzureUCConfig - order: 9 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#delete-cloud-cost-management-azure-config' - - generated: true - identifier: cloud-cost-management-create-cloud-cost-management-azure-configs - name: 클라우드 비용 관리 Azure 설정 생성 - params: - operationids: - - CreateCostAzureUCConfigs - order: 8 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#create-cloud-cost-management-azure-configs' - - generated: true - identifier: cloud-cost-management-list-cloud-cost-management-azure-configs - name: '클라우드 비용 관리 Azure 설정 나열하기 ' - params: - operationids: - - ListCostAzureUCConfigs - order: 6 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#list-cloud-cost-management-azure-configs' - - generated: true - identifier: cloud-cost-management-list-related-aws-accounts - name: 관련 AWS 계정 나열하기 - params: - operationids: - - ListAWSRelatedAccounts - order: 5 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#list-related-aws-accounts' - - generated: true - identifier: cloud-cost-management-update-cloud-cost-management-aws-cur-config - name: '클라우드 비용 관리 AWS CUR 설정 업데이트 ' - params: - operationids: - - UpdateCostAWSCURConfig - order: 2 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#update-cloud-cost-management-aws-cur-config' - - generated: true - identifier: cloud-cost-management-delete-cloud-cost-management-aws-cur-config - name: '클라우드 비용 관리 AWS CUR 설정 삭제 ' - params: - operationids: - - DeleteCostAWSCURConfig - order: 4 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#delete-cloud-cost-management-aws-cur-config' - - generated: true - identifier: cloud-cost-management-create-cloud-cost-management-aws-cur-config - name: 클라우드 비용 관리 AWS CUR 설정 생성 - params: - operationids: - - CreateCostAWSCURConfig - order: 3 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#create-cloud-cost-management-aws-cur-config' - - generated: true - identifier: cloud-cost-management-list-cloud-cost-management-aws-cur-configs - name: 클라우드 비용 관리 AWS CUR 설정 표시 - params: - operationids: - - ListCostAWSCURConfigs - order: 1 - unstable: [] - versions: - - v2 - parent: cloud-cost-management - url: '#list-cloud-cost-management-aws-cur-configs' - - generated: true - identifier: cloud-workload-security - name: 클라우드 워크로드 보안 - url: /api/latest/cloud-workload-security/ - - generated: true - identifier: cloud-workload-security-update-a-cloud-workload-security-agent-rule - name: 클라우드 워크로드 보안 에이전트 규칙 업데이트 - params: - operationids: - - UpdateCloudWorkloadSecurityAgentRule - order: 5 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#update-a-cloud-workload-security-agent-rule' - - generated: true - identifier: cloud-workload-security-get-a-cloud-workload-security-agent-rule - name: '클라우드 워크로드 보안 에이전트 규칙 가져오기 ' - params: - operationids: - - GetCloudWorkloadSecurityAgentRule - order: 2 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-a-cloud-workload-security-agent-rule' - - generated: true - identifier: cloud-workload-security-delete-a-cloud-workload-security-agent-rule - name: '클라우드 워크로드 보안 에이전트 규칙 삭제하기 ' - params: - operationids: - - DeleteCloudWorkloadSecurityAgentRule - order: 6 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#delete-a-cloud-workload-security-agent-rule' - - generated: true - identifier: cloud-workload-security-create-a-cloud-workload-security-agent-rule - name: 클라우드 워크로드 보안 에이전트 규칙 만들기 - params: - operationids: - - CreateCloudWorkloadSecurityAgentRule - order: 4 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#create-a-cloud-workload-security-agent-rule' - - generated: true - identifier: cloud-workload-security-get-all-cloud-workload-security-agent-rules - name: 모든 클라우드 워크로드 보안 에이전트 규칙 가져오기 - params: - operationids: - - ListCloudWorkloadSecurityAgentRules - order: 3 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-all-cloud-workload-security-agent-rules' - - generated: true - identifier: cloud-workload-security-get-the-latest-cloud-workload-security-policy - name: 최신 클라우드 워크로드 보안 정책 가져오기 - params: - operationids: - - DownloadCloudWorkloadPolicyFile - order: 1 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-the-latest-cloud-workload-security-policy' - - generated: true - identifier: cloud-workload-security-get-the-latest-csm-threats-policy - name: 최신 CSM 위협 정책 받기 - params: - operationids: - - DownloadCSMThreatsPolicy - order: 1 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-the-latest-csm-threats-policy' - - generated: true - identifier: cloud-workload-security-update-a-csm-threats-agent-rule - name: CSM 위협 에이전트 규칙 업데이트 - params: - operationids: - - UpdateCSMThreatsAgentRule - order: 5 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#update-a-csm-threats-agent-rule' - - generated: true - identifier: cloud-workload-security-get-a-csm-threats-agent-rule - name: CSM 위협 에이전트 규칙 - params: - operationids: - - GetCSMThreatsAgentRule - order: 2 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-a-csm-threats-agent-rule' - - generated: true - identifier: cloud-workload-security-delete-a-csm-threats-agent-rule - name: CSM 위협 에이전트 규칙 삭제 - params: - operationids: - - DeleteCSMThreatsAgentRule - order: 6 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#delete-a-csm-threats-agent-rule' - - generated: true - identifier: cloud-workload-security-create-a-csm-threats-agent-rule - name: CSM 위협 에이전트 규칙 생성 - params: - operationids: - - CreateCSMThreatsAgentRule - order: 4 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#create-a-csm-threats-agent-rule' - - generated: true - identifier: cloud-workload-security-get-all-csm-threats-agent-rules - name: 모든 CSM 위협 에이전트 규칙 받기 - params: - operationids: - - ListCSMThreatsAgentRules - order: 3 - unstable: [] - versions: - - v2 - parent: cloud-workload-security - url: '#get-all-csm-threats-agent-rules' - - generated: true - identifier: cloudflare-integration - name: Cloudflare 통합 - url: /api/latest/cloudflare-integration/ - - generated: true - identifier: cloudflare-integration-update-cloudflare-account - name: Cloudflare 계정 업데이트하기 - params: - operationids: - - UpdateCloudflareAccount - order: 4 - unstable: [] - versions: - - v2 - parent: cloudflare-integration - url: '#update-cloudflare-account' - - generated: true - identifier: cloudflare-integration-get-cloudflare-account - name: Cloudflare 계정 가져오기 - params: - operationids: - - GetCloudflareAccount - order: 3 - unstable: [] - versions: - - v2 - parent: cloudflare-integration - url: '#get-cloudflare-account' - - generated: true - identifier: cloudflare-integration-delete-cloudflare-account - name: 'Cloudflare 계정 삭제하기 ' - params: - operationids: - - DeleteCloudflareAccount - order: 5 - unstable: [] - versions: - - v2 - parent: cloudflare-integration - url: '#delete-cloudflare-account' - - generated: true - identifier: cloudflare-integration-add-cloudflare-account - name: Cloudflare 계정 추가하기 - params: - operationids: - - CreateCloudflareAccount - order: 2 - unstable: [] - versions: - - v2 - parent: cloudflare-integration - url: '#add-cloudflare-account' - - generated: true - identifier: cloudflare-integration-list-cloudflare-accounts - name: Cloudflare 계정 목록 만들기 - params: - operationids: - - ListCloudflareAccounts - order: 1 - unstable: [] - versions: - - v2 - parent: cloudflare-integration - url: '#list-cloudflare-accounts' - - generated: true - identifier: confluent-cloud - name: Confluent Cloud - url: /api/latest/confluent-cloud/ - - generated: true - identifier: confluent-cloud-update-resource-in-confluent-account - name: Confluent 계정에서 리소스 업데이트하기 - params: - operationids: - - UpdateConfluentResource - order: 1 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#update-resource-in-confluent-account' - - generated: true - identifier: confluent-cloud-get-resource-from-confluent-account - name: Confluent 계정에서 리소스 가져오기 - params: - operationids: - - GetConfluentResource - order: 2 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#get-resource-from-confluent-account' - - generated: true - identifier: confluent-cloud-delete-resource-from-confluent-account - name: Confluent 계정에서 리소스 삭제하기 - params: - operationids: - - DeleteConfluentResource - order: 3 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#delete-resource-from-confluent-account' - - generated: true - identifier: confluent-cloud-add-resource-to-confluent-account - name: Confluent 계정에 리소스 추가하기 - params: - operationids: - - CreateConfluentResource - order: 4 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#add-resource-to-confluent-account' - - generated: true - identifier: confluent-cloud-list-confluent-account-resources - name: Confluent 계정 리소스 나열하기 - params: - operationids: - - ListConfluentResource - order: 5 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#list-confluent-account-resources' - - generated: true - identifier: confluent-cloud-update-confluent-account - name: Confluent 계정 업데이트하기 - params: - operationids: - - UpdateConfluentAccount - order: 6 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#update-confluent-account' - - generated: true - identifier: confluent-cloud-get-confluent-account - name: Confluent 계정 만들기 - params: - operationids: - - GetConfluentAccount - order: 7 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#get-confluent-account' - - generated: true - identifier: confluent-cloud-delete-confluent-account - name: Confluent 계정 삭제하기 - params: - operationids: - - DeleteConfluentAccount - order: 8 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#delete-confluent-account' - - generated: true - identifier: confluent-cloud-add-confluent-account - name: Confluent 계정 추가하기 - params: - operationids: - - CreateConfluentAccount - order: 9 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#add-confluent-account' - - generated: true - identifier: confluent-cloud-list-confluent-accounts - name: Confluent 계정 목록 만들기 - params: - operationids: - - ListConfluentAccount - order: 10 - unstable: [] - versions: - - v2 - parent: confluent-cloud - url: '#list-confluent-accounts' - - generated: true - identifier: container-images - name: 컨테이너 이미지 - url: /api/latest/container-images/ - - generated: true - identifier: container-images-get-all-container-images - name: 컨테이너 이미지 모두 가져오기 - params: - operationids: - - ListContainerImages - order: 1 - unstable: [] - versions: - - v2 - parent: container-images - url: '#get-all-container-images' - - generated: true - identifier: containers - name: 컨테이너 - url: /api/latest/containers/ - - generated: true - identifier: containers-get-all-containers - name: 모든 컨테이너 가져오기 - params: - operationids: - - ListContainers - order: 1 - unstable: [] - versions: - - v2 - parent: containers - url: '#get-all-containers' - - generated: true - identifier: dora-metrics - name: DORA 메트릭 - url: /api/latest/dora-metrics/ - - generated: true - identifier: dora-metrics-send-an-incident-event-for-dora-metrics - name: DORA 메트릭에 대한 인시던트 이벤트 보내기 - params: - operationids: - - CreateDORAIncident - order: 4 - unstable: - - v2 - versions: - - v2 - parent: dora-metrics - url: '#send-an-incident-event-for-dora-metrics' - - generated: true - identifier: dora-metrics-send-a-deployment-event-for-dora-metrics - name: DORA 메트릭에 대한 디플로이먼트 이벤트 보내기 - params: - operationids: - - CreateDORADeployment - order: 4 - unstable: - - v2 - versions: - - v2 - parent: dora-metrics - url: '#send-a-deployment-event-for-dora-metrics' - - generated: true - identifier: fastly-integration - name: Fastly 통합 - url: /api/latest/fastly-integration/ - - generated: true - identifier: fastly-integration-update-fastly-service - name: Fastly 서비스 업데이트하기 - params: - operationids: - - UpdateFastlyService - order: 9 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#update-fastly-service' - - generated: true - identifier: fastly-integration-get-fastly-service - name: Fastly 서비스 가져오기 - params: - operationids: - - GetFastlyService - order: 8 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#get-fastly-service' - - generated: true - identifier: fastly-integration-delete-fastly-service - name: Fastly 서비스 삭제하기 - params: - operationids: - - DeleteFastlyService - order: 10 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#delete-fastly-service' - - generated: true - identifier: fastly-integration-add-fastly-service - name: Fastly 서비스 추가하기 - params: - operationids: - - CreateFastlyService - order: 7 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#add-fastly-service' - - generated: true - identifier: fastly-integration-list-fastly-services - name: Fastly 서비스 나열하기 - params: - operationids: - - ListFastlyServices - order: 6 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#list-fastly-services' - - generated: true - identifier: fastly-integration-update-fastly-account - name: Fastly 계정 업데이트하기 - params: - operationids: - - UpdateFastlyAccount - order: 4 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#update-fastly-account' - - generated: true - identifier: fastly-integration-get-fastly-account - name: Fastly 계정 가져오기 - params: - operationids: - - GetFastlyAccount - order: 3 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#get-fastly-account' - - generated: true - identifier: fastly-integration-delete-fastly-account - name: Fastly 계정 삭제하기 - params: - operationids: - - DeleteFastlyAccount - order: 5 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#delete-fastly-account' - - generated: true - identifier: fastly-integration-add-fastly-account - name: Fastly 계정 추가하기 - params: - operationids: - - CreateFastlyAccount - order: 2 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#add-fastly-account' - - generated: true - identifier: fastly-integration-list-fastly-accounts - name: 'Fastly 계정 나열하기 ' - params: - operationids: - - ListFastlyAccounts - order: 1 - unstable: [] - versions: - - v2 - parent: fastly-integration - url: '#list-fastly-accounts' - - generated: true - identifier: ip-allowlist - name: IP 허용 목록 - url: /api/latest/ip-allowlist/ - - generated: true - identifier: ip-allowlist-update-ip-allowlist - name: IP 허용 목록 업데이트하기 - params: - operationids: - - UpdateIPAllowlist - order: 2 - unstable: [] - versions: - - v2 - parent: ip-allowlist - url: '#update-ip-allowlist' - - generated: true - identifier: ip-allowlist-get-ip-allowlist - name: IP 허용 목록 가져오기 - params: - operationids: - - GetIPAllowlist - order: 1 - unstable: [] - versions: - - v2 - parent: ip-allowlist - url: '#get-ip-allowlist' - - generated: true - identifier: incident-services - name: 인시던트 서비스 - url: /api/latest/incident-services/ - - generated: true - identifier: incident-services-update-an-existing-incident-service - name: 기존 인시던트 서비스 업데이트하기 - params: - operationids: - - UpdateIncidentService - order: 3 - unstable: - - v2 - versions: - - v2 - parent: incident-services - url: '#update-an-existing-incident-service' - - generated: true - identifier: incident-services-get-details-of-an-incident-service - name: 인시던트 서비스 세부 정보 보기 - params: - operationids: - - GetIncidentService - order: 1 - unstable: - - v2 - versions: - - v2 - parent: incident-services - url: '#get-details-of-an-incident-service' - - generated: true - identifier: incident-services-delete-an-existing-incident-service - name: 기존 인시던트 서비스 삭제하기 - params: - operationids: - - DeleteIncidentService - order: 2 - unstable: - - v2 - versions: - - v2 - parent: incident-services - url: '#delete-an-existing-incident-service' - - generated: true - identifier: incident-services-create-a-new-incident-service - name: 새 인시던트 서비스 만들기 - params: - operationids: - - CreateIncidentService - order: 5 - unstable: - - v2 - versions: - - v2 - parent: incident-services - url: '#create-a-new-incident-service' - - generated: true - identifier: incident-services-get-a-list-of-all-incident-services - name: 모든 인시던트 서비스 목록 가져오기 - params: - operationids: - - ListIncidentServices - order: 4 - unstable: - - v2 - versions: - - v2 - parent: incident-services - url: '#get-a-list-of-all-incident-services' - - generated: true - identifier: incident-teams - name: 인시던트 팀 - url: /api/latest/incident-teams/ - - generated: true - identifier: incident-teams-update-an-existing-incident-team - name: 기존 인시던트 팀 업데이트하기 - params: - operationids: - - UpdateIncidentTeam - order: 3 - unstable: - - v2 - versions: - - v2 - parent: incident-teams - url: '#update-an-existing-incident-team' - - generated: true - identifier: incident-teams-get-details-of-an-incident-team - name: 인시던트 팀에 대한 세부 정보 보기 - params: - operationids: - - GetIncidentTeam - order: 1 - unstable: - - v2 - versions: - - v2 - parent: incident-teams - url: '#get-details-of-an-incident-team' - - generated: true - identifier: incident-teams-delete-an-existing-incident-team - name: 기존 인시던트 팀 삭제하기 - params: - operationids: - - DeleteIncidentTeam - order: 2 - unstable: - - v2 - versions: - - v2 - parent: incident-teams - url: '#delete-an-existing-incident-team' - - generated: true - identifier: incident-teams-create-a-new-incident-team - name: 새 인시던트 팀 만들기 - params: - operationids: - - CreateIncidentTeam - order: 5 - unstable: - - v2 - versions: - - v2 - parent: incident-teams - url: '#create-a-new-incident-team' - - generated: true - identifier: incident-teams-get-a-list-of-all-incident-teams - name: 모든 인시던트 팀 목록 가져오기 - params: - operationids: - - ListIncidentTeams - order: 4 - unstable: - - v2 - versions: - - v2 - parent: incident-teams - url: '#get-a-list-of-all-incident-teams' - - generated: true - identifier: incidents - name: 인시던트 - url: /api/latest/incidents/ - - generated: true - identifier: incidents-update-an-incident-todo - name: 인시던트 작업 업데이트하기 - params: - operationids: - - UpdateIncidentTodo - order: 17 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#update-an-incident-todo' - - generated: true - identifier: incidents-get-incident-todo-details - name: 인시던트 작업 세부 정보 가져오기 - params: - operationids: - - GetIncidentTodo - order: 16 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-incident-todo-details' - - generated: true - identifier: incidents-delete-an-incident-todo - name: 인시던트 작업 삭제하기 - params: - operationids: - - DeleteIncidentTodo - order: 18 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#delete-an-incident-todo' - - generated: true - identifier: incidents-create-an-incident-todo - name: 인시던트 작업 만들기 - params: - operationids: - - CreateIncidentTodo - order: 15 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#create-an-incident-todo' - - generated: true - identifier: incidents-get-a-list-of-an-incidents-todos - name: 인시던트 작업 목록 가져오기 - params: - operationids: - - ListIncidentTodos - order: 14 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-a-list-of-an-incidents-todos' - - generated: true - identifier: incidents-update-an-existing-incident-integration-metadata - name: 기존 인시던트 통합 메타데이터 업데이트하기 - params: - operationids: - - UpdateIncidentIntegration - order: 12 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#update-an-existing-incident-integration-metadata' - - generated: true - identifier: incidents-get-incident-integration-metadata-details - name: 인시던트 통합 메타데이터 세부 정보 가져오기 - params: - operationids: - - GetIncidentIntegration - order: 11 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-incident-integration-metadata-details' - - generated: true - identifier: incidents-delete-an-incident-integration-metadata - name: 인시던트 통합 메타데이터 삭제하기 - params: - operationids: - - DeleteIncidentIntegration - order: 13 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#delete-an-incident-integration-metadata' - - generated: true - identifier: incidents-create-an-incident-integration-metadata - name: 인시던트 통합 메타데이터 생성하기 - params: - operationids: - - CreateIncidentIntegration - order: 10 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#create-an-incident-integration-metadata' - - generated: true - identifier: incidents-get-a-list-of-an-incidents-integration-metadata - name: 인시던트 통합 메타데이터 목록 가져오기 - params: - operationids: - - ListIncidentIntegrations - order: 9 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-a-list-of-an-incidents-integration-metadata' - - generated: true - identifier: incidents-create,-update,-and-delete-incident-attachments - name: '인시던트 첨부 파일 생성, 업데이트, 삭제하기 ' - params: - operationids: - - UpdateIncidentAttachments - order: 8 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#create,-update,-and-delete-incident-attachments' - - generated: true - identifier: incidents-get-a-list-of-attachments - name: 첨부 파일 목록 가져오기 - params: - operationids: - - ListIncidentAttachments - order: 7 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-a-list-of-attachments' - - generated: true - identifier: incidents-update-an-existing-incident - name: 기존 인시던트 업데이트하기 - params: - operationids: - - UpdateIncident - order: 3 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#update-an-existing-incident' - - generated: true - identifier: incidents-get-the-details-of-an-incident - name: 인시던트 세부 정보 보기 - params: - operationids: - - GetIncident - order: 2 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-the-details-of-an-incident' - - generated: true - identifier: incidents-delete-an-existing-incident - name: 기존 인시던트 삭제하기 - params: - operationids: - - DeleteIncident - order: 4 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#delete-an-existing-incident' - - generated: true - identifier: incidents-search-for-incidents - name: 인시던트 검색 - params: - operationids: - - SearchIncidents - order: 6 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#search-for-incidents' - - generated: true - identifier: incidents-create-an-incident - name: 인시던트 만들기 - params: - operationids: - - CreateIncident - order: 1 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#create-an-incident' - - generated: true - identifier: incidents-get-a-list-of-incidents - name: 인시던트 목록 가져오기 - params: - operationids: - - ListIncidents - order: 5 - unstable: - - v2 - versions: - - v2 - parent: incidents - url: '#get-a-list-of-incidents' - - generated: true - identifier: logs-archives - name: 로그 아카이브 - url: /api/latest/logs-archives/ - - generated: true - identifier: logs-archives-grant-role-to-an-archive - name: 아카이브에 역할 부여하기 - params: - operationids: - - AddReadRoleToArchive - order: 7 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#grant-role-to-an-archive' - - generated: true - identifier: logs-archives-list-read-roles-for-an-archive - name: 아카이브에 대한 읽기 역할 나열하기 - params: - operationids: - - ListArchiveReadRoles - order: 6 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#list-read-roles-for-an-archive' - - generated: true - identifier: logs-archives-revoke-role-from-an-archive - name: 아카이브에서 역할 취소하기 - params: - operationids: - - RemoveRoleFromArchive - order: 8 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#revoke-role-from-an-archive' - - generated: true - identifier: logs-archives-update-an-archive - name: 아카이브 업데이트하기 - params: - operationids: - - UpdateLogsArchive - order: 4 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#update-an-archive' - - generated: true - identifier: logs-archives-get-an-archive - name: 아카이브 가져오기 - params: - operationids: - - GetLogsArchive - order: 3 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#get-an-archive' - - generated: true - identifier: logs-archives-delete-an-archive - name: 아카이브 삭제하기 - params: - operationids: - - DeleteLogsArchive - order: 5 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#delete-an-archive' - - generated: true - identifier: logs-archives-create-an-archive - name: 아카이브 만들기 - params: - operationids: - - CreateLogsArchive - order: 2 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#create-an-archive' - - generated: true - identifier: logs-archives-get-all-archives - name: 모든 아카이브 가져오기 - params: - operationids: - - ListLogsArchives - order: 1 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#get-all-archives' - - generated: true - identifier: logs-archives-update-archive-order - name: 아카이브 순서 업데이트하기 - params: - operationids: - - UpdateLogsArchiveOrder - order: 10 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#update-archive-order' - - generated: true - identifier: logs-archives-get-archive-order - name: 아카이브 순서 가져오기 - params: - operationids: - - GetLogsArchiveOrder - order: 9 - unstable: [] - versions: - - v2 - parent: logs-archives - url: '#get-archive-order' - - generated: true - identifier: logs-custom-destinations - name: 커스텀 로그 목적지 - url: /api/latest/logs-custom-destinations/ - - generated: true - identifier: logs-custom-destinations-update-a-custom-destination - name: 커스텀 목적지 업데이트 - params: - operationids: - - UpdateLogsCustomDestination - order: 4 - unstable: [] - versions: - - v2 - parent: logs-custom-destinations - url: '#update-a-custom-destination' - - generated: true - identifier: logs-custom-destinations-get-a-custom-destination - name: 커스텀 목적지 받기 - params: - operationids: - - GetLogsCustomDestination - order: 3 - unstable: [] - versions: - - v2 - parent: logs-custom-destinations - url: '#get-a-custom-destination' - - generated: true - identifier: logs-custom-destinations-delete-a-custom-destination - name: 커스텀 목적지 삭제 - params: - operationids: - - DeleteLogsCustomDestination - order: 5 - unstable: [] - versions: - - v2 - parent: logs-custom-destinations - url: '#delete-a-custom-destination' - - generated: true - identifier: logs-custom-destinations-create-a-custom-destination - name: 커스텀 목적지 생성 - params: - operationids: - - CreateLogsCustomDestination - order: 2 - unstable: [] - versions: - - v2 - parent: logs-custom-destinations - url: '#create-a-custom-destination' - - generated: true - identifier: logs-custom-destinations-get-all-custom-destinations - name: 모든 커스텀 목적지 받기 - params: - operationids: - - ListLogsCustomDestinations - order: 1 - unstable: [] - versions: - - v2 - parent: logs-custom-destinations - url: '#get-all-custom-destinations' - - generated: true - identifier: logs-metrics - name: 로그 메트릭 - url: /api/latest/logs-metrics/ - - generated: true - identifier: logs-metrics-update-a-log-based-metric - name: 로그 기반 메트릭 업데이트하기 - params: - operationids: - - UpdateLogsMetric - order: 4 - unstable: [] - versions: - - v2 - parent: logs-metrics - url: '#update-a-log-based-metric' - - generated: true - identifier: logs-metrics-get-a-log-based-metric - name: 로그 기반 메트릭 가져오기 - params: - operationids: - - GetLogsMetric - order: 3 - unstable: [] - versions: - - v2 - parent: logs-metrics - url: '#get-a-log-based-metric' - - generated: true - identifier: logs-metrics-delete-a-log-based-metric - name: '로그 기반 메트릭 삭제하기 ' - params: - operationids: - - DeleteLogsMetric - order: 5 - unstable: [] - versions: - - v2 - parent: logs-metrics - url: '#delete-a-log-based-metric' - - generated: true - identifier: logs-metrics-create-a-log-based-metric - name: 로그 기반 메트릭 만들기 - params: - operationids: - - CreateLogsMetric - order: 2 - unstable: [] - versions: - - v2 - parent: logs-metrics - url: '#create-a-log-based-metric' - - generated: true - identifier: logs-metrics-get-all-log-based-metrics - name: 모든 로그 기반 메트릭 가져오기 - params: - operationids: - - ListLogsMetrics - order: 1 - unstable: [] - versions: - - v2 - parent: logs-metrics - url: '#get-all-log-based-metrics' - - generated: true - identifier: logs-restriction-queries - name: 로그 제한 쿼리 - url: /api/latest/logs-restriction-queries/ - - generated: true - identifier: logs-restriction-queries-grant-role-to-a-restriction-query - name: 제한 쿼리에 역할 부여하기 - params: - operationids: - - AddRoleToRestrictionQuery - order: 7 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#grant-role-to-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-list-roles-for-a-restriction-query - name: List roles for a restriction query - params: - operationids: - - ListRestrictionQueryRoles - order: 6 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#list-roles-for-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-revoke-role-from-a-restriction-query - name: 제한 쿼리에서 역할 취소하기 - params: - operationids: - - RemoveRoleFromRestrictionQuery - order: 8 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#revoke-role-from-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-update-a-restriction-query - name: 제한 쿼리 업데이트하기 - params: - operationids: - - UpdateRestrictionQuery - order: 4 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#update-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-get-a-restriction-query - name: '제한 쿼리 가져오기 ' - params: - operationids: - - GetRestrictionQuery - order: 3 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#get-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-delete-a-restriction-query - name: 제한 쿼리 삭제하기 - params: - operationids: - - DeleteRestrictionQuery - order: 5 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#delete-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-get-all-restriction-queries-for-a-given-user - name: 특정 사용자에 대한 모든 제한 쿼리 가져오기 - params: - operationids: - - ListUserRestrictionQueries - order: 9 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#get-all-restriction-queries-for-a-given-user' - - generated: true - identifier: logs-restriction-queries-get-restriction-query-for-a-given-role - name: 특정 역할에 대한 제한 쿼리 가져오기 - params: - operationids: - - GetRoleRestrictionQuery - order: 10 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#get-restriction-query-for-a-given-role' - - generated: true - identifier: logs-restriction-queries-create-a-restriction-query - name: '제한 쿼리 만들기 ' - params: - operationids: - - CreateRestrictionQuery - order: 2 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#create-a-restriction-query' - - generated: true - identifier: logs-restriction-queries-list-restriction-queries - name: '제한 쿼리 나열하기 ' - params: - operationids: - - ListRestrictionQueries - order: 1 - unstable: - - v2 - versions: - - v2 - parent: logs-restriction-queries - url: '#list-restriction-queries' - - generated: true - identifier: okta-integration - name: Okta 통합 - url: /api/latest/okta-integration/ - - generated: true - identifier: okta-integration-update-okta-account - name: Okta 계정 업데이트하기 - params: - operationids: - - UpdateOktaAccount - order: 4 - unstable: [] - versions: - - v2 - parent: okta-integration - url: '#update-okta-account' - - generated: true - identifier: okta-integration-get-okta-account - name: Okta 계정 가져오기 - params: - operationids: - - GetOktaAccount - order: 3 - unstable: [] - versions: - - v2 - parent: okta-integration - url: '#get-okta-account' - - generated: true - identifier: okta-integration-delete-okta-account - name: Okta 계정 삭제하기 - params: - operationids: - - DeleteOktaAccount - order: 5 - unstable: [] - versions: - - v2 - parent: okta-integration - url: '#delete-okta-account' - - generated: true - identifier: okta-integration-add-okta-account - name: Okta 계정 추가하기 - params: - operationids: - - CreateOktaAccount - order: 2 - unstable: [] - versions: - - v2 - parent: okta-integration - url: '#add-okta-account' - - generated: true - identifier: okta-integration-list-okta-accounts - name: Okta 계정 나열하기 - params: - operationids: - - ListOktaAccounts - order: 1 - unstable: [] - versions: - - v2 - parent: okta-integration - url: '#list-okta-accounts' - - generated: true - identifier: opsgenie-integration - name: Opsgenie 통합 - url: /api/latest/opsgenie-integration/ - - generated: true - identifier: opsgenie-integration-update-a-single-service-object - name: '단일 서비스 개체 업데이트하기 ' - params: - operationids: - - UpdateOpsgenieService - order: 4 - unstable: [] - versions: - - v2 - parent: opsgenie-integration - url: '#update-a-single-service-object' - - generated: true - identifier: opsgenie-integration-get-a-single-service-object - name: 단일 서비스 개체 가져오기 - params: - operationids: - - GetOpsgenieService - order: 3 - unstable: [] - versions: - - v2 - parent: opsgenie-integration - url: '#get-a-single-service-object' - - generated: true - identifier: opsgenie-integration-delete-a-single-service-object - name: 단일 서비스 개체 삭제하기 - params: - operationids: - - DeleteOpsgenieService - order: 5 - unstable: [] - versions: - - v2 - parent: opsgenie-integration - url: '#delete-a-single-service-object' - - generated: true - identifier: opsgenie-integration-create-a-new-service-object - name: 새 서비스 개체 만들기 - params: - operationids: - - CreateOpsgenieService - order: 2 - unstable: [] - versions: - - v2 - parent: opsgenie-integration - url: '#create-a-new-service-object' - - generated: true - identifier: opsgenie-integration-get-all-service-objects - name: 모든 서비스 개체 가져오기 - params: - operationids: - - ListOpsgenieServices - order: 1 - unstable: [] - versions: - - v2 - parent: opsgenie-integration - url: '#get-all-service-objects' - - generated: true - identifier: powerpack - name: Powerpack - url: /api/latest/powerpack/ - - generated: true - identifier: powerpack-update-a-powerpack - name: 파워팩 업데이트하기 - params: - operationids: - - UpdatePowerpack - order: 5 - unstable: [] - versions: - - v2 - parent: powerpack - url: '#update-a-powerpack' - - generated: true - identifier: powerpack-get-a-powerpack - name: 파워팩 가져오기 - params: - operationids: - - GetPowerpack - order: 4 - unstable: [] - versions: - - v2 - parent: powerpack - url: '#get-a-powerpack' - - generated: true - identifier: powerpack-delete-a-powerpack - name: 파워팩 삭제하기 - params: - operationids: - - DeletePowerpack - order: 3 - unstable: [] - versions: - - v2 - parent: powerpack - url: '#delete-a-powerpack' - - generated: true - identifier: powerpack-create-a-new-powerpack - name: 새 파워팩 만들기 - params: - operationids: - - CreatePowerpack - order: 2 - unstable: [] - versions: - - v2 - parent: powerpack - url: '#create-a-new-powerpack' - - generated: true - identifier: powerpack-get-all-powerpacks - name: 모든 파워팩 가져오기 - params: - operationids: - - ListPowerpacks - order: 1 - unstable: [] - versions: - - v2 - parent: powerpack - url: '#get-all-powerpacks' - - generated: true - identifier: processes - name: '프로세스 ' - url: /api/latest/processes/ - - generated: true - identifier: processes-get-all-processes - name: 모든 프로세스 가져오기 - params: - operationids: - - ListProcesses - order: 1 - unstable: [] - versions: - - v2 - parent: processes - url: '#get-all-processes' - - generated: true - identifier: rum - name: RUM - url: /api/latest/rum/ - - generated: true - identifier: rum-search-rum-events - name: 'RUM 이벤트 검색하기 ' - params: - operationids: - - SearchRUMEvents - order: 1 - unstable: [] - versions: - - v2 - parent: rum - url: '#search-rum-events' - - generated: true - identifier: rum-get-a-list-of-rum-events - name: RUM 이벤트 목록 가져오기 - params: - operationids: - - ListRUMEvents - order: 2 - unstable: [] - versions: - - v2 - parent: rum - url: '#get-a-list-of-rum-events' - - generated: true - identifier: rum-update-a-rum-application - name: RUM 애플리케이션 업데이트하기 - params: - operationids: - - UpdateRUMApplication - order: 4 - unstable: [] - versions: - - v2 - parent: rum - url: '#update-a-rum-application' - - generated: true - identifier: rum-get-a-rum-application - name: RUM 애플리케이션 가져오기 - params: - operationids: - - GetRUMApplication - order: 5 - unstable: [] - versions: - - v2 - parent: rum - url: '#get-a-rum-application' - - generated: true - identifier: rum-delete-a-rum-application - name: RUM 애플리케이션 삭제하기 - params: - operationids: - - DeleteRUMApplication - order: 6 - unstable: [] - versions: - - v2 - parent: rum - url: '#delete-a-rum-application' - - generated: true - identifier: rum-create-a-new-rum-application - name: 새 RUM 애플리케이션 만들기 - params: - operationids: - - CreateRUMApplication - order: 7 - unstable: [] - versions: - - v2 - parent: rum - url: '#create-a-new-rum-application' - - generated: true - identifier: rum-list-all-the-rum-applications - name: 모든 RUM 애플리케이션 나열하기 - params: - operationids: - - GetRUMApplications - order: 8 - unstable: [] - versions: - - v2 - parent: rum - url: '#list-all-the-rum-applications' - - generated: true - identifier: rum-aggregate-rum-events - name: RUM 이벤트 집계하기 - params: - operationids: - - AggregateRUMEvents - order: 3 - unstable: [] - versions: - - v2 - parent: rum - url: '#aggregate-rum-events' - - generated: true - identifier: restriction-policies - name: 제한 정책 - url: /api/latest/restriction-policies/ - - generated: true - identifier: restriction-policies-update-a-restriction-policy - name: '제한 정책 업데이트하기 ' - params: - operationids: - - UpdateRestrictionPolicy - order: 1 - unstable: [] - versions: - - v2 - parent: restriction-policies - url: '#update-a-restriction-policy' - - generated: true - identifier: restriction-policies-get-a-restriction-policy - name: 제한 정책 가져오기 - params: - operationids: - - GetRestrictionPolicy - order: 2 - unstable: [] - versions: - - v2 - parent: restriction-policies - url: '#get-a-restriction-policy' - - generated: true - identifier: restriction-policies-delete-a-restriction-policy - name: 제한 정책 삭제하기 - params: - operationids: - - DeleteRestrictionPolicy - order: 3 - unstable: [] - versions: - - v2 - parent: restriction-policies - url: '#delete-a-restriction-policy' - - generated: true - identifier: roles - name: 역할 - url: /api/latest/roles/ - - generated: true - identifier: roles-add-a-user-to-a-role - name: 역할에 사용자 추가하기 - params: - operationids: - - AddUserToRole - order: 10 - unstable: [] - versions: - - v2 - parent: roles - url: '#add-a-user-to-a-role' - - generated: true - identifier: roles-get-all-users-of-a-role - name: 역할의 모든 사용자 가져오기 - params: - operationids: - - ListRoleUsers - order: 9 - unstable: [] - versions: - - v2 - parent: roles - url: '#get-all-users-of-a-role' - - generated: true - identifier: roles-remove-a-user-from-a-role - name: 역할에서 사용자 제거하기 - params: - operationids: - - RemoveUserFromRole - order: 11 - unstable: [] - versions: - - v2 - parent: roles - url: '#remove-a-user-from-a-role' - - generated: true - identifier: roles-grant-permission-to-a-role - name: 역할에 권한 부여하기 - params: - operationids: - - AddPermissionToRole - order: 7 - unstable: [] - versions: - - v2 - parent: roles - url: '#grant-permission-to-a-role' - - generated: true - identifier: roles-list-permissions-for-a-role - name: 역할에 대한 권한 나열하기 - params: - operationids: - - ListRolePermissions - order: 6 - unstable: [] - versions: - - v2 - parent: roles - url: '#list-permissions-for-a-role' - - generated: true - identifier: roles-revoke-permission - name: 권한 취소하기 - params: - operationids: - - RemovePermissionFromRole - order: 8 - unstable: [] - versions: - - v2 - parent: roles - url: '#revoke-permission' - - generated: true - identifier: roles-create-a-new-role-by-cloning-an-existing-role - name: 기존 역할을 복제하여 새 역할 만들기 - params: - operationids: - - CloneRole - order: 12 - unstable: [] - versions: - - v2 - parent: roles - url: '#create-a-new-role-by-cloning-an-existing-role' - - generated: true - identifier: roles-update-a-role - name: '역할 업데이트하기 ' - params: - operationids: - - UpdateRole - order: 4 - unstable: [] - versions: - - v2 - parent: roles - url: '#update-a-role' - - generated: true - identifier: roles-get-a-role - name: '역할 가져오기 ' - params: - operationids: - - GetRole - order: 3 - unstable: [] - versions: - - v2 - parent: roles - url: '#get-a-role' - - generated: true - identifier: roles-delete-role - name: 역할 삭제하기 - params: - operationids: - - DeleteRole - order: 5 - unstable: [] - versions: - - v2 - parent: roles - url: '#delete-role' - - generated: true - identifier: roles-create-role - name: 역할 만들기 - params: - operationids: - - CreateRole - order: 2 - unstable: [] - versions: - - v2 - parent: roles - url: '#create-role' - - generated: true - identifier: roles-list-roles - name: 역할 나열하기 - params: - operationids: - - ListRoles - order: 1 - unstable: [] - versions: - - v2 - parent: roles - url: '#list-roles' - - generated: true - identifier: roles-list-permissions - name: 권한 나열하기 - params: - operationids: - - ListPermissions - order: 1 - unstable: [] - versions: - - v2 - parent: roles - url: '#list-permissions' - - generated: true - identifier: sensitive-data-scanner - name: 민감한 데이터 스캐너 - url: /api/latest/sensitive-data-scanner/ - - generated: true - identifier: sensitive-data-scanner-list-standard-patterns - name: 표준 패턴 나열하기 - params: - operationids: - - ListStandardPatterns - order: 3 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#list-standard-patterns' - - generated: true - identifier: sensitive-data-scanner-update-scanning-rule - name: '스캐닝 규칙 업데이트하기 ' - params: - operationids: - - UpdateScanningRule - order: 8 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#update-scanning-rule' - - generated: true - identifier: sensitive-data-scanner-delete-scanning-rule - name: 스캐닝 규칙 삭제하기 - params: - operationids: - - DeleteScanningRule - order: 9 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#delete-scanning-rule' - - generated: true - identifier: sensitive-data-scanner-create-scanning-rule - name: 스캐닝 규칙 만들기 - params: - operationids: - - CreateScanningRule - order: 7 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#create-scanning-rule' - - generated: true - identifier: sensitive-data-scanner-update-scanning-group - name: '스캐닝 그룹 업데이트하기 ' - params: - operationids: - - UpdateScanningGroup - order: 5 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#update-scanning-group' - - generated: true - identifier: sensitive-data-scanner-delete-scanning-group - name: '스캐닝 그룹 삭제하기 ' - params: - operationids: - - DeleteScanningGroup - order: 6 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#delete-scanning-group' - - generated: true - identifier: sensitive-data-scanner-create-scanning-group - name: 스캐닝 그룹 만들기 - params: - operationids: - - CreateScanningGroup - order: 4 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#create-scanning-group' - - generated: true - identifier: sensitive-data-scanner-reorder-groups - name: 그룹 재정렬하기 - params: - operationids: - - ReorderScanningGroups - order: 2 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#reorder-groups' - - generated: true - identifier: sensitive-data-scanner-list-scanning-groups - name: '스캐닝 그룹 나열하기 ' - params: - operationids: - - ListScanningGroups - order: 1 - unstable: [] - versions: - - v2 - parent: sensitive-data-scanner - url: '#list-scanning-groups' - - generated: true - identifier: service-accounts - name: 서비스 계정 - url: /api/latest/service-accounts/ - - generated: true - identifier: service-accounts-edit-an-application-key-for-this-service-account - name: 서비스 계정의 애플리케이션 키 수정하기 - params: - operationids: - - UpdateServiceAccountApplicationKey - order: 2 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#edit-an-application-key-for-this-service-account' - - generated: true - identifier: service-accounts-get-one-application-key-for-this-service-account - name: 서비스 계정의 애플리케이션 키 가져오기 - params: - operationids: - - GetServiceAccountApplicationKey - order: 1 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#get-one-application-key-for-this-service-account' - - generated: true - identifier: service-accounts-delete-an-application-key-for-this-service-account - name: 서비스 계정의 애플리케이션 키 삭제하기 - params: - operationids: - - DeleteServiceAccountApplicationKey - order: 3 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#delete-an-application-key-for-this-service-account' - - generated: true - identifier: service-accounts-create-an-application-key-for-this-service-account - name: 서비스 계정의 애플리케이션 키 생성하기 - params: - operationids: - - CreateServiceAccountApplicationKey - order: 5 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#create-an-application-key-for-this-service-account' - - generated: true - identifier: service-accounts-list-application-keys-for-this-service-account - name: 서비스 계정의 애플리케이션 키 나열하기 - params: - operationids: - - ListServiceAccountApplicationKeys - order: 6 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#list-application-keys-for-this-service-account' - - generated: true - identifier: service-accounts-create-a-service-account - name: 서비스 계정 만들기 - params: - operationids: - - CreateServiceAccount - order: 1 - unstable: [] - versions: - - v2 - parent: service-accounts - url: '#create-a-service-account' - - generated: true - identifier: service-definition - name: 서비스 정의 - url: /api/latest/service-definition/ - - generated: true - identifier: service-definition-get-a-single-service-definition - name: 단일 서비스 정의 가져오기 - params: - operationids: - - GetServiceDefinition - order: 3 - unstable: [] - versions: - - v2 - parent: service-definition - url: '#get-a-single-service-definition' - - generated: true - identifier: service-definition-delete-a-single-service-definition - name: 단일 서비스 정의 삭제하기 - params: - operationids: - - DeleteServiceDefinition - order: 4 - unstable: [] - versions: - - v2 - parent: service-definition - url: '#delete-a-single-service-definition' - - generated: true - identifier: service-definition-create-or-update-service-definition - name: 서비스 정의 생성 또는 업데이트하기 - params: - operationids: - - CreateOrUpdateServiceDefinitions - order: 2 - unstable: [] - versions: - - v2 - parent: service-definition - url: '#create-or-update-service-definition' - - generated: true - identifier: service-definition-get-all-service-definitions - name: 모든 서비스 정의 가져오기 - params: - operationids: - - ListServiceDefinitions - order: 1 - unstable: [] - versions: - - v2 - parent: service-definition - url: '#get-all-service-definitions' - - generated: true - identifier: service-scorecards - name: '서비스 스코어카드 ' - url: /api/latest/service-scorecards/ - - generated: true - identifier: service-scorecards-delete-a-rule - name: 규칙 삭제하기 - params: - operationids: - - DeleteScorecardRule - order: 3 - unstable: - - v2 - versions: - - v2 - parent: service-scorecards - url: '#delete-a-rule' - - generated: true - identifier: service-scorecards-create-a-new-rule - name: 새로운 규칙 만들기 - params: - operationids: - - CreateScorecardRule - order: 1 - unstable: - - v2 - versions: - - v2 - parent: service-scorecards - url: '#create-a-new-rule' - - generated: true - identifier: service-scorecards-list-all-rules - name: 모든 규칙 나열하기 - params: - operationids: - - ListScorecardRules - order: 2 - unstable: - - v2 - versions: - - v2 - parent: service-scorecards - url: '#list-all-rules' - - generated: true - identifier: service-scorecards-create-outcomes-batch - name: 결과 배치 만들기 - params: - operationids: - - CreateScorecardOutcomesBatch - order: 1 - unstable: - - v2 - versions: - - v2 - parent: service-scorecards - url: '#create-outcomes-batch' - - generated: true - identifier: service-scorecards-list-all-rule-outcomes - name: 모든 규칙 결과 나열하기 - params: - operationids: - - ListScorecardOutcomes - order: 2 - unstable: - - v2 - versions: - - v2 - parent: service-scorecards - url: '#list-all-rule-outcomes' - - generated: true - identifier: spans - name: 스팬 - url: /api/latest/spans/ - - generated: true - identifier: spans-search-spans - name: '스팬 검색하기 ' - params: - operationids: - - ListSpans - order: 2 - unstable: [] - versions: - - v2 - parent: spans - url: '#search-spans' - - generated: true - identifier: spans-get-a-list-of-spans - name: 스팬 목록 가져오기 - params: - operationids: - - ListSpansGet - order: 1 - unstable: [] - versions: - - v2 - parent: spans - url: '#get-a-list-of-spans' - - generated: true - identifier: spans-aggregate-spans - name: 스팬 집계하기 - params: - operationids: - - AggregateSpans - order: 3 - unstable: [] - versions: - - v2 - parent: spans - url: '#aggregate-spans' - - generated: true - identifier: spans-metrics - name: 스팬 메트릭 - url: /api/latest/spans-metrics/ - - generated: true - identifier: spans-metrics-update-a-span-based-metric - name: 스팬 기반 메트릭 업데이트하기 - params: - operationids: - - UpdateSpansMetric - order: 4 - unstable: [] - versions: - - v2 - parent: spans-metrics - url: '#update-a-span-based-metric' - - generated: true - identifier: spans-metrics-get-a-span-based-metric - name: 스팬 기반 메트릭 가져오기 - params: - operationids: - - GetSpansMetric - order: 3 - unstable: [] - versions: - - v2 - parent: spans-metrics - url: '#get-a-span-based-metric' - - generated: true - identifier: spans-metrics-delete-a-span-based-metric - name: 스팬 기반 메트릭 삭제하기 - params: - operationids: - - DeleteSpansMetric - order: 5 - unstable: [] - versions: - - v2 - parent: spans-metrics - url: '#delete-a-span-based-metric' - - generated: true - identifier: spans-metrics-create-a-span-based-metric - name: 스팬 기반 메트릭 만들기 - params: - operationids: - - CreateSpansMetric - order: 2 - unstable: [] - versions: - - v2 - parent: spans-metrics - url: '#create-a-span-based-metric' - - generated: true - identifier: spans-metrics-get-all-span-based-metrics - name: 모든 스팬 기반 메트릭 가져오기 - params: - operationids: - - ListSpansMetrics - order: 1 - unstable: [] - versions: - - v2 - parent: spans-metrics - url: '#get-all-span-based-metrics' - - generated: true - identifier: teams - name: 팀 - url: /api/latest/teams/ - - generated: true - identifier: teams-get-user-memberships - name: 사용자 멤버십 가져오기 - params: - operationids: - - GetUserMemberships - order: 1 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-user-memberships' - - generated: true - identifier: teams-update-permission-setting-for-team - name: "팀에 대한 권한 설정 \b업데이트하기" - params: - operationids: - - UpdateTeamPermissionSetting - order: 18 - unstable: [] - versions: - - v2 - parent: teams - url: '#update-permission-setting-for-team' - - generated: true - identifier: teams-get-permission-settings-for-a-team - name: 팀에 대한 권한 설정 가져오기 - params: - operationids: - - GetTeamPermissionSettings - order: 17 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-permission-settings-for-a-team' - - generated: true - identifier: teams-update-a-users-membership-attributes-on-a-team - name: 팀에서 사용자 멤버십 속성 업데이트하기 - params: - operationids: - - UpdateTeamMembership - order: 9 - unstable: [] - versions: - - v2 - parent: teams - url: '#update-a-users-membership-attributes-on-a-team' - - generated: true - identifier: teams-remove-a-user-from-a-team - name: 팀에서 사용자 제거하기 - params: - operationids: - - DeleteTeamMembership - order: 8 - unstable: [] - versions: - - v2 - parent: teams - url: '#remove-a-user-from-a-team' - - generated: true - identifier: teams-add-a-user-to-a-team - name: 팀에 사용자 추가하기 - params: - operationids: - - CreateTeamMembership - order: 7 - unstable: [] - versions: - - v2 - parent: teams - url: '#add-a-user-to-a-team' - - generated: true - identifier: teams-get-team-memberships - name: 팀 멤버십 가져오기 - params: - operationids: - - GetTeamMemberships - order: 6 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-team-memberships' - - generated: true - identifier: teams-update-a-team-link - name: 팀 링크 업데이트하기 - params: - operationids: - - UpdateTeamLink - order: 13 - unstable: [] - versions: - - v2 - parent: teams - url: '#update-a-team-link' - - generated: true - identifier: teams-get-a-team-link - name: '팀 링크 가져오기 ' - params: - operationids: - - GetTeamLink - order: 12 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-a-team-link' - - generated: true - identifier: teams-remove-a-team-link - name: 팀 링크 제거하기 - params: - operationids: - - DeleteTeamLink - order: 14 - unstable: [] - versions: - - v2 - parent: teams - url: '#remove-a-team-link' - - generated: true - identifier: teams-create-a-team-link - name: 팀 링크 만들기 - params: - operationids: - - CreateTeamLink - order: 11 - unstable: [] - versions: - - v2 - parent: teams - url: '#create-a-team-link' - - generated: true - identifier: teams-get-links-for-a-team - name: 팀 링크 가져오기 - params: - operationids: - - GetTeamLinks - order: 10 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-links-for-a-team' - - generated: true - identifier: teams-update-a-team - name: 팀 업데이트하기 - params: - operationids: - - UpdateTeam - order: 4 - unstable: [] - versions: - - v2 - parent: teams - url: '#update-a-team' - - generated: true - identifier: teams-get-a-team - name: 팀 가져오기 - params: - operationids: - - GetTeam - order: 3 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-a-team' - - generated: true - identifier: teams-remove-a-team - name: 팀 제거하기 - params: - operationids: - - DeleteTeam - order: 5 - unstable: [] - versions: - - v2 - parent: teams - url: '#remove-a-team' - - generated: true - identifier: teams-create-a-team - name: 팀 만들기 - params: - operationids: - - CreateTeam - order: 2 - unstable: [] - versions: - - v2 - parent: teams - url: '#create-a-team' - - generated: true - identifier: teams-get-all-teams - name: 모든 팀 가져오기 - params: - operationids: - - ListTeams - order: 1 - unstable: [] - versions: - - v2 - parent: teams - url: '#get-all-teams' \ No newline at end of file + - identifier: API 개요 + name: 개요 + url: /api/latest/ + weight: -10 + - name: API 사용 + parent: API 개요 + url: /api/latest/using-the-api/ + weight: 5 + - identifier: API 범위 + name: 승인 범위 + parent: API 개요 + url: /api/latest/scopes/ + weight: 6 + - identifier: rate-limits + name: 속도 제한 + parent: API 개요 + url: /api/latest/rate-limits/ + weight: 7 + - generated: true + identifier: aws-integration + name: AWS 통합 + url: /api/latest/aws-integration/ + - generated: true + identifier: aws-integration-generate-a-new-external-id + name: 새 외부 ID 생성하기 + params: + operationids: + - CreateNewAWSExternalID + order: 4 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#generate-a-new-external-id' + - generated: true + identifier: aws-integration-set-an-aws-tag-filter + name: AWS 태그 필터 설정하기 + params: + operationids: + - CreateAWSTagFilter + order: 2 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#set-an-aws-tag-filter' + - generated: true + identifier: aws-integration-get-all-aws-tag-filters + name: '모든 AWS 태그 필터 가져오기 ' + params: + operationids: + - ListAWSTagFilters + order: 1 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#get-all-aws-tag-filters' + - generated: true + identifier: aws-integration-delete-a-tag-filtering-entry + name: 태그 필터링 항목 삭제하기 + params: + operationids: + - DeleteAWSTagFilter + order: 3 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#delete-a-tag-filtering-entry' + - generated: true + identifier: aws-integration-create-an-amazon-eventbridge-source + name: Amazon EventBridge 소스 생성하기 + params: + operationids: + - CreateAWSEventBridgeSource + order: 11 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#create-an-amazon-eventbridge-source' + - generated: true + identifier: aws-integration-get-all-amazon-eventbridge-sources + name: 모든 Amazon EventBridge 소스 가져오기 + params: + operationids: + - ListAWSEventBridgeSources + order: 10 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#get-all-amazon-eventbridge-sources' + - generated: true + identifier: aws-integration-delete-an-amazon-eventbridge-source + name: Amazon EventBridge 소스 삭제하기 + params: + operationids: + - DeleteAWSEventBridgeSource + order: 12 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#delete-an-amazon-eventbridge-source' + - generated: true + identifier: aws-integration-list-namespace-rules + name: 네임스페이스 규칙 나열하기 + params: + operationids: + - ListAvailableAWSNamespaces + order: 5 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#list-namespace-rules' + - generated: true + identifier: aws-integration-update-an-aws-integration + name: AWS 통합 업데이트하기 + params: + operationids: + - UpdateAWSAccount + order: 9 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#update-an-aws-integration' + - generated: true + identifier: aws-integration-create-an-aws-integration + name: AWS 통합 생성하기 + params: + operationids: + - CreateAWSAccount + order: 8 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#create-an-aws-integration' + - generated: true + identifier: aws-integration-list-all-aws-integrations + name: 모든 AWS 통합 나열하기 + params: + operationids: + - ListAWSAccounts + order: 6 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#list-all-aws-integrations' + - generated: true + identifier: aws-integration-delete-an-aws-integration + name: AWS 통합 삭제하기 + params: + operationids: + - DeleteAWSAccount + order: 7 + unstable: [] + versions: + - v1 + parent: aws-integration + url: '#delete-an-aws-integration' + - generated: true + identifier: aws-logs-integration + name: AWS 로그 통합 + url: /api/latest/aws-logs-integration/ + - generated: true + identifier: aws-logs-integration-check-permissions-for-log-services + name: 로그 서비스에 대한 권한 확인하기 + params: + operationids: + - CheckAWSLogsServicesAsync + order: 6 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#check-permissions-for-log-services' + - generated: true + identifier: aws-logs-integration-enable-an-aws-logs-integration + name: 'AWS 로그 통합 사용하기 ' + params: + operationids: + - EnableAWSLogServices + order: 5 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#enable-an-aws-logs-integration' + - generated: true + identifier: aws-logs-integration-get-list-of-aws-log-ready-services + name: AWS 로그 지원 서비스 목록 가져오기 + params: + operationids: + - ListAWSLogsServices + order: 4 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#get-list-of-aws-log-ready-services' + - generated: true + identifier: aws-logs-integration-check-that-an-aws-lambda-function-exists + name: AWS Lambda 함수가 존재하는지 확인하기 + params: + operationids: + - CheckAWSLogsLambdaAsync + order: 7 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#check-that-an-aws-lambda-function-exists' + - generated: true + identifier: aws-logs-integration-add-aws-log-lambda-arn + name: 인증 + params: + operationids: + - CreateAWSLambdaARN + order: 2 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#add-aws-log-lambda-arn' + - generated: true + identifier: aws-logs-integration-list-all-aws-logs-integrations + name: 모든 AWS 로그 통합 나열하기 + params: + operationids: + - ListAWSLogsIntegrations + order: 1 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#list-all-aws-logs-integrations' + - generated: true + identifier: aws-logs-integration-delete-an-aws-logs-integration + name: AWS 로그 통합 삭제하기 + params: + operationids: + - DeleteAWSLambdaARN + order: 3 + unstable: [] + versions: + - v1 + parent: aws-logs-integration + url: '#delete-an-aws-logs-integration' + - generated: true + identifier: authentication + name: 인증 + url: /api/latest/authentication/ + - generated: true + identifier: authentication-validate-api-key + name: API 키 인증하기 + params: + operationids: + - 인증 + order: 1 + unstable: [] + versions: + - v1 + parent: authentication + url: '#validate-api-key' + - generated: true + identifier: azure-integration + name: Azure 통합 + url: /api/latest/azure-integration/ + - generated: true + identifier: azure-integration-update-azure-integration-host-filters + name: Azure 통합 호스트 필터 업데이트하기 + params: + operationids: + - UpdateAzureHostFilters + order: 5 + unstable: [] + versions: + - v1 + parent: azure-integration + url: '#update-azure-integration-host-filters' + - generated: true + identifier: azure-integration-update-an-azure-integration + name: Azure 통합 업데이트하기 + params: + operationids: + - UpdateAzureIntegration + order: 4 + unstable: [] + versions: + - v1 + parent: azure-integration + url: '#update-an-azure-integration' + - generated: true + identifier: azure-integration-create-an-azure-integration + name: Azure 통합 생성하기 + params: + operationids: + - CreateAzureIntegration + order: 2 + unstable: [] + versions: + - v1 + parent: azure-integration + url: '#create-an-azure-integration' + - generated: true + identifier: azure-integration-list-all-azure-integrations + name: 모든 Azure 통합 나열하기 + params: + operationids: + - ListAzureIntegration + order: 1 + unstable: [] + versions: + - v1 + parent: azure-integration + url: '#list-all-azure-integrations' + - generated: true + identifier: azure-integration-delete-an-azure-integration + name: 대시보드 목록에 항목 추가 + params: + operationids: + - DeleteAzureIntegration + order: 3 + unstable: [] + versions: + - v1 + parent: azure-integration + url: '#delete-an-azure-integration' + - generated: true + identifier: dashboard-lists + name: 대시보드 목록 + url: /api/latest/dashboard-lists/ + - generated: true + identifier: dashboard-lists-update-items-of-a-dashboard-list + name: 대시보드 목록 항목 업데이트하기 + params: + operationids: + - UpdateDashboardListItems + order: 3 + unstable: [] + versions: + - v2 + parent: dashboard-lists + url: '#update-items-of-a-dashboard-list' + - generated: true + identifier: dashboard-lists-add-items-to-a-dashboard-list + name: 대시보드 목록에 항목 추가하기 + params: + operationids: + - CreateDashboardListItems + order: 2 + unstable: [] + versions: + - v2 + parent: dashboard-lists + url: '#add-items-to-a-dashboard-list' + - generated: true + identifier: dashboard-lists-get-items-of-a-dashboard-list + name: 대시보드 목록 항목 가져오기 + params: + operationids: + - GetDashboardListItems + order: 1 + unstable: [] + versions: + - v2 + parent: dashboard-lists + url: '#get-items-of-a-dashboard-list' + - generated: true + identifier: dashboard-lists-delete-items-from-a-dashboard-list + name: 대시보드 목록에서 항목 삭제하기 + params: + operationids: + - DeleteDashboardListItems + order: 4 + unstable: [] + versions: + - v2 + parent: dashboard-lists + url: '#delete-items-from-a-dashboard-list' + - generated: true + identifier: dashboard-lists-update-a-dashboard-list + name: 대시보드 목록 업데이트하기 + params: + operationids: + - UpdateDashboardList + order: 4 + unstable: [] + versions: + - v1 + parent: dashboard-lists + url: '#update-a-dashboard-list' + - generated: true + identifier: dashboard-lists-get-a-dashboard-list + name: 대시보드 목록 가져오기 + params: + operationids: + - GetDashboardList + order: 3 + unstable: [] + versions: + - v1 + parent: dashboard-lists + url: '#get-a-dashboard-list' + - generated: true + identifier: dashboard-lists-delete-a-dashboard-list + name: 대시보드 목록 삭제하기 + params: + operationids: + - DeleteDashboardList + order: 5 + unstable: [] + versions: + - v1 + parent: dashboard-lists + url: '#delete-a-dashboard-list' + - generated: true + identifier: dashboard-lists-create-a-dashboard-list + name: 대시보드 목록 생성하기 + params: + operationids: + - CreateDashboardList + order: 2 + unstable: [] + versions: + - v1 + parent: dashboard-lists + url: '#create-a-dashboard-list' + - generated: true + identifier: dashboard-lists-get-all-dashboard-lists + name: 모든 대시보드 목록 가져오기 + params: + operationids: + - ListDashboardLists + order: 1 + unstable: [] + versions: + - v1 + parent: dashboard-lists + url: '#get-all-dashboard-lists' + - generated: true + identifier: dashboards + name: 대시보드 + url: /api/latest/dashboards/ + - generated: true + identifier: dashboards-update-a-dashboard + name: 대시보드 업데이트하기 + params: + operationids: + - UpdateDashboard + order: 4 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#update-a-dashboard' + - generated: true + identifier: dashboards-get-a-dashboard + name: 대시보드 가져오기 + params: + operationids: + - GetDashboard + order: 2 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#get-a-dashboard' + - generated: true + identifier: dashboards-delete-a-dashboard + name: 대시보드 삭제하기 + params: + operationids: + - DeleteDashboard + order: 5 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#delete-a-dashboard' + - generated: true + identifier: dashboards-send-shared-dashboard-invitation-email + name: 공유 대시보드 초대 이메일 보내기 + params: + operationids: + - SendPublicDashboardInvitation + order: 11 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#send-shared-dashboard-invitation-email' + - generated: true + identifier: dashboards-get-all-invitations-for-a-shared-dashboard + name: 공유 대시보드에 대한 모든 초대 받기 + params: + operationids: + - GetPublicDashboardInvitations + order: 12 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#get-all-invitations-for-a-shared-dashboard' + - generated: true + identifier: dashboards-revoke-shared-dashboard-invitations + name: 공유 대시보드 초대 취소하기 + params: + operationids: + - DeletePublicDashboardInvitation + order: 14 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#revoke-shared-dashboard-invitations' + - generated: true + identifier: dashboards-update-a-shared-dashboard + name: 공유 대시보드 업데이트하기 + params: + operationids: + - UpdatePublicDashboard + order: 10 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#update-a-shared-dashboard' + - generated: true + identifier: dashboards-get-a-shared-dashboard + name: 새 대시보드 생성 + params: + operationids: + - GetPublicDashboard + order: 9 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#get-a-shared-dashboard' + - generated: true + identifier: dashboards-revoke-a-shared-dashboard-url + name: 공유 대시보드 URL 취소하기 + params: + operationids: + - DeletePublicDashboard + order: 13 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#revoke-a-shared-dashboard-url' + - generated: true + identifier: dashboards-create-a-shared-dashboard + name: 공유 대시보드 생성하기 + params: + operationids: + - CreatePublicDashboard + order: 8 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#create-a-shared-dashboard' + - generated: true + identifier: dashboards-create-a-new-dashboard + name: 새 대시보드 생성하기 + params: + operationids: + - CreateDashboard + order: 1 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#create-a-new-dashboard' + - generated: true + identifier: dashboards-restore-deleted-dashboards + name: 삭제된 대시보드 복구 + params: + operationids: + - RestoreDashboards + order: 7 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#restore-deleted-dashboards' + - generated: true + identifier: dashboards-get-all-dashboards + name: 모든 대시보드 보기 + params: + operationids: + - ListDashboards + order: 3 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#get-all-dashboards' + - generated: true + identifier: dashboards-delete-dashboards + name: 삭제된 대시보드 + params: + operationids: + - DeleteDashboards + order: 6 + unstable: [] + versions: + - v1 + parent: dashboards + url: '#delete-dashboards' + - generated: true + identifier: downtimes + name: 다운타임 + url: /api/latest/downtimes/ + - generated: true + identifier: downtimes-get-active-downtimes-for-a-monitor + name: 모니터에 대한 활성 다운타임 확인하기 + params: + operationids: + - ListMonitorDowntimes + order: 7 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#get-active-downtimes-for-a-monitor' + - generated: true + identifier: downtimes-update-a-downtime + name: 다운타임 업데이트하기 + params: + operationids: + - UpdateDowntime + order: 6 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#update-a-downtime' + - generated: true + identifier: downtimes-get-a-downtime + name: 다운타임 가져오기 + params: + operationids: + - GetDowntime + order: 5 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#get-a-downtime' + - generated: true + identifier: downtimes-cancel-a-downtime + name: 다운타임 취소하기 + params: + operationids: + - CancelDowntime + order: 4 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#cancel-a-downtime' + - generated: true + identifier: downtimes-cancel-downtimes-by-scope + name: 범위별로 다운타임 취소하기 + params: + operationids: + - CancelDowntimesByScope + order: 3 + unstable: [] + versions: + - v1 + parent: downtimes + url: '#cancel-downtimes-by-scope' + - generated: true + identifier: downtimes-schedule-a-downtime + name: 다운타임 예약하기 + params: + operationids: + - CreateDowntime + order: 2 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#schedule-a-downtime' + - generated: true + identifier: downtimes-get-all-downtimes + name: 모든 다운타임 가져오기 + params: + operationids: + - ListDowntimes + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: downtimes + url: '#get-all-downtimes' + - generated: true + identifier: embeddable-graphs + name: 삽입 가능한 그래프 + url: /api/latest/embeddable-graphs/ + - generated: true + identifier: embeddable-graphs-revoke-embed + name: 임베드 취소하기 + params: + operationids: + - RevokeEmbeddableGraph + order: 1 + unstable: [] + versions: + - v1 + parent: embeddable-graphs + url: '#revoke-embed' + - generated: true + identifier: embeddable-graphs-enable-embed + name: 임베드 사용하기 + params: + operationids: + - EnableEmbeddableGraph + order: 2 + unstable: [] + versions: + - v1 + parent: embeddable-graphs + url: '#enable-embed' + - generated: true + identifier: 이벤트 + name: 이벤트 + params: + operationids: + - GetEmbeddableGraph + order: 3 + unstable: [] + versions: + - v1 + parent: embeddable-graphs + url: '#get-specific-embed' + - generated: true + identifier: embeddable-graphs-create-embed + name: 임베드 생성하기 + params: + operationids: + - CreateEmbeddableGraph + order: 4 + unstable: [] + versions: + - v1 + parent: embeddable-graphs + url: '#create-embed' + - generated: true + identifier: embeddable-graphs-get-all-embeds + name: 모든 임베드 가져오기 + params: + operationids: + - ListEmbeddableGraphs + order: 5 + unstable: [] + versions: + - v1 + parent: embeddable-graphs + url: '#get-all-embeds' + - generated: true + identifier: events + name: 이벤트 + url: /api/latest/events/ + - generated: true + identifier: events-search-events + name: 이벤트 검색하기 + params: + operationids: + - SearchEvents + order: 2 + unstable: [] + versions: + - v2 + parent: events + url: '#search-events' + - generated: true + identifier: events-get-an-event + name: 이벤트 가져오기 + params: + operationids: + - GetEvent + order: 2 + unstable: [] + versions: + - v1 + parent: events + url: '#get-an-event' + - generated: true + identifier: events-post-an-event + name: 이벤트 게시하기 + params: + operationids: + - CreateEvent + order: 1 + unstable: [] + versions: + - v1 + parent: events + url: '#post-an-event' + - generated: true + identifier: events-get-a-list-of-events + name: 이벤트 목록 가져오기 + params: + operationids: + - ListEvents + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: events + url: '#get-a-list-of-events' + - generated: true + identifier: gcp-integration + name: GCP 통합 + url: /api/latest/gcp-integration/ + - generated: true + identifier: gcp-integration-create-a-datadog-gcp-principal + name: Datadog GCP 원리 생성하기 + params: + operationids: + - MakeGCPSTSDelegate + order: 5 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#create-a-datadog-gcp-principal' + - generated: true + identifier: gcp-integration-list-delegate-account + name: 위임 계정 나열하기 + params: + operationids: + - GetGCPSTSDelegate + order: 6 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#list-delegate-account' + - generated: true + identifier: gcp-integration-update-sts-service-account + name: ' STS 서비스 계정 업데이트하기' + params: + operationids: + - UpdateGCPSTSAccount + order: 4 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#update-sts-service-account' + - generated: true + identifier: gcp-integration-delete-an-sts-enabled-gcp-account + name: STS가 활성화된 GCP 계정 삭제하기 + params: + operationids: + - DeleteGCPSTSAccount + order: 3 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#delete-an-sts-enabled-gcp-account' + - generated: true + identifier: gcp-integration-create-a-new-entry-for-your-service-account + name: 서비스 계정에 대한 새 항목 만들기 + params: + operationids: + - CreateGCPSTSAccount + order: 2 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#create-a-new-entry-for-your-service-account' + - generated: true + identifier: gcp-integration-list-all-gcp-sts-enabled-service-accounts + name: STS가 활성화된 모든 GCP 서비스 계정 목록 만들기 + params: + operationids: + - ListGCPSTSAccounts + order: 1 + unstable: [] + versions: + - v2 + parent: gcp-integration + url: '#list-all-gcp-sts-enabled-service-accounts' + - generated: true + identifier: gcp-integration-update-a-gcp-integration + name: 'GCP 통합 업데이트하기 ' + params: + operationids: + - UpdateGCPIntegration + order: 4 + unstable: [] + versions: + - v1 + parent: gcp-integration + url: '#update-a-gcp-integration' + - generated: true + identifier: gcp-integration-create-a-gcp-integration + name: 호스트 + params: + operationids: + - CreateGCPIntegration + order: 2 + unstable: [] + versions: + - v1 + parent: gcp-integration + url: '#create-a-gcp-integration' + - generated: true + identifier: gcp-integration-list-all-gcp-integrations + name: 모든 GCP 통합 나열하기 + params: + operationids: + - ListGCPIntegration + order: 1 + unstable: [] + versions: + - v1 + parent: gcp-integration + url: '#list-all-gcp-integrations' + - generated: true + identifier: gcp-integration-delete-a-gcp-integration + name: GCP 통합 삭제하기 + params: + operationids: + - DeleteGCPIntegration + order: 3 + unstable: [] + versions: + - v1 + parent: gcp-integration + url: '#delete-a-gcp-integration' + - generated: true + identifier: hosts + name: 호스트 + url: /api/latest/hosts/ + - generated: true + identifier: hosts-get-the-total-number-of-active-hosts + name: '총 활성 호스트 수 보기 ' + params: + operationids: + - GetHostTotals + order: 2 + unstable: [] + versions: + - v1 + parent: hosts + url: '#get-the-total-number-of-active-hosts' + - generated: true + identifier: hosts-get-all-hosts-for-your-organization + name: IP 범위 + params: + operationids: + - ListHosts + order: 1 + unstable: [] + versions: + - v1 + parent: hosts + url: '#get-all-hosts-for-your-organization' + - generated: true + identifier: hosts-unmute-a-host + name: 호스트 숨김 해제하기 + params: + operationids: + - UnmuteHost + order: 4 + unstable: [] + versions: + - v1 + parent: hosts + url: '#unmute-a-host' + - generated: true + identifier: hosts-mute-a-host + name: '키 관리 ' + params: + operationids: + - MuteHost + order: 3 + unstable: [] + versions: + - v1 + parent: hosts + url: '#mute-a-host' + - generated: true + identifier: ip-ranges + name: 현재 사용자가 소유한 애플리케이션 키 편집 + url: /api/latest/ip-ranges/ + - generated: true + identifier: ip-ranges-list-ip-ranges + name: IP 범위 나열하기 + params: + operationids: + - GetIPRanges + order: 1 + unstable: [] + versions: + - v1 + parent: ip-ranges + url: '#list-ip-ranges' + - generated: true + identifier: key-management + name: 현재 사용자가 소유한 애플리케이션 키 삭제 + url: /api/latest/key-management/ + - generated: true + identifier: key-management-edit-an-application-key-owned-by-current-user + name: 현재 사용자용 애플리케이션 키 생성 + params: + operationids: + - UpdateCurrentUserApplicationKey + order: 2 + unstable: [] + versions: + - v2 + parent: key-management + url: '#edit-an-application-key-owned-by-current-user' + - generated: true + identifier: key-management-get-one-application-key-owned-by-current-user + name: 현재 사용자가 소유한 애플리케이션 키를 전체 불러오기 + params: + operationids: + - GetCurrentUserApplicationKey + order: 3 + unstable: [] + versions: + - v2 + parent: key-management + url: '#get-one-application-key-owned-by-current-user' + - generated: true + identifier: key-management-delete-an-application-key-owned-by-current-user + name: 애플리케이션 키 편집 + params: + operationids: + - DeleteCurrentUserApplicationKey + order: 1 + unstable: [] + versions: + - v2 + parent: key-management + url: '#delete-an-application-key-owned-by-current-user' + - generated: true + identifier: key-management-create-an-application-key-for-current-user + name: 애플리케이션 키 불러오기 + params: + operationids: + - CreateCurrentUserApplicationKey + order: 4 + unstable: [] + versions: + - v2 + parent: key-management + url: '#create-an-application-key-for-current-user' + - generated: true + identifier: key-management-get-all-application-keys-owned-by-current-user + name: 애플리케이션 키 삭제 + params: + operationids: + - ListCurrentUserApplicationKeys + order: 5 + unstable: [] + versions: + - v2 + parent: key-management + url: '#get-all-application-keys-owned-by-current-user' + - generated: true + identifier: key-management-edit-an-application-key + name: 애플리케이션 키 생성 + params: + operationids: + - UpdateApplicationKey + order: 9 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#edit-an-application-key' + - generated: true + identifier: key-management-get-an-application-key + name: 애플리케이션 키 전체 불러오기 + params: + operationids: + - GetApplicationKey + order: 8 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#get-an-application-key' + - generated: true + identifier: key-management-delete-an-application-key + name: API 키 편집 + params: + operationids: + - DeleteApplicationKey + order: 10 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#delete-an-application-key' + - generated: true + identifier: key-management-create-an-application-key + name: API 키 불러오기 + params: + operationids: + - CreateApplicationKey + order: 7 + unstable: [] + versions: + - v1 + parent: key-management + url: '#create-an-application-key' + - generated: true + identifier: key-management-get-all-application-keys + name: API 키 삭제 + params: + operationids: + - ListApplicationKeys + order: 6 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#get-all-application-keys' + - generated: true + identifier: key-management-edit-an-api-key + name: API 키 생성 + params: + operationids: + - UpdateAPIKey + order: 4 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#edit-an-api-key' + - generated: true + identifier: key-management-get-api-key + name: API 키 전체 불러오기 + params: + operationids: + - GetAPIKey + order: 3 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#get-api-key' + - generated: true + identifier: key-management-delete-an-api-key + name: 로그 + params: + operationids: + - DeleteAPIKey + order: 5 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#delete-an-api-key' + - generated: true + identifier: key-management-create-an-api-key + name: 로그 목록 불러오기 + params: + operationids: + - CreateAPIKey + order: 2 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#create-an-api-key' + - generated: true + identifier: key-management-get-all-api-keys + name: 이벤트 집계 + params: + operationids: + - ListAPIKeys + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: key-management + url: '#get-all-api-keys' + - generated: true + identifier: logs + name: 로그 전송 + url: /api/latest/logs/ + - generated: true + identifier: logs-get-a-list-of-logs + name: 로그 목록 가져오기 + params: + operationids: + - ListLogsGet + order: 4 + unstable: [] + versions: + - v2 + parent: logs + url: '#get-a-list-of-logs' + - generated: true + identifier: logs-aggregate-events + name: 로그 인덱스 + params: + operationids: + - AggregateLogs + order: 2 + unstable: [] + versions: + - v2 + parent: logs + url: '#aggregate-events' + - generated: true + identifier: logs-send-logs + name: 로그 전송하기 + params: + operationids: + - SubmitLog + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: logs + url: '#send-logs' + - generated: true + identifier: logs-search-logs + name: 로그 검색하기 + params: + operationids: + - ListLogs + order: 3 + unstable: [] + versions: + - v1 + - v2 + parent: logs + url: '#search-logs' + - generated: true + identifier: logs-indexes + name: 로그 인덱스 + url: /api/latest/logs-indexes/ + - generated: true + identifier: logs-indexes-update-an-index + name: 인덱스 업데이트하기 + params: + operationids: + - UpdateLogsIndex + order: 4 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#update-an-index' + - generated: true + identifier: logs-indexes-get-an-index + name: 인덱스 가져오기 + params: + operationids: + - GetLogsIndex + order: 2 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#get-an-index' + - generated: true + identifier: logs-indexes-create-an-index + name: 인덱스 만들기 + params: + operationids: + - CreateLogsIndex + order: 3 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#create-an-index' + - generated: true + identifier: logs-indexes-get-all-indexes + name: 로그 파이프라인 + params: + operationids: + - ListLogIndexes + order: 1 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#get-all-indexes' + - generated: true + identifier: logs-indexes-update-indexes-order + name: 인덱스 순서 업데이트하기 + params: + operationids: + - UpdateLogsIndexOrder + order: 6 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#update-indexes-order' + - generated: true + identifier: logs-indexes-get-indexes-order + name: 인덱스 순서 가져오기 + params: + operationids: + - GetLogsIndexOrder + order: 5 + unstable: [] + versions: + - v1 + parent: logs-indexes + url: '#get-indexes-order' + - generated: true + identifier: logs-pipelines + name: 로그 파이프라인 + url: /api/latest/logs-pipelines/ + - generated: true + identifier: logs-pipelines-update-a-pipeline + name: 파이프라인 업데이트하기 + params: + operationids: + - UpdateLogsPipeline + order: 7 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#update-a-pipeline' + - generated: true + identifier: logs-pipelines-get-a-pipeline + name: 파이프라인 가져오기 + params: + operationids: + - GetLogsPipeline + order: 5 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#get-a-pipeline' + - generated: true + identifier: logs-pipelines-delete-a-pipeline + name: 파이프라인 삭제하기 + params: + operationids: + - DeleteLogsPipeline + order: 6 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#delete-a-pipeline' + - generated: true + identifier: logs-pipelines-create-a-pipeline + name: 파이프라인 만들기 + params: + operationids: + - CreateLogsPipeline + order: 4 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#create-a-pipeline' + - generated: true + identifier: 메트릭 + name: 메트릭 + params: + operationids: + - ListLogsPipelines + order: 3 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#get-all-pipelines' + - generated: true + identifier: logs-pipelines-update-pipeline-order + name: 파이프라인 순서 업데이트하기 + params: + operationids: + - UpdateLogsPipelineOrder + order: 2 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#update-pipeline-order' + - generated: true + identifier: logs-pipelines-get-pipeline-order + name: 파이프라인 순서 가져오기 + params: + operationids: + - GetLogsPipelineOrder + order: 1 + unstable: [] + versions: + - v1 + parent: logs-pipelines + url: '#get-pipeline-order' + - generated: true + identifier: 메트릭 + name: 메트릭 + url: /api/latest/metrics/ + - generated: true + identifier: metrics-query-timeseries-data-across-multiple-products + name: 태그 설정 생성 + params: + operationids: + - QueryTimeseriesData + order: 1 + unstable: + - v2 + versions: + - v2 + parent: 메트릭 + url: '#query-timeseries-data-across-multiple-products' + - generated: true + identifier: metrics-query-scalar-data-across-multiple-products + name: 태그 설정 업데이트 + params: + operationids: + - QueryScalarData + order: 2 + unstable: + - v2 + versions: + - v2 + parent: 메트릭 + url: '#query-scalar-data-across-multiple-products' + - generated: true + identifier: metrics-list-distinct-metric-volumes-by-metric-name + name: 고유한 메트릭 볼륨을 이름별로 나열하기 + params: + operationids: + - ListVolumesByMetricName + order: 8 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#list-distinct-metric-volumes-by-metric-name' + - generated: true + identifier: metrics-create-a-tag-configuration + name: 태그 설정 삭제 + params: + operationids: + - CreateTagConfiguration + order: 1 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#create-a-tag-configuration' + - generated: true + identifier: metrics-update-a-tag-configuration + name: 태그 설정 카디널리티 추정 + params: + operationids: + - UpdateTagConfiguration + order: 3 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#update-a-tag-configuration' + - generated: true + identifier: metrics-list-tag-configuration-by-name + name: 이름 기준으로 태그 설정 나열하기 + params: + operationids: + - ListTagConfigurationByName + order: 2 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#list-tag-configuration-by-name' + - generated: true + identifier: metrics-delete-a-tag-configuration + name: 태그 설정 삭제하기 + params: + operationids: + - DeleteTagConfiguration + order: 4 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#delete-a-tag-configuration' + - generated: true + identifier: metrics-tag-configuration-cardinality-estimator + name: 여러 메트릭의 태그 설정 + params: + operationids: + - EstimateMetricsOutputSeries + order: 11 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#tag-configuration-cardinality-estimator' + - generated: true + identifier: metrics-related-assets-to-a-metric + name: 메트릭에 대한 관련 자산 + params: + operationids: + - ListMetricAssets + order: 12 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#related-assets-to-a-metric' + - generated: true + identifier: metrics-list-tags-by-metric-name + name: 메트릭 이름 기준으로 태그 나열하기 + params: + operationids: + - ListTagsByMetricName + order: 6 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#list-tags-by-metric-name' + - generated: true + identifier: metrics-list-active-tags-and-aggregations + name: 활성 태그 및 집계 나열하기 + params: + operationids: + - ListActiveMetricConfigurations + order: 7 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#list-active-tags-and-aggregations' + - generated: true + identifier: metrics-configure-tags-for-multiple-metrics + name: 메트릭 제출 + params: + operationids: + - CreateBulkTagsMetricsConfiguration + order: 9 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#configure-tags-for-multiple-metrics' + - generated: true + identifier: metrics-delete-tags-for-multiple-metrics + name: 여러 메트릭에 대한 태그 삭제하기 + params: + operationids: + - DeleteBulkTagsMetricsConfiguration + order: 10 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#delete-tags-for-multiple-metrics' + - generated: true + identifier: metrics-get-a-list-of-metrics + name: 메트릭 목록 가져오기 + params: + operationids: + - ListTagConfigurations + order: 5 + unstable: [] + versions: + - v2 + parent: 메트릭 + url: '#get-a-list-of-metrics' + - generated: true + identifier: metrics-submit-metrics + name: 메트릭 제출하기 + params: + operationids: + - SubmitMetrics + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: 메트릭 + url: '#submit-metrics' + - generated: true + identifier: metrics-search-metrics + name: 메트릭 검색하기 + params: + operationids: + - ListMetrics + order: 4 + unstable: [] + versions: + - v1 + parent: 메트릭 + url: '#search-metrics' + - generated: true + identifier: metrics-query-timeseries-points + name: 시계열 포인트 쿼리하기 + params: + operationids: + - QueryMetrics + order: 5 + unstable: [] + versions: + - v1 + parent: 메트릭 + url: '#query-timeseries-points' + - generated: true + identifier: metrics-edit-metric-metadata + name: 메트릭 메타데이터 수정하기 + params: + operationids: + - UpdateMetricMetadata + order: 3 + unstable: [] + versions: + - v1 + parent: metrics + url: '#edit-metric-metadata' + - generated: true + identifier: metrics-get-metric-metadata + name: 모니터링 + params: + operationids: + - GetMetricMetadata + order: 2 + unstable: [] + versions: + - v1 + parent: metrics + url: '#get-metric-metadata' + - generated: true + identifier: metrics-get-active-metrics-list + name: 활성 메트릭 목록 가져오기 + params: + operationids: + - ListActiveMetrics + order: 1 + unstable: [] + versions: + - v1 + parent: metrics + url: '#get-active-metrics-list' + - generated: true + identifier: metrics-submit-distribution-points + name: '분포 포인트 제출하기 ' + params: + operationids: + - SubmitDistributionPoints + order: 1 + unstable: [] + versions: + - v1 + parent: metrics + url: '#submit-distribution-points' + - generated: true + identifier: monitors + name: 모니터 + url: /api/latest/monitors/ + - generated: true + identifier: monitors-edit-a-monitor-configuration-policy + name: 모니터 설정 정책 수정하기 + params: + operationids: + - UpdateMonitorConfigPolicy + order: 12 + unstable: [] + versions: + - v2 + parent: monitors + url: '#edit-a-monitor-configuration-policy' + - generated: true + identifier: monitors-get-a-monitor-configuration-policy + name: 모니터 설정 정책 가져오기 + params: + operationids: + - GetMonitorConfigPolicy + order: 9 + unstable: [] + versions: + - v2 + parent: monitors + url: '#get-a-monitor-configuration-policy' + - generated: true + identifier: monitors-delete-a-monitor-configuration-policy + name: 모니터 설정 정책 삭제하기 + params: + operationids: + - DeleteMonitorConfigPolicy + order: 13 + unstable: [] + versions: + - v2 + parent: monitors + url: '#delete-a-monitor-configuration-policy' + - generated: true + identifier: monitors-create-a-monitor-configuration-policy + name: 모니터 설정 정책 만들기 + params: + operationids: + - CreateMonitorConfigPolicy + order: 11 + unstable: [] + versions: + - v2 + parent: monitors + url: '#create-a-monitor-configuration-policy' + - generated: true + identifier: monitors-get-all-monitor-configuration-policies + name: 모든 모니터 설정 정책 가져오기 + params: + operationids: + - ListMonitorConfigPolicies + order: 10 + unstable: [] + versions: + - v2 + parent: monitors + url: '#get-all-monitor-configuration-policies' + - generated: true + identifier: monitors-unmute-all-monitors + name: 모든 모니터 숨김 해제하기 + params: + operationids: + - UnmuteAllMonitors + order: 3 + unstable: [] + versions: + - v1 + parent: monitors + url: '#unmute-all-monitors' + - generated: true + identifier: monitors-mute-all-monitors + name: 모든 모니터 숨기기 + params: + operationids: + - MuteAllMonitors + order: 4 + unstable: [] + versions: + - v1 + parent: monitors + url: '#mute-all-monitors' + - generated: true + identifier: monitors-validate-an-existing-monitor + name: '기존 모니터 인증하기 ' + params: + operationids: + - ValidateExistingMonitor + order: 8 + unstable: [] + versions: + - v1 + parent: monitors + url: '#validate-an-existing-monitor' + - generated: true + identifier: monitors-unmute-a-monitor + name: 모니터 숨김 해제하기 + params: + operationids: + - UnmuteMonitor + order: 1 + unstable: [] + versions: + - v1 + parent: monitors + url: '#unmute-a-monitor' + - generated: true + identifier: monitors-mute-a-monitor + name: 모니터 숨기기 + params: + operationids: + - MuteMonitor + order: 2 + unstable: [] + versions: + - v1 + parent: monitors + url: '#mute-a-monitor' + - generated: true + identifier: monitors-edit-a-monitor + name: 모니터 수정하기 + params: + operationids: + - UpdateMonitor + order: 3 + unstable: [] + versions: + - v1 + parent: monitors + url: '#edit-a-monitor' + - generated: true + identifier: monitors-get-a-monitors-details + name: 모니터 세부 정보 보기 + params: + operationids: + - GetMonitor + order: 4 + unstable: [] + versions: + - v1 + parent: monitors + url: '#get-a-monitors-details' + - generated: true + identifier: monitors-delete-a-monitor + name: 모니터 삭제하기 + params: + operationids: + - DeleteMonitor + order: 5 + unstable: [] + versions: + - v1 + parent: monitors + url: '#delete-a-monitor' + - generated: true + identifier: monitors-validate-a-monitor + name: 모니터 인증하기 + params: + operationids: + - ValidateMonitor + order: 7 + unstable: [] + versions: + - v1 + parent: monitors + url: '#validate-a-monitor' + - generated: true + identifier: monitors-monitors-search + name: 모니터 검색 + params: + operationids: + - SearchMonitors + order: 1 + unstable: [] + versions: + - v1 + parent: monitors + url: '#monitors-search' + - generated: true + identifier: monitors-monitors-group-search + name: 그룹 검색 모니터링 + params: + operationids: + - SearchMonitorGroups + order: 2 + unstable: [] + versions: + - v1 + parent: monitors + url: '#monitors-group-search' + - generated: true + identifier: monitors-check-if-a-monitor-can-be-deleted + name: 노트북 + params: + operationids: + - CheckCanDeleteMonitor + order: 6 + unstable: [] + versions: + - v1 + parent: monitors + url: '#check-if-a-monitor-can-be-deleted' + - generated: true + identifier: monitors-create-a-monitor + name: 모니터 만들기 + params: + operationids: + - CreateMonitor + order: 1 + unstable: [] + versions: + - v1 + parent: monitors + url: '#create-a-monitor' + - generated: true + identifier: monitors-get-all-monitor-details + name: 모든 모니터 세부 정보 보기 + params: + operationids: + - ListMonitors + order: 2 + unstable: [] + versions: + - v1 + parent: monitors + url: '#get-all-monitor-details' + - generated: true + identifier: notebooks + name: 노트북 + url: /api/latest/notebooks/ + - generated: true + identifier: notebooks-update-a-notebook + name: 노트북 업데이트하기 + params: + operationids: + - UpdateNotebook + order: 4 + unstable: [] + versions: + - v1 + parent: notebooks + url: '#update-a-notebook' + - generated: true + identifier: notebooks-get-a-notebook + name: 노트북 가져오기 + params: + operationids: + - GetNotebook + order: 5 + unstable: [] + versions: + - v1 + parent: notebooks + url: '#get-a-notebook' + - generated: true + identifier: notebooks-delete-a-notebook + name: Organizations + params: + operationids: + - DeleteNotebook + order: 3 + unstable: [] + versions: + - v1 + parent: notebooks + url: '#delete-a-notebook' + - generated: true + identifier: notebooks-create-a-notebook + name: IdP 메타데이터 업로드 + params: + operationids: + - CreateNotebook + order: 1 + unstable: [] + versions: + - v1 + parent: notebooks + url: '#create-a-notebook' + - generated: true + identifier: notebooks-get-all-notebooks + name: 모든 노트북 가져오기 + params: + operationids: + - ListNotebooks + order: 2 + unstable: [] + versions: + - v1 + parent: notebooks + url: '#get-all-notebooks' + - generated: true + identifier: organizations + name: 조직 + url: /api/latest/organizations/ + - generated: true + identifier: organizations-upload-idp-metadata + name: IdP 메타데이터 업로드하기 + params: + operationids: + - UploadIdPForOrg + - UploadIdPMetadata + order: 5 + unstable: [] + versions: + - v1 + - v2 + parent: organizations + url: '#upload-idp-metadata' + - generated: true + identifier: organizations-spin-off-child-organization + name: 스핀오프 하위 조직 + params: + operationids: + - DowngradeOrg + order: 6 + unstable: [] + versions: + - v1 + parent: organizations + url: '#spin-off-child-organization' + - generated: true + identifier: organizations-update-your-organization + name: 조직 업데이트하기 + params: + operationids: + - UpdateOrg + order: 4 + unstable: [] + versions: + - v1 + parent: organizations + url: '#update-your-organization' + - generated: true + identifier: organizations-get-organization-information + name: PagerDuty 통합 + params: + operationids: + - GetOrg + order: 3 + unstable: [] + versions: + - v1 + parent: organizations + url: '#get-organization-information' + - generated: true + identifier: organizations-create-a-child-organization + name: 단일 서비스 객체 업데이트 + params: + operationids: + - CreateChildOrg + order: 1 + unstable: [] + versions: + - v1 + parent: organizations + url: '#create-a-child-organization' + - generated: true + identifier: organizations-list-your-managed-organizations + name: 관리 조직 나열하기 + params: + operationids: + - ListOrgs + order: 2 + unstable: [] + versions: + - v1 + parent: organizations + url: '#list-your-managed-organizations' + - generated: true + identifier: pagerduty-integration + name: 단일 서비스 객체 삭제 + url: /api/latest/pagerduty-integration/ + - generated: true + identifier: pagerduty-integration-update-a-single-service-object + name: '단일 서비스 개체 업데이트하기 ' + params: + operationids: + - UpdatePagerDutyIntegrationService + order: 3 + unstable: [] + versions: + - v1 + parent: pagerduty-integration + url: '#update-a-single-service-object' + - generated: true + identifier: pagerduty-integration-get-a-single-service-object + name: 단일 서비스 개체 가져오기 + params: + operationids: + - GetPagerDutyIntegrationService + order: 2 + unstable: [] + versions: + - v1 + parent: pagerduty-integration + url: '#get-a-single-service-object' + - generated: true + identifier: pagerduty-integration-delete-a-single-service-object + name: 단일 서비스 개체 삭제하기 + params: + operationids: + - DeletePagerDutyIntegrationService + order: 4 + unstable: [] + versions: + - v1 + parent: pagerduty-integration + url: '#delete-a-single-service-object' + - generated: true + identifier: pagerduty-integration-create-a-new-service-object + name: 새 서비스 개체 만들기 + params: + operationids: + - CreatePagerDutyIntegrationService + order: 1 + unstable: [] + versions: + - v1 + parent: pagerduty-integration + url: '#create-a-new-service-object' + - generated: true + identifier: screenboards + name: 스크린보드 + url: /api/latest/screenboards/ + - generated: true + identifier: security-monitoring + name: 보안 시그널 목록 불러오기 + url: /api/latest/security-monitoring/ + - generated: true + identifier: security-monitoring-change-the-related-incidents-of-a-security-signal + name: 보안 시그널의 간단 목록 불러오기 + params: + operationids: + - EditSecurityMonitoringSignalIncidents + order: 11 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#change-the-related-incidents-of-a-security-signal' + - generated: true + identifier: security-monitoring-get-a-signals-details + name: 기존 규칙 업데이트 + params: + operationids: + - GetSecurityMonitoringSignal + order: 13 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-signals-details' + - generated: true + identifier: security-monitoring-get-a-list-of-security-signals + name: 보안 신호 목록 가져오기 + params: + operationids: + - SearchSecurityMonitoringSignals + order: 9 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-list-of-security-signals' + - generated: true + identifier: security-monitoring-get-a-quick-list-of-security-signals + name: 보안 신호에 대한 빠른 목록 보기 + params: + operationids: + - ListSecurityMonitoringSignals + order: 10 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-quick-list-of-security-signals' + - generated: true + identifier: security-monitoring-update-an-existing-rule + name: 탐지 규칙 생성 + params: + operationids: + - UpdateSecurityMonitoringRule + order: 6 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#update-an-existing-rule' + - generated: true + identifier: security-monitoring-get-a-rules-details + name: 규칙 목록 표시 + params: + operationids: + - GetSecurityMonitoringRule + order: 5 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-rules-details' + - generated: true + identifier: security-monitoring-delete-an-existing-rule + name: 보안 필터 업데이트 + params: + operationids: + - DeleteSecurityMonitoringRule + order: 7 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#delete-an-existing-rule' + - generated: true + identifier: security-monitoring-validate-a-detection-rule + name: 탐지 규칙 검증 + params: + operationids: + - ValidateSecurityMonitoringRule + order: 8 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#validate-a-detection-rule' + - generated: true + identifier: security-monitoring-create-a-detection-rule + name: 보안 필터 불러오기 + params: + operationids: + - CreateSecurityMonitoringRule + order: 4 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#create-a-detection-rule' + - generated: true + identifier: security-monitoring-list-rules + name: 규칙 나열하기 + params: + operationids: + - ListSecurityMonitoringRules + order: 4 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#list-rules' + - generated: true + identifier: security-monitoring-update-a-suppression-rule + name: 보안 필터 생성 + params: + operationids: + - UpdateSecurityMonitoringSuppression + order: 0 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#update-a-suppression-rule' + - generated: true + identifier: security-monitoring-get-a-suppression-rule + name: 보안 필터 전체 불러오기 + params: + operationids: + - GetSecurityMonitoringSuppression + order: 0 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-suppression-rule' + - generated: true + identifier: security-monitoring-delete-a-suppression-rule + name: 억제 규칙 삭제하기 + params: + operationids: + - DeleteSecurityMonitoringSuppression + order: 0 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#delete-a-suppression-rule' + - generated: true + identifier: security-monitoring-create-a-suppression-rule + name: '억제 규칙 만들기 ' + params: + operationids: + - CreateSecurityMonitoringSuppression + order: 0 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#create-a-suppression-rule' + - generated: true + identifier: security-monitoring-get-all-suppression-rules + name: 모든 억제 규칙 가져오기 + params: + operationids: + - ListSecurityMonitoringSuppressions + order: 0 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-all-suppression-rules' + - generated: true + identifier: security-monitoring-update-a-security-filter + name: 보안 필터 업데이트하기 + params: + operationids: + - UpdateSecurityFilter + order: 15 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#update-a-security-filter' + - generated: true + identifier: security-monitoring-get-a-security-filter + name: 보안 필터 가져오기 + params: + operationids: + - GetSecurityFilter + order: 16 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-a-security-filter' + - generated: true + identifier: security-monitoring-delete-a-security-filter + name: 보안 필터 삭제하기 + params: + operationids: + - DeleteSecurityFilter + order: 14 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#delete-a-security-filter' + - generated: true + identifier: security-monitoring-create-a-security-filter + name: 서비스 점검 + params: + operationids: + - CreateSecurityFilter + order: 17 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#create-a-security-filter' + - generated: true + identifier: security-monitoring-get-all-security-filters + name: '모든 보안 필터 가져오기 ' + params: + operationids: + - ListSecurityFilters + order: 18 + unstable: [] + versions: + - v2 + parent: security-monitoring + url: '#get-all-security-filters' + - generated: true + identifier: security-monitoring-get-a-finding + name: 서비스 종속성 + params: + operationids: + - GetFinding + order: 2 + unstable: + - v2 + versions: + - v2 + parent: security-monitoring + url: '#get-a-finding' + - generated: true + identifier: security-monitoring-mute-or-unmute-a-batch-of-findings + name: '발견 항목 일괄 숨김 또는 숨김 해제 ' + params: + operationids: + - MuteFindings + order: 2 + unstable: + - v2 + versions: + - v2 + parent: security-monitoring + url: '#mute-or-unmute-a-batch-of-findings' + - generated: true + identifier: security-monitoring-list-findings + name: 발견 사항 나열하기 + params: + operationids: + - ListFindings + order: 1 + unstable: + - v2 + versions: + - v2 + parent: security-monitoring + url: '#list-findings' + - generated: true + identifier: security-monitoring-change-the-triage-state-of-a-security-signal + name: 보안 신호 분류 상태 변경하기 + params: + operationids: + - EditSecurityMonitoringSignalState + order: 4 + unstable: [] + versions: + - v1 + - v2 + parent: security-monitoring + url: '#change-the-triage-state-of-a-security-signal' + - generated: true + identifier: security-monitoring-modify-the-triage-assignee-of-a-security-signal + name: 보안 신호 분류 담당자 수정하기 + params: + operationids: + - EditSecurityMonitoringSignalAssignee + order: 5 + unstable: [] + versions: + - v1 + - v2 + parent: security-monitoring + url: '#modify-the-triage-assignee-of-a-security-signal' + - generated: true + identifier: security-monitoring-add-a-security-signal-to-an-incident + name: 인시던트에 보안 신호 추가하기 + params: + operationids: + - AddSecurityMonitoringSignalToIncident + order: 4 + unstable: [] + versions: + - v1 + parent: security-monitoring + url: '#add-a-security-signal-to-an-incident' + - generated: true + identifier: service-checks + name: 서비스 점검 + url: /api/latest/service-checks/ + - generated: true + identifier: service-checks-submit-a-service-check + name: 서비스 검사 제출하기 + params: + operationids: + - SubmitServiceCheck + order: 1 + unstable: [] + versions: + - v1 + parent: service-checks + url: '#submit-a-service-check' + - generated: true + identifier: service-dependencies + name: 서비스 종속성 + url: /api/latest/service-dependencies/ + - generated: true + identifier: service-dependencies-get-one-apm-services-dependencies + name: 서비스 수준 목표(Service Level Objectives) + params: + operationids: + - ListSingleServiceDependencies + order: 2 + unstable: + - v1 + versions: + - v1 + parent: service-dependencies + url: '#get-one-apm-services-dependencies' + - generated: true + identifier: service-dependencies-get-all-apm-service-dependencies + name: 모든 APM 서비스 종속성 가져오기 + params: + operationids: + - ListServiceDependencies + order: 1 + unstable: + - v1 + versions: + - v1 + parent: service-dependencies + url: '#get-all-apm-service-dependencies' + - generated: true + identifier: service-level-objective-corrections + name: 서비스 수준 목표(Service Level Objective) 수정 + url: /api/latest/service-level-objective-corrections/ + - generated: true + identifier: service-level-objective-corrections-update-an-slo-correction + name: SLO 수정 업데이트 + params: + operationids: + - UpdateSLOCorrection + order: 4 + unstable: [] + versions: + - v1 + parent: service-level-objective-corrections + url: '#update-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-get-an-slo-correction-for-an-slo + name: SLO에 대한 SLO 수정 가져오기 + params: + operationids: + - GetSLOCorrection + order: 3 + unstable: [] + versions: + - v1 + parent: service-level-objective-corrections + url: '#get-an-slo-correction-for-an-slo' + - generated: true + identifier: service-level-objective-corrections-delete-an-slo-correction + name: SLO 수정 삭제하기 + params: + operationids: + - DeleteSLOCorrection + order: 5 + unstable: [] + versions: + - v1 + parent: service-level-objective-corrections + url: '#delete-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-create-an-slo-correction + name: SLO 수정 생성하기 + params: + operationids: + - CreateSLOCorrection + order: 1 + unstable: [] + versions: + - v1 + parent: service-level-objective-corrections + url: '#create-an-slo-correction' + - generated: true + identifier: service-level-objective-corrections-get-all-slo-corrections + name: 모든 SLO 수정 사항 가져오기 + params: + operationids: + - ListSLOCorrection + order: 2 + unstable: [] + versions: + - v1 + parent: service-level-objective-corrections + url: '#get-all-slo-corrections' + - generated: true + identifier: service-level-objectives + name: "서비스 수준 목표(S\bLO)" + url: /api/latest/service-level-objectives/ + - generated: true + identifier: service-level-objectives-get-slo-report-status + name: SLO 보고서 상태 가져오기 + params: + operationids: + - GetSLOReportJobStatus + order: 102 + unstable: + - v2 + versions: + - v2 + parent: service-level-objectives + url: '#get-slo-report-status' + - generated: true + identifier: service-level-objectives-get-slo-report + name: SLO 보고서 가져오기 + params: + operationids: + - GetSLOReport + order: 103 + unstable: + - v2 + versions: + - v2 + parent: service-level-objectives + url: '#get-slo-report' + - generated: true + identifier: service-level-objectives-create-a-new-slo-report + name: 새 SLO 보고서 만들기 + params: + operationids: + - CreateSLOReportJob + order: 101 + unstable: + - v2 + versions: + - v2 + parent: service-level-objectives + url: '#create-a-new-slo-report' + - generated: true + identifier: service-level-objectives-get-an-slos-history + name: SLO 기록 가져오기 + params: + operationids: + - GetSLOHistory + order: 6 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#get-an-slos-history' + - generated: true + identifier: service-level-objectives-get-corrections-for-an-slo + name: SLO에 대한 수정 사항 가져오기 + params: + operationids: + - GetSLOCorrections + order: 6 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#get-corrections-for-an-slo' + - generated: true + identifier: service-level-objectives-update-an-slo + name: Slack 통합 + params: + operationids: + - UpdateSLO + order: 3 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#update-an-slo' + - generated: true + identifier: service-level-objectives-get-an-slos-details + name: SLO 세부 정보 보기 + params: + operationids: + - GetSLO + order: 4 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#get-an-slos-details' + - generated: true + identifier: service-level-objectives-delete-an-slo + name: SLO 삭제하기 + params: + operationids: + - DeleteSLO + order: 5 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#delete-an-slo' + - generated: true + identifier: service-level-objectives-search-for-slos + name: SLO 검색하기 + params: + operationids: + - SearchSLO + order: 1 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#search-for-slos' + - generated: true + identifier: service-level-objectives-check-if-slos-can-be-safely-deleted + name: SLO를 안전하게 삭제할 수 있는지 확인하기 + params: + operationids: + - CheckCanDeleteSLO + order: 7 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#check-if-slos-can-be-safely-deleted' + - generated: true + identifier: service-level-objectives-bulk-delete-slo-timeframes + name: SLO 타임프레임 일괄 삭제 + params: + operationids: + - DeleteSLOTimeframeInBulk + order: 8 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#bulk-delete-slo-timeframes' + - generated: true + identifier: service-level-objectives-create-an-slo-object + name: SLO 개체 만들기 + params: + operationids: + - CreateSLO + order: 1 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#create-an-slo-object' + - generated: true + identifier: service-level-objectives-get-all-slos + name: 모든 SLO 가져오기 + params: + operationids: + - ListSLOs + order: 2 + unstable: [] + versions: + - v1 + parent: service-level-objectives + url: '#get-all-slos' + - generated: true + identifier: slack-integration + name: Slack 통합 + url: /api/latest/slack-integration/ + - generated: true + identifier: slack-integration-update-a-slack-integration-channel + name: Slack 통합 채널 업데이트하기 + params: + operationids: + - UpdateSlackIntegrationChannel + order: 4 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#update-a-slack-integration-channel' + - generated: true + identifier: slack-integration-get-a-slack-integration-channel + name: 스냅샷 + params: + operationids: + - GetSlackIntegrationChannel + order: 3 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#get-a-slack-integration-channel' + - generated: true + identifier: slack-integration-remove-a-slack-integration-channel + name: Slack 통합 채널 제거하기 + params: + operationids: + - RemoveSlackIntegrationChannel + order: 5 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#remove-a-slack-integration-channel' + - generated: true + identifier: slack-integration-create-a-slack-integration-channel + name: 신서틱 + params: + operationids: + - CreateSlackIntegrationChannel + order: 2 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#create-a-slack-integration-channel' + - generated: true + identifier: slack-integration-get-all-channels-in-a-slack-integration + name: Slack 통합에서 모든 채널 가져오기 + params: + operationids: + - GetSlackIntegrationChannels + order: 1 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#get-all-channels-in-a-slack-integration' + - generated: true + identifier: slack-integration-add-channels-to-slack-integration + name: Slack 통합에 채널 추가하기 + params: + operationids: + - UpdateSlackIntegration + order: 2 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#add-channels-to-slack-integration' + - generated: true + identifier: slack-integration-create-a-slack-integration + name: Slack 통합 만들기 + params: + operationids: + - CreateSlackIntegration + order: 3 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#create-a-slack-integration' + - generated: true + identifier: slack-integration-get-info-about-a-slack-integration + name: Slack 통합 더 알아보기 + params: + operationids: + - GetSlackIntegration + order: 4 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#get-info-about-a-slack-integration' + - generated: true + identifier: slack-integration-delete-a-slack-integration + name: Slack 통합 삭제하기 + params: + operationids: + - DeleteSlackIntegration + order: 1 + unstable: [] + versions: + - v1 + parent: slack-integration + url: '#delete-a-slack-integration' + - generated: true + identifier: snapshots + name: 스냅샷 + url: /api/latest/snapshots/ + - generated: true + identifier: snapshots-take-graph-snapshots + name: '그래프 스냅샷 찍기 ' + params: + operationids: + - GetGraphSnapshot + order: 1 + unstable: [] + versions: + - v1 + parent: snapshots + url: '#take-graph-snapshots' + - generated: true + identifier: synthetics + name: Synthetics + url: /api/latest/synthetics/ + - generated: true + identifier: synthetics-save-new-value-for-on-demand-concurrency-cap + name: 온디맨드 동시 실행 제한에 새로운 값 저장 + params: + operationids: + - SetOnDemandConcurrencyCap + order: 11 + unstable: [] + versions: + - v2 + parent: synthetics + url: '#save-new-value-for-on-demand-concurrency-cap' + - generated: true + identifier: synthetics-get-the-on-demand-concurrency-cap + name: 온디맨드 동시 실행 제한 가져오기 + params: + operationids: + - GetOnDemandConcurrencyCap + order: 10 + unstable: [] + versions: + - v2 + parent: synthetics + url: '#get-the-on-demand-concurrency-cap' + - generated: true + identifier: synthetics-edit-a-global-variable + name: 전역 변수 수정하기 + params: + operationids: + - EditGlobalVariable + order: 21 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#edit-a-global-variable' + - generated: true + identifier: synthetics-get-a-global-variable + name: 전역 변수 가져오기 + params: + operationids: + - GetGlobalVariable + order: 20 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-global-variable' + - generated: true + identifier: synthetics-delete-a-global-variable + name: 전역 변수 삭제하기 + params: + operationids: + - DeleteGlobalVariable + order: 22 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#delete-a-global-variable' + - generated: true + identifier: synthetics-create-a-global-variable + name: 전역 변수 만들기 + params: + operationids: + - CreateGlobalVariable + order: 19 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#create-a-global-variable' + - generated: true + identifier: synthetics-get-all-global-variables + name: 모든 전역 변수 가져오기 + params: + operationids: + - ListGlobalVariables + order: 18 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-all-global-variables' + - generated: true + identifier: synthetics-pause-or-start-a-test + name: 테스트 시작 또는 일시 중지 + params: + operationids: + - UpdateTestPauseStatus + order: 6 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#pause-or-start-a-test' + - generated: true + identifier: synthetics-get-an-api-test-result + name: API 테스트 결과 가져오기 + params: + operationids: + - GetAPITestResult + order: 12 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-an-api-test-result' + - generated: true + identifier: synthetics-get-an-api-tests-latest-results-summaries + name: API 테스트 최신 결과 요약 가져오기 + params: + operationids: + - GetAPITestLatestResults + order: 14 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-an-api-tests-latest-results-summaries' + - generated: true + identifier: synthetics-edit-a-test + name: 테스트 수정하기 + params: + operationids: + - UpdateTest + order: 30 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#edit-a-test' + - generated: true + identifier: synthetics-patch-a-synthetic-test + name: 브라우저 테스트 생성하기 + params: + operationids: + - PatchTest + order: 5 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#patch-a-synthetic-test' + - generated: true + identifier: synthetics-get-a-test-configuration + name: 테스트 설정 가져오기 + params: + operationids: + - GetTest + order: 28 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-test-configuration' + - generated: true + identifier: synthetics-trigger-tests-from-ci/cd-pipelines + name: CI/CD 파이프라인에서 테스트 트리거하기 + params: + operationids: + - TriggerCITests + order: 7 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#trigger-tests-from-ci/cd-pipelines' + - generated: true + identifier: synthetics-trigger-synthetic-tests + name: 합성 테스트 트리거하기 + params: + operationids: + - TriggerTests + order: 8 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#trigger-synthetic-tests' + - generated: true + identifier: synthetics-delete-tests + name: 테스트 삭제하기 + params: + operationids: + - DeleteTests + order: 17 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#delete-tests' + - generated: true + identifier: synthetics-get-a-browser-test-result + name: 브라우저 테스트 결과 가져오기 + params: + operationids: + - GetBrowserTestResult + order: 13 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-browser-test-result' + - generated: true + identifier: synthetics-get-a-browser-tests-latest-results-summaries + name: 브라우저 테스트 최신 결과 요약 가져오기 + params: + operationids: + - GetBrowserTestLatestResults + order: 15 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-browser-tests-latest-results-summaries' + - generated: true + identifier: synthetics-edit-a-browser-test + name: 브라우저 테스트 수정하기 + params: + operationids: + - UpdateBrowserTest + order: 4 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#edit-a-browser-test' + - generated: true + identifier: synthetics-get-a-browser-test + name: 브라우저 테스트 가져오기 + params: + operationids: + - GetBrowserTest + order: 10 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-browser-test' + - generated: true + identifier: synthetics-create-a-browser-test + name: 브라우저 테스트 생성하기 + params: + operationids: + - CreateSyntheticsBrowserTest + order: 2 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#create-a-browser-test' + - generated: true + identifier: synthetics-edit-an-api-test + name: API 테스트 수정하기 + params: + operationids: + - UpdateAPITest + order: 3 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#edit-an-api-test' + - generated: true + identifier: synthetics-get-an-api-test + name: API 테스트 가져오기 + params: + operationids: + - GetAPITest + order: 9 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-an-api-test' + - generated: true + identifier: synthetics-create-an-api-test + name: API 테스트 만들기 + params: + operationids: + - CreateSyntheticsAPITest + order: 1 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#create-an-api-test' + - generated: true + identifier: 태그 + name: 태그 + params: + operationids: + - CreateTest + order: 31 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#create-a-test' + - generated: true + identifier: synthetics-get-the-list-of-all-synthetic-tests + name: 모든 신서틱(Synthetic) 테스트의 목록 가져오기 + params: + operationids: + - ListTests + order: 11 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-the-list-of-all-synthetic-tests' + - generated: true + identifier: synthetics-get-the-default-locations + name: 호스트에 태그 추가 + params: + operationids: + - GetSyntheticsDefaultLocations + order: 29 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-the-default-locations' + - generated: true + identifier: synthetics-edit-a-private-location + name: 프라이빗 위치 수정하기 + params: + operationids: + - UpdatePrivateLocation + order: 25 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#edit-a-private-location' + - generated: true + identifier: synthetics-get-a-private-location + name: '프라이빗 위치 가져오기 ' + params: + operationids: + - GetPrivateLocation + order: 24 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-a-private-location' + - generated: true + identifier: synthetics-delete-a-private-location + name: 프라이빗 위치 삭제하기 + params: + operationids: + - DeletePrivateLocation + order: 27 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#delete-a-private-location' + - generated: true + identifier: synthetics-create-a-private-location + name: 프라이빗 위치 생성 + params: + operationids: + - CreatePrivateLocation + order: 23 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#create-a-private-location' + - generated: true + identifier: synthetics-get-all-locations-public-and-private + name: 사용량 측정 + params: + operationids: + - ListLocations + order: 26 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-all-locations-public-and-private' + - generated: true + identifier: synthetics-get-details-of-batch + name: 배치 세부 정보 가져오기 + params: + operationids: + - GetSyntheticsCIBatch + order: 16 + unstable: [] + versions: + - v1 + parent: synthetics + url: '#get-details-of-batch' + - generated: true + identifier: tags + name: 태그 + url: /api/latest/tags/ + - generated: true + identifier: tags-update-host-tags + name: 호스트 태그 업데이트하기 + params: + operationids: + - UpdateHostTags + order: 4 + unstable: [] + versions: + - v1 + parent: tags + url: '#update-host-tags' + - generated: true + identifier: tags-add-tags-to-a-host + name: 호스트에 태그 추가하기 + params: + operationids: + - CreateHostTags + order: 3 + unstable: [] + versions: + - v1 + parent: tags + url: '#add-tags-to-a-host' + - generated: true + identifier: tags-get-host-tags + name: 호스트 태그 가져오기 + params: + operationids: + - GetHostTags + order: 2 + unstable: [] + versions: + - v1 + parent: tags + url: '#get-host-tags' + - generated: true + identifier: tags-remove-host-tags + name: 멀티-org 계정 비용 불러오기 + params: + operationids: + - DeleteHostTags + order: 5 + unstable: [] + versions: + - v1 + parent: tags + url: '#remove-host-tags' + - generated: true + identifier: tags-get-tags + name: 태그 가져오기 + params: + operationids: + - ListHostTags + order: 1 + unstable: [] + versions: + - v1 + parent: tags + url: '#get-tags' + - generated: true + identifier: timeboards + name: 타임보드 + url: /api/latest/timeboards/ + - generated: true + identifier: usage-metering + name: 사용량 측정 + url: /api/latest/usage-metering/ + - generated: true + identifier: usage-metering-get-projected-cost-across-your-account + name: '계정 전체의 예상 비용 확인하기 ' + params: + operationids: + - GetProjectedCost + order: 7 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-projected-cost-across-your-account' + - generated: true + identifier: usage-metering-get-hourly-usage-for-observability-pipelines + name: 옵저버빌리티 파이프라인의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageObservabilityPipelines + order: 39 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-hourly-usage-for-observability-pipelines' + - generated: true + identifier: usage-metering-get-hourly-usage-for-lambda-traced-invocations + name: Lambda 추적 호출 시간별 사용량 확인하기 + params: + operationids: + - GetUsageLambdaTracedInvocations + order: 37 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-hourly-usage-for-lambda-traced-invocations' + - generated: true + identifier: usage-metering-get-hourly-usage-by-product-family + name: 제품군별 시간당 사용량 확인하기 + params: + operationids: + - GetHourlyUsage + order: 1 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-hourly-usage-by-product-family' + - generated: true + identifier: usage-metering-get-historical-cost-across-your-account + name: 계정 전체에 대한 과거 비용 확인하기 + params: + operationids: + - GetHistoricalCostByOrg + order: 5 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-historical-cost-across-your-account' + - generated: true + identifier: usage-metering-get-estimated-cost-across-your-account + name: 계정 전체 예상 비용 확인하기 + params: + operationids: + - GetEstimatedCostByOrg + order: 6 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-estimated-cost-across-your-account' + - generated: true + identifier: usage-metering-get-cost-across-multi-org-account + name: 여러 조직 계정에서 비용 확인하기 + params: + operationids: + - GetCostByOrg + order: 45 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-cost-across-multi-org-account' + - generated: true + identifier: usage-metering-get-hourly-usage-for-application-security + name: 애플리케이션 보안의 시간당 사용량 확인하기 + params: + operationids: + - GetUsageApplicationSecurityMonitoring + order: 38 + unstable: [] + versions: + - v2 + parent: usage-metering + url: '#get-hourly-usage-for-application-security' + - generated: true + identifier: usage-metering-get-monthly-cost-attribution + name: 월별 비용 어트리뷰션 확인하기 + params: + operationids: + - GetMonthlyCostAttribution + order: 5 + unstable: + - v2 + versions: + - v2 + parent: usage-metering + url: '#get-monthly-cost-attribution' + - generated: true + identifier: usage-metering-get-active-billing-dimensions-for-cost-attribution + name: 비용 어트리뷰션에 대한 활성 청구 기준 확인하기 + params: + operationids: + - GetActiveBillingDimensions + order: 5 + unstable: + - v2 + versions: + - v2 + parent: usage-metering + url: '#get-active-billing-dimensions-for-cost-attribution' + - generated: true + identifier: usage-metering-get-all-custom-metrics-by-hourly-average + name: 시간별 평균 기준 모든 커스텀 메트릭 확인하기 + params: + operationids: + - GetUsageTopAvgMetrics + order: 7 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-all-custom-metrics-by-hourly-average' + - generated: true + identifier: usage-metering-get-hourly-usage-for-custom-metrics + name: 커스텀 메트릭의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageTimeseries + order: 13 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-custom-metrics' + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-browser-checks + name: 합성 브라우저 검사 시간별 사용량 확인하기 + params: + operationids: + - GetUsageSyntheticsBrowser + order: 17 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-synthetics-browser-checks' + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-api-checks + name: 합성 API 검사의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageSyntheticsAPI + order: 16 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-synthetics-api-checks' + - generated: true + identifier: usage-metering-get-hourly-usage-for-synthetics-checks + name: 합성 검사의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageSynthetics + order: 15 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-synthetics-checks' + - generated: true + identifier: usage-metering-get-usage-across-your-account + name: 계정 전체 사용량 확인하기 + params: + operationids: + - GetUsageSummary + order: 8 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-usage-across-your-account' + - generated: true + identifier: usage-metering-get-hourly-usage-for-snmp-devices + name: SNMP 기기 시간별 사용량 확인하기 + params: + operationids: + - GetUsageSNMP + order: 24 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-snmp-devices' + - generated: true + identifier: usage-metering-get-hourly-usage-for-sensitive-data-scanner + name: 민감한 데이터 스캐너의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageSDS + order: 32 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-sensitive-data-scanner' + - generated: true + identifier: usage-metering-get-hourly-usage-for-rum-sessions + name: RUM 세션의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageRumSessions + order: 20 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-rum-sessions' + - generated: true + identifier: usage-metering-get-hourly-usage-for-rum-units + name: RUM 단위의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageRumUnits + order: 33 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-rum-units' + - generated: true + identifier: usage-metering-get-hourly-usage-for-profiled-hosts + name: 프로파일링된 호스트의시간별 사용량 확인하기 + params: + operationids: + - GetUsageProfiling + order: 34 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-profiled-hosts' + - generated: true + identifier: usage-metering-get-hourly-usage-for-online-archive + name: 온라인 아카이브의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageOnlineArchive + order: 36 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-online-archive' + - generated: true + identifier: usage-metering-get-hourly-usage-for-network-hosts + name: 네트워크 호스트의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageNetworkHosts + order: 21 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-network-hosts' + - generated: true + identifier: usage-metering-get-hourly-usage-for-network-flows + name: 네트워크 흐름에 대한 시간별 사용량 확인하기 + params: + operationids: + - GetUsageNetworkFlows + order: 22 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-network-flows' + - generated: true + identifier: usage-metering-get-monthly-usage-attribution + name: 월별 사용량 어트리뷰션 확인하기 + params: + operationids: + - GetMonthlyUsageAttribution + order: 3 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-monthly-usage-attribution' + - generated: true + identifier: usage-metering-get-hourly-usage-for-logs-by-index + name: 인덱스 기준 로그의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageLogsByIndex + order: 9 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-logs-by-index' + - generated: true + identifier: usage-metering-get-hourly-logs-usage-by-retention + name: 보존 기준 시간별 로그 사용량 확인하기 + params: + operationids: + - GetUsageLogsByRetention + order: 10 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-logs-usage-by-retention' + - generated: true + identifier: usage-metering-get-hourly-usage-for-logs + name: 로그의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageLogs + order: 12 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-logs' + - generated: true + identifier: usage-metering-get-hourly-usage-for-iot + name: IoT의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageInternetOfThings + order: 27 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-iot' + - generated: true + identifier: usage-metering-get-hourly-usage-for-ingested-spans + name: 삽입된 스팬의 시간별 사용량 확인하기 + params: + operationids: + - GetIngestedSpans + order: 25 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-ingested-spans' + - generated: true + identifier: usage-metering-get-hourly-usage-for-indexed-spans + name: '인덱싱된 스팬의 시간별 사용량 확인하기 ' + params: + operationids: + - GetUsageIndexedSpans + order: 14 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-indexed-spans' + - generated: true + identifier: usage-metering-get-hourly-usage-for-incident-management + name: 인시던트 관리의 시간별 사용량 확인하기 + params: + operationids: + - GetIncidentManagement + order: 26 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-incident-management' + - generated: true + identifier: usage-metering-get-hourly-usage-attribution + name: 시간별 사용량 어트리뷰션 확인하기 + params: + operationids: + - GetHourlyUsageAttribution + order: 2 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-attribution' + - generated: true + identifier: usage-metering-get-hourly-usage-for-hosts-and-containers + name: 호스트 및 컨테이너의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageHosts + order: 11 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-hosts-and-containers' + - generated: true + identifier: usage-metering-get-hourly-usage-for-fargate + name: Fargate의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageFargate + order: 18 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-fargate' + - generated: true + identifier: usage-metering-get-hourly-usage-for-database-monitoring + name: 데이터베이스 모니터링의 시간별 사용량 확인하기 + params: + operationids: + - GetUsageDBM + order: 31 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-database-monitoring' + - generated: true + identifier: usage-metering-get-hourly-usage-for-cloud-workload-security + name: 사용자 + params: + operationids: + - GetUsageCWS + order: 30 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-cloud-workload-security' + - generated: true + identifier: usage-metering-get-hourly-usage-for-csm-pro + name: 사용자 권한 불러오기 + params: + operationids: + - GetUsageCloudSecurityPostureManagement + order: 28 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-csm-pro' + - generated: true + identifier: usage-metering-get-hourly-usage-for-ci-visibility + name: CI Visibility 시간당 사용량 확인하기 + params: + operationids: + - GetUsageCIApp + order: 35 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-ci-visibility' + - generated: true + identifier: usage-metering-get-billable-usage-across-your-account + name: 사용자 초대 불러오기 + params: + operationids: + - GetUsageBillableSummary + order: 5 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-billable-usage-across-your-account' + - generated: true + identifier: usage-metering-get-hourly-usage-for-lambda + name: ' Lambda의 시간별 사용량 확인하기' + params: + operationids: + - GetUsageLambda + order: 19 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-lambda' + - generated: true + identifier: usage-metering-get-hourly-usage-for-audit-logs + name: 사용자 업데이트 + params: + operationids: + - GetUsageAuditLogs + order: 40 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-audit-logs' + - generated: true + identifier: usage-metering-get-hourly-usage-for-analyzed-logs + name: 사용자 비활성화 + params: + operationids: + - GetUsageAnalyzedLogs + order: 23 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-hourly-usage-for-analyzed-logs' + - generated: true + identifier: usage-metering-get-specified-monthly-custom-reports + name: 사용자 생성 + params: + operationids: + - GetSpecifiedMonthlyCustomReports + order: 44 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-specified-monthly-custom-reports' + - generated: true + identifier: usage-metering-get-the-list-of-available-monthly-custom-reports + name: 사용 가능한 월별 커스텀 보고서 목록 보기 + params: + operationids: + - GetMonthlyCustomReports + order: 43 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-the-list-of-available-monthly-custom-reports' + - generated: true + identifier: usage-metering-get-specified-daily-custom-reports + name: Webhooks 통합 + params: + operationids: + - GetSpecifiedDailyCustomReports + order: 42 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-specified-daily-custom-reports' + - generated: true + identifier: usage-metering-get-the-list-of-available-daily-custom-reports + name: 사용 가능한 일일 커스텀 보고서 목록 보기 + params: + operationids: + - GetDailyCustomReports + order: 41 + unstable: [] + versions: + - v1 + parent: usage-metering + url: '#get-the-list-of-available-daily-custom-reports' + - generated: true + identifier: users + name: '사용자 ' + url: /api/latest/users/ + - generated: true + identifier: users-get-a-user-permissions + name: 사용자 권한 가져오기 + params: + operationids: + - ListUserPermissions + order: 7 + unstable: [] + versions: + - v2 + parent: users + url: '#get-a-user-permissions' + - generated: true + identifier: users-get-a-user-organization + name: 사용자 조직 가져오기 + params: + operationids: + - ListUserOrganizations + order: 6 + unstable: [] + versions: + - v2 + parent: users + url: '#get-a-user-organization' + - generated: true + identifier: users-get-a-user-invitation + name: 사용자 초대장 가져오기 + params: + operationids: + - GetInvitation + order: 9 + unstable: [] + versions: + - v2 + parent: users + url: '#get-a-user-invitation' + - generated: true + identifier: users-send-invitation-emails + name: 초대 메일 발송하기 + params: + operationids: + - SendInvitations + order: 8 + unstable: [] + versions: + - v2 + parent: users + url: '#send-invitation-emails' + - generated: true + identifier: users-update-a-user + name: 사용자 업데이트하기 + params: + operationids: + - UpdateUser + order: 4 + unstable: [] + versions: + - v1 + - v2 + parent: users + url: '#update-a-user' + - generated: true + identifier: users-get-user-details + name: 사용자 세부 정보 가져오기 + params: + operationids: + - GetUser + order: 3 + unstable: [] + versions: + - v1 + - v2 + parent: users + url: '#get-user-details' + - generated: true + identifier: users-disable-a-user + name: 사용자 비활성화하기 + params: + operationids: + - DisableUser + order: 5 + unstable: [] + versions: + - v1 + - v2 + parent: users + url: '#disable-a-user' + - generated: true + identifier: users-create-a-user + name: 사용자 생성하기 + params: + operationids: + - CreateUser + order: 1 + unstable: [] + versions: + - v1 + - v2 + parent: users + url: '#create-a-user' + - generated: true + identifier: users-list-all-users + name: 모든 사용자 표시하기 + params: + operationids: + - ListUsers + order: 2 + unstable: [] + versions: + - v1 + - v2 + parent: users + url: '#list-all-users' + - generated: true + identifier: webhooks-integration + name: 'Webhooks 통합 ' + url: /api/latest/webhooks-integration/ + - generated: true + identifier: webhooks-integration-update-a-webhook + name: 웹훅 업데이트하기 + params: + operationids: + - UpdateWebhooksIntegration + order: 3 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#update-a-webhook' + - generated: true + identifier: webhooks-integration-get-a-webhook-integration + name: 웹훅 통합 가져오기 + params: + operationids: + - GetWebhooksIntegration + order: 2 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#get-a-webhook-integration' + - generated: true + identifier: webhooks-integration-delete-a-webhook + name: 웹훅 삭제하기 + params: + operationids: + - DeleteWebhooksIntegration + order: 4 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#delete-a-webhook' + - generated: true + identifier: webhooks-integration-create-a-webhooks-integration + name: 웹훅 통합 생성하기 + params: + operationids: + - CreateWebhooksIntegration + order: 1 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#create-a-webhooks-integration' + - generated: true + identifier: webhooks-integration-update-a-custom-variable + name: 커스텀 변수 업데이트하기 + params: + operationids: + - UpdateWebhooksIntegrationCustomVariable + order: 7 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#update-a-custom-variable' + - generated: true + identifier: webhooks-integration-get-a-custom-variable + name: 커스텀 변수 가져오기 + params: + operationids: + - GetWebhooksIntegrationCustomVariable + order: 6 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#get-a-custom-variable' + - generated: true + identifier: webhooks-integration-delete-a-custom-variable + name: 커스텀 변수 삭제하기 + params: + operationids: + - DeleteWebhooksIntegrationCustomVariable + order: 8 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#delete-a-custom-variable' + - generated: true + identifier: webhooks-integration-create-a-custom-variable + name: 커스텀 변수 만들기 + params: + operationids: + - CreateWebhooksIntegrationCustomVariable + order: 5 + unstable: [] + versions: + - v1 + parent: webhooks-integration + url: '#create-a-custom-variable' + - generated: true + identifier: api-management + name: API 관리 + url: /api/latest/api-management/ + - generated: true + identifier: api-management-create-a-new-api + name: 새 API 생성 + params: + operationids: + - CreateOpenAPI + order: 1 + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#create-a-new-api' + - generated: true + identifier: api-management-update-an-api + name: API 업데이트 + params: + operationids: + - UpdateOpenAPI + order: 2 + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#update-an-api' + - generated: true + identifier: api-management-get-an-api + name: API 얻기 + params: + operationids: + - GetOpenAPI + order: 3 + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#get-an-api' + - generated: true + identifier: api-management-delete-an-api + name: API 삭제 + params: + operationids: + - DeleteOpenAPI + order: 4 + unstable: + - v2 + versions: + - v2 + parent: api-management + url: '#delete-an-api' + - generated: true + identifier: apm-retention-filters + name: APM 보존 필터 + url: /api/latest/apm-retention-filters/ + - generated: true + identifier: apm-retention-filters-update-a-retention-filter + name: 보존 필터 업데이트하기 + params: + operationids: + - UpdateApmRetentionFilter + order: 4 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#update-a-retention-filter' + - generated: true + identifier: apm-retention-filters-get-a-given-apm-retention-filter + name: APM 보존 필터 가져오기 + params: + operationids: + - GetApmRetentionFilter + order: 3 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#get-a-given-apm-retention-filter' + - generated: true + identifier: apm-retention-filters-delete-a-retention-filter + name: 보존 필터 삭제하기 + params: + operationids: + - DeleteApmRetentionFilter + order: 5 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#delete-a-retention-filter' + - generated: true + identifier: apm-retention-filters-re-order-retention-filters + name: 보존 필터 재정렬하기 + params: + operationids: + - ReorderApmRetentionFilters + order: 6 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#re-order-retention-filters' + - generated: true + identifier: apm-retention-filters-create-a-retention-filter + name: 보존 필터 만들기 + params: + operationids: + - CreateApmRetentionFilter + order: 2 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#create-a-retention-filter' + - generated: true + identifier: apm-retention-filters-list-all-apm-retention-filters + name: 모든 APM 보존 필터 나열하기 + params: + operationids: + - ListApmRetentionFilters + order: 1 + unstable: [] + versions: + - v2 + parent: apm-retention-filters + url: '#list-all-apm-retention-filters' + - generated: true + identifier: audit + name: 감사 + url: /api/latest/audit/ + - generated: true + identifier: audit-search-audit-logs-events + name: 감사 로그 이벤트 검색하기 + params: + operationids: + - SearchAuditLogs + order: 1 + unstable: [] + versions: + - v2 + parent: audit + url: '#search-audit-logs-events' + - generated: true + identifier: audit-get-a-list-of-audit-logs-events + name: 감사 로그 이벤트 목록 가져오기 + params: + operationids: + - ListAuditLogs + order: 2 + unstable: [] + versions: + - v2 + parent: audit + url: '#get-a-list-of-audit-logs-events' + - generated: true + identifier: authn-mappings + name: AuthN Mappings + url: /api/latest/authn-mappings/ + - generated: true + identifier: authn-mappings-edit-an-authn-mapping + name: AuthN Mapping 수정하기 + params: + operationids: + - UpdateAuthNMapping + order: 2 + unstable: [] + versions: + - v2 + parent: authn-mappings + url: '#edit-an-authn-mapping' + - generated: true + identifier: authn-mappings-get-an-authn-mapping-by-uuid + name: UUID로 AuthN Mapping 가져오기 + params: + operationids: + - GetAuthNMapping + order: 1 + unstable: [] + versions: + - v2 + parent: authn-mappings + url: '#get-an-authn-mapping-by-uuid' + - generated: true + identifier: authn-mappings-delete-an-authn-mapping + name: AuthN Mapping 삭제하기 + params: + operationids: + - DeleteAuthNMapping + order: 3 + unstable: [] + versions: + - v2 + parent: authn-mappings + url: '#delete-an-authn-mapping' + - generated: true + identifier: authn-mappings-create-an-authn-mapping + name: AuthN 매핑 만들기 + params: + operationids: + - CreateAuthNMapping + order: 5 + unstable: [] + versions: + - v2 + parent: authn-mappings + url: '#create-an-authn-mapping' + - generated: true + identifier: authn-mappings-list-all-authn-mappings + name: 모든 AuthN Mappings 나열하기 + params: + operationids: + - ListAuthNMappings + order: 4 + unstable: [] + versions: + - v2 + parent: authn-mappings + url: '#list-all-authn-mappings' + - generated: true + identifier: ci-visibility-pipelines + name: CI Visibility Pipelines + url: /api/latest/ci-visibility-pipelines/ + - generated: true + identifier: ci-visibility-pipelines-search-pipelines-events + name: 파이프라인 이벤트 검색하기 + params: + operationids: + - SearchCIAppPipelineEvents + order: 3 + unstable: [] + versions: + - v2 + parent: ci-visibility-pipelines + url: '#search-pipelines-events' + - generated: true + identifier: ci-visibility-pipelines-get-a-list-of-pipelines-events + name: 파이프라인 이벤트 목록 가져오기 + params: + operationids: + - ListCIAppPipelineEvents + order: 2 + unstable: [] + versions: + - v2 + parent: ci-visibility-pipelines + url: '#get-a-list-of-pipelines-events' + - generated: true + identifier: ci-visibility-pipelines-aggregate-pipelines-events + name: 파이프라인 이벤트 집계하기 + params: + operationids: + - AggregateCIAppPipelineEvents + order: 4 + unstable: [] + versions: + - v2 + parent: ci-visibility-pipelines + url: '#aggregate-pipelines-events' + - generated: true + identifier: ci-visibility-pipelines-send-pipeline-event + name: 파이프라인 이벤트 전송하기 + params: + operationids: + - CreateCIAppPipelineEvent + order: 1 + unstable: [] + versions: + - v2 + parent: ci-visibility-pipelines + url: '#send-pipeline-event' + - generated: true + identifier: ci-visibility-tests + name: CI Visibility Tests + url: /api/latest/ci-visibility-tests/ + - generated: true + identifier: ci-visibility-tests-search-tests-events + name: '테스트 이벤트 검색하기 ' + params: + operationids: + - SearchCIAppTestEvents + order: 2 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests + url: '#search-tests-events' + - generated: true + identifier: ci-visibility-tests-get-a-list-of-tests-events + name: 테스트 이벤트 목록 가져오기 + params: + operationids: + - ListCIAppTestEvents + order: 1 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests + url: '#get-a-list-of-tests-events' + - generated: true + identifier: ci-visibility-tests-aggregate-tests-events + name: 테스트 이벤트 집계하기 + params: + operationids: + - AggregateCIAppTestEvents + order: 3 + unstable: [] + versions: + - v2 + parent: ci-visibility-tests + url: '#aggregate-tests-events' + - generated: true + identifier: csm-threats + name: CSM 위협 + url: /api/latest/csm-threats/ + - generated: true + identifier: case-management + name: 사례 관리 + url: /api/latest/case-management/ + - generated: true + identifier: case-management-unassign-case + name: 사례 할당 해제 + params: + operationids: + - UnassignCase + order: 7 + unstable: [] + versions: + - v2 + parent: case-management + url: '#unassign-case' + - generated: true + identifier: case-management-unarchive-case + name: 사례 아카이브 해제 + params: + operationids: + - UnarchiveCase + order: 9 + unstable: [] + versions: + - v2 + parent: case-management + url: '#unarchive-case' + - generated: true + identifier: case-management-update-case-status + name: 사례 상태 업데이트 + params: + operationids: + - UpdateStatus + order: 4 + unstable: [] + versions: + - v2 + parent: case-management + url: '#update-case-status' + - generated: true + identifier: case-management-update-case-priority + name: 사례 우선순위 업데이트 + params: + operationids: + - UpdatePriority + order: 5 + unstable: [] + versions: + - v2 + parent: case-management + url: '#update-case-priority' + - generated: true + identifier: case-management-assign-case + name: 사례 할당 + params: + operationids: + - AssignCase + order: 6 + unstable: [] + versions: + - v2 + parent: case-management + url: '#assign-case' + - generated: true + identifier: case-management-archive-case + name: 사례 아카이브 + params: + operationids: + - ArchiveCase + order: 8 + unstable: [] + versions: + - v2 + parent: case-management + url: '#archive-case' + - generated: true + identifier: case-management-get-the-details-of-a-case + name: 사례 상세 정보 받기 + params: + operationids: + - GetCase + order: 3 + unstable: [] + versions: + - v2 + parent: case-management + url: '#get-the-details-of-a-case' + - generated: true + identifier: case-management-get-the-details-of-a-project + name: 프로젝트 상세 정보 받기 + params: + operationids: + - GetProject + order: 3 + unstable: [] + versions: + - v2 + parent: case-management + url: '#get-the-details-of-a-project' + - generated: true + identifier: case-management-remove-a-project + name: 프로젝트 제거 + params: + operationids: + - DeleteProject + order: 4 + unstable: [] + versions: + - v2 + parent: case-management + url: '#remove-a-project' + - generated: true + identifier: case-management-create-a-project + name: 프로젝트 생성 + params: + operationids: + - CreateProject + order: 1 + unstable: [] + versions: + - v2 + parent: case-management + url: '#create-a-project' + - generated: true + identifier: case-management-get-all-projects + name: 모든 프로젝트 받기 + params: + operationids: + - GetProjects + order: 2 + unstable: [] + versions: + - v2 + parent: case-management + url: '#get-all-projects' + - generated: true + identifier: case-management-create-a-case + name: 사례 생성 + params: + operationids: + - CreateCase + order: 2 + unstable: [] + versions: + - v2 + parent: case-management + url: '#create-a-case' + - generated: true + identifier: case-management-search-cases + name: 사례 검색 + params: + operationids: + - SearchCases + order: 1 + unstable: [] + versions: + - v2 + parent: case-management + url: '#search-cases' + - generated: true + identifier: cloud-cost-management + name: 클라우드 비용 관리 + url: /api/latest/cloud-cost-management/ + - generated: true + identifier: cloud-cost-management-cloud-cost-enabled + name: 클라우드 비용 활성화 + params: + operationids: + - GetCloudCostActivity + order: 10 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#cloud-cost-enabled' + - generated: true + identifier: cloud-cost-management-update-cloud-cost-management-azure-config + name: 클라우드 비용 관리 Azure 설정 업데이트 + params: + operationids: + - UpdateCostAzureUCConfigs + order: 7 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#update-cloud-cost-management-azure-config' + - generated: true + identifier: cloud-cost-management-delete-cloud-cost-management-azure-config + name: 클라우드 비용 관리 Azure 설정 삭제 + params: + operationids: + - DeleteCostAzureUCConfig + order: 9 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#delete-cloud-cost-management-azure-config' + - generated: true + identifier: cloud-cost-management-create-cloud-cost-management-azure-configs + name: 클라우드 비용 관리 Azure 설정 생성 + params: + operationids: + - CreateCostAzureUCConfigs + order: 8 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#create-cloud-cost-management-azure-configs' + - generated: true + identifier: cloud-cost-management-list-cloud-cost-management-azure-configs + name: '클라우드 비용 관리 Azure 설정 나열하기 ' + params: + operationids: + - ListCostAzureUCConfigs + order: 6 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#list-cloud-cost-management-azure-configs' + - generated: true + identifier: cloud-cost-management-list-related-aws-accounts + name: 관련 AWS 계정 나열하기 + params: + operationids: + - ListAWSRelatedAccounts + order: 5 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#list-related-aws-accounts' + - generated: true + identifier: cloud-cost-management-update-cloud-cost-management-aws-cur-config + name: '클라우드 비용 관리 AWS CUR 설정 업데이트 ' + params: + operationids: + - UpdateCostAWSCURConfig + order: 2 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#update-cloud-cost-management-aws-cur-config' + - generated: true + identifier: cloud-cost-management-delete-cloud-cost-management-aws-cur-config + name: '클라우드 비용 관리 AWS CUR 설정 삭제 ' + params: + operationids: + - DeleteCostAWSCURConfig + order: 4 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#delete-cloud-cost-management-aws-cur-config' + - generated: true + identifier: cloud-cost-management-create-cloud-cost-management-aws-cur-config + name: 클라우드 비용 관리 AWS CUR 설정 생성 + params: + operationids: + - CreateCostAWSCURConfig + order: 3 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#create-cloud-cost-management-aws-cur-config' + - generated: true + identifier: cloud-cost-management-list-cloud-cost-management-aws-cur-configs + name: 클라우드 비용 관리 AWS CUR 설정 표시 + params: + operationids: + - ListCostAWSCURConfigs + order: 1 + unstable: [] + versions: + - v2 + parent: cloud-cost-management + url: '#list-cloud-cost-management-aws-cur-configs' + - generated: true + identifier: cloud-workload-security + name: 클라우드 워크로드 보안 + url: /api/latest/cloud-workload-security/ + - generated: true + identifier: cloud-workload-security-update-a-cloud-workload-security-agent-rule + name: 클라우드 워크로드 보안 에이전트 규칙 업데이트 + params: + operationids: + - UpdateCloudWorkloadSecurityAgentRule + order: 5 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#update-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-get-a-cloud-workload-security-agent-rule + name: '클라우드 워크로드 보안 에이전트 규칙 가져오기 ' + params: + operationids: + - GetCloudWorkloadSecurityAgentRule + order: 2 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-delete-a-cloud-workload-security-agent-rule + name: '클라우드 워크로드 보안 에이전트 규칙 삭제하기 ' + params: + operationids: + - DeleteCloudWorkloadSecurityAgentRule + order: 6 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#delete-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-create-a-cloud-workload-security-agent-rule + name: 클라우드 워크로드 보안 에이전트 규칙 만들기 + params: + operationids: + - CreateCloudWorkloadSecurityAgentRule + order: 4 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#create-a-cloud-workload-security-agent-rule' + - generated: true + identifier: cloud-workload-security-get-all-cloud-workload-security-agent-rules + name: 모든 클라우드 워크로드 보안 에이전트 규칙 가져오기 + params: + operationids: + - ListCloudWorkloadSecurityAgentRules + order: 3 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-all-cloud-workload-security-agent-rules' + - generated: true + identifier: cloud-workload-security-get-the-latest-cloud-workload-security-policy + name: 최신 클라우드 워크로드 보안 정책 가져오기 + params: + operationids: + - DownloadCloudWorkloadPolicyFile + order: 1 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-the-latest-cloud-workload-security-policy' + - generated: true + identifier: cloud-workload-security-get-the-latest-csm-threats-policy + name: 최신 CSM 위협 정책 받기 + params: + operationids: + - DownloadCSMThreatsPolicy + order: 1 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-the-latest-csm-threats-policy' + - generated: true + identifier: cloud-workload-security-update-a-csm-threats-agent-rule + name: CSM 위협 에이전트 규칙 업데이트 + params: + operationids: + - UpdateCSMThreatsAgentRule + order: 5 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#update-a-csm-threats-agent-rule' + - generated: true + identifier: cloud-workload-security-get-a-csm-threats-agent-rule + name: CSM 위협 에이전트 규칙 + params: + operationids: + - GetCSMThreatsAgentRule + order: 2 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-a-csm-threats-agent-rule' + - generated: true + identifier: cloud-workload-security-delete-a-csm-threats-agent-rule + name: CSM 위협 에이전트 규칙 삭제 + params: + operationids: + - DeleteCSMThreatsAgentRule + order: 6 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#delete-a-csm-threats-agent-rule' + - generated: true + identifier: cloud-workload-security-create-a-csm-threats-agent-rule + name: CSM 위협 에이전트 규칙 생성 + params: + operationids: + - CreateCSMThreatsAgentRule + order: 4 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#create-a-csm-threats-agent-rule' + - generated: true + identifier: cloud-workload-security-get-all-csm-threats-agent-rules + name: 모든 CSM 위협 에이전트 규칙 받기 + params: + operationids: + - ListCSMThreatsAgentRules + order: 3 + unstable: [] + versions: + - v2 + parent: cloud-workload-security + url: '#get-all-csm-threats-agent-rules' + - generated: true + identifier: cloudflare-integration + name: Cloudflare 통합 + url: /api/latest/cloudflare-integration/ + - generated: true + identifier: cloudflare-integration-update-cloudflare-account + name: Cloudflare 계정 업데이트하기 + params: + operationids: + - UpdateCloudflareAccount + order: 4 + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#update-cloudflare-account' + - generated: true + identifier: cloudflare-integration-get-cloudflare-account + name: Cloudflare 계정 가져오기 + params: + operationids: + - GetCloudflareAccount + order: 3 + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#get-cloudflare-account' + - generated: true + identifier: cloudflare-integration-delete-cloudflare-account + name: 'Cloudflare 계정 삭제하기 ' + params: + operationids: + - DeleteCloudflareAccount + order: 5 + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#delete-cloudflare-account' + - generated: true + identifier: cloudflare-integration-add-cloudflare-account + name: Cloudflare 계정 추가하기 + params: + operationids: + - CreateCloudflareAccount + order: 2 + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#add-cloudflare-account' + - generated: true + identifier: cloudflare-integration-list-cloudflare-accounts + name: Cloudflare 계정 목록 만들기 + params: + operationids: + - ListCloudflareAccounts + order: 1 + unstable: [] + versions: + - v2 + parent: cloudflare-integration + url: '#list-cloudflare-accounts' + - generated: true + identifier: confluent-cloud + name: Confluent Cloud + url: /api/latest/confluent-cloud/ + - generated: true + identifier: confluent-cloud-update-resource-in-confluent-account + name: Confluent 계정에서 리소스 업데이트하기 + params: + operationids: + - UpdateConfluentResource + order: 1 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#update-resource-in-confluent-account' + - generated: true + identifier: confluent-cloud-get-resource-from-confluent-account + name: Confluent 계정에서 리소스 가져오기 + params: + operationids: + - GetConfluentResource + order: 2 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#get-resource-from-confluent-account' + - generated: true + identifier: confluent-cloud-delete-resource-from-confluent-account + name: Confluent 계정에서 리소스 삭제하기 + params: + operationids: + - DeleteConfluentResource + order: 3 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#delete-resource-from-confluent-account' + - generated: true + identifier: confluent-cloud-add-resource-to-confluent-account + name: Confluent 계정에 리소스 추가하기 + params: + operationids: + - CreateConfluentResource + order: 4 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#add-resource-to-confluent-account' + - generated: true + identifier: confluent-cloud-list-confluent-account-resources + name: Confluent 계정 리소스 나열하기 + params: + operationids: + - ListConfluentResource + order: 5 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#list-confluent-account-resources' + - generated: true + identifier: confluent-cloud-update-confluent-account + name: Confluent 계정 업데이트하기 + params: + operationids: + - UpdateConfluentAccount + order: 6 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#update-confluent-account' + - generated: true + identifier: confluent-cloud-get-confluent-account + name: Confluent 계정 만들기 + params: + operationids: + - GetConfluentAccount + order: 7 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#get-confluent-account' + - generated: true + identifier: confluent-cloud-delete-confluent-account + name: Confluent 계정 삭제하기 + params: + operationids: + - DeleteConfluentAccount + order: 8 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#delete-confluent-account' + - generated: true + identifier: confluent-cloud-add-confluent-account + name: Confluent 계정 추가하기 + params: + operationids: + - CreateConfluentAccount + order: 9 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#add-confluent-account' + - generated: true + identifier: confluent-cloud-list-confluent-accounts + name: Confluent 계정 목록 만들기 + params: + operationids: + - ListConfluentAccount + order: 10 + unstable: [] + versions: + - v2 + parent: confluent-cloud + url: '#list-confluent-accounts' + - generated: true + identifier: container-images + name: 컨테이너 이미지 + url: /api/latest/container-images/ + - generated: true + identifier: container-images-get-all-container-images + name: 컨테이너 이미지 모두 가져오기 + params: + operationids: + - ListContainerImages + order: 1 + unstable: [] + versions: + - v2 + parent: container-images + url: '#get-all-container-images' + - generated: true + identifier: containers + name: 컨테이너 + url: /api/latest/containers/ + - generated: true + identifier: containers-get-all-containers + name: 모든 컨테이너 가져오기 + params: + operationids: + - ListContainers + order: 1 + unstable: [] + versions: + - v2 + parent: containers + url: '#get-all-containers' + - generated: true + identifier: dora-metrics + name: DORA 메트릭 + url: /api/latest/dora-metrics/ + - generated: true + identifier: dora-metrics-send-an-incident-event-for-dora-metrics + name: DORA 메트릭에 대한 인시던트 이벤트 보내기 + params: + operationids: + - CreateDORAIncident + order: 4 + unstable: + - v2 + versions: + - v2 + parent: dora-metrics + url: '#send-an-incident-event-for-dora-metrics' + - generated: true + identifier: dora-metrics-send-a-deployment-event-for-dora-metrics + name: DORA 메트릭에 대한 디플로이먼트 이벤트 보내기 + params: + operationids: + - CreateDORADeployment + order: 4 + unstable: + - v2 + versions: + - v2 + parent: dora-metrics + url: '#send-a-deployment-event-for-dora-metrics' + - generated: true + identifier: fastly-integration + name: Fastly 통합 + url: /api/latest/fastly-integration/ + - generated: true + identifier: fastly-integration-update-fastly-service + name: Fastly 서비스 업데이트하기 + params: + operationids: + - UpdateFastlyService + order: 9 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#update-fastly-service' + - generated: true + identifier: fastly-integration-get-fastly-service + name: Fastly 서비스 가져오기 + params: + operationids: + - GetFastlyService + order: 8 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#get-fastly-service' + - generated: true + identifier: fastly-integration-delete-fastly-service + name: Fastly 서비스 삭제하기 + params: + operationids: + - DeleteFastlyService + order: 10 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#delete-fastly-service' + - generated: true + identifier: fastly-integration-add-fastly-service + name: Fastly 서비스 추가하기 + params: + operationids: + - CreateFastlyService + order: 7 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#add-fastly-service' + - generated: true + identifier: fastly-integration-list-fastly-services + name: Fastly 서비스 나열하기 + params: + operationids: + - ListFastlyServices + order: 6 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#list-fastly-services' + - generated: true + identifier: fastly-integration-update-fastly-account + name: Fastly 계정 업데이트하기 + params: + operationids: + - UpdateFastlyAccount + order: 4 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#update-fastly-account' + - generated: true + identifier: fastly-integration-get-fastly-account + name: Fastly 계정 가져오기 + params: + operationids: + - GetFastlyAccount + order: 3 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#get-fastly-account' + - generated: true + identifier: fastly-integration-delete-fastly-account + name: Fastly 계정 삭제하기 + params: + operationids: + - DeleteFastlyAccount + order: 5 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#delete-fastly-account' + - generated: true + identifier: fastly-integration-add-fastly-account + name: Fastly 계정 추가하기 + params: + operationids: + - CreateFastlyAccount + order: 2 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#add-fastly-account' + - generated: true + identifier: fastly-integration-list-fastly-accounts + name: 'Fastly 계정 나열하기 ' + params: + operationids: + - ListFastlyAccounts + order: 1 + unstable: [] + versions: + - v2 + parent: fastly-integration + url: '#list-fastly-accounts' + - generated: true + identifier: ip-allowlist + name: IP 허용 목록 + url: /api/latest/ip-allowlist/ + - generated: true + identifier: ip-allowlist-update-ip-allowlist + name: IP 허용 목록 업데이트하기 + params: + operationids: + - UpdateIPAllowlist + order: 2 + unstable: [] + versions: + - v2 + parent: ip-allowlist + url: '#update-ip-allowlist' + - generated: true + identifier: ip-allowlist-get-ip-allowlist + name: IP 허용 목록 가져오기 + params: + operationids: + - GetIPAllowlist + order: 1 + unstable: [] + versions: + - v2 + parent: ip-allowlist + url: '#get-ip-allowlist' + - generated: true + identifier: incident-services + name: 인시던트 서비스 + url: /api/latest/incident-services/ + - generated: true + identifier: incident-services-update-an-existing-incident-service + name: 기존 인시던트 서비스 업데이트하기 + params: + operationids: + - UpdateIncidentService + order: 3 + unstable: + - v2 + versions: + - v2 + parent: incident-services + url: '#update-an-existing-incident-service' + - generated: true + identifier: incident-services-get-details-of-an-incident-service + name: 인시던트 서비스 세부 정보 보기 + params: + operationids: + - GetIncidentService + order: 1 + unstable: + - v2 + versions: + - v2 + parent: incident-services + url: '#get-details-of-an-incident-service' + - generated: true + identifier: incident-services-delete-an-existing-incident-service + name: 기존 인시던트 서비스 삭제하기 + params: + operationids: + - DeleteIncidentService + order: 2 + unstable: + - v2 + versions: + - v2 + parent: incident-services + url: '#delete-an-existing-incident-service' + - generated: true + identifier: incident-services-create-a-new-incident-service + name: 새 인시던트 서비스 만들기 + params: + operationids: + - CreateIncidentService + order: 5 + unstable: + - v2 + versions: + - v2 + parent: incident-services + url: '#create-a-new-incident-service' + - generated: true + identifier: incident-services-get-a-list-of-all-incident-services + name: 모든 인시던트 서비스 목록 가져오기 + params: + operationids: + - ListIncidentServices + order: 4 + unstable: + - v2 + versions: + - v2 + parent: incident-services + url: '#get-a-list-of-all-incident-services' + - generated: true + identifier: incident-teams + name: 인시던트 팀 + url: /api/latest/incident-teams/ + - generated: true + identifier: incident-teams-update-an-existing-incident-team + name: 기존 인시던트 팀 업데이트하기 + params: + operationids: + - UpdateIncidentTeam + order: 3 + unstable: + - v2 + versions: + - v2 + parent: incident-teams + url: '#update-an-existing-incident-team' + - generated: true + identifier: incident-teams-get-details-of-an-incident-team + name: 인시던트 팀에 대한 세부 정보 보기 + params: + operationids: + - GetIncidentTeam + order: 1 + unstable: + - v2 + versions: + - v2 + parent: incident-teams + url: '#get-details-of-an-incident-team' + - generated: true + identifier: incident-teams-delete-an-existing-incident-team + name: 기존 인시던트 팀 삭제하기 + params: + operationids: + - DeleteIncidentTeam + order: 2 + unstable: + - v2 + versions: + - v2 + parent: incident-teams + url: '#delete-an-existing-incident-team' + - generated: true + identifier: incident-teams-create-a-new-incident-team + name: 새 인시던트 팀 만들기 + params: + operationids: + - CreateIncidentTeam + order: 5 + unstable: + - v2 + versions: + - v2 + parent: incident-teams + url: '#create-a-new-incident-team' + - generated: true + identifier: incident-teams-get-a-list-of-all-incident-teams + name: 모든 인시던트 팀 목록 가져오기 + params: + operationids: + - ListIncidentTeams + order: 4 + unstable: + - v2 + versions: + - v2 + parent: incident-teams + url: '#get-a-list-of-all-incident-teams' + - generated: true + identifier: incidents + name: 인시던트 + url: /api/latest/incidents/ + - generated: true + identifier: incidents-update-an-incident-todo + name: 인시던트 작업 업데이트하기 + params: + operationids: + - UpdateIncidentTodo + order: 17 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#update-an-incident-todo' + - generated: true + identifier: incidents-get-incident-todo-details + name: 인시던트 작업 세부 정보 가져오기 + params: + operationids: + - GetIncidentTodo + order: 16 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-incident-todo-details' + - generated: true + identifier: incidents-delete-an-incident-todo + name: 인시던트 작업 삭제하기 + params: + operationids: + - DeleteIncidentTodo + order: 18 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#delete-an-incident-todo' + - generated: true + identifier: incidents-create-an-incident-todo + name: 인시던트 작업 만들기 + params: + operationids: + - CreateIncidentTodo + order: 15 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#create-an-incident-todo' + - generated: true + identifier: incidents-get-a-list-of-an-incidents-todos + name: 인시던트 작업 목록 가져오기 + params: + operationids: + - ListIncidentTodos + order: 14 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-a-list-of-an-incidents-todos' + - generated: true + identifier: incidents-update-an-existing-incident-integration-metadata + name: 기존 인시던트 통합 메타데이터 업데이트하기 + params: + operationids: + - UpdateIncidentIntegration + order: 12 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#update-an-existing-incident-integration-metadata' + - generated: true + identifier: incidents-get-incident-integration-metadata-details + name: 인시던트 통합 메타데이터 세부 정보 가져오기 + params: + operationids: + - GetIncidentIntegration + order: 11 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-incident-integration-metadata-details' + - generated: true + identifier: incidents-delete-an-incident-integration-metadata + name: 인시던트 통합 메타데이터 삭제하기 + params: + operationids: + - DeleteIncidentIntegration + order: 13 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#delete-an-incident-integration-metadata' + - generated: true + identifier: incidents-create-an-incident-integration-metadata + name: 인시던트 통합 메타데이터 생성하기 + params: + operationids: + - CreateIncidentIntegration + order: 10 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#create-an-incident-integration-metadata' + - generated: true + identifier: incidents-get-a-list-of-an-incidents-integration-metadata + name: 인시던트 통합 메타데이터 목록 가져오기 + params: + operationids: + - ListIncidentIntegrations + order: 9 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-a-list-of-an-incidents-integration-metadata' + - generated: true + identifier: incidents-create,-update,-and-delete-incident-attachments + name: '인시던트 첨부 파일 생성, 업데이트, 삭제하기 ' + params: + operationids: + - UpdateIncidentAttachments + order: 8 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#create,-update,-and-delete-incident-attachments' + - generated: true + identifier: incidents-get-a-list-of-attachments + name: 첨부 파일 목록 가져오기 + params: + operationids: + - ListIncidentAttachments + order: 7 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-a-list-of-attachments' + - generated: true + identifier: incidents-update-an-existing-incident + name: 기존 인시던트 업데이트하기 + params: + operationids: + - UpdateIncident + order: 3 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#update-an-existing-incident' + - generated: true + identifier: incidents-get-the-details-of-an-incident + name: 인시던트 세부 정보 보기 + params: + operationids: + - GetIncident + order: 2 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-the-details-of-an-incident' + - generated: true + identifier: incidents-delete-an-existing-incident + name: 기존 인시던트 삭제하기 + params: + operationids: + - DeleteIncident + order: 4 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#delete-an-existing-incident' + - generated: true + identifier: incidents-search-for-incidents + name: 인시던트 검색 + params: + operationids: + - SearchIncidents + order: 6 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#search-for-incidents' + - generated: true + identifier: incidents-create-an-incident + name: 인시던트 만들기 + params: + operationids: + - CreateIncident + order: 1 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#create-an-incident' + - generated: true + identifier: incidents-get-a-list-of-incidents + name: 인시던트 목록 가져오기 + params: + operationids: + - ListIncidents + order: 5 + unstable: + - v2 + versions: + - v2 + parent: incidents + url: '#get-a-list-of-incidents' + - generated: true + identifier: logs-archives + name: 로그 아카이브 + url: /api/latest/logs-archives/ + - generated: true + identifier: logs-archives-grant-role-to-an-archive + name: 아카이브에 역할 부여하기 + params: + operationids: + - AddReadRoleToArchive + order: 7 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#grant-role-to-an-archive' + - generated: true + identifier: logs-archives-list-read-roles-for-an-archive + name: 아카이브에 대한 읽기 역할 나열하기 + params: + operationids: + - ListArchiveReadRoles + order: 6 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#list-read-roles-for-an-archive' + - generated: true + identifier: logs-archives-revoke-role-from-an-archive + name: 아카이브에서 역할 취소하기 + params: + operationids: + - RemoveRoleFromArchive + order: 8 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#revoke-role-from-an-archive' + - generated: true + identifier: logs-archives-update-an-archive + name: 아카이브 업데이트하기 + params: + operationids: + - UpdateLogsArchive + order: 4 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#update-an-archive' + - generated: true + identifier: logs-archives-get-an-archive + name: 아카이브 가져오기 + params: + operationids: + - GetLogsArchive + order: 3 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#get-an-archive' + - generated: true + identifier: logs-archives-delete-an-archive + name: 아카이브 삭제하기 + params: + operationids: + - DeleteLogsArchive + order: 5 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#delete-an-archive' + - generated: true + identifier: logs-archives-create-an-archive + name: 아카이브 만들기 + params: + operationids: + - CreateLogsArchive + order: 2 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#create-an-archive' + - generated: true + identifier: logs-archives-get-all-archives + name: 모든 아카이브 가져오기 + params: + operationids: + - ListLogsArchives + order: 1 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#get-all-archives' + - generated: true + identifier: logs-archives-update-archive-order + name: 아카이브 순서 업데이트하기 + params: + operationids: + - UpdateLogsArchiveOrder + order: 10 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#update-archive-order' + - generated: true + identifier: logs-archives-get-archive-order + name: 아카이브 순서 가져오기 + params: + operationids: + - GetLogsArchiveOrder + order: 9 + unstable: [] + versions: + - v2 + parent: logs-archives + url: '#get-archive-order' + - generated: true + identifier: logs-custom-destinations + name: 커스텀 로그 목적지 + url: /api/latest/logs-custom-destinations/ + - generated: true + identifier: logs-custom-destinations-update-a-custom-destination + name: 커스텀 목적지 업데이트 + params: + operationids: + - UpdateLogsCustomDestination + order: 4 + unstable: [] + versions: + - v2 + parent: logs-custom-destinations + url: '#update-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-get-a-custom-destination + name: 커스텀 목적지 받기 + params: + operationids: + - GetLogsCustomDestination + order: 3 + unstable: [] + versions: + - v2 + parent: logs-custom-destinations + url: '#get-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-delete-a-custom-destination + name: 커스텀 목적지 삭제 + params: + operationids: + - DeleteLogsCustomDestination + order: 5 + unstable: [] + versions: + - v2 + parent: logs-custom-destinations + url: '#delete-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-create-a-custom-destination + name: 커스텀 목적지 생성 + params: + operationids: + - CreateLogsCustomDestination + order: 2 + unstable: [] + versions: + - v2 + parent: logs-custom-destinations + url: '#create-a-custom-destination' + - generated: true + identifier: logs-custom-destinations-get-all-custom-destinations + name: 모든 커스텀 목적지 받기 + params: + operationids: + - ListLogsCustomDestinations + order: 1 + unstable: [] + versions: + - v2 + parent: logs-custom-destinations + url: '#get-all-custom-destinations' + - generated: true + identifier: logs-metrics + name: 로그 메트릭 + url: /api/latest/logs-metrics/ + - generated: true + identifier: logs-metrics-update-a-log-based-metric + name: 로그 기반 메트릭 업데이트하기 + params: + operationids: + - UpdateLogsMetric + order: 4 + unstable: [] + versions: + - v2 + parent: logs-metrics + url: '#update-a-log-based-metric' + - generated: true + identifier: logs-metrics-get-a-log-based-metric + name: 로그 기반 메트릭 가져오기 + params: + operationids: + - GetLogsMetric + order: 3 + unstable: [] + versions: + - v2 + parent: logs-metrics + url: '#get-a-log-based-metric' + - generated: true + identifier: logs-metrics-delete-a-log-based-metric + name: '로그 기반 메트릭 삭제하기 ' + params: + operationids: + - DeleteLogsMetric + order: 5 + unstable: [] + versions: + - v2 + parent: logs-metrics + url: '#delete-a-log-based-metric' + - generated: true + identifier: logs-metrics-create-a-log-based-metric + name: 로그 기반 메트릭 만들기 + params: + operationids: + - CreateLogsMetric + order: 2 + unstable: [] + versions: + - v2 + parent: logs-metrics + url: '#create-a-log-based-metric' + - generated: true + identifier: logs-metrics-get-all-log-based-metrics + name: 모든 로그 기반 메트릭 가져오기 + params: + operationids: + - ListLogsMetrics + order: 1 + unstable: [] + versions: + - v2 + parent: logs-metrics + url: '#get-all-log-based-metrics' + - generated: true + identifier: logs-restriction-queries + name: 로그 제한 쿼리 + url: /api/latest/logs-restriction-queries/ + - generated: true + identifier: logs-restriction-queries-grant-role-to-a-restriction-query + name: 제한 쿼리에 역할 부여하기 + params: + operationids: + - AddRoleToRestrictionQuery + order: 7 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#grant-role-to-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-list-roles-for-a-restriction-query + name: List roles for a restriction query + params: + operationids: + - ListRestrictionQueryRoles + order: 6 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#list-roles-for-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-revoke-role-from-a-restriction-query + name: 제한 쿼리에서 역할 취소하기 + params: + operationids: + - RemoveRoleFromRestrictionQuery + order: 8 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#revoke-role-from-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-update-a-restriction-query + name: 제한 쿼리 업데이트하기 + params: + operationids: + - UpdateRestrictionQuery + order: 4 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#update-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-get-a-restriction-query + name: '제한 쿼리 가져오기 ' + params: + operationids: + - GetRestrictionQuery + order: 3 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#get-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-delete-a-restriction-query + name: 제한 쿼리 삭제하기 + params: + operationids: + - DeleteRestrictionQuery + order: 5 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#delete-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-get-all-restriction-queries-for-a-given-user + name: 특정 사용자에 대한 모든 제한 쿼리 가져오기 + params: + operationids: + - ListUserRestrictionQueries + order: 9 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#get-all-restriction-queries-for-a-given-user' + - generated: true + identifier: logs-restriction-queries-get-restriction-query-for-a-given-role + name: 특정 역할에 대한 제한 쿼리 가져오기 + params: + operationids: + - GetRoleRestrictionQuery + order: 10 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#get-restriction-query-for-a-given-role' + - generated: true + identifier: logs-restriction-queries-create-a-restriction-query + name: '제한 쿼리 만들기 ' + params: + operationids: + - CreateRestrictionQuery + order: 2 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#create-a-restriction-query' + - generated: true + identifier: logs-restriction-queries-list-restriction-queries + name: '제한 쿼리 나열하기 ' + params: + operationids: + - ListRestrictionQueries + order: 1 + unstable: + - v2 + versions: + - v2 + parent: logs-restriction-queries + url: '#list-restriction-queries' + - generated: true + identifier: okta-integration + name: Okta 통합 + url: /api/latest/okta-integration/ + - generated: true + identifier: okta-integration-update-okta-account + name: Okta 계정 업데이트하기 + params: + operationids: + - UpdateOktaAccount + order: 4 + unstable: [] + versions: + - v2 + parent: okta-integration + url: '#update-okta-account' + - generated: true + identifier: okta-integration-get-okta-account + name: Okta 계정 가져오기 + params: + operationids: + - GetOktaAccount + order: 3 + unstable: [] + versions: + - v2 + parent: okta-integration + url: '#get-okta-account' + - generated: true + identifier: okta-integration-delete-okta-account + name: Okta 계정 삭제하기 + params: + operationids: + - DeleteOktaAccount + order: 5 + unstable: [] + versions: + - v2 + parent: okta-integration + url: '#delete-okta-account' + - generated: true + identifier: okta-integration-add-okta-account + name: Okta 계정 추가하기 + params: + operationids: + - CreateOktaAccount + order: 2 + unstable: [] + versions: + - v2 + parent: okta-integration + url: '#add-okta-account' + - generated: true + identifier: okta-integration-list-okta-accounts + name: Okta 계정 나열하기 + params: + operationids: + - ListOktaAccounts + order: 1 + unstable: [] + versions: + - v2 + parent: okta-integration + url: '#list-okta-accounts' + - generated: true + identifier: opsgenie-integration + name: Opsgenie 통합 + url: /api/latest/opsgenie-integration/ + - generated: true + identifier: opsgenie-integration-update-a-single-service-object + name: '단일 서비스 개체 업데이트하기 ' + params: + operationids: + - UpdateOpsgenieService + order: 4 + unstable: [] + versions: + - v2 + parent: opsgenie-integration + url: '#update-a-single-service-object' + - generated: true + identifier: opsgenie-integration-get-a-single-service-object + name: 단일 서비스 개체 가져오기 + params: + operationids: + - GetOpsgenieService + order: 3 + unstable: [] + versions: + - v2 + parent: opsgenie-integration + url: '#get-a-single-service-object' + - generated: true + identifier: opsgenie-integration-delete-a-single-service-object + name: 단일 서비스 개체 삭제하기 + params: + operationids: + - DeleteOpsgenieService + order: 5 + unstable: [] + versions: + - v2 + parent: opsgenie-integration + url: '#delete-a-single-service-object' + - generated: true + identifier: opsgenie-integration-create-a-new-service-object + name: 새 서비스 개체 만들기 + params: + operationids: + - CreateOpsgenieService + order: 2 + unstable: [] + versions: + - v2 + parent: opsgenie-integration + url: '#create-a-new-service-object' + - generated: true + identifier: opsgenie-integration-get-all-service-objects + name: 모든 서비스 개체 가져오기 + params: + operationids: + - ListOpsgenieServices + order: 1 + unstable: [] + versions: + - v2 + parent: opsgenie-integration + url: '#get-all-service-objects' + - generated: true + identifier: powerpack + name: Powerpack + url: /api/latest/powerpack/ + - generated: true + identifier: powerpack-update-a-powerpack + name: 파워팩 업데이트하기 + params: + operationids: + - UpdatePowerpack + order: 5 + unstable: [] + versions: + - v2 + parent: powerpack + url: '#update-a-powerpack' + - generated: true + identifier: powerpack-get-a-powerpack + name: 파워팩 가져오기 + params: + operationids: + - GetPowerpack + order: 4 + unstable: [] + versions: + - v2 + parent: powerpack + url: '#get-a-powerpack' + - generated: true + identifier: powerpack-delete-a-powerpack + name: 파워팩 삭제하기 + params: + operationids: + - DeletePowerpack + order: 3 + unstable: [] + versions: + - v2 + parent: powerpack + url: '#delete-a-powerpack' + - generated: true + identifier: powerpack-create-a-new-powerpack + name: 새 파워팩 만들기 + params: + operationids: + - CreatePowerpack + order: 2 + unstable: [] + versions: + - v2 + parent: powerpack + url: '#create-a-new-powerpack' + - generated: true + identifier: powerpack-get-all-powerpacks + name: 모든 파워팩 가져오기 + params: + operationids: + - ListPowerpacks + order: 1 + unstable: [] + versions: + - v2 + parent: powerpack + url: '#get-all-powerpacks' + - generated: true + identifier: processes + name: '프로세스 ' + url: /api/latest/processes/ + - generated: true + identifier: processes-get-all-processes + name: 모든 프로세스 가져오기 + params: + operationids: + - ListProcesses + order: 1 + unstable: [] + versions: + - v2 + parent: processes + url: '#get-all-processes' + - generated: true + identifier: rum + name: RUM + url: /api/latest/rum/ + - generated: true + identifier: rum-search-rum-events + name: 'RUM 이벤트 검색하기 ' + params: + operationids: + - SearchRUMEvents + order: 1 + unstable: [] + versions: + - v2 + parent: rum + url: '#search-rum-events' + - generated: true + identifier: rum-get-a-list-of-rum-events + name: RUM 이벤트 목록 가져오기 + params: + operationids: + - ListRUMEvents + order: 2 + unstable: [] + versions: + - v2 + parent: rum + url: '#get-a-list-of-rum-events' + - generated: true + identifier: rum-update-a-rum-application + name: RUM 애플리케이션 업데이트하기 + params: + operationids: + - UpdateRUMApplication + order: 4 + unstable: [] + versions: + - v2 + parent: rum + url: '#update-a-rum-application' + - generated: true + identifier: rum-get-a-rum-application + name: RUM 애플리케이션 가져오기 + params: + operationids: + - GetRUMApplication + order: 5 + unstable: [] + versions: + - v2 + parent: rum + url: '#get-a-rum-application' + - generated: true + identifier: rum-delete-a-rum-application + name: RUM 애플리케이션 삭제하기 + params: + operationids: + - DeleteRUMApplication + order: 6 + unstable: [] + versions: + - v2 + parent: rum + url: '#delete-a-rum-application' + - generated: true + identifier: rum-create-a-new-rum-application + name: 새 RUM 애플리케이션 만들기 + params: + operationids: + - CreateRUMApplication + order: 7 + unstable: [] + versions: + - v2 + parent: rum + url: '#create-a-new-rum-application' + - generated: true + identifier: rum-list-all-the-rum-applications + name: 모든 RUM 애플리케이션 나열하기 + params: + operationids: + - GetRUMApplications + order: 8 + unstable: [] + versions: + - v2 + parent: rum + url: '#list-all-the-rum-applications' + - generated: true + identifier: rum-aggregate-rum-events + name: RUM 이벤트 집계하기 + params: + operationids: + - AggregateRUMEvents + order: 3 + unstable: [] + versions: + - v2 + parent: rum + url: '#aggregate-rum-events' + - generated: true + identifier: restriction-policies + name: 제한 정책 + url: /api/latest/restriction-policies/ + - generated: true + identifier: restriction-policies-update-a-restriction-policy + name: '제한 정책 업데이트하기 ' + params: + operationids: + - UpdateRestrictionPolicy + order: 1 + unstable: [] + versions: + - v2 + parent: restriction-policies + url: '#update-a-restriction-policy' + - generated: true + identifier: restriction-policies-get-a-restriction-policy + name: 제한 정책 가져오기 + params: + operationids: + - GetRestrictionPolicy + order: 2 + unstable: [] + versions: + - v2 + parent: restriction-policies + url: '#get-a-restriction-policy' + - generated: true + identifier: restriction-policies-delete-a-restriction-policy + name: 제한 정책 삭제하기 + params: + operationids: + - DeleteRestrictionPolicy + order: 3 + unstable: [] + versions: + - v2 + parent: restriction-policies + url: '#delete-a-restriction-policy' + - generated: true + identifier: roles + name: 역할 + url: /api/latest/roles/ + - generated: true + identifier: roles-add-a-user-to-a-role + name: 역할에 사용자 추가하기 + params: + operationids: + - AddUserToRole + order: 10 + unstable: [] + versions: + - v2 + parent: roles + url: '#add-a-user-to-a-role' + - generated: true + identifier: roles-get-all-users-of-a-role + name: 역할의 모든 사용자 가져오기 + params: + operationids: + - ListRoleUsers + order: 9 + unstable: [] + versions: + - v2 + parent: roles + url: '#get-all-users-of-a-role' + - generated: true + identifier: roles-remove-a-user-from-a-role + name: 역할에서 사용자 제거하기 + params: + operationids: + - RemoveUserFromRole + order: 11 + unstable: [] + versions: + - v2 + parent: roles + url: '#remove-a-user-from-a-role' + - generated: true + identifier: roles-grant-permission-to-a-role + name: 역할에 권한 부여하기 + params: + operationids: + - AddPermissionToRole + order: 7 + unstable: [] + versions: + - v2 + parent: roles + url: '#grant-permission-to-a-role' + - generated: true + identifier: roles-list-permissions-for-a-role + name: 역할에 대한 권한 나열하기 + params: + operationids: + - ListRolePermissions + order: 6 + unstable: [] + versions: + - v2 + parent: roles + url: '#list-permissions-for-a-role' + - generated: true + identifier: roles-revoke-permission + name: 권한 취소하기 + params: + operationids: + - RemovePermissionFromRole + order: 8 + unstable: [] + versions: + - v2 + parent: roles + url: '#revoke-permission' + - generated: true + identifier: roles-create-a-new-role-by-cloning-an-existing-role + name: 기존 역할을 복제하여 새 역할 만들기 + params: + operationids: + - CloneRole + order: 12 + unstable: [] + versions: + - v2 + parent: roles + url: '#create-a-new-role-by-cloning-an-existing-role' + - generated: true + identifier: roles-update-a-role + name: '역할 업데이트하기 ' + params: + operationids: + - UpdateRole + order: 4 + unstable: [] + versions: + - v2 + parent: roles + url: '#update-a-role' + - generated: true + identifier: roles-get-a-role + name: '역할 가져오기 ' + params: + operationids: + - GetRole + order: 3 + unstable: [] + versions: + - v2 + parent: roles + url: '#get-a-role' + - generated: true + identifier: roles-delete-role + name: 역할 삭제하기 + params: + operationids: + - DeleteRole + order: 5 + unstable: [] + versions: + - v2 + parent: roles + url: '#delete-role' + - generated: true + identifier: roles-create-role + name: 역할 만들기 + params: + operationids: + - CreateRole + order: 2 + unstable: [] + versions: + - v2 + parent: roles + url: '#create-role' + - generated: true + identifier: roles-list-roles + name: 역할 나열하기 + params: + operationids: + - ListRoles + order: 1 + unstable: [] + versions: + - v2 + parent: roles + url: '#list-roles' + - generated: true + identifier: roles-list-permissions + name: 권한 나열하기 + params: + operationids: + - ListPermissions + order: 1 + unstable: [] + versions: + - v2 + parent: roles + url: '#list-permissions' + - generated: true + identifier: sensitive-data-scanner + name: 민감한 데이터 스캐너 + url: /api/latest/sensitive-data-scanner/ + - generated: true + identifier: sensitive-data-scanner-list-standard-patterns + name: 표준 패턴 나열하기 + params: + operationids: + - ListStandardPatterns + order: 3 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#list-standard-patterns' + - generated: true + identifier: sensitive-data-scanner-update-scanning-rule + name: '스캐닝 규칙 업데이트하기 ' + params: + operationids: + - UpdateScanningRule + order: 8 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#update-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-delete-scanning-rule + name: 스캐닝 규칙 삭제하기 + params: + operationids: + - DeleteScanningRule + order: 9 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#delete-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-create-scanning-rule + name: 스캐닝 규칙 만들기 + params: + operationids: + - CreateScanningRule + order: 7 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#create-scanning-rule' + - generated: true + identifier: sensitive-data-scanner-update-scanning-group + name: '스캐닝 그룹 업데이트하기 ' + params: + operationids: + - UpdateScanningGroup + order: 5 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#update-scanning-group' + - generated: true + identifier: sensitive-data-scanner-delete-scanning-group + name: '스캐닝 그룹 삭제하기 ' + params: + operationids: + - DeleteScanningGroup + order: 6 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#delete-scanning-group' + - generated: true + identifier: sensitive-data-scanner-create-scanning-group + name: 스캐닝 그룹 만들기 + params: + operationids: + - CreateScanningGroup + order: 4 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#create-scanning-group' + - generated: true + identifier: sensitive-data-scanner-reorder-groups + name: 그룹 재정렬하기 + params: + operationids: + - ReorderScanningGroups + order: 2 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#reorder-groups' + - generated: true + identifier: sensitive-data-scanner-list-scanning-groups + name: '스캐닝 그룹 나열하기 ' + params: + operationids: + - ListScanningGroups + order: 1 + unstable: [] + versions: + - v2 + parent: sensitive-data-scanner + url: '#list-scanning-groups' + - generated: true + identifier: service-accounts + name: 서비스 계정 + url: /api/latest/service-accounts/ + - generated: true + identifier: service-accounts-edit-an-application-key-for-this-service-account + name: 서비스 계정의 애플리케이션 키 수정하기 + params: + operationids: + - UpdateServiceAccountApplicationKey + order: 2 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#edit-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-get-one-application-key-for-this-service-account + name: 서비스 계정의 애플리케이션 키 가져오기 + params: + operationids: + - GetServiceAccountApplicationKey + order: 1 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#get-one-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-delete-an-application-key-for-this-service-account + name: 서비스 계정의 애플리케이션 키 삭제하기 + params: + operationids: + - DeleteServiceAccountApplicationKey + order: 3 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#delete-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-create-an-application-key-for-this-service-account + name: 서비스 계정의 애플리케이션 키 생성하기 + params: + operationids: + - CreateServiceAccountApplicationKey + order: 5 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#create-an-application-key-for-this-service-account' + - generated: true + identifier: service-accounts-list-application-keys-for-this-service-account + name: 서비스 계정의 애플리케이션 키 나열하기 + params: + operationids: + - ListServiceAccountApplicationKeys + order: 6 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#list-application-keys-for-this-service-account' + - generated: true + identifier: service-accounts-create-a-service-account + name: 서비스 계정 만들기 + params: + operationids: + - CreateServiceAccount + order: 1 + unstable: [] + versions: + - v2 + parent: service-accounts + url: '#create-a-service-account' + - generated: true + identifier: service-definition + name: 서비스 정의 + url: /api/latest/service-definition/ + - generated: true + identifier: service-definition-get-a-single-service-definition + name: 단일 서비스 정의 가져오기 + params: + operationids: + - GetServiceDefinition + order: 3 + unstable: [] + versions: + - v2 + parent: service-definition + url: '#get-a-single-service-definition' + - generated: true + identifier: service-definition-delete-a-single-service-definition + name: 단일 서비스 정의 삭제하기 + params: + operationids: + - DeleteServiceDefinition + order: 4 + unstable: [] + versions: + - v2 + parent: service-definition + url: '#delete-a-single-service-definition' + - generated: true + identifier: service-definition-create-or-update-service-definition + name: 서비스 정의 생성 또는 업데이트하기 + params: + operationids: + - CreateOrUpdateServiceDefinitions + order: 2 + unstable: [] + versions: + - v2 + parent: service-definition + url: '#create-or-update-service-definition' + - generated: true + identifier: service-definition-get-all-service-definitions + name: 모든 서비스 정의 가져오기 + params: + operationids: + - ListServiceDefinitions + order: 1 + unstable: [] + versions: + - v2 + parent: service-definition + url: '#get-all-service-definitions' + - generated: true + identifier: service-scorecards + name: '서비스 스코어카드 ' + url: /api/latest/service-scorecards/ + - generated: true + identifier: service-scorecards-delete-a-rule + name: 규칙 삭제하기 + params: + operationids: + - DeleteScorecardRule + order: 3 + unstable: + - v2 + versions: + - v2 + parent: service-scorecards + url: '#delete-a-rule' + - generated: true + identifier: service-scorecards-create-a-new-rule + name: 새로운 규칙 만들기 + params: + operationids: + - CreateScorecardRule + order: 1 + unstable: + - v2 + versions: + - v2 + parent: service-scorecards + url: '#create-a-new-rule' + - generated: true + identifier: service-scorecards-list-all-rules + name: 모든 규칙 나열하기 + params: + operationids: + - ListScorecardRules + order: 2 + unstable: + - v2 + versions: + - v2 + parent: service-scorecards + url: '#list-all-rules' + - generated: true + identifier: service-scorecards-create-outcomes-batch + name: 결과 배치 만들기 + params: + operationids: + - CreateScorecardOutcomesBatch + order: 1 + unstable: + - v2 + versions: + - v2 + parent: service-scorecards + url: '#create-outcomes-batch' + - generated: true + identifier: service-scorecards-list-all-rule-outcomes + name: 모든 규칙 결과 나열하기 + params: + operationids: + - ListScorecardOutcomes + order: 2 + unstable: + - v2 + versions: + - v2 + parent: service-scorecards + url: '#list-all-rule-outcomes' + - generated: true + identifier: spans + name: 스팬 + url: /api/latest/spans/ + - generated: true + identifier: spans-search-spans + name: '스팬 검색하기 ' + params: + operationids: + - ListSpans + order: 2 + unstable: [] + versions: + - v2 + parent: spans + url: '#search-spans' + - generated: true + identifier: spans-get-a-list-of-spans + name: 스팬 목록 가져오기 + params: + operationids: + - ListSpansGet + order: 1 + unstable: [] + versions: + - v2 + parent: spans + url: '#get-a-list-of-spans' + - generated: true + identifier: spans-aggregate-spans + name: 스팬 집계하기 + params: + operationids: + - AggregateSpans + order: 3 + unstable: [] + versions: + - v2 + parent: spans + url: '#aggregate-spans' + - generated: true + identifier: spans-metrics + name: 스팬 메트릭 + url: /api/latest/spans-metrics/ + - generated: true + identifier: spans-metrics-update-a-span-based-metric + name: 스팬 기반 메트릭 업데이트하기 + params: + operationids: + - UpdateSpansMetric + order: 4 + unstable: [] + versions: + - v2 + parent: spans-metrics + url: '#update-a-span-based-metric' + - generated: true + identifier: spans-metrics-get-a-span-based-metric + name: 스팬 기반 메트릭 가져오기 + params: + operationids: + - GetSpansMetric + order: 3 + unstable: [] + versions: + - v2 + parent: spans-metrics + url: '#get-a-span-based-metric' + - generated: true + identifier: spans-metrics-delete-a-span-based-metric + name: 스팬 기반 메트릭 삭제하기 + params: + operationids: + - DeleteSpansMetric + order: 5 + unstable: [] + versions: + - v2 + parent: spans-metrics + url: '#delete-a-span-based-metric' + - generated: true + identifier: spans-metrics-create-a-span-based-metric + name: 스팬 기반 메트릭 만들기 + params: + operationids: + - CreateSpansMetric + order: 2 + unstable: [] + versions: + - v2 + parent: spans-metrics + url: '#create-a-span-based-metric' + - generated: true + identifier: spans-metrics-get-all-span-based-metrics + name: 모든 스팬 기반 메트릭 가져오기 + params: + operationids: + - ListSpansMetrics + order: 1 + unstable: [] + versions: + - v2 + parent: spans-metrics + url: '#get-all-span-based-metrics' + - generated: true + identifier: teams + name: 팀 + url: /api/latest/teams/ + - generated: true + identifier: teams-get-user-memberships + name: 사용자 멤버십 가져오기 + params: + operationids: + - GetUserMemberships + order: 1 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-user-memberships' + - generated: true + identifier: teams-update-permission-setting-for-team + name: "팀에 대한 권한 설정 \b업데이트하기" + params: + operationids: + - UpdateTeamPermissionSetting + order: 18 + unstable: [] + versions: + - v2 + parent: teams + url: '#update-permission-setting-for-team' + - generated: true + identifier: teams-get-permission-settings-for-a-team + name: 팀에 대한 권한 설정 가져오기 + params: + operationids: + - GetTeamPermissionSettings + order: 17 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-permission-settings-for-a-team' + - generated: true + identifier: teams-update-a-users-membership-attributes-on-a-team + name: 팀에서 사용자 멤버십 속성 업데이트하기 + params: + operationids: + - UpdateTeamMembership + order: 9 + unstable: [] + versions: + - v2 + parent: teams + url: '#update-a-users-membership-attributes-on-a-team' + - generated: true + identifier: teams-remove-a-user-from-a-team + name: 팀에서 사용자 제거하기 + params: + operationids: + - DeleteTeamMembership + order: 8 + unstable: [] + versions: + - v2 + parent: teams + url: '#remove-a-user-from-a-team' + - generated: true + identifier: teams-add-a-user-to-a-team + name: 팀에 사용자 추가하기 + params: + operationids: + - CreateTeamMembership + order: 7 + unstable: [] + versions: + - v2 + parent: teams + url: '#add-a-user-to-a-team' + - generated: true + identifier: teams-get-team-memberships + name: 팀 멤버십 가져오기 + params: + operationids: + - GetTeamMemberships + order: 6 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-team-memberships' + - generated: true + identifier: teams-update-a-team-link + name: 팀 링크 업데이트하기 + params: + operationids: + - UpdateTeamLink + order: 13 + unstable: [] + versions: + - v2 + parent: teams + url: '#update-a-team-link' + - generated: true + identifier: teams-get-a-team-link + name: '팀 링크 가져오기 ' + params: + operationids: + - GetTeamLink + order: 12 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-a-team-link' + - generated: true + identifier: teams-remove-a-team-link + name: 팀 링크 제거하기 + params: + operationids: + - DeleteTeamLink + order: 14 + unstable: [] + versions: + - v2 + parent: teams + url: '#remove-a-team-link' + - generated: true + identifier: teams-create-a-team-link + name: 팀 링크 만들기 + params: + operationids: + - CreateTeamLink + order: 11 + unstable: [] + versions: + - v2 + parent: teams + url: '#create-a-team-link' + - generated: true + identifier: teams-get-links-for-a-team + name: 팀 링크 가져오기 + params: + operationids: + - GetTeamLinks + order: 10 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-links-for-a-team' + - generated: true + identifier: teams-update-a-team + name: 팀 업데이트하기 + params: + operationids: + - UpdateTeam + order: 4 + unstable: [] + versions: + - v2 + parent: teams + url: '#update-a-team' + - generated: true + identifier: teams-get-a-team + name: 팀 가져오기 + params: + operationids: + - GetTeam + order: 3 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-a-team' + - generated: true + identifier: teams-remove-a-team + name: 팀 제거하기 + params: + operationids: + - DeleteTeam + order: 5 + unstable: [] + versions: + - v2 + parent: teams + url: '#remove-a-team' + - generated: true + identifier: teams-create-a-team + name: 팀 만들기 + params: + operationids: + - CreateTeam + order: 2 + unstable: [] + versions: + - v2 + parent: teams + url: '#create-a-team' + - generated: true + identifier: teams-get-all-teams + name: 모든 팀 가져오기 + params: + operationids: + - ListTeams + order: 1 + unstable: [] + versions: + - v2 + parent: teams + url: '#get-all-teams' diff --git a/content/es/agent/_index.md b/content/es/agent/_index.md index db7ab7b02127b..6a5cc8c847813 100644 --- a/content/es/agent/_index.md +++ b/content/es/agent/_index.md @@ -48,7 +48,7 @@ Los paquetes también están disponibles para arquitecturas Arm v8 y x86 de 64  {{< partial name="platforms/platforms.html" links="platforms" >}}

-Datadog recomienda actualizar el Datadog Agent con cada versión secundaria y de parche. O, al menos, actualizarlo una vez al mes.

+Datadog recomienda actualizar el Datadog Agent con cada versión secundaria y de parche. O bien, al menos, actualizarlo una vez al mes.

Actualizar a una versión principal del Datadog Agent y mantenerla actualizada es la única forma compatible de obtener las últimas funcionalidades y correcciones del Agent. Sin embargo, el Agent cuenta con actualizaciones frecuentes y puede ser todo un reto gestionarlas a escala empresarial. Esto no significa que debas esperar a las versiones principales para actualizarlo. La frecuencia de actualización adecuada para tu organización depende de la infraestructura y la forma de gestionar la configuración, pero lo aconsejable es que sea mensual.

@@ -67,7 +67,7 @@ La numeración de las versiones del Datadog Agent sigue las reglas de }}IoT: instala y configura el Datadog IoT Agent, una versión del Datadog Agent optimizada para monitorizar dispositivos IoT y aplicaciones integradas.{{< /nextlink >}} {{< nextlink href="/agent/logs">}}Recopilación de logs: habilita y configura la recopilación de logs en el Datadog Agent.{{< /nextlink >}} {{< nextlink href="/agent/configuration/proxy">}}Proxy: si la configuración de tu red restringe el tráfico saliente, utiliza un proxy para el tráfico del Agent.{{< /nextlink >}} - {{< nextlink href="/agent/versions/">}}Versiones: Agent 7 es la última versión principal del Datadog Agent. Conoce los cambios entre las versiones principales del Agent y cómo actualizar.{{< /nextlink >}} + {{< nextlink href="/agent/versions/">}}Versiones: el Agent 7 es la última versión principal del Datadog Agent. Conoce los cambios entre las versiones principales del Agent y cómo actualizar.{{< /nextlink >}} {{< nextlink href="/agent/troubleshooting">}}Solución de problemas: encuentra información para solucionar problemas relacionados con el Datadog Agent.{{< /nextlink >}} {{< nextlink href="/agent/guide">}}Guías: tutoriales paso a paso detallados para utilizar el Agent.{{< /nextlink >}} {{< nextlink href="/agent/security">}}Seguridad: información sobre las principales capacidades y características de seguridad disponibles para los clientes que garantizan que su entorno sea seguro.{{< /nextlink >}} diff --git a/content/es/agent/architecture.md b/content/es/agent/architecture.md new file mode 100644 index 0000000000000..1093e3cb296ee --- /dev/null +++ b/content/es/agent/architecture.md @@ -0,0 +1,112 @@ +--- +disable_toc: false +further_reading: +- link: /agent/supported_platforms/ + tag: Documentación + text: Plataformas compatibles +- link: /agent/configuration/ + tag: Documentación + text: Configuración del Agent +kind: Documentación +title: Arquitectura del Agent +--- + +## Arquitectura del Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +Las versiones 6 y 7 del Agent cuentan con un proceso principal que se encarga de recopilar logs y métricas de infraestructura, además de recibir [métricas de DogStatsD][1]. Los componentes principales de este proceso son: + +* El Collector, que ejecuta checks y recopila métricas. +* El Forwarder, que envía cargas útiles a Datadog. + +Si se habilita en el archivo de configuración `datadog.yaml`, el Agent genera dos procesos opcionales: + +* El APM Agent es un proceso que recopila [trazas][2]. Se encuentra habilitado de manera predeterminada. +* El Process Agent es un proceso que recopila información de los procesos en tiempo real. De manera predeterminada, el Process Agent solo recopila los contenedores disponibles, de lo contrario se deshabilita. + +En Windows, los servicios se presentan de la siguiente forma: + +| Servicio | Descripción | +|-----------------------|-----------------------| +| DatadogAgent | Datadog Agent | +| datadog-trace-agent | Datadog Trace Agent | +| datadog-process-agent | Datadog Process Agent | + +Por defecto, el Agent vincula tres [puertos][3] en Linux y cuatro puertos en Windows y macOS: + +| Puerto | Descripción | +|------|---------------------------------------------------------------------------------------------| +| 5000 | Muestra métricas de tiempo de ejecución del Agent. | +| 5001 | La CLI y GUI del Agent lo usan para enviar comandos y recopilar información del Agent en ejecución. | +| 5002 | Provee al servidor de la GUI en Windows y macOS. | +| 8125 | El servidor de DogStatsD lo usa para recibir métricas externas. | + +Para obtener más información sobre cómo configurar los puertos, consulta el [tráfico de red][4]. + +### Collector + +El Collector reúne todas las métricas estándar cada 15 segundos. El Agent 6 incorpora un intérprete de Python 2.7 para ejecutar integraciones y [checks personalizados][5]. + +### Forwarder + +El Agent Forwarder envía métricas a través de HTTPS a Datadog. El almacenamiento en búfer evita que las desconexiones de la red afecten a los informes de métricas. Las métricas se almacenan en la memoria hasta que se alcanza un límite de tamaño o cantidad de solicitudes de envío pendientes. Luego, las métricas más antiguas se descartan para que se pueda gestionar el espacio de memoria del Forwarder. Los logs se envían a Datadog a través de una conexión TCP cifrada con SSL. + +### DogStatsD + +En el Agent 6, DogStatsD es una implementación Golang del daemon de agregación de métricas [StatsD de Etsy][6]. DogStatsD recibe y transfiere métricas arbitrarias mediante UDP o un socket de UNIX, lo que permite instrumentar código personalizado sin aumentar la latencia. Obtén más información sobre [DogStatsD][7]. + +[1]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#metrics +[2]: /es/tracing/guide/terminology/ +[3]: /es/agent/configuration/network/#open-ports +[4]: /es/agent/configuration/network#configure-ports +[5]: /es/developers/custom_checks/write_agent_check/ +[6]: https://github.com/etsy/statsd +[7]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ +{{% /tab %}} +{{% tab "Agent v5" %}} + +{{< img src="agent/agent5architecture.jpg" alt="Arquitectura del Agent v5" >}} + +El Agent 5 cuenta con cuatro componentes principales, cada uno redactado en Python y ejecutado como un proceso independiente: + +* **Collector** (`agent.py`): ejecuta checks en la máquina actual sobre las [integraciones][1] configuradas y captura métricas del sistema, como las de la memoria y la CPU. +* **DogStatsD** (`dogstatsd.py`): servidor backend compatible con StatsD al que puedes enviar [métricas personalizadas][2] desde tus aplicaciones. +* **Forwarder** (`ddagent.py`): recupera datos tanto de DogStatsD como del Collector, los pone en cola para su envío y los envía a Datadog. +* **SupervisorD**: un único proceso supervisor controla al Collector, los servidores de DogStatsD y el Forwarder. El supervisor se mantiene separado para limitar la sobrecarga de cada aplicación si no se están ejecutando todas las partes. Sin embargo, por lo general, se recomienda ejecutar todas las partes. + +**Nota**: En el caso de los usuarios de Windows, los cuatro procesos del Agent se presentan como instancias de `ddagent.exe` con la descripción `DevOps' best friend`. + +### Supervisión, privilegios y puertos de red + +Se ejecuta un proceso primario de SupervisorD con el usuario `dd-agent`, y todos los subprocesos dependientes se ejecutan con el mismo usuario. Esto también se aplica a cualquier llamada del sistema (`iostat`/`netstat`) que inicia el Datadog Agent. La configuración del Agent se almacena en `/etc/dd-agent/datadog.conf` y `/etc/dd-agent/conf.d`. `dd-agent` debe ser capaz de leer toda la configuración. Los permisos recomendados son `0600`, ya que los archivos de configuración contienen tu clave de API y otras credenciales necesarias para acceder a las métricas. + +Los siguientes [puertos][3] están abiertos para realizar operaciones: + +| Puerto | Descripción | +|-----------|-------------------------------------| +| tcp/17123 | El Forwarder para operaciones normales | +| tcp/17124 | El Forwarder para la compatibilidad con Graphite | +| udp/8125 | DogStatsD | + +Por defecto, todos los procesos de escucha están vinculados a `127.0.0.1` o `::1` en las versiones 3.4.1 o posteriores del Agent. En versiones anteriores, estaban vinculados a `0.0.0.0` (todas las interfaces). Para obtener información sobre cómo ejecutar el Agent a través de un proxy, consulta la [configuración del proxy del Agent][4]. Para obtener información sobre los intervalos de IP que se pueden permitir, consulta el [tráfico de red][5]. + +El número recomendado de descriptores de archivos abiertos es de 1024. Puedes ver este valor con el comando `ulimit -a`. Si existe un límite estricto por debajo del valor recomendado, por ejemplo Shell Fork Bomb Protection, una solución es añadir lo siguiente en `supervisord.conf`: + +```conf +[supervisord] +minfds = 100 # Your hard limit +``` + +[1]: /es/integrations/ +[2]: /es/metrics/custom_metrics/ +[3]: /es/agent/configuration/network/?tab=agentv5v4#open-ports +[4]: /es/agent/configuration/proxy/?tab=agentv5 +[5]: /es/agent/faq/network/ +{{% /tab %}} +{{< /tabs >}} + +## Lectura adicional + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/_index.md b/content/es/agent/basic_agent_usage/_index.md index 0d010b296deea..dce3dd337f172 100644 --- a/content/es/agent/basic_agent_usage/_index.md +++ b/content/es/agent/basic_agent_usage/_index.md @@ -7,10 +7,10 @@ further_reading: - link: /agent/faq/how-datadog-agent-determines-the-hostname/ tag: FAQ text: ¿Cómo determina Datadog el nombre de host del Agent? -- link: /agent/guide/agent-commands/ +- link: /agent/configuration/agent-commands/ tag: FAQ text: Lista de todos los comandos del Agent -- link: /agent/guide/agent-configuration-files/ +- link: /agent/configuration/agent-configuration-files/ tag: FAQ text: Localización de todos los archivos de configuración del Agent - link: https://www.datadoghq.com/blog/engineering/performance-improvements-in-the-datadog-agent-metrics-pipeline/ @@ -22,255 +22,69 @@ title: Uso básico del Agent {{< partial name="platforms/platforms.html" links="platforms" >}} -## Arquitectura del Agent +## Gestión del Agent -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} - -Las versiones 6 y 7 del Agent constan de un proceso principal que se encarga de recopilar métricas de infraestructura y logs, y de recibir [métricas de DogStatsD][1]. Los componentes principales de este proceso son: - -* Collector, encargado de ejecutar checks y recopilar métricas. -* Forwarder, que envía cargas útiles a Datadog. - -Si se activa en el archivo de configuración `datadog.yaml`, el Agent genera dos procesos opcionales: - -* El Agent de APM, un proceso que recopila [trazas][2] (activado por defecto). -* El Agent de proceso, un proceso que recopila información de los procesos en tiempo real. Por defecto, solo recopila los contenedores disponibles; de lo contrario, está desactivado. - -En Windows, los servicios se presentan de la forma siguiente: - -| Servicio | Descripción | -|-----------------------|-------------------------| -| DatadogAgent | "Datadog Agent" | -| datadog-trace-agent | "Datadog Trace Agent" | -| datadog-process-agent | "Datadog Process Agent" | - -Por defecto, el Agent vincula 3 [puertos][3] en Linux y 4 en Windows y OSX: +Puedes gestionar la instalación del Agent mediante la GUI del Datadog Agent Manager o desde la línea de comandos. -| Puerto | Descripción | -|------|---------------------------------------------------------------------------------------------| -| 5000 | Muestra métricas de tiempo de ejecución del Agent. | -| 5001 | La CLI y la GUI del Agent lo usan para enviar comandos y recopilar información del Agent en ejecución. | -| 5002 | Provee al servidor de la GUI en Windows y OSX. | -| 8125 | El servidor de DogStatsD lo usa para recibir métricas externas. | +### GUI del Datadog Agent Manager -Para más información sobre cómo configurar los puertos, consulta [Tráfico de red][4]. +

La GUI del Agent no es compatible con las plataformas de Windows de 32 bits.
-### Collector +Utiliza la GUI del Datadog Agent Manager para: +- Ver la información de estado del Agent +- Ver todos los checks en ejecución +- Ver el log del Agent +- Editar el archivo de configuración (`datadog.yaml`) del Agent +- Añadir o editar los checks del Agent +- Enviar flares -El recopilador Collector captura todas las métricas estándar cada 15 segundos. El Agent v6 tiene un intérprete de Python 2.7 integrado para ejecutar integraciones y [checks personalizados][5]. +La GUI del Datadog Agent Manager se encuentra habilitada por defecto en Windows y macOS, y se ejecuta en el puerto `5052`. Utiliza el comando `datadog-agent launch-gui` para abrir la GUI en tu navegador web predeterminado. -### Forwarder +Puedes cambiar el puerto predeterminado de la GUI en tu archivo de configuración `datadog.yaml`. Para deshabilitar la GUI, establece el valor del puerto en `-1`. En Linux, la GUI se encuentra deshabilitada por defecto. -Forwarder, el reenviador del Agent, envía métricas a Datadog sobre HTTPS. El almacenamiento en búfer impide que las desconexiones temporales de la red afecten a las métricas. Las métricas se almacenan en la memoria hasta llegar a un límite de tamaño o de solicitudes de envío en espera. Después, las métricas más antiguas se descartan para mantener la huella de memoria de Forwarder dentro de unos límites razonables. Los logs se envían a través de una conexión TCP encriptada con SSL a Datadog. +Requisitos de la GUI: +- Las cookies deben estar habilitadas en tu navegador. La GUI genera y guarda un token en el navegador, que se utiliza para autenticar todas las comunicaciones con el servidor de la GUI. +- Para iniciar la GUI, el usuario debe tener los permisos necesarios. Si puedes abrir `datadog.yaml`, puedes utilizar la GUI. +- Por razones de seguridad, **solo** se puede acceder a la GUI desde la interfaz de red local (`localhost`/`127.0.0.1`), por lo que debes estar en el host donde se ejecuta el Agent. No puedes ejecutar el Agent en una VM o contenedor y acceder a este desde la máquina host. -### DogStatsD +### Interfaz de línea de comandos -En la v6, DogStatsD es una implementación Golang del daemon de agregación de métricas [StatsD de Etsy][6]. Se usa para recibir y transferir métricas arbitrarias mediante UDP o un socket de Unix, lo que permite instrumentar código personalizado sin aumentar la latencia. Más información sobre [DogStatsD][7]. +A partir del Agent 6, la interfaz de línea de comandos del Agent se basa en subcomandos. Para obtener la lista completa de los subcomandos del Agent, consulta los [comandos del Agent][2]. -[1]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#metrics -[2]: /es/tracing/guide/terminology/ -[3]: /es/agent/guide/network/#open-ports -[4]: /es/agent/guide/network#configure-ports -[5]: /es/developers/custom_checks/write_agent_check/ -[6]: https://github.com/etsy/statsd -[7]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ -{{% /tab %}} -{{% tab "Agent v5" %}} - -{{< img src="agent/agent5architecture.jpg" alt="Arquitectura del Agent v5" >}} - -El Agent v5 tiene cuatro componentes principales, redactados en lenguaje Python, que se ejecutan como procesos independientes: - -* **Collector** (`agent.py`): Ejecuta checks en la máquina actual sobre las [integraciones][1] configuradas y captura métricas del sistema, como las de la memoria y la CPU. -* **DogStatsD** (`dogstatsd.py`): Servidor backend compatible con StatsD al que puedes enviar [métricas personalizadas][2] desde tus aplicaciones. -* **Forwarder** (`ddagent.py`): Recopila datos tanto de DogStatsD como de Collector, los añade a la cola y después los envía a Datadog. -* **SupervisorD**: Todo está controlado por un único proceso supervisor. Se mantiene de forma independiente para limitar la sobrecarga de cada aplicación si no se están ejecutando todas las partes. Sin embargo, por lo general, es recomendable ejecutar todas las partes. +## Aprender más sobre el Datadog Agent -**Nota**: En el caso de los usuarios de Windows, los cuatro procesos del Agent se presentan como instancias de `ddagent.exe` con la descripción `DevOps' best friend`. +### Actualizar el Agent -### Supervisión, privilegios y puertos de red +Para llevar a cabo la actualización básica del Datadog Agent de forma manual entre dos versiones secundarias de un host determinado, ejecuta el [comando de instalación correspondiente para tu plataforma][7]. -Se ejecuta un proceso primario de SupervisorD con el usuario `dd-agent`, y todos los subprocesos dependientes se ejecutan con el mismo usuario. Esto también es aplicable a cualquier llamada del sistema (`iostat`/`netstat`) iniciada por el Datadog Agent. La configuración del Agent se almacena en `/etc/dd-agent/datadog.conf` y `/etc/dd-agent/conf.d`. `dd-agent` debe ser capaz de leer toda la configuración. Los permisos recomendados son 0600, ya que los archivos de configuración contienen tu clave de API y otras credenciales necesarias para acceder a las métricas. +**Nota**: Si quieres actualizar de forma manual una integración específica del Agent, consulta la [guía de gestión de integraciones][8]. -Los [puertos][3] siguientes están abiertos para realizar operaciones: +### Archivos de configuración -| Puerto | Descripción | -|-----------|-------------------------------------| -| tcp/17123 | Forwarder para operaciones normales | -| tcp/17124 | Forwarder para garantizar la compatibilidad con Graphite | -| udp/8125 | DogStatsD | +Consulta la [documentación sobre los archivos de configuración del Agent][9]. -Todos los procesos de escucha están vinculados por defecto a `127.0.0.1` o `::1` en el Agent v3.4.1 (y posteriores). En versiones anteriores, estaban vinculados a `0.0.0.0` (todas las interfaces). Para más información sobre cómo ejecutar el Agent a través de un proxy, consulta [Configuración del proxy del Agent][4]. Para más información sobre los intervalos de IP que se pueden permitir, consulta [Tráfico de red][5]. +### Sitio de Datadog -El número recomendado de descriptores de archivos abiertos es de 1024. Puedes ver este valor con el comando `ulimit -a`. Si existe un límite estricto por debajo del valor recomendado, como puede ser el establecido por la Shell Fork Bomb Protection, una solución es añadir lo siguiente en `supervisord.conf`: +Edita el [archivo de configuración principal del Agent][10], `datadog.yaml`, para establecer el parámetro `site` (por defecto, `datadoghq.com`). -```conf -[supervisord] -minfds = 100 # Your hard limit +```yaml +site: {{< region-param key="dd_site" >}} ``` -[1]: /es/integrations/ -[2]: /es/metrics/custom_metrics/ -[3]: /es/agent/guide/network/?tab=agentv5v4#open-ports -[4]: /es/agent/proxy/?tab=agentv5 -[5]: /es/agent/faq/network/ -{{% /tab %}} -{{< /tabs >}} - -## Interfaz gráfica de usuario (GUI) - -Puedes configurar el puerto en el que se ejecuta la GUI en el archivo `datadog.yaml`. Para desactivar la GUI, cambia el valor del puerto a `-1`. En Windows y macOS, la GUI viene habilitada de forma predeterminada y se ejecuta en el puerto `5002`. En Linux, en cambio, la GUI está deshabilitada. - -Cuando el Agent esté ejecutándose, usa el comando `datadog-agent launch-gui` para abrir la GUI en tu navegador web por defecto. - -**Nota**: La GUI del Agent no es compatible con plataformas de Windows de 32 bits. - -### Requisitos - -1. Es necesario habilitar las cookies en tu navegador. La GUI genera en tu navegador, donde también guarda un token que se utiliza para autenticar todas las comunicaciones con el servidor de la GUI. - -2. Para iniciar la GUI, el usuario debe tener los permisos necesarios. Si puedes abrir `datadog.yaml`, puedes usar la GUI. - -3. Por motivos de seguridad, **solo** se puede acceder a la GUI desde la interfaz de red local (`localhost`/`127.0.0.1`); por lo tanto, debes estar en el mismo host en el que se está ejecutando el Agent. En otras palabras, no puedes ejecutar el Agent en una máquina virtual o contenedor y acceder a él desde el host. - -## Plataformas compatibles - -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} - -| Plataforma (x86 de 64 bits) | Versiones compatibles | -|------------------------------------------|-----------------------------------------------------------| -| [Amazon Linux][1] | Amazon Linux 2 | -| [Debian][2] con systemd | Debian 7 (Wheezy) y posteriores en el Agent < 6.36.0/7.36.0, Debian 8 (Jessie) y posteriores en el Agent 6.36.0/7.36.0 (y posteriores) | -| [Debian][2] con SysVinit | Debian 7 (Wheezy) y posteriores en el Agent 6.6.0 - 6.36.0/7.36.0, Debian 8 (Jessie) y posteriores en el Agent 6.36.0/7.36.0 (y posteriores) | -| [Ubuntu][3] | Ubuntu 14.04 (y posteriores) | -| [RedHat/CentOS/AlmaLinux/Rocky][4] | RedHat/CentOS 6 (y posteriores), AlmaLinux/Rocky 8 (y posteriores) en el Agent 6.33.0/7.33.0 (y posteriores) | -| [Docker][5] | Versión 1.12 (y posteriores) | -| [Kubernetes][6] | Versión 1.3 (y posteriores) | -| [SUSE Enterprise Linux][7] con systemd | SUSE 11 SP4 (y posteriores) en el Agent < 6.33.0/7.33.0, SUSE 12 (y posteriores) en el Agent 6.33.0/7.33.0 (y posteriores) | -| [SUSE Enterprise Linux][7] con SysVinit | SUSE 11 SP4 en el Agent 6.16.0/7.16.0 - 6.33.0/7.33.0 | -| [OpenSUSE][7] con systemd | OpenSUSE 15 (y posteriores) en el Agent 6.33.0/7.33.0 (y posteriores) | -| [Fedora][8] | Fedora 26 (y posteriores) | -| [macOS][9] | macOS 10.12 (y posteriores) en el Agent < 6.35.0/7.35.0, macOS 10.13 (y posteriores) en el Agent < 7.39.0, macOS 10.14 (y posteriores) en el Agent 7.39.0 (y posteriores) | -| [Windows Server][10] | Windows Server 2008 R2 y posteriores (Server Core incluido) | -| [Windows][10] | Windows 7 (y posteriores) | -| [Azure Stack HCI OS][10] | Todas las versiones | - -| Plataforma (Arm v8 de 64 bits) | Versiones compatibles | -|------------------------------------------|-----------------------------------------------------------| -| [Amazon Linux][1] | Amazon Linux 2 | -| [Debian][2] con systemd | Debian 9 (Stretch) y posteriores | -| [Ubuntu][3] | Ubuntu 16.04 (y posteriores) | -| [RedHat/CentOS/AlmaLinux/Rocky][4] | RedHat/CentOS 8 (y posteriores), AlmaLinux/Rocky 8 (y posteriores) en el Agent 6.33.0/7.33.0 (y posteriores) | -| [Docker][5] | Versión 1.12 (y posteriores) | -| [Kubernetes][6] | Versión 1.3 (y posteriores) | -| [Fedora][8] | Fedora 27 (y posteriores) | -| [macOS][9] | macOS 11.0 (y posteriores) | - - -**Notas**: -- La instalación de [origen][11] podría funcionar en sistemas operativos no listados aquí; por nuestra parte, hacemos lo posible para que sea compatible. -- El Datadog Agent v6 (y posteriores) es compatible con Windows Server 2008 R2, siempre que las últimas actualizaciones de Windows estén instaladas. Asimismo, se tiene constancia de que hay un [problema con el desplazamiento del reloj y Go][12] que afecta a Windows Server 2008 R2. - -[1]: /es/agent/basic_agent_usage/amazonlinux/ -[2]: /es/agent/basic_agent_usage/deb/ -[3]: /es/agent/basic_agent_usage/ubuntu/ -[4]: /es/agent/basic_agent_usage/redhat/ -[5]: /es/agent/docker/ -[6]: /es/agent/basic_agent_usage/kubernetes/ -[7]: /es/agent/basic_agent_usage/suse/ -[8]: /es/agent/basic_agent_usage/fedora/ -[9]: /es/agent/basic_agent_usage/osx/ -[10]: /es/agent/basic_agent_usage/windows/ -[11]: /es/agent/basic_agent_usage/source/ -[12]: https://github.com/golang/go/issues/24489 -{{% /tab %}} -{{% tab "Agent v5" %}} - -| Plataforma | Versiones compatibles | -|----------------------------|------------------------| -| [Amazon Linux][1] | Amazon Linux 2 | -| [Debian][2] | Debian 7 (Wheezy) y posteriores | -| [Ubuntu][3] | Ubuntu 12.04 (y posteriores) | -| [RedHat/CentOS][4] | RedHat/CentOS 5 (y posteriores) | -| [Docker][5] | Versión 1.12 (y posteriores) | -| [Kubernetes][6] | De la versión 1.3 a la 1.8 | -| [SUSE Enterprise Linux][7] | SUSE 11 SP4 (y posteriores) | -| [Fedora][8] | Fedora 26 (y posteriores) | -| [macOS][9] | macOS 10.10 (y posteriores) | -| [Windows Server][10] | Windows Server 2008 (y posteriores) | -| [Windows][10] | Windows 7 (y posteriores) | - -**Notas**: - -- La instalación de [origen][11] podría funcionar en sistemas operativos no listados aquí; por nuestra parte, hacemos lo posible para que sea compatible. - -[1]: /es/agent/basic_agent_usage/amazonlinux/?tab=agentv5 -[2]: /es/agent/basic_agent_usage/deb/ -[3]: /es/agent/basic_agent_usage/ubuntu/ -[4]: /es/agent/basic_agent_usage/redhat/ -[5]: /es/agent/docker/ -[6]: /es/agent/basic_agent_usage/kubernetes/ -[7]: /es/agent/basic_agent_usage/suse/ -[8]: /es/agent/basic_agent_usage/fedora/ -[9]: /es/agent/basic_agent_usage/osx/ -[10]: /es/agent/basic_agent_usage/windows/ -[11]: /es/agent/basic_agent_usage/source/ -{{% /tab %}} -{{% tab "Unix Agent" %}} - -| Plataforma | Versiones compatibles | -|----------|-------------------------------------------| -| [AIX][1] | AIX 6.1 TL9 SP6, 7.1 TL5 SP3, 7.2 TL3 SP0 | +**Nota**: Consulta la [documentación de Empezando con los sitios de Datadog][11] para obtener más información sobre el parámetro `site`. -[1]: /es/agent/basic_agent_usage/aix/ -{{% /tab %}} -{{< /tabs >}} +### Localización de logs -## Interfaz de línea de comandos (CLI) - -Con Agent v6 (y posteriores), la interfaz de la línea de comandos se basa en subcomandos. Para ejecutar un subcomando, primero hay que invocar el archivo binario del Agent: - -```text - -``` - -| Subcomando | Notas | -|-------------------|-----------------------------------------------------------------------------| -| `check` | Ejecuta el check especificado. | -| `configcheck` | Copia todas las configuraciones cargadas y resueltas de un Agent en ejecución. | -| `diagnose` | Realiza un diagnóstico de conectividad en tu sistema. | -| `flare` | [Recopila un flare y lo envía a Datadog][1]. | -| `health` | Copia el estado de mantenimiento actual del Agent. | -| `help` | Ofrece ayuda con cualquier comando. | -| `hostname` | Copia el nombre de host que utiliza el Agent. | -| `import` | Importa y convierte archivos de configuración de versiones anteriores del Agent. | -| `launch-gui` | Inicia la GUI del Datadog Agent. | -| `restart` | [Reinicia el Agent][2]. | -| `restart-service` | Reinicia el Agent dentro del administrador de control de servicios. | -| `start` | [Inicia el Agent][3]. | -| `start-service` | Inicia el Agent dentro del administrador de control de servicios. | -| `status` | [Copia el estado actual del Agent][4]. | -| `stream-logs` | Genera un flujo de los logs procesados por un Agent en ejecución. | -| `stop` | [Detiene el Agent][5]. | -| `stopservice` | Detiene el Agent en el administrador de control de servicios. | -| `version` | Copia información acerca de la versión. | - -**Nota**: Algunas opciones tienen su propio conjunto de indicadores y opciones detallados en un mensaje de ayuda. Por ejemplo, para ver cómo se usa el subcomando `check`, ejecuta lo siguiente: - -```text - check --help -``` +Consulta la [documentación sobre los archivos de log del Agent][12]. ## Sobrecarga del Agent -A continuación, se muestra un ejemplo del consumo de recursos del Datadog Agent. Las pruebas se llevaron a cabo sobre una instancia de máquina AWS EC2 `c5.xlarge` (4 vCPU/ 8 GB de RAM) con resultados comparables para instancias basadas en ARM64 con recursos similares. El `datadog-agent` estándar se estaba ejecutando con una verificación de proceso para monitorizar el propio Agent. La activación de un mayor número de integraciones puede incrementar la cantidad de recursos que consume el Agent. -La activación de los checks de JMX obliga al Agent a usar más memoria, dependiendo del número de beans mostrados por los JVM monitorizados. La activación de los Agents de rastreo y proceso también incrementa el consumo de recursos. +A continuación, se muestra un ejemplo del consumo de recursos del Datadog Agent. Las pruebas se realizaron en una instancia `c5.xlarge` de una máquina de Amazon EC2 (4 VCPU/8 GB de RAM) y se observó un rendimiento comparable para instancias basadas en ARM64 con recursos similares. El `datadog-agent` estándar se ejecutó con un check de proceso para monitorizar el propio Agent. Habilitar más integraciones puede aumentar la cantidad de recursos que consume el Agent. +Habilitar los checks de JMX obliga al Agent a utilizar más memoria dependiendo del número de beans expuestos por los JVMs monitorizados. Habilitar los Agents de rastreo y proceso también aumenta el consumo de recursos. * Versión de prueba del Agent: 7.34.0 -* CPU: ~ 0,08 % de uso de la CPU de media -* Memoria: ~ 130 MB de RAM usados (memoria RSS) +* CPU: ~ 0,08 % de la CPU utilizada en promedio +* Memoria: ~ 130 MB de RAM utilizados (memoria RSS) * Ancho de banda de red: ~ 140 B/s ▼ | 800 B/s ▲ * Disco: * Linux: de 830 MB a 880 MB, dependiendo de la distribución @@ -278,74 +92,45 @@ La activación de los checks de JMX obliga al Agent a usar más memoria, dependi **Recopilación de logs**: -Los resultados mostrados a continuación se obtuvieron a partir de una recopilación de *110 KB de logs por segundo* desde un archivo con el [Forwarder de HTTP][6] activado. Muestra la evolución del uso de recursos en los distintos niveles de compresión disponibles. +Los resultados que se muestran a continuación se obtuvieron a partir de una recopilación de *110 KB de logs por segundo* de un archivo con el [Forwarder de HTTP][6] habilitado. Muestra la evolución del uso de recursos en los distintos niveles de compresión disponibles. {{< tabs >}} {{% tab "Nivel 6 de compresión HTTP" %}} * Versión de prueba del Agent: 6.15.0 -* CPU: ~ 1,5 % de uso de la CPU de media -* Memoria: ~ 95 MB de RAM usados. +* CPU: ~ 1,5 % de la CPU utilizada en promedio +* Memoria: ~ 95 MB de RAM utilizados. * Ancho de banda de red: ~ 14 KB/s ▲ {{% /tab %}} {{% tab "Nivel 1 de compresión HTTP" %}} * Versión de prueba del Agent: 6.15.0 -* CPU: ~ 1 % de uso de la CPU de media -* Memoria: ~ 95 MB de RAM usados. +* CPU: ~ 1 % de la CPU utilizada en promedio +* Memoria: ~ 95 MB de RAM utilizados. * Ancho de banda de red: ~ 20 KB/s ▲ {{% /tab %}} {{% tab "HTTP sin comprimir" %}} * Versión de prueba del Agent: 6.15.0 -* CPU: ~ 0,7 % de uso de la CPU de media -* Memoria: ~ 90 MB de RAM usados (memoria RSS) +* CPU: ~ 0,7 % de la CPU utilizada en promedio +* Memoria: ~ 90 MB de RAM utilizados (memoria RSS) * Ancho de banda de red: ~ 200 KB/s ▲ {{% /tab %}} {{< /tabs >}} -## Aprender más sobre el Datadog Agent - -### Actualizar el Agent - -Para actualizar el núcleo del Datadog Agent manualmente entre dos versiones secundarias en un mismo host, ejecuta el [comando de instalación correspondiente a tu plataforma][7]. - -**Nota**: Si deseas actualizar manualmente una integración específica del Agent, consulta la [guía dedicada a la gestión de integraciones][8]. - -### Archivos de configuración - -Consulta la [documentación acerca de los archivos de configuración del Agent][9]. - -### Sitio de Datadog - -Modifica el [archivo de configuración principal del Agent][10], `datadog.yaml`, para configurar el parámetro `site` (por defecto, `datadoghq.com`). - -```yaml -site: {{< region-param key="dd_site" >}} -``` - -**Nota**: Consulta la [Empezando con los sitios de Datadog][11] para obtener más información sobre el parámetro `site`. - -### Localización de los logs - -Consulta la [documentación acerca de los archivos de logs del Agent][12]. - -## Leer más +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} [1]: /es/agent/troubleshooting/send_a_flare/ -[2]: /es/agent/guide/agent-commands/#restart-the-agent -[3]: /es/agent/guide/agent-commands/#start-the-agent -[4]: /es/agent/guide/agent-commands/#service-status -[5]: /es/agent/guide/agent-commands/#stop-the-agent +[2]: /es/agent/configuration/agent-commands/ [6]: /es/agent/logs/log_transport/?tab=https#enforce-a-specific-transport -[7]: https://app.datadoghq.com/account/settings#agent +[7]: https://app.datadoghq.com/account/settings/agent/latest [8]: /es/agent/guide/integration-management/ -[9]: /es/agent/guide/agent-configuration-files/ -[10]: /es/agent/guide/agent-configuration-files/#agent-main-configuration-file +[9]: /es/agent/configuration/agent-configuration-files/ +[10]: /es/agent/configuration/agent-configuration-files/#agent-main-configuration-file [11]: /es/getting_started/site/ -[12]: /es/agent/guide/agent-log-files/ \ No newline at end of file +[12]: /es/agent/configuration/agent-log-files/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/aix.md b/content/es/agent/basic_agent_usage/aix.md index c6623bacbc591..0fac2701893d8 100644 --- a/content/es/agent/basic_agent_usage/aix.md +++ b/content/es/agent/basic_agent_usage/aix.md @@ -2,8 +2,8 @@ further_reading: - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada - link: https://www.datadoghq.com/blog/announcing-ibm-aix-agent/ @@ -14,7 +14,7 @@ title: Uso básico del Agent para AIX ---
-El Datadog Unix Agent se ha desarrollado para unas arquitecturas de sistema específicas, y es diferente de los Agents para Windows, Linux y MacOS. +El Datadog UNIX Agent se está desarrollando para arquitecturas de sistema específicas, y no es lo mismo que los Windows, Linux y MacOS Agents.
En esta página se describe cómo instalar y configurar el Datadog UNIX Agent para AIX. @@ -121,7 +121,7 @@ dogstatsd: # opciones de configuración de DogStatsD También existen opciones para ejecutar el Agent con el conocido supervisor Python. Esta podría ser la mejor forma de gestionar el daemon del Agent si se está familiarizado con la herramienta. Encontrarás información tanto para el Agent como para DogStatsD. -## Desinstalar +## Desinstalar el Agent Para eliminar un Agent ya instalado, ejecuta el siguiente comando `installp`: @@ -135,6 +135,6 @@ Nota: Los logs de desinstalación del Agent se pueden encontrar en el archivo `d {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/aix +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=aix [2]: https://github.com/DataDog/datadog-unix-agent/releases [3]: https://github.com/DataDog/datadog-unix-agent/blob/master/checks/bundled/ibm_was/README.md \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/amazonlinux.md b/content/es/agent/basic_agent_usage/amazonlinux.md index 3c5bfd297e7f4..f6758c1c410ad 100644 --- a/content/es/agent/basic_agent_usage/amazonlinux.md +++ b/content/es/agent/basic_agent_usage/amazonlinux.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -28,16 +28,16 @@ En esta página se describen las funciones básicas del Datadog Agent para Amazo Los paquetes están disponibles para arquitecturas x86 de 64 bits y Arm v8. Para otras arquitecturas, utiliza la instalación de origen. -## Commandos +## Comandos En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el sistema operativo es el responsable del ciclo de vida del Agent; sin embargo, para ejecutar otros comandos, hay que hacerlo directamente a través del archivo binario del Agent. En la versión 5 del Agent, por el contrario, casi todo se hace a través del gestor de servicios. {{< tabs >}} {{% tab "Agent v6 y v7" %}} -### Amazon Linux 2, Amazon Linux 2022/2023 +### Amazon Linux 2, Amazon Linux 2022/2023 -
Para instalar Amazon Linux 2022/2023 en las versiones del Agent 6.39/7.39 (o anteriores), es necesario el paquete libxcrypt-compat. Para instalar este paquete, ejecuta:
dnf install -y libxcrypt-compat
+
Para instalar Amazon Linux 2022/2023 en las versiones del Agent 6.39/7.39 (o anteriores), es necesario el paquete libxcrypt-compat. Para instalar este paquete, ejecuta:
dnf install -y libxcrypt-compat
| Descripción | Comando | |------------------------------------|--------------------------------------------------------| @@ -90,7 +90,7 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s ## Configuración {{< tabs >}} -{{% tab "Agent v6 & v7" %}} +{{% tab "Agent v6 y v7" %}} Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/datadog-agent/datadog.yaml` @@ -115,20 +115,71 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + + +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/datadog-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/dd-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas -Consulta la [documentación sobre cómo solucionar problemas relacionados con el Agent][2]. +Consulta la [documentación sobre cómo solucionar problemas del Agent][2]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/aws +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=aws [2]: /es/agent/troubleshooting/ -[3]: /es/developers/guide/custom-python-package/ +[3]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/ansible.md b/content/es/agent/basic_agent_usage/ansible.md index 49ae9fd756217..8c46c56b0239c 100644 --- a/content/es/agent/basic_agent_usage/ansible.md +++ b/content/es/agent/basic_agent_usage/ansible.md @@ -1,646 +1,64 @@ --- dependencies: -- https://github.com/DataDog/ansible-datadog/blob/main/README.md +- https://github.com/ansible-collections/Datadog/blob/main/README.md kind: documentación title: Ansible --- -El rol de Datadog en Ansible instala y configura el Datadog Agent y sus integraciones. La versión `4` del rol instala Datadog Agent v7 por defecto. +## Información general -## Configuración +La colección Ansible de Datadog, `datadog.dd`, es la colección oficial de contenido de Datadog relacionado con Ansible. Por el momento, solo contiene el [rol de Ansible Datadog](https://github.com/DataDog/ansible-datadog/). Se puede acceder a este rol como `datadog.dd.agent`, lo que permite instalar y configurar el Datadog Agent y las integraciones. La versión 7 del Agent se encuentra instalada por defecto. + +## Python ### Requisitos -- Requiere Ansible 2.6 o una versión posterior. -- Es compatible con la mayoría de distribuciones de Linux basadas en Debian y RHEL, con macOS y con Windows. -- Para usar Ansible 2.10 o una versión posterior en Windows, necesitas instalar la recopilación `ansible.windows`: +- Requiere Ansible 2.10 o una versión posterior. +- Compatible con la mayoría de las distribuciones de Linux basadas en RHEL, SUSE y Debian, con macOS y Windows. +- Cuando se utiliza para gestionar hosts de Windows, requiere que la colección `ansible.windows` se encuentre instalada: ```shell ansible-galaxy collection install ansible.windows ``` +- Cuando se utiliza para gestionar hosts de openSUSE/SLES, requiere que la colección `community.general` se encuentre instalada: -### Instalación - -Instala el [rol de Datadog][1] desde Ansible Galaxy en tu servidor Ansible: - -```shell -ansible-galaxy install datadog.datadog -``` - -Para desplegar el Datadog Agent en hosts, añade el rol de Datadog y tu clave de API a tu cuaderno de estrategias: - -```text -- hosts: servers - roles: - - { role: datadog.datadog, become: yes } - vars: - datadog_api_key: "" -``` - -#### Variables del rol - -| Variable | Descripción | -|--------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `datadog_api_key` | Tu clave de API de Datadog. | -| `datadog_site` | El sitio de ingesta de Datadog al que enviar los datos del Agent. Se establece por defecto como `datadoghq.com`, así que configúralo como `datadoghq.eu` para enviar los datos al sitio de la UE. Esta opción solo está disponible en versiones del Agent posteriores a la 6.6.0. | -| `datadog_agent_flavor` | Sobreescribe el paquete de Debian / RedHat predeterminado en las instalaciones IoT de la RPI. Se establece por defecto como "datadog-agent", así que usa "datadog-iot-agent" en la RPI. | -| `datadog_agent_version` | La versión anclada del Agent que hay que instalar (es opcional, pero recomendable). Ejemplo: `7.16.0`. El parámetro `datadog_agent_major_version` no es necesario si se usa `datadog_agent_version`. **Nota**: No es posible cambiar a versiones anteriores en plataformas de Windows. | -| `datadog_agent_major_version` | La versión principal del Agent que hay que instalar. Los valores posibles son 5, 6 y 7 (por defecto). Si se define `datadog_agent_version`, tiene prioridad. De lo contrario, se instala la última versión principal especificada. El parámetro `datadog_agent_major_version` no es necesario si se usa `datadog_agent_version`. | -| `datadog_checks` | Configuración YAML para aplicar los checks del Agent en:
- `/etc/datadog-agent/conf.d/.d/conf.yaml` en el Agent v6 y v7,
- `/etc/dd-agent/conf.d` en el Agent v5. | -| `datadog_disable_untracked_checks` | Configúrala como `true` para eliminar todos los checks que no estén presentes en `datadog_checks` y `datadog_additional_checks`. | -| `datadog_additional_checks` | Lista de checks adicionales que no se eliminan si se configura `datadog_disable_untracked_checks` como `true`. | -| `datadog_disable_default_checks` | Configúrala como `true` para eliminar todos los checks predeterminados. | -| `datadog_config` | Define la configuración del Datadog Agent. El rol escribe la configuración en la [ubicación correcta según el sistema operativo](https://docs.datadoghq.com/agent/guide/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file). Para ver una lista completa de opciones de configuración, consulta la [plantilla `datadog.yaml` en el repositorio de GitHub datadog-agent](https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml). | -| `datadog_config_ex` | (Opcional) Secciones INI adicionales para `/etc/dd-agent/datadog.conf` (solo para el Agent v5). | -| `datadog_apt_repo` | Sobreescribe el repositorio `apt` predeterminado de Datadog. Asegúrate de usar la opción `signed-by` si los metadatos del repositorio se firman usando las claves de firma de Datadog: `deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://yourrepo`. | -| `datadog_apt_cache_valid_time` | Sobreescribe el tiempo de expiración predeterminado de la caché de APT (1 hora, por defecto). | -| `datadog_apt_key_url_new` | Sobreescribe la ubicación desde la que se obtiene la clave `apt` de Datadog (la variable obsoleta `datadog_apt_key_url` hace referencia a una clave expirada que se ha eliminado del rol). La URL prevista debe estar formada por un conjunto de claves GPG que contenga las claves `382E94DE` y `F14F620E`. | -| `datadog_yum_repo` | Sobreescribe el repositorio `yum` predeterminado de Datadog. | -| `datadog_yum_repo_gpgcheck` | Sobreescribe el valor `repo_gpgcheck` predeterminado (vacío). Si está vacío, el valor se configura de forma dinámica como `yes` cuando no se usa el valor personalizado `datadog_yum_repo` y el sistema no es RHEL/CentOS 8.1 (debido a [un error](https://bugzilla.redhat.com/show_bug.cgi?id=1792506) en el parámetro dnf); en caso contrario, se configura como `no`. **Nota**: La verificación de la firma de los metadatos del repositorio siempre está desactivada en el Agent v5. | -| `datadog_yum_gpgcheck` | Sobreescribe el valor `gpgcheck` predeterminado (`yes`), así que usa `no` para desactivar la verificación de la firma del paquete GPG. | -| `datadog_yum_gpgkey` | **Eliminada en la versión 4.18.0** Sobreescribe la URL predeterminada por la clave `yum` de Datadog que se usa para verificar los paquetes del Agent v5 y v6 (hasta la versión 6.13). (ID de clave: `4172A230`). | -| `datadog_yum_gpgkey_e09422b3` | Sobreescribe la URL predeterminada por la clave `yum` de Datadog que se usa para verificar los paquetes del Agent v6.14 (y versiones posteriores). (ID de clave: `E09422B3`). | -| `datadog_yum_gpgkey_e09422b3_sha256sum` | Sobreescribe la suma de comprobación predeterminada de la clave `datadog_yum_gpgkey_e09422b3`. | -| `datadog_zypper_repo` | Sobreescribe el repositorio `zypper` predeterminado de Datadog. | -| `datadog_zypper_repo_gpgcheck` | Sobreescribe el valor `repo_gpgcheck` predeterminado (vacío). Si está vacío, el valor se configura de forma dinámica como `yes` cuando no se usa el valor personalizado `datadog_zypper_repo`; en caso contrario, se configura como `no`. **Nota**: La verificación de la firma de los metadatos del repositorio siempre está desactivada en el Agent v5. | -| `datadog_zypper_gpgcheck` | Sobreescribe el valor `gpgcheck` predeterminado (`yes`), así que usa `no` para desactivar la verificación de la firma del paquete GPG. | -| `datadog_zypper_gpgkey` | **Eliminada en la versión 4.18.0** Sobreescribe la URL predeterminada por la clave `zypper` de Datadog que se usa para verificar los paquetes del Agent v5 y v6 (hasta la versión 6.13). (ID de clave: `4172A230`). | -| `datadog_zypper_gpgkey_sha256sum` | **Eliminada en la versión 4.18.0** Sobreescribe la suma de comprobación predeterminada de la clave `datadog_zypper_gpgkey`. | -| `datadog_zypper_gpgkey_e09422b3` | Sobreescribe la URL predeterminada por la clave `zypper` de Datadog que se usa para verificar los paquetes del Agent v6.14 (y versiones posteriores). (ID de clave: `E09422B3`). | -| `datadog_zypper_gpgkey_e09422b3_sha256sum` | Sobreescribe la suma de comprobación predeterminada de la clave `datadog_zypper_gpgkey_e09422b3`. | -| `datadog_agent_allow_downgrade` | Configúrala como `yes` para permitir cambios a versiones anteriores del Agent en plataformas basadas en APT (pero ten cuidado; consulta `defaults/main.yml` para más detalles). **Nota**: En CentOS, esto solo funciona con Ansible 2.4 y versiones posteriores. | -| `datadog_enabled` | Configúrala como `false` para evitar que se inicie el servicio `datadog-agent` (se establece por defecto como `true`). | -| `datadog_additional_groups` | Una lista, o una cadena que contiene una lista de grupos adicionales separados entre sí por comas, para el `datadog_user` (solo en Linux). | -| `datadog_windows_ddagentuser_name` | El nombre del usuario de Windows que hay que crear/usar, en formato `\` (solo en Windows). | -| `datadog_windows_ddagentuser_password` | La contraseña usada para crear el usuario o registrar el servicio (solo en Windows). | -| `datadog_apply_windows_614_fix` | Define si se debe o no descargar y aplicar el archivo mencionado en `datadog_windows_614_fix_script_url` (solo en Windows). Consulta https://dtdg.co/win-614-fix para obtener más información. Puedes configurarla como `false` siempre que tus hosts no estén usando el Datadog Agent 6.14.\*. | -| `datadog_macos_user` | El nombre del usuario con el que hay que ejecutar el Agent. Tiene que ser un usuario existente, no se creará de forma automática. Se establece por defecto como `ansible_user` (solo en macOS). | -| `datadog_macos_download_url` | Sobreescribe la URL para descargar el instalador DMG (solo en macOS). | - -### Integraciones - -Para descargar una integración (check) de Datadog, añade una entrada en la sección `datadog_checks`. La clave de primer nivel es el nombre del check, mientras que el valor es la carga útil del YAML que hay que escribir en el archivo de configuración. A continuación, te mostramos algunos ejemplos. - -#### Check del proceso - -Para definir dos instancias del check `process`, usa la configuración de abajo. Esto creará los archivos de configuración correspondientes: - -* Agent v6 y v7: `/etc/datadog-agent/conf.d/process.d/conf.yaml` -* Agent v5: `/etc/dd-agent/conf.d/process.yaml` - -```yml - datadog_checks: - process: - init_config: - instances: - - name: ssh - search_string: ['ssh', 'sshd'] - - name: syslog - search_string: ['rsyslog'] - cpu_check_interval: 0.2 - exact_match: true - ignore_denied_access: true -``` - -#### Check personalizado - -Para configurar un check personalizado, usa la configuración de abajo. Esto creará los archivos de configuración correspondientes. - -- Agent v6 y v7: `/etc/datadog-agent/conf.d/my_custom_check.d/conf.yaml` -- Agent v5: `/etc/dd-agent/conf.d/my_custom_check.yaml` - -```yml - datadog_checks: - my_custom_check: - init_config: - instances: - - some_data: true -``` - -##### Checks personalizados de Python - -Para transferir un check de Python al cuaderno de estrategias, usa la configuración de abajo. - -Esta configuración requiere que la [estrategia y el rol][12] de Datadog sean parte de un cuaderno de estrategias más grande, en el que el valor transferido sea la ruta de archivo relativa a la tarea real en [Linux][13] o [Windows][14]. - -Esto solo está disponible para el Agent v6 (y posteriores). - -La clave debería ser el nombre del archivo creado en el directorio de checks `checks.d/{{ item }}.py`: - -```yml - datadog_checks: - my_custom_check: - init_config: - instances: - - some_data: true - datadog_custom_checks: - my_custom_check: '../../../custom_checks/my_custom_check.py' -``` - -#### Autodiscovery + ```shell + ansible-galaxy collection install community.general + ``` -Cuando se usa Autodiscovery, no se realiza ningún previo o posterior procesamiento en el YAML. Esto quiere decir que todas las secciones del YAML se añaden al archivo de configuración final, incluidos los `autodiscovery identifiers`. +### Sensitive Data Scanner -En el siguiente ejemplo, se configura el check de PostgreSQL mediante **Autodiscovery**: +Para instalar desde Ansible Galaxy, ejecuta: -```yml - datadog_checks: - postgres: - ad_identifiers: - - db-master - - db-slave - init_config: - instances: - - host: %%host%% - port: %%port%% - username: username - password: password +```shell +ansible-galaxy collection install datadog.dd ``` -Para más información sobre [Autodiscovery][3], consulta la documentación de Datadog. - -### Rastreo +La colección Ansible de Datadog también se encuentra disponible a través de [Red Hat Automation Hub](https://console.redhat.com/ansible/automation-hub/repo/published/datadog/dd/), donde está certificada oficialmente por Red Hat. -Para activar la recopilación de trazas con el Agent v6 o v7, usa la siguiente configuración: - -```yaml -datadog_config: - apm_config: - enabled: true -``` +### API -Para activar la recopilación de trazas con el Agent v5, usa la siguiente configuración: +Para desplegar el Datadog Agent en hosts, añade el rol de Datadog y tu clave de API a tu cuaderno de estrategias: ```yaml -datadog_config: - apm_enabled: "true" # has to be a string -``` - -### Live Processes - -Para activar la recopilación de [Live Processes][6] con el Agent v6 o v7, usa la siguiente configuración: - -```yml -datadog_config: - process_config: - enabled: "true" # type: string -``` - -Los posibles valores para `enabled` son: `"true"`, `"false"` (solo en la recopilación de contenedores) o `"disabled"` (que desactiva los Live Processes por completo). - -#### Variables - -Estas son las variables disponibles para los Live Processes: - -* `scrub_args`: Permite borrar los argumentos sensibles de una línea de comandos del proceso (se establece por defecto como `true`). -* `custom_sensitive_words`: Expande la lista predeterminada de palabras sensibles que utiliza el limpiador de líneas de comandos. - -#### Sondeo del sistema - -El sondeo del sistema se configura en la variable `system_probe_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `system_probe_config`. - -La herramienta [Network Performance Monitoring][7] (NPM) se configura en la variable `network_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `network_config`. - -La herramienta [Cloud Workload Security][8] se configura en la variable `runtime_security_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml` y `security-agent.yaml`, en la sección `runtime_security_config`. - -La herramienta [Universal Service Monitoring][17] (USM) se configura en la variable `service_monitoring_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `service_monitoring_config`. - -**Nota para usuarios de Windows**: Windows admite NPM con el Agent v6.27/v7.27 (y posteriores). Esta herramienta se distribuye como un componente opcional que solo se instala si `network_config.enabled` está configurado como true en el momento de instalar o actualizar el Agent. Por este motivo, las instalaciones existentes podrían requerir la desinstalación y reinstalación del Agent para instalar el componente NPM, a no ser que se actualice el Agent al mismo tiempo. - -#### Ejemplo de configuración - -```yml -datadog_config: - process_config: - enabled: "true" # type: string - scrub_args: true - custom_sensitive_words: ['consul_token','dd_api_key'] -system_probe_config: - sysprobe_socket: /opt/datadog-agent/run/sysprobe.sock -network_config: - enabled: true -service_monitoring_config: - enabled: true -runtime_security_config: - enabled: true -``` - -**Nota**: Esta configuración funciona con el Agent 6.24.1/v7.24.1 (y posteriores). Si utilizas una versión anterior del Agent, consulta la documentación acerca de [Network Performance Monitoring][9] para descubrir cómo habilitar el system-probe. - -En Linux, una vez que completes esta modificación, sigue los pasos que aparecen a continuación si instalaste una versión del Agent anterior a las versiones 6.18.0 o 7.18.0: - -1. Inicia el system-probe: `sudo service datadog-agent-sysprobe start` **Nota**: Si el contenedor de servicio no está disponible en tu sistema, ejecuta el siguiente comando: `sudo initctl start datadog-agent-sysprobe`. -2. [Reinicia el Agent][10]: `sudo service datadog-agent restart`. -3. Habilita el system-probe para que se inicie durante el arranque: `sudo service enable datadog-agent-sysprobe`. - -Para llevar a cabo una configuración manual, consulta la documentación acerca de [NPM][9]. - -#### versión 5 del Agent - -Para activar la recopilación de [Live Processes][6] con Agent v5, usa la siguiente configuración: - -```yml -datadog_config: - process_agent_enabled: true -datadog_config_ex: - process.config: - scrub_args: true - custom_sensitive_words: "," -``` - -## Versiones - -Por defecto, la versión principal actual del rol de Datadog de Ansible instala el Agent v7. Las variables `datadog_agent_version` y `datadog_agent_major_version` están disponibles para controlar la versión del Agent instalada. - -En las versiones de este rol posteriores a la v4, cuando se usa `datadog_agent_version` para anclar una versión específica del Agent, el rol genera nombres de versiones según el SO para cumplir con las normas de nomenclatura de los sistemas operativos compatibles. Ejemplo: - -- `1:7.16.0-1` para sistemas basados en Debian y SUSE -- `7.16.0-1` para sistemas basados en RedHat -- `7.16.0-1` para macOS -- `7.16.0` para Windows - -Esto hace posible dirigirse a hosts con distintos sistemas operativos en una sola ejecución de Ansible. Ejemplo: - -| Versión del Agent | Instala | Sistema | -|-------------------------------------|--------------|-----------------------| -| `datadog_agent_version: 7.16.0` | `1:7.16.0-1` | Basado en Debian y SUSE | -| `datadog_agent_version: 7.16.0` | `7.16.0-1` | Basado en RedHat | -| `datadog_agent_version: 7.16.0` | `7.16.0-1` | macOS | -| `datadog_agent_version: 7.16.0` | `7.16.0` | Windows | -| `datadog_agent_version: 1:7.16.0-1` | `1:7.16.0-1` | Basado en Debian y SUSE | -| `datadog_agent_version: 1:7.16.0-1` | `7.16.0-1` | Basado en RedHat | -| `datadog_agent_version: 1:7.16.0-1` | `7.16.0` | Windows | - -**Nota**: Si no se proporciona la versión, el rol usa `1` como epoch y `1` como número de versión. - -**Agent v5 (versión antigua)**: - -El rol de Datadog de Ansible es compatible con el Datadog Agent v5 únicamente en Linux. Para instalar el Agent v5, usa `datadog_agent_major_version: 5` para usar la última versión del Agent v5 o cambia `datadog_agent_version` a una versión específica del Agent v5. **Nota**: La variable `datadog_agent5` está obsoleta y, por tanto, se ha eliminado. - -### Repositorios - -#### Linux - -Cuando las variables `datadog_apt_repo`, `datadog_yum_repo` y `datadog_zypper_repo` no están definidas, se usan los repositorios oficiales de Datadog para la versión principal que se define en `datadog_agent_major_version`: - -| Núm. | Repositorio apt predeterminado | Repositorio yum predeterminado | Repositorio zypper predeterminado | -|---|-------------------------------------------|------------------------------------|-----------------------------------------| -| 5 | deb https://apt.datadoghq.com stable main | https://yum.datadoghq.com/rpm | https://yum.datadoghq.com/suse/rpm | -| 6 | deb https://apt.datadoghq.com stable 6 | https://yum.datadoghq.com/stable/6 | https://yum.datadoghq.com/suse/stable/6 | -| 7 | deb https://apt.datadoghq.com stable 7 | https://yum.datadoghq.com/stable/7 | https://yum.datadoghq.com/suse/stable/7 | - -Para sobreescribir este comportamiento predeterminado, cambia las variables por algo que no sea una cadena vacía. - -Si antes usabas las variables del Agent v5, usa las variables **nuevas** de abajo con el parámetro `datadog_agent_major_version` establecido como `5` o con `datadog_agent_version` anclado a una versión específica del Agent v5. - -| Anteriores | Nuevas | -|------------------------------|-----------------------| -| `datadog_agent5_apt_repo` | `datadog_apt_repo` | -| `datadog_agent5_yum_repo` | `datadog_yum_repo` | -| `datadog_agent5_zypper_repo` | `datadog_zypper_repo` | - -Desde la versión 4.9.0, la variable `use_apt_backup_keyserver` ya no existe, ya que las claves APT se obtienen a partir de https://keys.datadoghq.com. - -#### Windows - -Cuando la variable `datadog_windows_download_url` no está definida, se usa el paquete MSI oficial de Windows correspondiente a `datadog_agent_major_version`: - -| Versión del Agent | URL predeterminada del paquete MSI de Windows | -|---------------|----------------------------------------------------------------------------------| -| 6 | https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-6-latest.amd64.msi | -| 7 | https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-7-latest.amd64.msi | - -Para sobreescribir este comportamiento predeterminado, cambia esta variable por algo que no sea una cadena vacía. - -#### macOS - -Cuando la variable `datadog_macos_download_url` no está definida, se usa el paquete DMG oficial de macOS correspondiente a `datadog_agent_major_version`: - -| Versión del Agent | URL predeterminada del paquete DMG de macOS | -|---------------|--------------------------------------------------------------| -| 6 | https://s3.amazonaws.com/dd-agent/datadog-agent-6-latest.dmg | -| 7 | https://s3.amazonaws.com/dd-agent/datadog-agent-7-latest.dmg | - -Para sobreescribir el comportamiento por defecto, cambia esta variable a un valor distinto de una cadena vacía. - -### Actualización - -Para pasar del Agent v6 al v7, usa `datadog_agent_major_version: 7` para instalar la última versión o configura `datadog_agent_version` como una versión específica del Agent v7. Aplica una lógica parecida para pasar del Agent v5 al v6. - -#### Integrations (Integraciones) - -**Disponible para el Agent v6.8 (y posteriores)** - -Usa el recurso `datadog_integration` para instalar una versión específica de una integración de Datadog. Ten en cuenta que el Agent ya viene con todas las integraciones instaladas. Este comando es útil para actualizar una integración concreta sin actualizar el Agent por completo. Para más información, consulta [Gestión de integraciones][4]. - -Acciones disponibles: - -- `install`: Instala una versión específica de la integración. -- `remove`: Elimina una integración. - -##### Datadog Marketplace - -Las integraciones del [Datadog Marketplace][15] se pueden instalar con el recurso `datadog_integration`. **Nota**: Las integraciones del Marketplace se consideran "de terceros" y, por lo tanto, necesitan el parámetro `third_party: true`. Observa el siguiente ejemplo: - -##### Sintaxis - -```yml - datadog_integration: - : - action: - version: -``` - -Para instalar integraciones de terceros, establece `third_party` como true: - -```yml - datadog_integration: - : - action: - version: - third_party: true -``` - -##### Ejemplo - -Este ejemplo instala la versión `1.11.0` de la integración de ElasticSearch y elimina la integración de `postgres`. - -```yml - datadog_integration: - datadog-elastic: - action: install - version: 1.11.0 - datadog-postgres: - action: remove -``` - -Para ver las versiones disponibles de las integraciones de Datadog, consulta el archivo `CHANGELOG.md` en el [repositorio integrations-core][5]. - -### Cambiar a versiones anteriores - -Para cambiar a una versión anterior del Agent: - -1. Define `datadog_agent_version` como una versión específica. Ejemplo: `5.32.5`. -2. Configura `datadog_agent_allow_downgrade` como `yes`. - -**Notas:** - -- No es posible cambiar a versiones anteriores en plataformas con Windows. - -## Cuadernos de estrategias - -A continuación, encontrarás algunos ejemplos de cuadernos de estrategias que pueden ser útiles cuando uses el rol de Datadog de Ansible. - -El siguiente ejemplo envía datos al sitio de Datadog de EE. UU. (por defecto), activa logs, NPM y configura algunos checks. - -```yml -- hosts: servers - roles: - - { role: datadog.datadog, become: yes } - vars: - datadog_api_key: "" - datadog_agent_version: "7.16.0" - datadog_config: - tags: - - ":" - - ":" - log_level: INFO - apm_config: - enabled: true - logs_enabled: true # available with Agent v6 & v7 - datadog_checks: - process: - init_config: - instances: - - name: ssh - search_string: ['ssh', 'sshd' ] - - name: syslog - search_string: ['rsyslog' ] - cpu_check_interval: 0.2 - exact_match: true - ignore_denied_access: true - ssh_check: - init_config: - instances: - - host: localhost - port: 22 - username: root - password: - sftp_check: True - private_key_file: - add_missing_keys: True - nginx: - init_config: - instances: - - nginx_status_url: http://example.com/nginx_status/ - tags: - - "source:nginx" - - "instance:foo" - - nginx_status_url: http://example2.com:1234/nginx_status/ - tags: - - "source:nginx" - - ":" - - #Log collection is available on Agent 6 and 7 - logs: - - type: file - path: /var/log/access.log - service: myapp - source: nginx - sourcecategory: http_web_access - - type: file - path: /var/log/error.log - service: nginx - source: nginx - sourcecategory: http_web_access - # datadog_integration is available on Agent 6.8+ - datadog_integration: - datadog-elastic: - action: install - version: 1.11.0 - datadog-postgres: - action: remove - network_config: - enabled: true -``` - -### Agent v6 - -Este ejemplo instala el Agent v6 más reciente: - -```yml -- hosts: servers - roles: - - { role: datadog.datadog, become: yes } - vars: - datadog_agent_major_version: 6 - datadog_api_key: "" -``` - -### Configurar el sitio - -Si usas un sitio distinto al predeterminado, `datadoghq.com`, ajusta la variable `datadog_site` a la URL correcta (p. ej., `datadoghq.eu`, `us3.datadoghq.com`). - -Este ejemplo envía datos al sitio de la UE. - -```yml - hosts: servers - roles: - - { role: datadog.datadog, become: yes } + tasks: + - name: Import the Datadog Agent role from the Datadog collection + import_role: + name: datadog.dd.agent vars: - datadog_site: "datadoghq.eu" datadog_api_key: "" ``` -### Windows +Nota para los usuarios que instalen la colección a través de Ansible Automation Hub: la funcionalidad de OpenSUSE/SLES depende de una colección de la comunidad `community.general`. El equipo de asistencia de Red Hat no ofrece soporte para ningún problema relacionado con el contenido de la comunidad. Por lo tanto, todos los problemas de soporte de OpenSUSE/SLES se deben dirigir al equipo de asistencia de Datadog. -En Windows, elimina la opción `become: yes` para que el rol no falle. A continuación, se muestran dos métodos para hacer que los cuadernos de estrategias de ejemplo funcionen con hosts que usan Windows: +### Lista de roles de la colección -#### Archivo de inventario +- `datadog.dd.agent`: instalación y configuración del Datadog Agent. + - Consulta [la documentación oficial del rol](https://docs.datadoghq.com/agent/guide/ansible_standalone_role/#setup). + - Consulta [el repositorio del rol independiente](https://github.com/DataDog/ansible-datadog#readme). -Se recomienda usar el archivo de inventario. Configura la opción `ansible_become` como `no` en el archivo de inventario de cada host que use Windows: - -```ini -[servers] -linux1 ansible_host=127.0.0.1 -linux2 ansible_host=127.0.0.2 -windows1 ansible_host=127.0.0.3 ansible_become=no -windows2 ansible_host=127.0.0.4 ansible_become=no -``` - -Para evitar repetir la misma configuración en todos los hosts que usen Windows, agrúpalos y configura la variable en nivel de grupo: - -```ini -[linux] -linux1 ansible_host=127.0.0.1 -linux2 ansible_host=127.0.0.2 - -[windows] -windows1 ansible_host=127.0.0.3 -windows2 ansible_host=127.0.0.4 - -[windows:vars] -ansible_become=no -``` - -#### Archivo del cuaderno de estrategias - -Alternativamente, si tu cuaderno de estrategias **solo funciona en hosts con Windows**, usa lo siguiente en el archivo del cuaderno de estrategias: - -```yml -- hosts: servers - roles: - - { role: datadog.datadog } - vars: - ... -``` - -**Nota**: Esta configuración no funciona en los hosts con Linux. Úsala solo si el cuaderno de estrategias es específico para hosts con Windows. De lo contrario, decántate por el [método del archivo de inventario](#inventory-file). - -### Desinstalación - -En Windows, es posible desinstalar el Agent usando el siguiente código en tu rol de Ansible: - -```yml -- name: Check If Datadog Agent is installed - win_shell: | - (get-wmiobject win32_product -Filter "Name LIKE '%datadog%'").IdentifyingNumber - register: agent_installed_result -- name: Set Datadog Agent installed fact - set_fact: - agent_installed: "{{ agent_installed_result.stdout | trim }}" -- name: Uninstall the Datadog Agent - win_package: - product_id: "{{ agent_installed }}" - state: absent - when: agent_installed != "" -``` - -Sin embargo, si deseas tener un mayor control sobre los parámetros de desinstalación, puedes usar el código que aparece a continuación. -En este ejemplo, se añade la marca '/norestart' y se especifica una ubicación personalizada para los logs de desinstalación: - -```yml -- name: Check If Datadog Agent is installed - win_stat: - path: 'c:\Program Files\Datadog\Datadog Agent\bin\agent.exe' - register: stat_file -- name: Uninstall the Datadog Agent - win_shell: start-process msiexec -Wait -ArgumentList ('/log', 'C:\\uninst.log', '/norestart', '/q', '/x', (Get-WmiObject -Class Win32_Product -Filter "Name='Datadog Agent'" -ComputerName .).IdentifyingNumber) - when: stat_file.stat.exists == True -``` - -## Solucionar problemas - -### Debian Stretch - -**Nota:** Esta información es aplicable a las versiones del rol anteriores a la v4.9.0. El rol dejó de usar el módulo `apt_key`en la v4.9.0. - -En Debian Stretch, el módulo `apt_key` que usa el rol requiere una dependencia de sistema adicional para funcionar correctamente. Puesto que el módulo no proporciona la dependencia (`dirmngr`), añade la siguiente configuración a tus cuadernos de estrategia para usar este rol: - -```yml ---- -- hosts: all - pre_tasks: - - name: Debian Stretch requires the dirmngr package to use apt_key - become: yes - apt: - name: dirmngr - state: present - roles: - - { role: datadog.datadog, become: yes } - vars: - datadog_api_key: "" -``` - -### CentOS 6/7 con el intérprete de Python 3 y Ansible 2.10.x o una versión anterior - -El módulo `yum` de Python, que se usa en este rol para instalar el Agent en hosts basados en CentOS, solo está disponible en Python 2 si se usa Ansible 2.10.x o una versión anterior. En estos casos, habría que utilizar el gestor de paquetes `dnf`. - -Sin embargo, `dnf` y el módulo `dnf` de Python no se instalan por defecto en hosts basados en CentOS si la versión es anterior a CentOS 8. En ese caso, no es posible instalar el Agent cuando se usa un intérprete de Python 3. - -El rol falla prematuramente cuando se detecta esta situación como indicativo de que se necesita Ansible 2.11 (o una versión posterior) o un intérprete de Python 2 para instalar el Agent en una versión de CentOS/RHEL anterior a la 8. - -Para evitar esta detección de fallo prematuro (por ejemplo, si `dnf` y el paquete `python3-dnf` están disponibles en tu host), establece la variable `datadog_ignore_old_centos_python3_error` como `true`. - -### Windows - -Debido a un error crítico en las versiones del Agent `6.14.0` y `6.14.1` para Windows, la instalación de estas versiones está bloqueada (a partir de la versión `3.3.0` de este rol). - -**NOTA:** Ansible falla en Windows si `datadog_agent_version` es `6.14.0` o `6.14.1`. Usa `6.14.2` o una versión posterior. - -Si vas a pasar de la versión **6.14.0 a la 6.14.1 en Windows**, sigue estos pasos: - -1. Actualiza el rol de Ansible actual `datadog.datadog` a la versión más reciente (`>=3.3.0`). -2. Define `datadog_agent_version` como `6.14.2` o una versión posterior (por defecto, la más reciente). - -Para más detalles, consulta [Critical Bug in Uninstaller for Datadog Agent 6.14.0 and 6.14.1 on Windows][11] (Error crítico en el desinstalador del Datadog Agent 6.14.0 y 6.14.1 para Windows). - -### Error en Ubuntu 20.04 debido a service_facts - -Ejecutar el módulo `service_facts` en Ubuntu 20.04 produce el siguiente error: - -``` -localhost | FAILED! => { - "changed": false, - "msg": "Malformed output discovered from systemd list-unit-files: accounts-daemon.service enabled enabled " -} -``` +## Leer más -Para solucionarlo, [actualiza Ansible a `v2.9.8` o a una versión posterior][16]. +Más enlaces, artículos y documentación útiles: -[1]: https://galaxy.ansible.com/Datadog/datadog -[2]: https://github.com/DataDog/ansible-datadog -[3]: https://docs.datadoghq.com/es/agent/autodiscovery -[4]: https://docs.datadoghq.com/es/agent/guide/integration-management/ -[5]: https://github.com/DataDog/integrations-core -[6]: https://docs.datadoghq.com/es/infrastructure/process/ -[7]: https://docs.datadoghq.com/es/network_performance_monitoring/ -[8]: https://docs.datadoghq.com/es/security_platform/cloud_workload_security/getting_started/ -[9]: https://docs.datadoghq.com/es/network_performance_monitoring/installation/?tab=agent#setup -[10]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#restart-the-agent -[11]: https://app.datadoghq.com/help/agent_fix -[12]: https://docs.ansible.com/ansible/latest/reference_appendices/playbooks_keywords.html#playbook-keywords -[13]: https://github.com/DataDog/ansible-datadog/blob/main/tasks/agent-linux.yml -[14]: https://github.com/DataDog/ansible-datadog/blob/main/tasks/agent-win.yml -[15]: https://www.datadoghq.com/blog/datadog-marketplace/ -[16]: https://github.com/ansible/ansible/blob/stable-2.9/changelogs/CHANGELOG-v2.9.rst#id61 -[17]: https://docs.datadoghq.com/es/tracing/universal_service_monitoring/?tab=configurationfiles#enabling-universal-service-monitoring \ No newline at end of file +- [Automatiza la instalación del Agent con la colección Ansible de Datadog](https://www.datadoghq.com/blog/datadog-ansible-collection/) \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/centos.md b/content/es/agent/basic_agent_usage/centos.md index e9ee4f0af22d4..55ef7c8f386a0 100644 --- a/content/es/agent/basic_agent_usage/centos.md +++ b/content/es/agent/basic_agent_usage/centos.md @@ -13,22 +13,22 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación platform: CentOS -title: Uso básico del Agent para CentOS +title: Uso básico del Agent para CentOS (y Rocky/Alma Linux) --- ## Información general -En esta página, se describen las funciones básicas del Datadog Agent para CentOS. Si deseas instalar el Datadog Agent, sigue las [instrucciones de instalación del Agent][1] para CentOS. +En esta página se describen las características básicas del Datadog Agent para CentOS y sus derivados, Rocky Linux y Alma Linux. Para instalar el Datadog Agent, sigue las [instrucciones de instalación del Agent][1] para CentOS. Los paquetes están disponibles para arquitecturas x86 de 64 bits y Arm v8. Para otras arquitecturas, utiliza la instalación de origen. -**Nota**: Las versiones CentOS 6 y posteriores son compatibles con la arquitectura x86 de 64 bits. Las versiones CentOS 8 y posteriores son compatibles con la arquitectura Arm v8 de 64 bits. +**Nota**: CentOS 6 y sus versiones posteriores son compatibles con la arquitectura x86 de 64 bits. CentOS/Rocky/Alma 8 y sus versiones posteriores son compatibles con la arquitectura Arm v8 de 64 bits. ## Comandos @@ -54,12 +54,12 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s | Descripción | Comando | |------------------------------------|--------------------------------------------------------| -| Ejecutar el Agent como un servicio | `sudo start datadog-agent` | +| Ejecutar el Agent como servicio | `sudo start datadog-agent` | | Detener la ejecución del Agent como servicio | `sudo stop datadog-agent` | | Reiniciar la ejecución del Agent como servicio | `sudo restart datadog-agent` | | Estado del servicio Agent | `sudo status datadog-agent` | | Página de estado del Agent en ejecución | `sudo datadog-agent status` | -| Enviar un flare | `sudo datadog-agent flare` | +| Enviar flare | `sudo datadog-agent flare` | | Mostrar el uso de comandos | `sudo datadog-agent --help` | | Ejecutar un check | `sudo -u dd-agent -- datadog-agent check ` | @@ -68,18 +68,18 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s | Descripción | Comando | |------------------------------------|---------------------------------------------------| -| Ejecutar el Agent como un servicio | `sudo service datadog-agent start` | +| Ejecutar el Agent como servicio | `sudo service datadog-agent start` | | Detener la ejecución del Agent como servicio | `sudo service datadog-agent stop` | | Reiniciar la ejecución del Agent como servicio | `sudo service datadog-agent restart` | | Estado del servicio Agent | `sudo service datadog-agent status` | | Página de estado del Agent en ejecución | `sudo service datadog-agent info` | -| Enviar un flare | `sudo service datadog-agent flare` | +| Enviar flare | `sudo service datadog-agent flare` | | Mostrar el uso de comandos | `sudo service datadog-agent` | | Ejecutar un check | `sudo -u dd-agent -- dd-agent check ` | -**Nota**: Si el contenedor de servicio `service` no está disponible en tu sistema, utiliza: +**Nota**: Si el contenedor `service` no está disponible en tu sistema, utiliza: -* En sistemas basados en `upstart`: `sudo start/stop/restart/status datadog-agent` +* Para sistemas basados en `upstart`: `sudo start/stop/restart/status datadog-agent` * Para sistemas basados en `systemd`: `sudo systemctl start/stop/restart/status datadog-agent` [Obtén más información sobre los comandos del ciclo de vida del servicio][2] @@ -91,7 +91,7 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s ## Configuración {{< tabs >}} -{{% tab "Agent v6 & v7" %}} +{{% tab "Agent v6 y v7" %}} Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/datadog-agent/datadog.yaml` @@ -104,7 +104,7 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{% tab "Agent v5" %}} -Los archivos y carpetas de configuración para el Agent se encuentran en: +Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/dd-agent/datadog.conf` @@ -116,20 +116,71 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + + +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/datadog-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/dd-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas -Consulta la [documentación sobre cómo solucionar problemas relacionados con el Agent][2]. +Consulta la [documentación sobre cómo solucionar problemas del Agent][2]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/centos +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=centos [2]: /es/agent/troubleshooting/ [3]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/deb.md b/content/es/agent/basic_agent_usage/deb.md index 4cf9a7f43b032..cc9fa564ad71f 100644 --- a/content/es/agent/basic_agent_usage/deb.md +++ b/content/es/agent/basic_agent_usage/deb.md @@ -15,8 +15,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -104,21 +104,65 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} +```shell +sudo apt-get remove datadog-agent -y +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo apt-get remove --purge datadog-agent -y +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo apt-get remove datadog-agent -y +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo apt-get --purge remove datadog-agent -y +``` +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas Consulta la [documentación sobre cómo solucionar problemas del Agent][3]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/debian +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=debian [2]: /es/agent/faq/agent-v6-changes/?tab=linux#service-lifecycle-commands [3]: /es/agent/troubleshooting/ [4]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/fedora.md b/content/es/agent/basic_agent_usage/fedora.md index 70f4a7bdbfa9f..997ff8948358d 100644 --- a/content/es/agent/basic_agent_usage/fedora.md +++ b/content/es/agent/basic_agent_usage/fedora.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -100,20 +100,71 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + + +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/datadog-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo yum remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/dd-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas Consulta la [documentación sobre cómo solucionar problemas del Agent][2]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/fedora +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=fedora [2]: /es/agent/troubleshooting/ [3]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/heroku.md b/content/es/agent/basic_agent_usage/heroku.md new file mode 100644 index 0000000000000..9931d1c1b0f5b --- /dev/null +++ b/content/es/agent/basic_agent_usage/heroku.md @@ -0,0 +1,572 @@ +--- +aliases: +- /es/developers/faq/how-do-i-collect-metrics-from-heroku-with-datadog +dependencies: +- https://github.com/DataDog/heroku-buildpack-datadog/blob/master/README.md +kind: documentación +title: Paquete de compilación de Heroku de Datadog +--- +Este [paquete de compilación de Heroku][1] instala el Datadog Agent en tu dyno de Heroku para recopilar métricas del sistema, métricas personalizadas de la aplicación y trazas (traces). Si quieres recopilar métricas personalizadas de la aplicación o trazas, debes incluir la [biblioteca de DogStatsD o Datadog APM][2] apropiada según el lenguaje en tu aplicación. + +## Instalación + +En esta guía, se da por sentado que ya ejecutas tu aplicación en Heroku. Consulta la documentación de Heroku para obtener más información acerca de cómo puedes desplegar tu aplicación en Heroku. + +1. Ve a los [parámetros de la API de Datadog][3] y copia tu clave de API de Datadog. Luego, expórtala a una variable de entorno: + + ```shell + export DD_API_KEY= + ``` + +2. Exporta el nombre de tu aplicación a la variable de entorno APPNAME: + + ```shell + export APPNAME= + ``` + +3. Exporta tu sitio de Datadog a la variable de entorno DD_SITE: + + ```shell + export DD_SITE={{< region-param key=dd_site code="true" >}} + ``` + +4. Añade el paquete de compilación de Datadog a tu proyecto: + + ```shell + cd + + # Enable Heroku Labs Dyno Metadata to set HEROKU_APP_NAME env variable automatically + heroku labs:enable runtime-dyno-metadata -a $APPNAME + + # Set hostname in Datadog as appname.dynotype.dynonumber for metrics continuity + heroku config:add DD_DYNO_HOST=true + + # Set the DD_SITE env variable automatically + heroku config:add DD_SITE=$DD_SITE + + # Add this buildpack and set your Datadog API key + heroku buildpacks:add --index 1 https://github.com/DataDog/heroku-buildpack-datadog.git + heroku config:add DD_API_KEY=$DD_API_KEY + + # Deploy to Heroku forcing a rebuild + git commit --allow-empty -m "Rebuild slug" + git push heroku main + ``` + +Al finalizar este proceso, el Datadog Agent se inicia automáticamente tan pronto como se inician los dynos. + +El Datadog Agent proporciona un puerto de escucha en `8125` para las métricas y eventos de statsd/dogstatsd. Las trazas se recopilan en el puerto `8126`. + +### Orden de los paquetes de compilación +Tal y como se explica en la sección [Viewing buildpacks][4] (Cómo consultar los paquetes de compilación) de la documentación de Heroku, el último paquete de la lista se usa para determinar el tipo de proceso más adecuado para la aplicación. + +Los paquetes de compilación que instalan paquetes APT, como [heroku-buildpack-apt][5] o [puppeteer-heroku-buildpack][6], o los que modifican la carpeta `/app`, como [heroku-buildpack-monorepo][7], hay que añadirlos **antes** que el de Datadog. Por ejemplo, si tu aplicación utiliza los paquetes de compilación `ruby`, `datadog` y `apt`, los `heroku buildpacks` podrían ordenarse así: + +```text +1. https://github.com/heroku/heroku-buildpack-apt.git +2. https://github.com/DataDog/heroku-buildpack-datadog.git +3. heroku/ruby +``` + +## Anclar una versión concreta del paquete de compilación y del Datadog Agent + +Heroku recomienda usar siempre la última confirmación disponible de un paquete de compilación. Si necesitas anclar la versión del paquete de compilación, puedes hacerlo definiendo su etiqueta (tag) de lanzamiento: + +``` +heroku buildpacks:add --index 1 https://github.com/DataDog/heroku-buildpack-datadog.git# +``` + +Reemplaza `` por el [lanzamiento del paquete de compilación][8] que quieras usar. + +El paquete de compilación ancla de forma predeterminada la última versión del Datadog Agent disponible en el momento del lanzamiento. No obstante, si quieres, puedes configurar la variable de entorno `DD_AGENT_VERSION` para anclar una versión anterior del Agent. + +## Actualización y recompilación de slug + +Para actualizar este paquete de compilación o modificar algunas de sus opciones, tendrás que volver a compilar slug. + +Las siguientes opciones exigen una recompilación de slug: + +* `DD_AGENT_VERSION` +* `DD_AGENT_MAJOR_VERSION` +* `DD_PYTHON_VERSION` +* `DD_APM_ENABLED` +* `DD_PROCESS_AGENT` + +Para actualizar este paquete de compilación o cambiar cualquiera de estas opciones, como `DD_AGENT_VERSION`, hay que seguir los siguientes pasos: + +```shell +# Set new version of the Agent +heroku config:set DD_AGENT_VERSION= -a + +# Rebuild your slug with the new Agent version: +git commit --allow-empty -m "Rebuild slug" +git push heroku main +``` + +## Configuración + +Además de las variables de entorno arriba mencionadas, puedes definir muchas otras: + +| Parámetro | Descripción | +|----------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `DD_API_KEY` | *Obligatorio.* Tu clave de API está disponible en la página [Organization Settings -> API Keys][3] (Parámetros de organización -> Claves de API). **Nota**: Nos referimos a la clave de *API*, no a la clave de aplicación. | +| `DD_HOSTNAME` | *Opcional.* **ATENCIÓN**: Definir el nombre de host manualmente puede dar lugar a errores de continuidad en las métricas. Por tanto, *no es recomendable* que definas esta variable. Puesto que los hosts de los dynos son efímeros, es mejor que los monitorices tomando como base las etiquetas `dynoname` o `appname`. | +| `DD_DYNO_HOST` | *Opcional.* Establécelo como `true` para usar el nombre del dyno (p. ej., `web.1` o `run.1234`) como nombre de host. Para más información, consulta la [sección dedicada al nombre de host](#hostname) que encontrarás más abajo. Se establece por defecto como `false`. | +| `DD_TAGS` | *Opcional.* Define etiquetas adicionales y las presenta en forma de una cadena cuyos elementos se separan entre sí por espacios (**Nota**: hasta la versión `1.16` del paquete de compilación, los elementos se separan por comas; este formato se sigue admitiendo para garantizar la compatibilidad con versiones anteriores). Ejemplo: `heroku config:set DD_TAGS="simple-tag-0 tag-key-1:tag-value-1"`. El paquete de compilación añade automáticamente las etiquetas `dyno` (que representa el nombre del dyno, como `web.1`) y `dynotype` (que representa el tipo de dyno, como `run` o `web`). Para más información, consulta la [guía de etiquetado][10]. | +| `DD_VERSION` | *Opcional.* Define la versión de tu aplicación. Se usa para organizar las trazas en función de la versión. | +| `DD_HISTOGRAM_PERCENTILES` | *Opcional.* Tienes la posibilidad de establecer más percentiles para las métricas de tu histograma. Consulta la documentación acerca de [cómo representar los percentiles de forma gráfica][11]. | +| `DISABLE_DATADOG_AGENT` | *Opcional.* Cuando está activado, no se ejecuta el Datadog Agent. | +| `DD_APM_ENABLED` | *Opcional.* La recopilación de trazas está habilitada por defecto. Establece este parámetro como `false` para deshabilitarla. Si quieres cambiar esta opción, tendrás que volver a compilar slug. Para más detalles, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). | +| `DD_PROCESS_AGENT` | *Opcional.* El Agent de proceso de Datadog está desactivado de forma predeterminada. Establece este parámetro como `true` para activar el Agent de proceso. Si quieres cambiar esta opción, tendrás que volver a compilar slug. Para más detalles, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). | +| `DD_SITE` | *Opcional.* Si utilizas el servicio app.datadoghq.eu, establece este parámetro como `datadoghq.eu`. Se establece por defecto como `datadoghq.com`. | +| `DD_AGENT_VERSION` | *Opcional.* El paquete de compilación instala de forma predeterminada la última versión 6.x del Datadog Agent que esté disponible en el repositorio del paquete. Usa esta variable para instalar versiones anteriores del Datadog Agent. **Nota**: Es posible que no todas las versiones del Agent estén disponibles. Esta opción tendrá prioridad sobre `DD_AGENT_MAJOR_VERSION`. Si quieres cambiarla, tendrás que volver a compilar slug. Para más detalles, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). | +| `DD_AGENT_MAJOR_VERSION` | *Opcional.* El paquete de compilación instala de forma predeterminada la última versión 7.x del Datadog Agent que esté disponible en el repositorio del paquete. Establece esta variable como `6` para instalar la versión 6.x más reciente del Datadog Agent. Consulta la [sección dedicada a las versiones de Python.](#python-and-agent-versions) para obtener más información sobre la relación entre la versión del Agent y la de Python. Si quieres cambiar esta opción, tendrás que volver a compilar slug. Para más detalles, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). | +| `DD_DISABLE_HOST_METRICS` | *Opcional.* El paquete de compilación notifica de forma predeterminada las métricas del sistema del equipo host que ejecuta el dyno. Establece este parámetro como `true` para desactivar la recopilación de métricas del sistema. Para más información, consulta la [sección dedicada a las métricas del sistema](#system-metrics) que encontrarás más abajo. | +| `DD_PYTHON_VERSION` | *Opcional.* A partir de la versión `6.14.0`, el Datadog Agent está incluido en las versiones `2` y `3` de Python. El paquete de compilación, por su parte, solo conserva una de estas versiones. Establece este parámetro como `2` o `3` para seleccionar la versión de Python que prefieras que conserve el Agent. Si no lo haces, el paquete de compilación se decantará por `2`. Consulta la [sección dedicada a las versiones de Python](#python-and-agent-versions) para obtener más información. Si quieres cambiar esta opción, tendrás que volver a compilar slug. Para más detalles, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). | +| `DD_HEROKU_CONF_FOLDER` | *Opcional.* El paquete de compilación busca de forma predeterminada una carpeta `/datadog` en la raíz de tu aplicación para localizar los archivos de configuración que desees incluir. Consulta el [script prerun.sh](#prerun-script). Esta localización puede anularse si estableces este parámetro como tu ruta de preferencia. | +| `DD_ENABLE_HEROKU_REDIS` | *Opcional.* Defínela como true para permitir la detección automática de la integración de Redis. Consulta la [sección Cómo habilitar la integración de Redis con Datadog](#enabling-the-datadog-redis-integration) para conocer más detalles. | +| `DD_REDIS_URL_VAR` | *Opcional.* La detección automática de la integración de Redis utiliza de forma predeterminada la cadena de conexión almacenada en `REDIS_URL`. Para anularla, establece esta variable como una lista de nombres de variables, separadas entre sí por comas, que almacenen las cadenas de conexión. Consulta la [sección Cómo habilitar la integración de Redis con Datadog](#enabling-the-datadog-redis-integration) para conocer más detalles. | +| `DD_ENABLE_HEROKU_POSTGRES` | *Opcional.* Defínela como true para permitir la detección automática de la integración de Postgres. Consulta la [sección Cómo habilitar la integración de Postgres con Datadog](#enabling-the-datadog-postgres-integration) para conocer más detalles. | +| `DD_POSTGRES_URL_VAR` | *Opcional.* La detección automática de la integración de Postgres utiliza de forma predeterminada la cadena de conexión almacenada en `DATABASE_URL`. Para anularla, establece esta variable como una lista de nombres de variables, separadas entre sí por comas, que almacenen las cadenas de conexión. Consulta la [sección Cómo habilitar la integración de Postgres con Datadog](#enabling-the-datadog-redis-integration) para conocer más detalles. | +| `DD_ENABLE_DBM` | *Opcional.* Si habilitas la integración de Postgres con Datadog siguiendo [esta guía](#enabling-the-datadog-postgres-integration), debes establecer `DD_ENABLE_DBM` en `true` para habilitar la Monitorización de bases de datos. | + +Más documentación disponible en la página dedicada al [Datadog Agent][12]. + +## Nombre de host + +Los dynos de Heroku son efímeros, es decir, pueden transferirse a otros equipos host cada vez que se despliegue código nuevo, que se realicen cambios de configuración o que cambie el requisito o disponibilidad de algún recurso. Esta circunstancia hace que Heroku sea una herramienta flexible y adaptable, pero también puede provocar que se notifique un gran número de hosts en Datadog. Dado que la facturación de Datadog depende del número de hosts y que el paquete de compilación informa por defecto del número de hosts existentes, cabe la posibilidad de que los costes sean más elevados de lo previsto. + +Según cuál sea tu caso de uso, puede que te interese definir un nombre de host para agregar hosts y notificar una cantidad más reducida de hosts. Para hacer esto, establece `DD_DYNO_HOST` como `true`. Así, el Agent notificará el nombre de host como nombre de la aplicación y del dyno (p. ej., `appname.web.1` o `appname.run.1234`), de modo que tu count de hosts se aproximará al uso que hagas del dyno. Uno de los inconvenientes es que quizás te encuentres con algunos errores en la continuidad de las métricas cada vez que un dyno entre en un ciclo. + +Para que esto funcione como es debido, hay que definir el parámetro `HEROKU_APP_NAME`. La forma más sencilla de hacerlo consiste en [habilitar los metadatos del dyno][13]. **Nota**: Los metadatos del dyno aún no están disponibles en los espacios privados, de modo que tienes que definir `HEROKU_APP_NAME` manualmente. + +## Deshabilita el Datadog Agent en los dynos de corta duración + +De forma predeterminada, el Datadog Agent se ejecuta en todos los dynos que forman parte de la aplicación, a saber: `scheduler`, `release` o `run`. En muchos casos, las métricas de estos dynos no son necesarias, por lo que conviene deshabilitar el Datadog Agent. + +Para deshabilitar el Datadog Agent según el tipo de dyno, adapta el siguiente fragmento de código a los tipos de dyno que no desees monitorizar y añádelo a tu [script prerun.sh](#prerun-script): + +```shell +# Disable the Datadog Agent based on dyno type +if [ "$DYNOTYPE" == "run" ] || [ "$DYNOTYPE" == "scheduler" ] || [ "$DYNOTYPE" == "release" ]; then + DISABLE_DATADOG_AGENT="true" +fi +``` + +## Métricas del sistema + +El paquete de compilación recopila de forma predeterminada las métricas del sistema del equipo host que ejecuta el dyno. Con este paquete de recopilación, no se puede acceder a las métricas del sistema de un dyno en concreto. Para deshabilitar la recopilación de métricas del sistema del host, establece la variable de entorno `DD_DISABLE_HOST_METRICS` como `true`. + +Para recopilar las métricas del sistema de tus dynos, debes: + +1. habilitar [Heroku Labs: log-runtime-metrics][14], +2. usar la [purga de logs de Datadog][15] para recopilar logs de métricas del enrutador Logplex de Heroku y desviarlos a Datadog, y +3. generar [métricas basadas en logs][16] a partir de los logs recopilados. + +## Localizaciones de los archivos + +* El Datadog Agent está instalado en `/app/.apt/opt/datadog-agent` +* Los archivos de configuración del Datadog Agent están en `/app/.apt/etc/datadog-agent` +* Los logs del Datadog Agent están en `/app/.apt/var/log/datadog` + +## Habilitar integraciones + +### Cómo habilitar la integración de Redis con Datadog + +Si usas un complemento de Redis en tu aplicación de Heroku (p. ej., Heroku Data for Redis o Redis Enterprise Cloud), puedes habilitar la integración de Redis con Datadog definiendo una variable de entorno: + +``` +heroku config:set DD_ENABLE_HEROKU_REDIS=true +``` + +Con esta integración, se da por hecho que se ha definido la URL de conexión de Redis en una variable de entorno denominada `REDIS_URL` (configuración predeterminada de Heroku Data for Redis y otros complementos de Redis). + +Si tu URL de conexión se define en una variable de entorno distinta o si quieres configurar más de una instancia de Redis, establece la variable de entorno `DD_REDIS_URL_VAR` como nombres de variables separados por comas de tus cadenas de conexión. Por ejemplo, si utilizas tanto Heroku para Redis como Redis Enterprise Cloud, establece `DD_REDIS_URL_VAR` como corresponda: + +``` +heroku config:set REDIS_URL="redis://aaaaa:bbbbb@redis-url" +heroku config:set REDISCLOUD_URL="redis://xxxxx:yyyyy@redis-cloud-url" + +# This env var must point to other env vars. +heroku config:set DD_REDIS_URL_VAR=REDIS_URL,REDISCLOUD_URL +``` + +### Cómo habilitar la integración de Postgres con Datadog + +Si usas un complemento de Postgres en tu aplicación de Heroku (p. ej., Heroku Postgres), puedes habilitar la integración de Postgres con Datadog definiendo una variable de entorno: + +``` +heroku config:set DD_ENABLE_HEROKU_POSTGRES=true +``` + +Con esta integración, se da por hecho que se ha definido la URL de conexión de Postgres en una variable de entorno denominada `DATABASE_URL` (configuración predeterminada de Heroku Postgres y otros complementos de Postgres). + +Si tu URL de conexión se define en una variable de entorno distinta o si quieres configurar más de una instancia de Postgres, establece la variable de entorno `DD_POSTGRES_URL_VAR` como nombres de variables separados por comas de tus cadenas de conexión. Por ejemplo, si tienes dos instancias de Postgres y las cadenas de conexión se almacenan en `POSTGRES_URL1` y `POSTGRES_URL2`, establece `DD_POSTGRES_URL_VAR` como corresponda: + +``` +heroku config:set POSTGRES_URL1="postgres://aaaaa:bbbbb@postgres-url-1:5432/dbname" +heroku config:set POSTGRES_URL2="postgres://xxxxx:yyyyy@postgres-url-2:5432/dbname" + +# This env var must point to other env vars. +heroku config:set DD_POSTGRES_URL_VAR=POSTGRES_URL1,POSTGRES_URL2 +``` + +Con el fin de habilitar la [Monitorización de bases de datos][17] para tus instancias de Postgres, concede al Agent acceso a la base de datos siguiendo [estas instrucciones][18], y establece `DD_ENABLE_DBM` en true: + +``` +heroku config:set DD_ENABLE_DBM=true +``` + +La Monitorización de bases de datos requiere la creación de credenciales de base de datos para el Datadog Agent, por lo tanto, DBM no se encuentra disponible en los planes de Heroku Postgres Essential Tier. + +### Cómo habilitar otras integraciones + +Para habilitar cualquier [integración de Datadog][19]: + +* Crea una carpeta `datadog/conf.d` en tu aplicación. +* Para cada integración que quieras habilitar, crea una carpeta `.d`. +* En esa carpeta, crea un archivo `conf.yaml` con la [configuración de la integración][20]. + +Tus archivos YAML se copiarán en los directorios de configuración apropiados del Datadog Agent durante el inicio del dyno. + +Por ejemplo, para habilitar la [integración de Memcache con Datadog][21], añade el archivo `/datadog/conf.d/mcache.d/conf.yaml` (o `/$DD_HEROKU_CONF_FOLDER/conf.d/mcache.d/conf.yaml`, en caso de que hayas cambiado esta [opción de configuración](#configuration)) en la raíz de tu aplicación: + +```yaml +init_config: + +instances: + ## @param url - string - required + ## url used to connect to the Memcached instance. + # + - url: localhost +``` + +**Nota**: Consulta el archivo [mcache.d/conf.yaml][22] de muestra para ver todas las opciones de configuración disponibles. + +### Integraciones de la comunidad + +Si la integración que vas a habilitar es una de las [integraciones de la comunidad][23], instala el paquete como parte del [script prerun](#prerun-script). + +``` +agent-wrapper integration install -t datadog-== +``` + +Por ejemplo, para instalar la [integración de Ping][24], crea el archivo de configuración `datadog/conf.d/ping.d/conf.yaml` y añade la siguiente línea a tu script prerun: + +``` +agent-wrapper integration install -t datadog-ping==1.0.0 +``` + +### Cómo deshabilitar las integraciones basadas en dynos + +Todos los dynos terminarán compartiendo el sistema de archivos de una aplicación de Heroku. Por tanto, si habilitas una integración, se ejecutará en todos los dynos, como `run` o `worker`. En caso de que quieras limitar las ejecuciones de la integración según el nombre o tipo de dyno, puedes hacerlo añadiendo un pequeño fragmento de código en el [script prerun](#prerun-script). + +Por ejemplo, si la integración de Gunicorn necesita ejecutarse únicamente en los dynos de tipo `web`, añade lo siguiente a tu script prerun: + +``` +if [ "$DYNOTYPE" != "web" ]; then + rm -f "$DD_CONF_DIR/conf.d/gunicorn.d/conf.yaml" +fi +``` + +## Habilitar los checks personalizados + +Para habilitar tus propios [checks personalizados del Agent][25], crea una carpeta `checks.d` dentro de la carpeta de configuración de Datadog de tu aplicación. A continuación, copia todos los archivos `.py` y `.yaml` de tus checks personalizados en esa carpeta. Tus archivos se copiarán en los directorios de configuración apropiados del Datadog Agent durante el inicio del dyno. + +Por ejemplo, si tienes dos checks personalizados, `foo` y `bar`, el árbol de carpetas debería ser así: + +``` +. +└── app + └── datadog + └── checks.d + ├── foo.py + ├── foo.yaml + ├── bar.py + └── bar.yaml + +``` + +## Script prerun + +Además de todas las configuraciones anteriores, también puedes incluir un script prerun (`/datadog/prerun.sh`) en tu aplicación. El script prerun se ejecuta una vez que se han procesado todas las acciones de configuración estándar y justo antes de iniciar el Datadog Agent. Así, puedes modificar las variables de entorno (p. ej., DD_TAGS o DD_VERSION), realizar configuraciones adicionales, instalar integraciones de la comunidad o incluso deshabilitar el Datadog Agent mediante programación. + +En el siguiente ejemplo, te mostramos algunas de las cosas que puedes hacer en el script `prerun.sh`: + +```shell +#!/usr/bin/env bash + +# Disable the Datadog Agent based on dyno type +if [ "$DYNOTYPE" == "run" ]; then + DISABLE_DATADOG_AGENT="true" +fi + +# Disable integrations based on dyno type +if [ "$DYNOTYPE" != "web" ]; then + rm -f "$DD_CONF_DIR/conf.d/gunicorn.d/conf.yaml" +fi + +# Set app version based on HEROKU_SLUG_COMMIT +if [ -n "$HEROKU_SLUG_COMMIT" ]; then + DD_VERSION=$HEROKU_SLUG_COMMIT +fi + +# Install the "ping" community integration +agent-wrapper integration install -t datadog-ping==1.0.0 +``` + +## Limitar los resultados de la consola de Datadog + +En algunos casos, puede que te interese limitar la cantidad de logs que el paquete de compilación de Datadog escribe en la consola. + +Para limitar los resultados en forma de logs del paquete de compilación, establece la variable de entorno `DD_LOG_LEVEL` como una de las siguientes: `TRACE`, `DEBUG`, `INFO`, `WARN`, `ERROR`, `CRITICAL`, `OFF`. + +```shell +heroku config:add DD_LOG_LEVEL=ERROR +``` + +## Archivos binarios opcionales + +Para ahorrar espacio de slug, se eliminan los archivos binarios opcionales `trace-agent` y `process-agent` durante la compilación si `DD_APM_ENABLED` consta como `false`, o si `DD_PROCESS_AGENT` consta como `false` o no está establecido. + +Para reducir el tamaño de tu slug, asegúrate de que `DD_APM_ENABLED` conste como `false` (siempre que no uses las funciones de APM) y de que `DD_PROCESS_AGENT` no conste como `true` (siempre que no uses la monitorización de procesos). + +## Depuración + +Para ejecutar cualquier [comando de información o depuración][26], utiliza el comando `agent-wrapper`. + +Por ejemplo, para mostrar el estado de tu Datadog Agent y las integraciones habilitadas, ejecuta lo siguiente: + +```shell +agent-wrapper status +``` + +## Versiones de Python y del Agent + +Antes de lanzar la versión `6.14`, el Datadog Agent v6 estaba integrado en la versión `2` de Python. A partir de la versión `6.14`, y a modo de preparación de cara al final del ciclo de vida de la versión `2` de Python, programado para enero de 2020, el Datadog Agent v6 pasó a incluirse en las versiones `2` y `3` de Python para que los clientes tuviesen tiempo suficiente para migrar sus checks personalizados a la versión `3` de Python. El paquete de compilación de Heroku, por su parte, solo conserva una de estas versiones. Establece `DD_PYTHON_VERSION` como `2` o `3` para seleccionar la versión de Python que prefieres que conserve el Agent. De lo contrario, el paquete de compilación se decantará por la versión `2` de Python. Si los checks personalizados que utilizas solo son compatibles con la versión `2` de Python, mígralos a la versión `3` antes de que termine su ciclo de vida. + +El Agent v7 solo está incluido en la versión `3` de Python. Si no utilizas checks personalizados o si tus checks personalizados ya han migrado a la versión `3`, pásate al Agent v7 cuanto antes. A partir de la versión `6.15`, los lanzamientos de v7 que tienen esa versión secundaria comparten las mismas funciones, lo que te permite pasar de la una a la otra de forma segura. Es decir, si ejecutas la versión `6.16` y no te hace falta la versión `2` de Python, puedes pasarte a la `7.16` con total seguridad. + +## Recopilación de logs de Heroku + +El paquete de compilación de Datadog no recopila logs de la plataforma de Heroku. Para configurar la recopilación de logs de Heroku, consulta la [guía dedicada a este tema][15]. + +## Usar Heroku con imágenes de Docker + +Este paquete de compilación solo funciona en los despliegues de Heroku en los que se utiliza el [compilador de slug de Heroku][27]. Si vas a desplegar tu aplicación en Heroku con contenedores de Docker: + +1. Añade el Datadog Agent como parte de tu imagen de Docker e inicia el Agent como un proceso diferente en tu contenedor. +2. Establece la siguiente opción de configuración en tu aplicación de Heroku para asegurarte de que Datadog la notifique correctamente como un dyno de Heroku: + +```shell +heroku config:add DD_HEROKU_DYNO=true +``` + +Por ejemplo, si vas a crear tu imagen de Docker con un SO basado en Debian, añade estas líneas a tu `Dockerfile`: + +``` +# Install GPG dependencies +RUN apt-get update \ + && apt-get install -y gnupg apt-transport-https gpg-agent curl ca-certificates + +# Add Datadog repository and signing keys +ENV DATADOG_APT_KEYRING="/usr/share/keyrings/datadog-archive-keyring.gpg" +ENV DATADOG_APT_KEYS_URL="https://keys.datadoghq.com" +RUN sh -c "echo 'deb [signed-by=${DATADOG_APT_KEYRING}] https://apt.datadoghq.com/ stable 7' > /etc/apt/sources.list.d/datadog.list" +RUN touch ${DATADOG_APT_KEYRING} +RUN curl -o /tmp/DATADOG_APT_KEY_CURRENT.public "${DATADOG_APT_KEYS_URL}/DATADOG_APT_KEY_CURRENT.public" && \ + gpg --ignore-time-conflict --no-default-keyring --keyring ${DATADOG_APT_KEYRING} --import /tmp/DATADOG_APT_KEY_CURRENT.public +RUN curl -o /tmp/DATADOG_APT_KEY_C0962C7D.public "${DATADOG_APT_KEYS_URL}/DATADOG_APT_KEY_C0962C7D.public" && \ + gpg --ignore-time-conflict --no-default-keyring --keyring ${DATADOG_APT_KEYRING} --import /tmp/DATADOG_APT_KEY_C0962C7D.public +RUN curl -o /tmp/DATADOG_APT_KEY_F14F620E.public "${DATADOG_APT_KEYS_URL}/DATADOG_APT_KEY_F14F620E.public" && \ + gpg --ignore-time-conflict --no-default-keyring --keyring ${DATADOG_APT_KEYRING} --import /tmp/DATADOG_APT_KEY_F14F620E.public +RUN curl -o /tmp/DATADOG_APT_KEY_382E94DE.public "${DATADOG_APT_KEYS_URL}/DATADOG_APT_KEY_382E94DE.public" && \ + gpg --ignore-time-conflict --no-default-keyring --keyring ${DATADOG_APT_KEYRING} --import /tmp/DATADOG_APT_KEY_382E94DE.public + + +# Install the Datadog Agent +RUN apt-get update && apt-get -y --force-yes install --reinstall datadog-agent + +# Copy entrypoint +COPY entrypoint.sh / + +# Expose DogStatsD and trace-agent ports +EXPOSE 8125/udp 8126/tcp + +# Copy your Datadog configuration +COPY datadog-config/ /etc/datadog-agent/ + +CMD ["/entrypoint.sh"] +``` + +En el punto de entrada de tu contenedor de Docker, inicia el Datadog Agent, el APM Agent de Datadog y el Agent de proceso de Datadog: + +``` +#!/bin/bash + +datadog-agent run & +/opt/datadog-agent/embedded/bin/trace-agent --config=/etc/datadog-agent/datadog.yaml & +/opt/datadog-agent/embedded/bin/process-agent --config=/etc/datadog-agent/datadog.yaml +``` + +Para obtener más opciones avanzadas en la imagen de Docker, consulta los [archivos de Docker del Datadog Agent][28]. + +## Contribuir + +Consulta las [directrices de contribución][29] para informarte acerca de cómo se abre una incidencia o PR en el [repositorio Heroku-buildpack-datadog][30]. + +## Historial + +Las versiones anteriores de este proyecto se bifurcaron a partir del [proyecto miketheman/heroku-buildpack-datadog][31]. Se reescribió en gran medida para la versión 6 del Datadog Agent. Para ver los cambios y obtener más información, consulta el [log de cambios][32]. + +## Solucionar problemas + +### Cómo obtener el estado del Agent + +Si has configurado el paquete de compilación y no obtienes algunos de los datos que esperabas en Datadog, puedes ejecutar el comando de estado para que el Datadog Agent te ayude a encontrar la causa. + +```shell +# Export the name of your Heroku application as an environment variable +export APPNAME=your-application-name + +heroku ps:exec -a $APPNAME + +# Establishing credentials... done +# Connecting to web.1 on ⬢ ruby-heroku-datadog... +# DD_API_KEY environment variable not set. Run: heroku config:add DD_API_KEY= +# The Datadog Agent has been disabled. Unset the DISABLE_DATADOG_AGENT or set missing environment variables. + +~ $ +``` + +Puedes ignorar las advertencias que indican que no se ha configurado DD_API_KEY. Aunque [Heroku no establezca las variables de configuración de la sesión de SSH](https://devcenter.heroku.com/articles/exec#environment-variables), el proceso del Datadog Agent podrá acceder a ellas sin problema. + +Una vez que estés en la sesión de SSH, ejecuta el comando de estado de Datadog. + +```shell +~ $ agent-wrapper status + +Getting the status from the agent. + +=============== +Agent (v7.27.0) +=============== + +[...] + +``` + +### Depuración + +#### No hay datos en Datadog + +Asegúrate de que el comando `status` se ejecuta correctamente y de que tu clave de API figura como válida en la sección de este ejemplo: + +``` + API Keys status + =============== + API key ending with 68306: API Key valid +``` + +#### Comprueba las integraciones + +Para comprobar si la integración que has habilitado se ejecuta correctamente, fíjate en la sección `Collector` y verifica si tu check se está ejecutando como es debido: + +``` +========= +Collector +========= + + Running Checks + ============== + +[...] + postgres (5.4.0) + ---------------- + Instance ID: postgres:e07ef94b907fe733 [OK] + Configuration Source: file:/app/.apt/etc/datadog-agent/conf.d/postgres.d/conf.yaml + Total Runs: 4,282 + Metric Samples: Last Run: 15, Total: 64,230 + Events: Last Run: 0, Total: 0 + Service Checks: Last Run: 1, Total: 4,282 + Average Execution Time : 43ms + Last Execution Date : 2021-05-13 08:15:46 UTC (1620893746000) + Last Successful Execution Date : 2021-05-13 08:15:46 UTC (1620893746000) + metadata: + version.major: 13 + version.minor: 2 + version.patch: 0 + version.raw: 13.2 (Ubuntu 13.2-1.pgdg20.04+1) + version.scheme: semver +``` + +#### Comprueba el APM Agent + +Si has instrumentado tu aplicación para adaptarla a APM y no obtienes trazas (traces) en Datadog, puedes comprobar si el APM Agent se ejecuta correctamente y si recopila trazas: + +``` +[...] +========= +APM Agent +========= + Status: Running + Pid: 63 + Uptime: 64702 seconds + Mem alloc: 10,331,128 bytes + Hostname: ruby-heroku-datadog.web.1 + Receiver: localhost:8126 + Endpoints: + https://trace.agent.datadoghq.com + + Receiver (previous minute) + ========================== + From ruby 2.6.6 (ruby-x86_64-linux), client 0.48.0 + Traces received: 11 (14,181 bytes) + Spans received: 33 + + Default priority sampling rate: 100.0% + Priority sampling rate for 'service:ruby-heroku-datadog,env:': 100.0% + Priority sampling rate for 'service:ruby-heroku-datadog,env:development': 100.0% + +[...] +``` + +### Datadog notifica un mayor número de Agents que de dynos + +Asegúrate de que has establecido `DD_DYNO_HOST` como `true` y de que `HEROKU_APP_NAME` tiene un valor configurado para cada aplicación de Heroku. Para más información, consulta la [sección dedicada al nombre de host](#hostname). + +### Tras actualizar el paquete de compilación o el Agent, este último notifica errores al iniciarse + +Después de actualizar el paquete de compilación o el Agent, debes volver a compilar el slug de tu aplicación. Para más información, consulta la [sección dedicada a la actualización y recompilación de slug](#upgrading-and-slug-recompilation). + +[1]: https://devcenter.heroku.com/articles/buildpacks +[2]: https://docs.datadoghq.com/es/libraries +[3]: https://app.datadoghq.com/organization-settings/api-keys +[4]: https://devcenter.heroku.com/articles/using-multiple-buildpacks-for-an-app#viewing-buildpacks +[5]: https://github.com/heroku/heroku-buildpack-apt +[6]: https://github.com/jontewks/puppeteer-heroku-buildpack +[7]: https://github.com/lstoll/heroku-buildpack-monorepo +[8]: https://github.com/DataDog/heroku-buildpack-datadog/releases +[10]: https://docs.datadoghq.com/es/tagging/ +[11]: https://docs.datadoghq.com/es/dashboards/guide/how-to-graph-percentiles-in-datadog/ +[12]: https://docs.datadoghq.com/es/agent +[13]: https://devcenter.heroku.com/articles/dyno-metadata +[14]: https://devcenter.heroku.com/articles/log-runtime-metrics +[15]: https://docs.datadoghq.com/es/logs/guide/collect-heroku-logs +[16]: https://docs.datadoghq.com/es/logs/logs_to_metrics/ +[17]: https://docs.datadoghq.com/es/database_monitoring/ +[18]: https://docs.datadoghq.com/es/database_monitoring/setup_postgres/selfhosted/?tab=postgres10#grant-the-agent-access +[19]: https://docs.datadoghq.com/es/integrations/ +[20]: https://docs.datadoghq.com/es/getting_started/integrations/#configuring-agent-integrations +[21]: https://docs.datadoghq.com/es/integrations/mcache/ +[22]: https://github.com/DataDog/integrations-core/blob/master/mcache/datadog_checks/mcache/data/conf.yaml.example +[23]: https://github.com/DataDog/integrations-extras/ +[24]: https://github.com/DataDog/integrations-extras/tree/master/ping +[25]: https://docs.datadoghq.com/es/developers/custom_checks/ +[26]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[27]: https://devcenter.heroku.com/articles/slug-compiler +[28]: https://github.com/DataDog/datadog-agent/tree/master/Dockerfiles +[29]: https://github.com/DataDog/heroku-buildpack-datadog/blob/master/CONTRIBUTING.md +[30]: https://github.com/DataDog/heroku-buildpack-datadog +[31]: https://github.com/miketheman/heroku-buildpack-datadog +[32]: https://github.com/DataDog/heroku-buildpack-datadog/blob/master/CHANGELOG.md \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/osx.md b/content/es/agent/basic_agent_usage/osx.md index 6ae1c38643143..6645c5d538941 100644 --- a/content/es/agent/basic_agent_usage/osx.md +++ b/content/es/agent/basic_agent_usage/osx.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -38,7 +38,7 @@ Por defecto, el Agent se instala en un entorno de pruebas ubicado en `/opt/datad | macOS 10.13 | Agent v5, Agent v6 hasta la versión 6.38.2, Agent v7 hasta la versión 7.38.2 | | macOS 10.14 y posteriores | Agent v5, Agent v6, Agent v7 | -## Commandos +## Comandos En las versiones 6 y 7 del Agent, el gestor de servicios `launchctl` proporcionado por el sistema operativo es responsable del ciclo de vida del Agent, mientras que para ejecutar otros comandos hay que hacerlo directamente a través del sistema binario del Agent. Otra posibilidad es gestionar los comandos del ciclo de vida a través de la aplicación systray, y ejecutar otros comandos con la GUI web. @@ -101,6 +101,63 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} +**Instalación por un solo usuario** + +Para eliminar el Agent y todos sus archivos de configuración: +1. Detén y cierra el Datadog Agent con el icono en forma de hueso en la bandeja. +2. Arrastra la aplicación de Datadog desde la carpeta de aplicaciones a la papelera. +3. Ejecuta los siguientes comandos: + ```shell + sudo rm -rf /opt/datadog-agent + sudo rm -rf /usr/local/bin/datadog-agent + sudo rm -rf ~/.datadog-agent/** # to remove broken symlinks + launchctl remove com.datadoghq.agent + sudo rm -rf /var/log/datadog + ``` +4. Reinicia el equipo para que se apliquen los cambios. + +**Instalación de LaunchDaemon en todo el sistema** + +Para eliminar el Agent y todos sus archivos de configuración: +1. Arrastra la aplicación de Datadog desde la carpeta de aplicaciones a la papelera. +2. Para eliminar los archivos que queden, ejecuta lo siguiente: + ```shell + sudo rm -rf /opt/datadog-agent + sudo rm -rf /usr/local/bin/datadog-agent + sudo rm -rf ~/.datadog-agent/** # to remove broken symlinks + sudo launchctl disable system/com.datadoghq.agent && sudo launchctl bootout system/com.datadoghq.agent + sudo rm /Library/LaunchDaemons/com.datadoghq.agent.plist + sudo rm -rf /var/log/datadog + ``` +3. Reinicia el equipo para que se apliquen los cambios. +{{% /tab %}} + +{{% tab "Agent v5" %}} +1. Detén y cierra el Datadog Agent con el icono en forma de hueso en la bandeja. +2. Arrastra la aplicación de Datadog desde la carpeta de aplicaciones a la papelera. +3. Ejecuta lo siguiente: + +```shell +sudo rm -rf /opt/datadog-agent +sudo rm -rf /usr/local/bin/datadog-agent +sudo rm -rf ~/.datadog-agent/** # to remove broken symlinks +``` + +Si has ejecutado los comandos de instalación opcionales para que el Agent se ejecute en el arranque, ejecuta lo siguiente para finalizar la desinstalación: + +```shell +sudo launchctl unload -w /Library/LaunchDaemons/com.datadoghq.agent.plist +sudo rm /Library/LaunchDaemons/com.datadoghq.agent.plist +``` + +> Este método elimina el Agent, así como todos sus archivos de configuración. +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas Consulta la [documentación sobre cómo solucionar problemas del Agent][2]. @@ -109,12 +166,12 @@ Consulta la [documentación sobre cómo solucionar problemas del Agent][2]. El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. - +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][3]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/mac +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=macos [2]: /es/agent/troubleshooting/ [3]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/puppet.md b/content/es/agent/basic_agent_usage/puppet.md index 26e95e14fec8f..70a7b6e3705a4 100644 --- a/content/es/agent/basic_agent_usage/puppet.md +++ b/content/es/agent/basic_agent_usage/puppet.md @@ -125,7 +125,7 @@ Para enviar los informes sobre las ejecuciones de Puppet a tu línea de tiempo d } ``` - El gem dogapi se instala automáticamente. Configura `manage_dogapi_gem` como false si quieres personalizar la instalación. + El GEM dogapi se instala automáticamente. Configura `manage_dogapi_gem` como false si quieres personalizar la instalación. 2. Añade estas opciones de configuración a la configuración del nodo maestro de Puppet (ej.: `/etc/puppetlabs/puppet/puppet.conf`): @@ -208,17 +208,17 @@ Para habilitar las funciones de la herramienta Network Performance Monitoring (N ```conf class { 'datadog_agent::system_probe': - network_enabled => true, + network_enabled => true, } ``` ### Configuración de USM -Para habilitar la herramienta Universal Service Monitoring (USM) del Agent Datadog, utiliza la clase `datadog_agent::system_probe` para crear correctamente el archivo de configuración: +Para habilitar la herramienta Universal Service Monitoring (USM) del Datadog Agent, utiliza la clase `datadog_agent::system_probe` para crear correctamente el archivo de configuración: ```conf class { 'datadog_agent::system_probe': - service_monitoring_enabled => true, + service_monitoring_enabled => true, } ``` @@ -280,7 +280,7 @@ Para generar etiquetas (tags) a partir de hechos personalizados, clasifica tus n ```conf class { "datadog_agent": api_key => "", - facts_to_tags => ["osfamily","networking.domain","my_custom_fact"], + facts_to_tags => ["os.family","networking.domain","my_custom_fact"], } ``` @@ -328,7 +328,7 @@ class { "datadog_agent": } ``` -(2) `hostname_extraction_regex` es útil cuando el módulo de Puppet y el Datadog Agent dan diferentes nombres para el mismo host en la lista de infraestructuras. +(2) `hostname_extraction_regex` es útil cuando el módulo Puppet y el Datadog Agent dan diferentes nombres para el mismo host en la lista de infraestructuras. [1]: https://forge.puppet.com/datadog/datadog_agent [2]: https://app.datadoghq.com/organization-settings/api-keys diff --git a/content/es/agent/basic_agent_usage/saltstack.md b/content/es/agent/basic_agent_usage/saltstack.md new file mode 100644 index 0000000000000..b75c955294a57 --- /dev/null +++ b/content/es/agent/basic_agent_usage/saltstack.md @@ -0,0 +1,223 @@ +--- +dependencies: +- https://github.com/DataDog/datadog-formula/blob/main/README.md +kind: documentación +title: SaltStack +--- +La fórmula SaltStack de Datadog se utiliza para instalar el Datadog Agent y las integraciones basadas en el Agent (checks). Para obtener más información sobre las fórmulas SaltStack, consulta las [instrucciones de instalación y uso de fórmulas Salt][1]. + +## Configuración + +### Requisitos + +La fórmula SaltStack de Datadog solo admite instalaciones en sistemas basados en Debian y Red Hat. + +### Instalación + +En las instrucciones que se detallan a continuación, se indica cómo añadir la fórmula de Datadog al entorno Salt `base`. Si deseas incluirla en otro entorno Salt, sustituye las referencias `base` por el nombre de tu entorno Salt. + +#### Opción 1 + +Instala la [fórmula de Datadog][6] en el entorno base de tu nodo Salt Master. Para ello, utiliza la opción `gitfs_remotes` en tu archivo de configuración Salt Master (por defecto `/etc/salt/master`): + +```text +fileserver_backend: + - roots # Active by default, necessary to be able to use the local salt files we define in the next steps + - gitfs # Adds gitfs as a fileserver backend to be able to use gitfs_remotes + +gitfs_remotes: + - https://github.com/DataDog/datadog-formula.git: + - saltenv: + - base: + - ref: 3.0 # Pin the version of the formula you want to use +``` + +A continuación, reinicia tu servicio Salt Master para que los cambios de configuración se apliquen: + +```shell +systemctl restart salt-master +# OR +service salt-master restart +``` + +#### Opción 2 + +Si lo prefieres, puedes clonar la fórmula de Datadog en tu nodo Salt Master: + +```shell +mkdir -p /srv/formulas && cd /srv/formulas +git clone https://github.com/DataDog/datadog-formula.git +``` + +Y, a continuación, añadirla al entorno base en la sección `file_roots` de tu archivo de configuración Salt Master (por defecto, `/etc/salt/master`): + +```text +file_roots: + base: + - /srv/salt/ + - /srv/formulas/datadog-formula/ +``` + +### Implementación + +Para desplegar el Datadog Agent en tus hosts: + +1. Añade la fórmula de Datadog a tu archivo "top" o principal (por defecto, `/srv/salt/top.sls`): + + ```text + base: + '*': + - datadog + ``` + +2. Crea el archivo `datadog.sls` en tu directorio "pillar" (por defecto, `/srv/pillar/`). Añade lo siguiente y actualiza tu [clave de API de Datadog][2]: + + ``` + datadog: + config: + api_key: + install_settings: + agent_version: + ``` + +3. Añade el archivo `datadog.sls` al archivo "pillar" principal (por defecto, `/srv/pillar/top.sls`): + + ```text + base: + '*': + - datadog + ``` + +### Configuración + +La configuración de la fórmula debe redactarse en la clave `datadog` del archivo "pillar", que contiene tres partes: `config`, `install_settings` y `checks`. + +#### Config + +En la sección `config`, añade las opciones de configuración para redactar en el archivo de configuración del Agent de los Minions (`datadog.yaml` para el Agent v6 y v7; `datadog.conf` para el Agent v5). + +Puedes configurar diferentes opciones en función de la versión del Agent que tengas instalada: + +- Agent v6 y v7: admite todas las opciones compatibles con el archivo de configuración del Agent. +- Agent v5: solo admite la opción `api_key`. + +En el siguiente ejemplo, se muestra cómo configurar tu clave de API de Datadog y el sitio de Datadog en `datadoghq.eu` (disponible para el Agent v6 y v7). + +```text + datadog: + config: + api_key: + site: datadoghq.eu +``` + +#### Install settings + +En la sección `install_settings`, configura la opción de instalación del Agent: + +- `agent_version`: la versión del Agent que se va a instalar (por defecto, es la última versión del Agent v7). + +A continuación, se muestra un ejemplo de instalación del Agent v6.14.1: + +```text + datadog: + install_settings: + agent_version: 6.14.1 +``` + +#### Checks + +Para añadir una integración del Agent a tu host, utiliza la variable `checks` con el nombre del check como clave. Tienes dos opciones: + +| Opción | Descripción | +|-----------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `config` | Añadir las opciones de configuración para introducirlas en el archivo de configuración del check:
Agent v6 y v7:`/.d/conf.yaml`
Agent v5: `/.yaml` | +| `version` | En el Agent v6 y v7, la versión del check que se debe instalar (por defecto, es la versión incluida en el Agent). | +| `third_party` | En el Agent v6 y v7 (y únicamente en las versiones v6.21.0/v7.21.0 y posteriores), boleano que indica que la integración que hay que instalar es de terceros. Debe vincularse con la opción `version`. | + +A continuación, se muestra un ejemplo para utilizar la versión v1.4.0 de la integración de [Directory][3] que monitoriza el directorio `/srv/pillar`: + +```text +datadog: + config: + api_key: + install_settings: + agent_version: + checks: + directory: + config: + instances: + - directory: "/srv/pillar" + name: "pillars" + version: 1.4.0 +``` + +A continuación, se muestra un ejemplo para utilizar la versión v1.0.0 de una integración de terceros de muestra denominada "third-party-integration": + +``` +datadog: + config: + api_key: + install_settings: + agent_version: + checks: + third-party-integration: + config: + instances: + - some_config: "some value" + version: 1.0.0 + third_party: true +``` + +##### Logs + +Para habilitar la recopilación de logs, establece `logs_enabled` como `true` en la configuración principal: +```text +datadog: + config: + logs_enabled: true +``` + +Para enviar logs a Datadog, utiliza la clave `logs` en un check (ya sea un check existente para configurar los logs de una integración o un check personalizado para configurar una recopilación de logs personalizada). En el siguiente ejemplo, se muestra un check personalizado denominado `system_logs`. + +El contenido de la clave `config:` de este check se introduce en el archivo `/etc/datadog-agent/conf.d/.d/conf.yaml` (en este ejemplo: `/etc/datadog-agent/conf.d/system_logs.d/conf.yaml`). + +Para introducir los logs que quieres recopilar, rellena la sección `config` del mismo modo que lo harías con el archivo `conf.yaml` de un archivo de configuración para la recopilación de logs personalizada. Si deseas obtener más información, consulta la sección sobre la [recopilación de logs personalizada](https://docs.datadoghq.com/agent/logs/?tab=tailfiles#custom-log-collection) en la documentación oficial. + +Por ejemplo, para recopilar logs desde `/var/log/syslog` y `/var/log/auth.log`, la configuración sería: + +```text +datadog: +[...] + checks: + system_logs: + config: + logs: + - type: file + path: "/var/log/syslog" + service: "system" + - type: file + path: "/var/log/auth.log" + service: "system" +``` + + +## Estados + +Las fórmulas Salt son estados Salt previamente redactados. En la fórmula de Datadog, se pueden encontrar los siguientes estados: + +| Estado | Descripción | +|---------------------|---------------------------------------------------------------------------------------------------------| +| `datadog` | Instala, configura e inicia el servicio del Datadog Agent. | +| `datadog.install` | Configura el repositorio correspondiente e instala el Datadog Agent. | +| `datadog.config` | Configura el Datadog Agent y las integraciones utilizando los datos "pillar" (consulta este ejemplo: [pillar.example][4]). | +| `datadog.service` | Ejecuta el servicio del Datadog Agent, que busca cambios en los archivos de configuración del Agent y los checks. | +| `datadog.uninstall` | Detiene el servicio y desinstala el Datadog Agent. | + +**NOTA**: Al utilizar `datadog.config` para configurar diferentes instancias de check en diferentes máquinas, [pillar_merge_lists][5] debe definirse como `True` en la configuración de Salt Master o en la de Salt Minion, si se ejecuta sin Master. + +[1]: http://docs.saltstack.com/en/latest/topics/development/conventions/formulas.html +[2]: https://app.datadoghq.com/organization-settings/api-keys +[3]: https://docs.datadoghq.com/es/integrations/directory/ +[4]: https://github.com/DataDog/datadog-formula/blob/master/pillar.example +[5]: https://docs.saltstack.com/en/latest/ref/configuration/master.html#pillar-merge-lists +[6]: https://github.com/DataDog/datadog-formula \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/sccm.md b/content/es/agent/basic_agent_usage/sccm.md new file mode 100644 index 0000000000000..8791ece7bd1c1 --- /dev/null +++ b/content/es/agent/basic_agent_usage/sccm.md @@ -0,0 +1,87 @@ +--- +description: SCCM (Systems Center Configuration Manager) +disable_toc: false +further_reading: +- link: /logs/ + tag: Documentación + text: Recopilación de logs +- link: /infrastructure/process/ + tag: Documentación + text: Recopilación de procesos +- link: /tracing/ + tag: Documentación + text: Recopilar trazas +- link: /agent/architecture + tag: Documentación + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports + tag: Documentación + text: Configurar puertos de entrada +kind: Documentación +title: SCCM +--- + +Microsoft SCCM (Systems Center Configuration Manager) es una solución de gestión de la configuración que se incluye con el conjunto de herramientas de Systems Center de Microsoft. En esta página se describe la instalación y configuración del Datadog Agent mediante SCCM. + +## Requisitos previos + +- El Agent es compatible con la versión 2103, o posterior, de SCCM. +- Antes de instalar el Agent, asegúrate de haber instalado y configurado los [puntos de distribución][1] en Configuration Manager. + +## Python + +### Crear una aplicación desplegable del Datadog Agent + +1. Descarga el último archivo de instalación (MSI) de Windows del Datadog Agent en el servidor de SCCM desde la [página del Agent ][2]. +1. En SCCM, crea una aplicación y utiliza la localización del MSI del Datadog Agent. + {{< img src="/agent/basic_agent_usage/sccm/sccm-deployable-app.png" alt="Crea una aplicación nueva y utiliza el MSI del Datadog Agent como el MSI de destino." style="height:100%;" >}} +1. Haz clic en **Next** (Siguiente) hasta llegar a la página **General Information** (Información general). +1. En **Installation program** (Programa de instalación), pega el siguiente comando y reemplaza `MY_API_KEY` por tu clave de API: + + ```powershell + start /wait msiexec /qn /i datadog-agent-7-latest.amd64.msi APIKEY="MY_API_KEY" SITE="datadoghq.com" + ``` + + Para obtener más opciones de instalación, consulta la lista completa de [variables de instalación][3]. + +1. Asegúrate de que **Install behavior** (Comportamiento de instalación) se haya establecido en **Install for system** (Instalar para el sistema). +1. Haz clic en **Next** (Siguiente) y sigue las instrucciones para crear la aplicación. + {{< img src="/agent/basic_agent_usage/sccm/sccm-install-command.png" alt="Ingresa un comando del programa de instalación y asegúrate de que el Comportamiento de instalación se haya establecido en Instalar para el sistema." style="width:80%;" >}} +1. Para verificar que se haya creado la aplicación, búscala en **Software Library** > **Overview** > **Application Management** > **Applications** (Biblioteca de software > Descripción general > Gestión de aplicaciones > Aplicaciones). + +### Desplegar la aplicación del Datadog Agent + +
Antes de desplegar la aplicación del Datadog Agent, asegúrate de haber instalado y configurado los puntos de distribución en Configuration Manager
+ +1. Dirígete a **Software Library** > **Overview** > **Application Management** > **Applications** (Biblioteca de software > Descripción general > Gestión de aplicaciones > Aplicaciones) y selecciona la aplicación del Datadog Agent que creaste anteriormente. +1. En la pestaña **Home** (Inicio), en el grupo **Deployment** (Despliegue), selecciona **Deploy** (Desplegar). + +### Configuración del Agent + +Los paquetes de SCCM te permiten desplegar archivos de configuración en los Datadog Agents, lo que sobrescribe su configuración predeterminada. La configuración del Agent consta de un archivo de configuración `datadog.yaml` y de archivos `conf.yaml` opcionales para cada integración. Debes crear un paquete para cada archivo de configuración que quieras desplegar. + +1. Recopila los archivos `datadog.yaml` y `conf.yaml` en una carpeta de equipo de SCCM local. Consulta el [archivo `config_template.yaml` de ejemplo][4] para ver todas las opciones de configuración disponibles. +1. Crea un paquete de SCCM y selecciona **Standard program** (Programa estándar). +1. Selecciona la localización que contiene el archivo de configuración que quieres desplegar en los Agents. +1. Selecciona una [colección de dispositivos][5] en la que desplegar los cambios. +1. Configura los ajustes de despliegue para preinstalar el paquete en los destinos de inmediato. + +{{< img src="agent/basic_agent_usage/sccm/sccm-select-program.png" alt="La pantalla de tipo de programa. Selecciona Programa estándar" style="width:80%;" >}} + +### Reiniciar el Datadog Agent + +Reinicia el servicio del Agent para observar los cambios de configuración: +1. Crea un script de PowerShell para reiniciar el Datadog Agent mediante los [comandos del Agent][6]. +1. Ejecuta el script para reiniciar el Datadog Agent. +1. Busca datos nuevos en la interfaz de usuario de Datadog. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://learn.microsoft.com/en-us/mem/configmgr/core/servers/deploy/configure/manage-content-and-content-infrastructure +[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=windows +[3]: /es/agent/basic_agent_usage/windows/?tab=commandline#configuration +[4]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml +[5]: https://learn.microsoft.com/en-us/mem/configmgr/core/clients/manage/collections/create-collections#bkmk_create +[6]: /es/agent/basic_agent_usage/windows/#agent-commands \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/source.md b/content/es/agent/basic_agent_usage/source.md index e270a95ea277f..66960369d8e65 100644 --- a/content/es/agent/basic_agent_usage/source.md +++ b/content/es/agent/basic_agent_usage/source.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -23,7 +23,7 @@ title: Uso básico del Agent para la instalación de origen --- ## Información general -En esta página, se describen las funciones básicas del Datadog Agent. Si aún no has instalado el Agent, consulta las instrucciones [en la página sobe la integración del Datadog Agent][1]. +En esta página, se describen las funciones básicas del Datadog Agent. Si aún no has instalado el Agent, consulta las instrucciones [en la página sobre la integración del Datadog Agent][1]. Por defecto, tu Agent se instala en su propio entorno de pruebas, ubicado en `~/.datadog-agent`. Puedes mover esta carpeta a cualquier otro lugar con total libertad. Sin embargo, en este artículo se asume que el Agent está instalado en su localización predeterminada, así que asegúrate de adaptar las instrucciones según corresponda si decides moverlo. @@ -59,7 +59,7 @@ El Datadog Agent cuenta con algunos comandos, y solo deben ejecutarse con `sudo` ## Configuración {{< tabs >}} -{{% tab "Agent v6 & v7" %}} +{{% tab "Agent v6 y v7" %}} Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/datadog-agent/datadog.yaml` @@ -72,7 +72,7 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{% tab "Agent v5" %}} -Los archivos y carpetas de configuración para el Agent se encuentran en: +Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/dd-agent/datadog.conf` @@ -88,9 +88,9 @@ Archivos de configuración para las [integraciones][1]: Consulta la [documentación sobre cómo solucionar problemas relacionados con el Agent][2]. - +## Leer más {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/source +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=source [2]: /es/agent/troubleshooting/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/suse.md b/content/es/agent/basic_agent_usage/suse.md index 1a0f67d809be0..fed465db7e60a 100644 --- a/content/es/agent/basic_agent_usage/suse.md +++ b/content/es/agent/basic_agent_usage/suse.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -54,12 +54,12 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s | Descripción | Comando | |------------------------------------|--------------------------------------------------------| -| Ejecutar el Agent como un servicio | `sudo service datadog-agent start` | +| Ejecutar el Agent como servicio | `sudo service datadog-agent start` | | Detener la ejecución del Agent como servicio | `sudo service datadog-agent stop` | | Reiniciar la ejecución del Agent como servicio | `sudo service datadog-agent restart` | | Estado del servicio Agent | `sudo service datadog-agent status` | | Página de estado del Agent en ejecución | `sudo datadog-agent status` | -| Enviar un flare | `sudo datadog-agent flare` | +| Enviar flare | `sudo datadog-agent flare` | | Mostrar el uso de comandos | `sudo datadog-agent --help` | | Ejecutar un check | `sudo -u dd-agent -- datadog-agent check ` | @@ -68,21 +68,21 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s | Descripción | Comando | |------------------------------------|---------------------------------------------------| -| Ejecutar el Agent como un servicio | `sudo service datadog-agent start` | +| Ejecutar el Agent como servicio | `sudo service datadog-agent start` | | Detener la ejecución del Agent como servicio | `sudo service datadog-agent stop` | | Reiniciar la ejecución del Agent como servicio | `sudo service datadog-agent restart` | | Estado del servicio Agent | `sudo service datadog-agent status` | | Página de estado del Agent en ejecución | `sudo service datadog-agent info` | -| Enviar un flare | `sudo service datadog-agent flare` | +| Enviar flare | `sudo service datadog-agent flare` | | Mostrar el uso de comandos | `sudo service datadog-agent` | | Ejecutar un check | `sudo -u dd-agent -- dd-agent check ` | {{% /tab %}} {{< /tabs >}} -**Nota**: Si el contenedor de servicio `service` no está disponible en tu sistema, utiliza: +**Nota**: Si el contenedor `service` no está disponible en tu sistema, utiliza: -* En sistemas basados en `upstart`: `sudo start/stop/restart/status datadog-agent` +* Para sistemas basados en `upstart`: `sudo start/stop/restart/status datadog-agent` * Para sistemas basados en `systemd`: `sudo systemctl start/stop/restart/status datadog-agent` [Obtén más información sobre los comandos del ciclo de vida del servicio][2] @@ -90,7 +90,7 @@ En las versiones 6 y 7 del Agent, el gestor de servicios proporcionado por el s ## Configuración {{< tabs >}} -{{% tab "Agent v6 & v7" %}} +{{% tab "Agent v6 y v7" %}} Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/datadog-agent/datadog.yaml` @@ -103,7 +103,7 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{% tab "Agent v5" %}} -Los archivos y carpetas de configuración para el Agent se encuentran en: +Los archivos y carpetas de configuración del Agent se encuentran en: * `/etc/dd-agent/datadog.conf` @@ -115,21 +115,70 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} +```shell +sudo zypper remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/datadog-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} + +```shell +sudo zypper remove datadog-agent +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/dd-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} +{{< /tabs >}} + ## Solucionar problemas -Consulta la [documentación sobre cómo solucionar problemas relacionados con el Agent][3]. +Consulta la [documentación sobre cómo solucionar problemas del Agent][3]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/suse +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=suse [2]: /es/agent/faq/agent-v6-changes/?tab=linux#service-lifecycle-commands [3]: /es/agent/troubleshooting/ [4]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/basic_agent_usage/ubuntu.md b/content/es/agent/basic_agent_usage/ubuntu.md index 9cdc68197acf9..d28042d0f2bf9 100644 --- a/content/es/agent/basic_agent_usage/ubuntu.md +++ b/content/es/agent/basic_agent_usage/ubuntu.md @@ -13,8 +13,8 @@ further_reading: text: Recopilar tus trazas - link: /agent/basic_agent_usage/#agent-architecture tag: Documentación - text: Obtén más información sobre la arquitectura del Agent -- link: /agent/guide/network#configure-ports + text: Más información sobre la arquitectura del Agent +- link: /agent/configuration/network#configure-ports tag: Documentación text: Configurar puertos de entrada kind: documentación @@ -24,9 +24,9 @@ title: Uso básico del Agent para Ubuntu ## Información general -En esta página se describen las funciones básicas del Datadog Agent para Ubuntu. Si aún no has instalado el Agent, consulta las instrucciones en la documentación sobre la [integración del Datadog Agent][1]. +En esta página se describen las características básicas del Datadog Agent para Ubuntu. -Los paquetes están disponibles para arquitecturas Arm v8 y x86 de 64 bits. Para otras arquitecturas, utiliza la instalación de origen. +Para instalar el Agent, consulta las [instrucciones de instalación][1]. Los paquetes se encuentran disponibles para arquitecturas Arm v8 y x86 de 64 bits. Para otras arquitecturas, utiliza la instalación de origen. **Nota**: Las versiones Ubuntu 14.04 y posteriores son compatibles con la arquitectura x86 de 64 bits. Las versiones Ubuntu 16.04 y posteriores son compatibles con la arquitectura Arm v8 de 64 bits. @@ -100,21 +100,65 @@ Archivos de configuración para las [integraciones][1]: {{% /tab %}} {{< /tabs >}} +## Desinstalar el Agent + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} +```shell +sudo apt-get remove datadog-agent -y +``` + +Este comando borra el Agent, pero no elimina: + +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/datadog-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo apt-get remove --purge datadog-agent -y +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo apt-get remove datadog-agent -y +``` + +Este comando borra el Agent, pero no elimina: +* El archivo de configuración `datadog.yaml` +* Los archivos que ha creado el usuario en la carpeta de configuración `/etc/dd-agent` +* Los archivos que ha creado el usuario en la carpeta `/opt/datadog-agent` +* El usuario `dd-agent` +* Archivos de log de Datadog + +Si también quieres eliminar estos elementos, ejecuta este comando después de eliminar el Agent: + +```shell +sudo apt-get --purge remove datadog-agent -y +``` +{{% /tab %}} +{{< /tabs >}} + + ## Solucionar problemas Consulta la [documentación sobre cómo solucionar problemas del Agent][3]. ## Trabajar con el Agent integrado -El Agent tiene un entorno Python integrado en `/opt/datadog-agent/embedded/`. Los sistemas binarios comunes como `python` y `pip` se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. - -Si deseas obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +El Agent tiene un entorno de Python integrado en `/opt/datadog-agent/embedded/`. Los archivos binarios comunes, como `python` y `pip`, se encuentran dentro de `/opt/datadog-agent/embedded/bin/`. +Si quieres obtener más información, consulta las instrucciones sobre cómo [añadir paquetes al Agent integrado][4]. +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} -[1]: https://app.datadoghq.com/account/settings#agent/ubuntu +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=ubuntu [2]: /es/agent/faq/agent-v6-changes/?tab=linux#service-lifecycle-commands [3]: /es/agent/troubleshooting/ [4]: /es/developers/guide/custom-python-package/ \ No newline at end of file diff --git a/content/es/agent/configuration/_index.md b/content/es/agent/configuration/_index.md new file mode 100644 index 0000000000000..9ea13a41bc123 --- /dev/null +++ b/content/es/agent/configuration/_index.md @@ -0,0 +1,33 @@ +--- +aliases: +- /es/agent/config +disable_toc: false +further_reading: +- link: /agent/guide/ + tag: Documentación + text: Guías del Agent +kind: documentación +title: Configuración del Agent +--- + +En esta sección se incluye información sobre la configuración de los Datadog Agents. Para obtener información sobre la configuración remota de los componentes de Datadog, consulta la [configuración remota][1]. En el caso de las instalaciones del contenedor, consulta la [monitorización del contenedor][2]. Para obtener información sobre la configuración de las integraciones de Datadog, consulta las [integraciones][3]. + +{{< whatsnext desc="Documentación de la configuración del Agent:" >}} + {{< nextlink href="agent/configuration/agent-commands/" >}}Comandos del Agent{{< /nextlink >}} + {{< nextlink href="agent/configuration/agent-configuration-files/" >}}Archivos de configuración{{< /nextlink >}} + {{< nextlink href="agent/configuration/agent-log-files/" >}}Archivos de log{{< /nextlink >}} + {{< nextlink href="agent/configuration/agent-status-page/" >}}Página de estado{{< /nextlink >}} + {{< nextlink href="agent/configuration/network/" >}}Tráfico de red{{< /nextlink >}} + {{< nextlink href="agent/configuration/proxy/" >}}Configuración de proxy{{< /nextlink >}} + {{< nextlink href="agent/configuration/agent-fips-proxy/" >}}Cumplimiento de FIPS{{< /nextlink >}} + {{< nextlink href="agent/configuration/dual-shipping/" >}}Envío doble{{< /nextlink >}} + {{< nextlink href="agent/configuration/secrets-management/" >}}Gestión de secretos{{< /nextlink >}} +{{< /whatsnext >}} + +## Lectura adicional + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent/remote_config/ +[2]: /es/containers/ +[3]: /es/integrations/ \ No newline at end of file diff --git a/content/es/agent/configuration/agent-commands.md b/content/es/agent/configuration/agent-commands.md new file mode 100644 index 0000000000000..5a4fd7074a0d1 --- /dev/null +++ b/content/es/agent/configuration/agent-commands.md @@ -0,0 +1,288 @@ +--- +algolia: + tags: + - comando del estado del Agent +aliases: +- /es/agent/faq/agent-status-and-information +- /es/agent/faq/start-stop-restart-the-datadog-agent +- /es/agent/faq/agent-commands +- /es/agent/guide/agent-commands +further_reading: +- link: /agent/troubleshooting/ + tag: Documentación + text: Solucionar problemas del Agent +kind: guía +title: Comandos del Agent +--- + +
+En sistemas basados en Linux en los que no se encuentre disponible el comando del contenedor service, consulta la lista de alternativas. +
+ +## Iniciar, detener y reiniciar el Agent + +### Iniciar el Agent + +Lista de comandos para iniciar el Datadog Agent: + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|------------|--------------------------------------------------------------------| +| AIX | `startsrc -s datadog-agent` | +| Linux | Consulta la [documentación sobre el Agent][1] para tu sistema operativo. | +| Docker | Utiliza el [comando de instalación][2]. | +| Kubernetes | `kubectl create -f datadog-agent.yaml` | +| macOS | `launchctl start com.datadoghq.agent` *o* a través de la aplicación systray | +| Origen | `sudo service datadog-agent start` | +| Windows | Consulta la [documentación sobre el Windows Agent][3]. | + +[1]: /es/agent/ +[2]: /es/agent/docker/ +[3]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|----------|-------------------------------------------| +| Linux | `sudo service datadog-agent start` | +| Docker | Consulta la [documentación sobre el Docker Agent][1]. | +| macOS | `/usr/local/bin/datadog-agent start` | +| Origen | `sudo ~/.datadog-agent/bin/agent start` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + +[1]: https://github.com/DataDog/docker-dd-agent/blob/master/README.md +[2]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{< /tabs >}} + +### Detener el Agent + +Lista de comandos para detener el Datadog Agent: + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|------------|----------------------------------------------------------------------------------| +| AIX | `stopsrc -s datadog-agent` | +| Linux | Consulta la [documentación sobre el Agent][1] para tu sistema operativo. | +| Docker | `docker exec -it agent stop` | +| Kubernetes | `kubectl delete pod `—nota: el pod se reprograma automáticamente | +| macOS | `launchctl stop com.datadoghq.agent` *o* a través de la aplicación systray | +| Origen | `sudo service datadog-agent stop` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + +[1]: /es/agent/ +[2]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|----------|-------------------------------------------| +| Linux | `sudo service datadog-agent stop` | +| Docker | Consulta la [documentación sobre el Docker Agent][1]. | +| macOS | `/usr/local/bin/datadog-agent stop` | +| Origen | `sudo ~/.datadog-agent/bin/agent stop` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + +[1]: https://github.com/DataDog/docker-dd-agent/blob/master/README.md +[2]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{< /tabs >}} + +### Reiniciar el Agent + +Lista de comandos para reiniciar el Datadog Agent: + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|------------|----------------------------------------------------------------------------------| +| Linux | Consulta la [documentación sobre el Agent][1] para tu sistema operativo. | +| Docker | Utiliza el [comando de instalación][2]. | +| Kubernetes | `kubectl delete pod `—nota: el pod se reprograma automáticamente | +| macOS | ejecutar `stop` y luego `start`, *o* a través de la aplicación systray | +| Origen | *plataforma no compatible* | +| Windows | Consulta la [documentación sobre el Windows Agent][3]. | + +[1]: /es/agent/ +[2]: /es/agent/docker/?tab=standard#setup +[3]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|----------|-------------------------------------------| +| Linux | `sudo service datadog-agent restart` | +| Docker | Consulta la [documentación sobre el Docker Agent][1]. | +| macOS | `/usr/local/bin/datadog-agent restart` | +| Origen | `sudo ~/.datadog-agent/bin/agent restart` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + +[1]: https://github.com/DataDog/docker-dd-agent/blob/master/README.md +[2]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{< /tabs >}} + +## Estado e información del Agent + +### Estado del servicio + +Lista de comandos para mostrar el estado del Datadog Agent: + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|-----------------|-------------------------------------------------------------------------------| +| AIX | `lssrc -s datadog-agent` | +| Linux | Consulta la [documentación sobre el Agent][1] para tu sistema operativo. | +| Docker (Debian) | `sudo docker exec -it s6-svstat /var/run/s6/services/agent/` | +| Kubernetes | `kubectl exec -it -- s6-svstat /var/run/s6/services/agent/` | +| macOS | `launchctl list com.datadoghq.agent` *o* a través de la aplicación systray | +| Origen | `sudo service datadog-agent status` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + + +[1]: /es/agent/ +[2]: /es/agent/basic_agent_usage/windows/ +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|-----------------|--------------------------------------------------------------------------| +| Linux | `sudo service datadog-agent status` | +| Docker (Debian) | `sudo docker exec -it /etc/init.d/datadog-agent status` | +| Kubernetes | `kubectl exec -it -- /etc/init.d/datadog-agent status` | +| macOS | `datadog-agent status` | +| Origen | `sudo ~/.datadog-agent/bin/agent status` | +| Windows | Consulta la [documentación sobre el Windows Agent][1]. | + +[1]: /es/agent/basic_agent_usage/windows/#status-and-information +{{% /tab %}} +{{% tab "Cluster Agent" %}} + +| Plataforma | Comando | +|------------|--------------------------------| +| Kubernetes | `datadog-cluster-agent status` | + +{{% /tab %}} +{{< /tabs >}} + +### Información del Agent + +Lista de comandos para mostrar el estado del Datadog Agent y las integraciones habilitadas. + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|------------|------------------------------------------------------| +| AIX | `datadog-agent status` | +| Linux | `sudo datadog-agent status` | +| Docker | `sudo docker exec -it agent status` | +| Kubernetes | `kubectl exec -it -- agent status` | +| macOS | `datadog-agent status` o a través de la [GUI web][1] | +| Origen | `sudo datadog-agent status` | +| Windows | Consulta la [documentación sobre el Windows Agent][2]. | + +Se mostrará una integración debidamente configurada en **Running Checks** (Checks en ejecución) sin que figuren avisos ni errores, tal y como aparece a continuación: + +```text +Running Checks +============== + network (1.6.0) + --------------- + Total Runs: 5 + Metric Samples: 26, Total: 130 + Events: 0, Total: 0 + Service Checks: 0, Total: 0 + Average Execution Time : 0ms +``` + +[1]: /es/agent/basic_agent_usage/#gui +[2]: /es/agent/basic_agent_usage/windows/#status-and-information +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|------------|------------------------------------------------------------------------| +| Linux | `sudo service datadog-agent info` | +| Docker | `sudo docker exec -it /etc/init.d/datadog-agent info` | +| Kubernetes | `kubectl exec -it -- /etc/init.d/datadog-agent info` | +| macOS | `datadog-agent info` | +| Origen | `sudo ~/.datadog-agent/bin/info` | +| Windows | Consulta la [documentación sobre el Windows Agent][1]. | + +Se mostrará una integración debidamente configurada en **Checks** sin que figuren avisos ni errores, tal y como se muestra a continuación: + +```text +Checks +====== + network + ------- + - instance #0 [OK] + - Collected 15 metrics, 0 events & 1 service check +``` + +[1]: /es/agent/basic_agent_usage/windows/#status-and-information +{{% /tab %}} +{{% tab "Cluster Agent" %}} + +| Plataforma | Comando | +|------------|--------------------------------| +| Kubernetes | `datadog-cluster-agent status` | + +{{% /tab %}} +{{< /tabs >}} + +## Otros comandos + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +La interfaz de línea de comandos del Agent v6 se basa en subcomandos. Para consultar la lista de subcomandos disponibles, ejecuta: +```shell + --help +``` + +Para ejecutar un subcomando, se debe invocar el archivo binario del Agent: +```shell + +``` + +Algunas opciones tienen marcas y opciones detalladas en el subcomando `--help`. For example, use help with the `check`: +```shell + check --help +``` + +| Subcomando | Notas | +|-------------------|-----------------------------------------------------------------------------| +| `check` | Ejecuta el check especificado. | +| `config` | [Gestión de la configuración del tiempo de ejecución][1] | +| `configcheck` | Muestra todas las configuraciones cargadas y resueltas de un Agent en ejecución. | +| `diagnose` | Realiza un diagnóstico de conectividad en tu sistema. | +| `flare` | [Recopila un flare y lo envía a Datadog][2]. | +| `health` | Muestra el estado actual del Agent. | +| `help` | Ofrece ayuda con cualquier comando. | +| `hostname` | Muestra el nombre de host que utiliza el Agent. | +| `import` | Importa y convierte archivos de configuración de versiones anteriores del Agent. | +| `jmx` | Soluciona problemas de JMX. | +| `launch-gui` | Inicia la GUI del Datadog Agent. | +| `restart-service` | Reinicia el Agent en el administrador de control de servicios. Solo en Windows. | +| `start-service` | Inicia el Agent en el administrador de control de servicios. Solo en Windows. | +| `stream-logs` | Genera un flujo de los logs que procesa un Agent en ejecución. | +| `stopservice` | Detiene el Agent en el administrador de control de servicios. Solo en Windows. | +| `version` | Muestra información acerca de la versión. | + +[1]: /es/agent/troubleshooting/config/ +[2]: /es/agent/troubleshooting/send_a_flare/ +{{% /tab %}} +{{< /tabs >}} + +## Lectura adicional + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/agent/configuration/agent-configuration-files.md b/content/es/agent/configuration/agent-configuration-files.md new file mode 100644 index 0000000000000..10989abca1ff4 --- /dev/null +++ b/content/es/agent/configuration/agent-configuration-files.md @@ -0,0 +1,116 @@ +--- +algolia: + category: guía + rank: 80 + subcategory: Archivos de configuración del Agent + tags: + - configuración del Agent + - configuración del Agent + - directorio del Agent +aliases: +- /es/agent/faq/agent-configuration-files +- /es/agent/guide/agent-configuration-files +kind: guía +title: Archivos de configuración del Agent +--- + +## Archivo de configuración principal del Agent + +El archivo de configuración del Agent v6 utiliza **YAML** para adaptarse mejor a configuraciones complejas y garantizar la coherencia en el proceso de configuración, ya que los checks también utilizan archivos de configuración YAML. Por este motivo, `datadog.yaml` (v6) pasa a sustituir a `datadog.conf` (v5). + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|:-------------------------------------|:-------------------------------------| +| AIX | `/etc/datadog-agent/datadog.yaml` | +| Linux | `/etc/datadog-agent/datadog.yaml` | +| macOS | `~/.datadog-agent/datadog.yaml` | +| Windows | `%ProgramData%\Datadog\datadog.yaml` | + +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|:-------------------------------------|:---------------------------------------------------------------------------| +| Linux | `/etc/dd-agent/datadog.conf` | +| macOS | `~/.datadog-agent/datadog.conf` | | +| Windows Server 2008, Vista y versiones más recientes | `%ProgramData%\Datadog\datadog.conf` | +| Windows Server 2003, XP o versiones anteriores | `\\Documents and Settings\All Users\Application Data\Datadog\datadog.conf` | + +{{% /tab %}} +{{< /tabs >}} + +Consulta el [archivo `config_template.yaml` de ejemplo][2] para ver todas las opciones de configuración disponibles. + +## Directorio de configuración del Agent + +En versiones anteriores, el Datadog Agent almacenaba los archivos de configuración en `/dd-agent/conf.d/`. Con la versión 6.0, estos archivos pasan a guardarse en `/etc/datadog-agent/conf.d/.d/`. + +{{< tabs >}} +{{% tab "Agent v6 y v7" %}} + +| Plataforma | Comando | +|:-------------------------------------|:-------------------------------| +| AIX | `/etc/datadog-agent/conf.d/` | +| Linux | `/etc/datadog-agent/conf.d/` | +| CentOS | `/etc/datadog-agent/conf.d/` | +| Debian | `/etc/datadog-agent/conf.d/` | +| Fedora | `/etc/datadog-agent/conf.d/` | +| macOS | `~/.datadog-agent/conf.d/` | +| RedHat | `/etc/datadog-agent/conf.d/` | +| Origen | `/etc/datadog-agent/conf.d/` | +| SUSE | `/etc/datadog-agent/conf.d/` | +| Ubuntu | `/etc/datadog-agent/conf.d/` | +| Windows | `%ProgramData%\Datadog\conf.d` | + +### Archivos de configuración de checks para el Agent 6 + +En el archivo `conf.yaml.example`, en la carpeta `.d/` correspondiente, encontrarás un ejemplo de todos los archivos de configuración de checks del Agent. Cambia el nombre a `conf.yaml` para habilitar el check relacionado. **Nota**: El Agent carga los archivos YAML válidos incluidos en la carpeta: `/etc/datadog-agent/conf.d/.d/`. Con este paso, las configuraciones complejas se dividen en varios archivos. Por ejemplo, una configuración para `http_check` tendría este aspecto: + +```text +/etc/datadog-agent/conf.d/http_check.d/ +├── backend.yaml +└── frontend.yaml +``` + +Los archivos YAML con el sufijo `.default` son un caso especial. El Agent los carga de forma predeterminada, y sirven para ayudar a determinar el conjunto principal de checks que se habilitan siempre (CPU, memoria, tiempo de actividad…). Es seguro omitirlos porque, de hecho, se omiten si se encuentra otra configuración para un check determinado. Si quieres deshabilitar alguno de los checks predeterminados, basta con eliminar el archivo correspondiente. Para configurar estos checks, se debería utilizar `conf.yaml.example` como base. + +Los archivos de plantilla de Autodiscovery se almacenan en la carpeta de configuración con el archivo `auto_conf.yaml`. Por ejemplo, en el caso del check de Redis, esta es la configuración en `redisdb.d/`: + +```text +/etc/datadog-agent/conf.d/redisdb.d/ +├── auto_conf.yaml +└── conf.yaml.example +``` + +Para la recopilación de logs, si hay varios archivos YAML que se dirigen a una misma fuente de logs, el Agent no los acepta para evitar que se envíen duplicados a Datadog. Si se da este caso, el Agent ordena los archivos de manera alfabética y utiliza el primero de la lista. + +Para preservar la compatibilidad con versiones anteriores, el Agent sigue aceptando los archivos de configuración en formato `/etc/dd-agent/conf.d/.yaml`. Sin embargo, recomendamos encarecidamente utilizar el formato nuevo. + +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|:-------------------------------------|:---------------------------------------------------------------------| +| Linux | `/etc/dd-agent/conf.d/` | +| CentOS | `/etc/dd-agent/conf.d/` | +| Debian | `/etc/dd-agent/conf.d/` | +| Fedora | `/etc/dd-agent/conf.d/` | +| macOS | `~/.datadog-agent/conf.d/` | +| RedHat | `/etc/dd-agent/conf.d/` | +| Origen | `/etc/dd-agent/conf.d/` | +| SUSE | `/etc/dd-agent/conf.d/` | +| Ubuntu | `/etc/dd-agent/conf.d/` | +| Windows Server 2008, Vista y versiones más recientes | `%ProgramData%\Datadog\conf.d` | +| Windows Server 2003, XP o versiones anteriores | `\\Documents and Settings\All Users\Application Data\Datadog\conf.d` | + +{{% /tab %}} +{{< /tabs >}} + +## Archivo de configuración de JMX + +Los checks de JMX del Agent incluyen un archivo `metrics.yaml` adicional en la carpeta de configuración. Se trata de una lista de beans que el Datadog Agent recopila de forma predeterminada. Así, no tendrás que detallarlos de forma manual cuando configures un check a través de las [etiquetas de Docker o las anotaciones de k8s][1]. + +[1]: /es/agent/kubernetes/integrations/#configuration +[2]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml \ No newline at end of file diff --git a/content/es/agent/configuration/agent-fips-proxy.md b/content/es/agent/configuration/agent-fips-proxy.md new file mode 100644 index 0000000000000..85bd9c9784706 --- /dev/null +++ b/content/es/agent/configuration/agent-fips-proxy.md @@ -0,0 +1,376 @@ +--- +algolia: + rank: 80 + tags: + - fips + - fips proxy + - conformidad + - fedramp + - govcloud +alias: +- /agent/guide/agent-fips-proxy +disable_toc: false +further_reading: +- link: agent/configuration/proxy + tag: Documentación + text: Configuración del proxy del Agent +- link: https://www.datadoghq.com/blog/datadog-fips-enabled-agent/ + tag: Blog + text: Monitorear cargas de trabajo altamente reguladas con Agent habilitado para + FIPS de Datadog +kind: Guía +title: Cumplimiento de FIPS de Datadog +--- + +{{< site-region region="us,us3,us5,eu,ap1" >}} +
El Datadog Agent FIPS Proxy solo está disponible en la región US1-FED..
+{{< /site-region >}} + +El Datadog Agent FIPS Proxy garantiza que la comunicación entre Datadog Agent y Datadog utiliza cifrado conforme a FIPS. + +El Datadog Agent FIPS Proxy es un componente distribuido por separado que se despliega en el mismo host que el Datadog Agent . El proxy actúa como intermediario entre el consumo de Agent y Datadog. El Agent se comunica con el Datadog Agent FIPS Proxy, que cifra las cargas útiles utilizando una criptografía validada por FIPS 140-2 y las retransmite a Datadog. El Datadog Agent y el Agent FIPS Proxy deben configurarse en tándem para comunicarse entre sí. + +## Plataformas compatibles y limitaciones + +La conformidad de Datadog Agent FIPS Proxy se basa en el uso del [Cryptographic Module - Certificate #4282 (Módulo criptográfico - Certificado #4282)] validado por FIPS 140-2[1]. Consulta la [security policy (política de seguridad)][2] relacionada para obtener información sobre las restricciones y los entornos operativos validados. + +**Es responsabilidad del usuario garantizar que el funcionamiento de entorno cumple con la política de seguridad y las directrices generales de FIPS.** + +Plataformas compatibles (64 bits x86): + +||| +| ---  | ----------- | +| Bare metal and VMs | RHEL >= 7
Debian >= 8
Ubuntu >= 14.04
SUSE >= 12 (beta)| +| Cloud and container| Amazon ECS
AWS EKS (Helm)| + +**Nota**: La arquitectura arm64 está disponible en beta. + +Productos compatibles (Agent 7.45+): + +- Metrics +- Logs +- APM traces +- APM profiles +- Instrumentation Telemetry +- Processes +- Orchestrator Explorer +- Runtime Security + + +El proxy de FIPS de Datadog Agent **no** admite lo siguiente: + +- Serverless Monitoring +- Comunicación entre Cluster Agent y el Node Agents +- Agent integrations +- Comunicación saliente a cualquier otra cosa que no sea GovCloud + +## Requisitos previos + +- Rango de puertos TCP disponible: 9803 a 9818 +- Versión de Datadog Agent 7.41 o posterior + +## Instalar el Agent con soporte FIPS + +{{< tabs >}} +{{% tab "Host or VM" %}} + +### Instalar el Agent en un nuevo host + +Para instalar el Datadog Agent con el Datadog Agent FIPS Proxy, añade `DD_FIPS_MODE=1` a las instrucciones de instalación en un solo paso de la página [Datadog Agent Integration (Integración de Datadog Agent)][1]. Por ejemplo + +```shell +DD_API_KEY= \ +DD_SITE="ddog-gov.com" \ +DD_FIPS_MODE=1 \ +bash -c "$(curl -L \ +   https://s3.amazonaws.com/dd-agent/scripts/install_script_agent7.sh)" +``` + +Establecer la variable de entorno `DD_FIPS_MODE` instala el paquete de FIPS junto con el Agent, y configura el Agent para usar el proxy. No hay pasos de configuración adicionales si estás usando este método, pero deberías [verify the installation (verificar la instalación)](#verify-your-installation). + +### Añadir el Datadog Agent FIPS Proxy a un Agent + +Sigue los pasos que se indican a continuación para añadir el Datadog Agent FIPS Proxy a una instalación existente de Agent. + +#### Instalar el paquete de Datadog Agent FIPS Proxy: + +1. Ejecuta los siguientes comandos para instalar el proxy: + +   Debian: +   ```shell +   apt-get update && apt-get install datadog-fips-proxy +   ``` +   RHEL and Fedora: +   ```shell +   yum makecache && yum install datadog-fips-proxy +   ``` +   SLES: +   ```shell +   zypper refresh datadog && zypper install datadog-fips-proxy +   ``` + +   SLES: +   ```shell +   zypper refresh datadog && zypper install datadog-fips-proxy +   ``` + +1. La primera vez que realices una actualización, copia el archivo de configuración de ejemplo en la ubicación apropiada y reinicia el proxy. No necesitas copiar la configuración en actualizaciones posteriores, a menos que haya cambios significativos en la configuración de proxy ascendente: +   ```shell +   sudo cp /etc/datadog-fips-proxy/datadog-fips-proxy.cfg.example \ +      /etc/datadog-fips-proxy/datadog-fips-proxy.cfg +   sudo chown dd-agent:dd-agent \ +      /etc/datadog-fips-proxy/datadog-fips-proxy.cfg +   sudo chmod 640 /etc/datadog-fips-proxy/datadog-fips-proxy.cfg +   sudo systemctl restart datadog-fips-proxy +   ``` + +#### Configurar el Agent para utilizar el proxy de FIPS de Datadog Agent + +El paquete de Datadog Agent FIPS Proxy viene preconfigurado para su uso con el centro de datos US1-FED. Si estás actualizando un Datadog Agent existente, **debes** configurar el Agent para utilizar el proxy. + +Para eso, establece `fips.enabled` en `verdadero` y `fips.https` en `falso` en el [Agent configuration file (archivo de configuración de Agent)][2]: + +```yaml +fips: +  enabled: true +  https: false +``` + +La opción `fips` está disponible en las versiones de Agent 7.41 o posteriores. Cuando la configuración está activada, Datadog Agent redirige todas sus comunicaciones a Datadog Agent FIPS Proxy para los productos compatibles. Esta configuración ignora las opciones de URL personalizadas, como `dd_url`. + +La opción `https` se establece en `falso` porque Agent utiliza HTTP para comunicarse con el proxy. El Datadog Agent FIPS Proxy se ejecuta en el mismo host que Agent y confía en la seguridad del host para proteger dicha comunicación. + +** La seguridad y el fortalecimiento de host son tu responsabilidad.** + +
El valor predeterminado de fips.enabled es falso en el Agent. Debe establecerse en verdadero para garantizar que todas las comunicaciones se reenvían a través del Datadog Agent FIPS Proxy.

Si fips.enabled no está establecido en verdadero, el Agent no es compatible con FIPS.
+ +### Verifica tu instalación + +Verifica que métricas, trazas (traces), y logs están correctamente reportados en la app. + +Para métricas, ejecuta el comando de diagnóstico de conectividad y comprueba que todos los checks pasen: + +```shell +sudo -u dd-agent datadog-agent diagnose --include connectivity-datadog-core-endpoints +# Para la versión de Agent anterior a 7.48, ejecuta el siguiente comando: +# sudo -u dd-agent datadog-agent diagnose datadog-connectivity +``` + +Si no ves métricas, trazas o logs reportadas en la aplicación, consulta la sección [Troubleshooting (solucionar problemas)](#troubleshooting-a-bare-metal-or-vm-installation). + +### Ver logs + +```shell +sudo journalctl -u datadog-fips-proxy +``` + +#### Configuración de logs de journald + +Si utilizas [Log Management (Gestión de logs)][3] y deseas enviar los logs Proxy de FIPS de Datadog Agent a Datadog, configura el Datadog Agent para leer logs desde journald. + +1. En el [configuration file (archivo de configuración)][2] de Agent, establece `logs_enabled` en `verdadero` para activar Logs Agent. En el [configuration directory (directorio de configuración)][4], crea un archivo en `fips_proxy.d/conf.yaml` con el siguiente contenido: + + ```yaml + logs: + - type: journald + source: datadog-fips-proxy + include_units: + - datadog-fips-proxy.service + ``` + +1. Asegúrate de que el usuario `dd-agent` está en el grupo `systemd-journal`. Para más información, consulta la documentación [journald integration (integración de journald)][5]. +1. [Restart the Agent (reiniciar el Agent)][6]. + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: /es/agent/configuration/agent-configuration-files/#agent-main-configuration-file +[3]: /es/logs/ +[4]: /es/agent/configuration/agent-configuration-files/#agent-configuration-directory +[5]: /es/integrations/journald/#configuration +[6]: /es/agent/configuration/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} + +{{% tab "Helm on Amazon EKS" %}} +Establece los siguientes valores en tu archivo `values.yaml`: + +```yaml +fips: + enabled: true + use_https: false +``` + +El ajuste `fips` está disponible en las versiones Agent 7.41 o posteriores. Cuando la configuración está activada, Datadog Agent redirige todas sus comunicaciones al Proxy de FIPS de Datadog Agent para los productos compatibles. Esta configuración ignora las opciones de URL personalizadas, como `dd_url`. + +La opción `use_https` se establece en `falso` porque Agent utiliza HTTP para comunicarse con el proxy. El Proxy de FIPS de Datadog Agent se ejecuta en el mismo host que Datadog Agent y confía en la seguridad de host para la protección de dicha comunicación. + +**La seguridad y el fortalecimiento de host son tu responsabilidad.** + +
El ajuste fips.enabled está predeterminado como falso en el Agent. Debe establecerse en verdadero para garantizar que todas las comunicaciones se reenvíen a través del Proxy de FIPS de Datadog Agent.

Si fips.enabled no está establecido en verdadero, el Agent no es compatible con FIPS.
+ + +{{% /tab %}} + +{{% tab "Amazon ECS" %}} + +Para obtener instrucciones sobre la instalación del proxy de FIPS en Amazon ECS, consulta [FIPS proxy for GOVCLOUD environments (entornos de FIPS proxy para GOVCLOUD)][1]. + +[1]: /es/containers/amazon_ecs/#fips-proxy-for-govcloud-environments +{{% /tab %}} + +{{< /tabs >}} + +## Solucionar problemas de un host o una instalación VM + +Para solucionar los problemas del Datadog Agent FIPS Proxy, verifica lo siguiente: +- Se están ejecutando Datadog Agent y Datadog Agent FIPS Proxy. +- El Datadog Agent puede comunicarse con el Datadog Agent FIPS Proxy. +- El Datadog Agent FIPS Proxy puede comunicarse con los endpoints de admisión de Datadog. + +### Controlar el estado del proxy + +Para obtener información sobre el estado de Datadog Agent FIPS Proxy, ejecuta el siguiente comando: + +```shell +sudo systemctl status datadog-fips-proxy +``` + +Si se está ejecutando el proxy, la salida debería ser similar a la siguiente: +```text +- datadog-fips-proxy.service - Datadog FIPS Proxy + Cargado: cargado + (/lib/systemd/system/datadog-fips-proxy.service; + enabled; vendor preset: enabled) + Activo: activo (ejecutando) desde martes 19-07-2022 16:21:15 UTC; hace 1 min 6 s +``` + +Si el estado del proxy es `inactivo (muerto)`, inicia el Datadog Agent FIPS Proxy: + +```shell +sudo systemctl start datadog-fips-proxy +``` + +Si el estado del proxy es `fallido`, el Datadog Agent FIPS Proxy no se ha podido iniciar debido a un error. Ejecuta el siguiente comando y busca errores en los logs del proxy: + +```shell +sudo journalctl -u datadog-fips-proxy --no-pager +``` + +### Proxy no puede enlazar el socket + +Si los logs del proxy muestran un error `enlazar socket`, el proxy está intentando utilizar un puerto que ya está en uso en el host. El Datadog Agent FIPS Proxy utiliza el rango de puertos TCP desde el 9803 hasta el 9818 inclusive. Los puertos de este rango deben estar disponibles en host y no ser utilizados por otros servicios. + +En el siguiente ejemplo, el Datadog Agent FIPS Proxy no puede enlazar un socket en el puerto `9804` porque el puerto ya está en uso: + +```text +[ALERT] (4518) : Iniciando frontend métricas-forwarder: no se puede enlazar socket (Dirección ya en uso) [0.0.0.0:9804] +[ALERT] (4518) : [/opt/Datadog-fips-proxy/embedded/sbin/haproxy.main()] Algunos protocolos fallaron al iniciar sus escuchadores. Saliendo. +``` + +### Agent no puede conectarse al proxy. + +Para controlar problemas de red, controla los logs en `/var/log/datadog/agent.log`, o ejecuta: + +```shell +datadog-agent diagnose --include connectivity-datadog-core-endpoints +# Para versiones de Agent 7.48 o anteriores, ejecuta el siguiente comando: +# datadog-agent diagnóstico datadog-connectivity +``` + +Busca errores como: +```text +conectar: conexión denegada, fecha límite de contexto excedida (Client.Timeout excedido mientras espera cabeceras), o conexión reseteada por peer +``` + +- Sigue los pasos en [Check the proxy status (controla el estado del proxy)](#check-the-proxy-status) para verificar que el Datadog Agent FIPS Proxy se esté ejecutando. +- Comprueba que el rango de puertos de proxy coincida con el de Agent. + +Si el proxy se está ejecutando y el rango de puertos es correcto, es posible que un cortafuegos local de la máquina esté bloqueando el acceso de Agent al proxy. Configura tu cortafuegos para permitir conexiones a los puertos TCP de 9804 a 9818. + +Puedes utilizar `curl` para verificar que se puede acceder al proxy: + +```shell +curl http://localhost:9804/ +``` + +Para más ayuda, consulta [Agent Troubleshooting (solucionar problemas de Agent)][3]. + +### Datadog Agent FIPS Proxy no puede conectarse a consumo de Datadog + +Si se producen errores de HTTP como `502`, `503`, o si el proxy devuelve una respuesta vacía, es posible que Datadog Agent FIPS Proxy no pueda reenviar tráfico al backend de Datadog. + +Verifica los logs de Datadog Agent FIPS Proxy con: + +```shell +sudo journalctl -u datadog-fips-proxy --no-pager +``` + +Controla los logs para errores como: + +```text +haproxy[292759]: [WARNING (ADVERTENCIA) (292759) : Servidor +datadog-api/mothership3 está CAÍDO, razón: Capa4 tiempo de espera, duración vcheck: 2000 ms. Quedan 0 servidores activos y 0 de backup. 0 sesiones activas, 0 en cola, 0 restantes en cola. +[ALERT (ALERTA)] (292759): El backend 'datadog-api' no tiene servidor disponible. +``` + +o + +```text +haproxy[1808]: [WARNING (ADVERTENCIA) (1808) : Servidor +datadog-metrics/mothership2 está CAÍDO, razón: Capa4 +problema de conexión, info: "Conexión rechazada", duración del check: 0 ms. Quedan 0 servidores activos y 0 de backup. 0 +sesiones activas, 0 en cola, 0 restantes en cola. +haproxy[1808]: [ALERT (ALERTA)] (1808): El backend 'datadog-metrics' no tiene servidor disponible. +``` + +Estos errores indican que Datadog Agent FIPS Proxy no puede ponerse en contacto con los sistemas backend, posiblemente debido al bloqueo de un cortafuegos o a otro problema de red. Datadog Agent FIPS Proxy requiere acceso a Internet a los endpoints de consumo de Datadog. Puedes encontrar las direcciones IP de estos endpoints [through the API (a través de la API)][4]. + +Para más información sobre conexiones salientes desde el Agent, consulta la guía [Network Traffic (tráfico de red)][5]. + +Si sigues teniendo dudas sobre tu problema, ponte en contacto con [Datadog support (asistencia de Datadog)][6]. + +## Preguntas frecuentes + +**1. ¿Tienen que estar el Datadog Agent y el Datadog Agent FIPS Proxy en el mismo host?** + +Sí, la conformidad con FIPS no se conserva si Datadog Agent FIPS Proxy y Datadog Agent no están en el mismo host. +Del mismo modo, la conformidad con FIPS no se mantiene si la opción `fips.enabled` no se establece en `verdadero` en `datadog.yaml`. + +**2. ¿Quién es responsable de fortalecer el host?** + +Tú, el cliente de Datadog, eres responsable de la seguridad y el fortalecimiento de host. + +**3. ¿Están fortalecidas las imágenes de Datadog Agent FIPS Proxy?** + +Aunque las imágenes proporcionadas se han construido teniendo en cuenta la seguridad, no se han evaluado con respecto a las recomendaciones de referencia del CIS ni a las normas STIG de DISA. + +**4. ¿Son compatibles con FIPS todas las comunicaciones entrantes y salientes de Agent?** + +Datadog Agent FIPS Proxy solo protege la comunicación que se origina en Agent y se dirige a los endpoints de la API de admisión Datadog. Esto significa que otras formas de comunicación que terminen en el Agent o se originen en el Agent no son conformes a FIPS gracias a esta solución. + +**5. ¿Se admiten todas las comunicaciones entre el FIPS de Cluster Agent y Node Agents?** + +Datadog Agent FIPS Proxy solo protege la comunicación que se origina en Cluster Agent y se dirige a los enpoints de la API de admisión Datadog. Esto significa que otras formas de comunicación que terminen en Cluster Agent o se originen en Cluester Agent no son conformes a FIPS gracias a esta solución. + +**6. ¿Se mantiene la conformidad con FIPS si reconstruimos o reconfiguramos Datadog Agent FIPS Proxy para adaptarlo a nuestras necesidades de implementación o de pruebas?**. + +Aunque la reconstrucción, reconfiguración o modificación de Datadog Agent FIPS Proxy pueda ser una configuración técnicamente operativa, Datadog no puede garantizar la conformidad con FIPS si Datadog Agent FIPS Proxy no se utiliza exactamente como se explica en la documentación. + +**7. Mi Datadog Agent está enviando datos correctamente a pesar de que no he seguido todos los pasos de instalación indicados anteriormente. ¿Mi instalación es compatible con FIPS?** + +Datadog no puede garantizar la conformidad con FIPS si Datadog Agent FIPS Proxy no se utiliza exactamente como está documentado. +La configuración correcta incluye tener tu Datadog Agent configurado para comunicarte con el Datadog Agent FIPS Proxy configurando la opción `fips.enabled`, y tener un Datadog Agent FIPS Proxy en ejecución. + +**8. ¿Están las versiones lanzadas de Datadog Agent vinculadas a las versiones lanzadas de Datadog Agent FIPS Proxy? + +No, las versiones del Datadog Agent FIPS Proxy están desacopladas de las versiones Datadog Agent. Utiliza la última de las versiones Datadog Agent y Datadog Agent FIPS Proxy +para disponer de todos los productos disponibles compatibles con Datadog Agent y Datadog Agent FIPS Proxy. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://csrc.nist.gov/projects/cryptographic-module-validation-program/certificate/4282 +[2]: https://csrc.nist.gov/CSRC/media/projects/cryptographic-module-validation-program/documents/security-policies/140sp4282.pdf +[3]: /es/agent/troubleshooting/ +[4]: https://ip-ranges.ddog-gov.com/ +[5]: /es/agent/configuration/network/#destinations +[6]: /es/help/ \ No newline at end of file diff --git a/content/es/agent/configuration/agent-log-files.md b/content/es/agent/configuration/agent-log-files.md new file mode 100644 index 0000000000000..2de6dc1aa85a5 --- /dev/null +++ b/content/es/agent/configuration/agent-log-files.md @@ -0,0 +1,86 @@ +--- +algolia: + tags: + - archivos de log del Agent +aliases: +- /es/agent/faq/agent-log-files +- /es/agent/guide/agent-log-files +further_reading: +- link: /agent/troubleshooting/ + tag: Documentación + text: Solucionar problemas del Agent +- link: /agent/configuration/agent-configuration-files/ + tag: Preguntas frecuentes + text: Archivos de configuración del Agent +- link: /agent/configuration/agent-commands/ + tag: Preguntas frecuentes + text: Comandos del Agent +kind: guía +title: Archivos de log del Agent +--- + +El Datadog Agent hace un volcado de logs cada 10 MB de manera predeterminada. Cuando esto ocurre, se guarda una copia de seguridad (`agent.log.1`) y, si ya existe alguna, esta se sobrescribe durante el proceso. Para establecer el tamaño máximo de un archivo de log y el número máximo de archivos de copia de seguridad que se desean mantener, configura el `log_file_max_size` (por defecto: 10485760 bytes) y el `log_file_max_rolls` (por defecto: 1) en el [Agent main configuration file (archivo de configuración principal del Agent)][1]. + +## Directorio de log del Agent + +{{< tabs >}} +{{% tab "Agent v6 & v7" %}} + +| Plataforma | Comando | +|---------------------------------------|-------------------------------| +| Linux | `/var/log/datadog/` | +| macOS, Agent 7.28 y versiones posteriores y 6.28 y versiones posteriores | `/opt/datadog-agent/logs` | +| macOS, versiones anteriores al Agent 6.28.0/7.28.0 | `/var/log/datadog` | +| Windows | `C:\ProgramData\Datadog\logs` | + +{{% /tab %}} +{{% tab "Agent v5" %}} + +| Plataforma | Comando | +|--------------------------------------|----------------------------------------------------------------------| +| Linux | `/var/log/datadog/` | +| macOS | `/var/log/datadog/` | +| Windows Server 2008, Vista y versiones más recientes | `C:\ProgramData\Datadog\logs\` | +| Windows Server 2003, XP o versiones anteriores | `C:\Documents and Settings\All Users\Application Data\Datadog\logs\` | +| SmartOS | `/opt/local/datadog/logs/supervisord/` | +| Compilación de fuentes | `~/.datadog-agent/supervisord/logs/` | + +{{% /tab %}} +{{< /tabs >}} + +## Archivos de log del Agent + +{{< tabs >}} +{{% tab "Agent v6 & v7" %}} + +* `agent.log` +* `process-agent.log` +* `trace-agent.log` +* `system-probe.log` +* `jmxfetch.log` para versiones del Agent 7.24.0/6.24.0 o posteriores +* `dogstatsd.log` para la versión del Agent 7.46.0 o posteriores + +{{% /tab %}} +{{% tab "Agent v5" %}} + +* `collector.log` +* `dogstatsd.log` +* `forwarder.log` +* `supervisord.log` + +{{% /tab %}} +{{< /tabs >}} + +## Archivos de log de instalación del Agent + +| Plataforma | Localización y nombre del archivo | +|--------------------------------------|-------------------------------| +| Linux | `$(pwd)/ddagent-install.log` | +| macOS | `/tmp/dd_agent.log` | +| Windows | `%TEMP%\MSI*.LOG` | + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://docs.datadoghq.com/es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file \ No newline at end of file diff --git a/content/es/agent/configuration/agent-status-page.md b/content/es/agent/configuration/agent-status-page.md new file mode 100644 index 0000000000000..b6536d990f121 --- /dev/null +++ b/content/es/agent/configuration/agent-status-page.md @@ -0,0 +1,280 @@ +--- +algolia: + tags: + - página de estado +aliases: +- /es/agent/guide/agent-status-page +further_reading: +- link: /agent/troubleshooting/ + tag: Documentación + text: Solucionar problemas del Agent +- link: /agent/configuration/agent-configuration-files/ + tag: Guía + text: Archivos de configuración del Agent +- link: /agent/configuration/agent-commands/ + tag: Guía + text: Comandos del Agent +kind: guía +title: Página de estado del Agent v6 +--- + +La página de estado del Agent v6 muestra información sobre el Agent en ejecución. Consulta la página [Agent Commands (Comandos del Agent)][1] para encontrar el comando de estado adecuado para tu entorno. En las siguientes secciones, encontrarás más detalles sobre el contenido de la página de estado. + +**Nota**: La página de estado puede variar ligeramente entre las distintas versiones del Agent. + +## Versión del Agent + +La información general del Agent se muestra debajo de la versión del Agent. Por ejemplo: +```text + Status date: 2019-08-29 18:16:41.526203 UTC + Agent start: 2019-08-29 18:04:18.060507 UTC + Pid: 12141 + Go Version: go1.11.5 + Python Version: 2.7.16 + Check Runners: 4 + Log Level: info +``` + +### Rutas + +En esta sección, se indican las rutas al archivo de configuración de Datadog, al directorio `conf.d` y al directorio `checks.d`. Por ejemplo: +```text + Config File: /etc/datadog-agent/datadog.yaml + conf.d: /etc/datadog-agent/conf.d + checks.d: /etc/datadog-agent/checks.d +``` + +### Relojes + +Esta sección muestra la [NTP offset (diferencia horaria con NTP)][2] y la hora UTC del sistema. Por ejemplo: +```text + NTP offset: 2.095ms + System UTC time: 2019-08-29 18:16:41.526203 UTC +``` + +### Información sobre el host + +En esta sección, se muestra información del host en el que se está ejecutando el Agent. Por ejemplo: +```text + bootTime: 2019-08-29 18:01:27.000000 UTC + kernelVersion: 4.4.0-109-generic + os: linux + platform: ubuntu + platformFamily: debian + platformVersion: 16.04 + procs: 175 + uptime: 2m53s + virtualizationRole: guest + virtualizationSystem: vbox +``` + +### Nombres de host + +En esta sección, se muestran los nombres de host que encontró el Agent (consulta los siguientes ejemplos). El `nombre de host` es el último notificado al backend. Para obtener más información, consulta [How does Datadog determine the Agent hostname (¿Cómo determina Datadog el nombre de host del Agent?)][3]. + +```text + hostname: ubuntu-xenial + socket-fqdn: ubuntu-xenial + socket-hostname: ubuntu-xenial + hostname provider: os + unused hostname providers: + aws: not retrieving hostname from AWS: the host is not an ECS instance, and other providers already retrieve non-default hostnames + configuration/environment: hostname is empty + gce: unable to retrieve hostname from GCE: Get http://169.254.169.254/computeMetadata/v1/instance/hostname: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers) +``` + +## Collector + +### Checks en ejecución + +En esta sección, se muestra una lista de instancias de checks en ejecución. Por ejemplo: + +```text + load + ---- + Instance ID: load [OK] + Total Runs: 4 + Metric Samples: Last Run: 6, Total: 24 + Events: Last Run: 0, Total: 0 + Service Checks: Last Run: 0, Total: 0 + Histogram Buckets: Last Run: 12, Total: 36 + Average Execution Time : 6ms +``` + +Términos y descripciones: + +| Término | Descripción | +|------------------------|------------------------------------------------------------------| +| Instance ID | El ID de instancia y el estado del check. | +| Total de ejecuciones | Número total de veces que se ejecutó la instancia. | +| Muestras de métricas | El número de métricas obtenidas. | +| Eventos | El número de eventos activados. | +| Checks de servicio | El número de checks de servicio notificados. | +| Buckets de histograma | El número de buckets de histograma enviados. | +| Tiempo medio de ejecución | El tiempo medio transcurrido para ejecutar la instancia. | +| Última ejecución | El número durante la última ejecución de un check. | +| Total | El número total desde el inicio o reinicio más reciente del Agent. | + +### Errores de configuración + +En esta sección, solo se indica si hay checks con errores de configuración. Por ejemplo: + +```text + test + ---- + Configuration file contains no valid instances +``` + +### Errores de carga + +En esta sección, solo se indica si hay checks con errores de carga. Por ejemplo: + +```text + test + ---- + Core Check Loader: + Check test not found in Catalog + + JMX Check Loader: + check is not a jmx check, or unable to determine if it's so + + Python Check Loader: + unable to import module 'test': No module named test +``` + +## JMXFetch + +En esta sección, se muestra una lista con los checks de JMX inicializados y otra con los fallidos, incluso si no hay checks. Por ejemplo: + +```text + Initialized checks + ================== + no checks + + Failed checks + ============= + no checks +``` + +## Forwarder + +El forwarder utiliza varios workers para enviar cargas útiles a Datadog. + +Si aparece la advertencia `el forwarder descartó las transacciones, es probable que haya un problema con tu red`, significa que todos los workers están ocupados. Deberías revisar el rendimiento de tu red y ajustar las opciones `forwarder_num_workers` y `forwarder_timeout`. + +### Transacciones + +En esta sección, se muestran las transacciones realizadas por el forwarder. Por ejemplo: + +```text + CheckRunsV1: 2 + Dropped: 0 + DroppedOnInput: 0 + Events: 0 + HostMetadata: 0 + IntakeV1: 2 + Metadata: 0 + Requeued: 0 + Retried: 0 + RetryQueueSize: 0 + Series: 0 + ServiceChecks: 0 + SketchSeries: 0 + Success: 6 + TimeseriesV1: 2 + Errors: 1 +``` + +Términos y descripciones: + +| Término | Descripción | +|----------------|------------------------------------------------------------------------------| +| Correcto | El número de transacciones enviadas correctamente. | +| Errores | El número de veces que falló el envío de una transacción y que se reintentó. | +| RetryQueueSize | El número actual de transacciones que están en espera para reintentarse. | +| Reintentos | El número de veces que se reintentó realizar una transacción. | +| DroppedOnInput | El número de transacciones que se descartaron porque todos los workers estaban ocupados. | +| Abandonos | El número de transacciones que se descartaron porque se reintentaron muchas veces. | + +### Estado de las claves de API + +En esta sección, se muestra el estado de la clave de API configurada. Por ejemplo: + +```text + API key ending with ab123: API Key valid +``` + +## Endpoints + +En esta sección, se muestra la lista de endpoints que está utilizando el Datadog Agent. Por ejemplo: + +```text + https://app.datadoghq.com - API Key ending with: + - ab123 +``` + +## Logs Agent + +Cuando está activado el Logs Agent, esta sección muestra información sobre los logs procesados y enviados. Por ejemplo: + +```text + LogsProcessed: 10 + LogsSent: 10 +``` + +## Aggregator + +En esta sección, se muestra información sobre el aggregator del Agent. Por ejemplo: + +```text + Checks Metric Sample: 399 + Dogstatsd Metric Sample: 123 + Event: 1 + Events Flushed: 1 + Number Of Flushes: 2 + Series Flushed: 273 + Service Check: 20 + Service Checks Flushed: 20 + Sketches Flushed: 8 + Checks Histogram Bucket Metric Sample: 24 +``` + +Términos y descripciones: + +| Término | Descripción | +|----------------------------------------------|-------------------------------------------------------------------------------------------------------| +| Muestra de métricas de checks | El número total de métricas enviadas de los checks al aggregator. | +| Muestra de métricas de DogStatsD | El número total de métricas enviadas del servidor de DogStatsD al aggregator. | +| Evento | El número total de eventos enviados al aggregator. | +| Check de servicio | El número total de checks de servicio enviados al aggregator. | +| Vaciado | La cantidad de veces que se vaciaron las métricas agregadas al forwarder para enviarlas a Datadog. | +| Bocetos vaciados | La cantidad de veces que se vaciaron métricas de distribución agregadas al forwarder para enviarlas a Datadog. | +| Muestra de métricas del bucket del histograma de checks | El número de métricas del bucket del histograma enviadas de los checks al aggregator. | + +## DogStatsD + +En esta sección, se indica el número de paquetes que recibió el servidor de DogStatsD para cada tipo de datos y errores asociados. Por ejemplo: + +```text + Event Packets: 0 + Event Parse Errors: 0 + Metric Packets: 122 + Metric Parse Errors: 0 + Service Check Packets: 0 + Service Check Parse Errors: 0 + Udp Bytes: 7,672 + Udp Packet Reading Errors: 0 + Udp Packets: 123 + Uds Bytes: 0 + Uds Origin Detection Errors: 0 + Uds Packet Reading Errors: 0 + Uds Packets: 0 +``` + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent/configuration/agent-commands/#agent-information +[2]: /es/agent/troubleshooting/ntp/ +[3]: /es/agent/faq/how-datadog-agent-determines-the-hostname/ \ No newline at end of file diff --git a/content/es/agent/configuration/dual-shipping.md b/content/es/agent/configuration/dual-shipping.md new file mode 100644 index 0000000000000..98d020be51057 --- /dev/null +++ b/content/es/agent/configuration/dual-shipping.md @@ -0,0 +1,420 @@ +--- +aliases: +- /es/agent/guide/dual-shipping +further_reading: +- link: /agent/configuration/network/ + tag: Guía + text: Tráfico de red +kind: guía +title: Envío doble +--- + +
+El envío doble puede afectar la facturación si estás enviando datos a múltiples organizaciones de Datadog. Para obtener más información sobre cómo afecta esta configuración, contacta con el equipo de asistencia de Datadog. +
+ +## Información general + +Si quieres enviar datos a más de un destino (p. ej., una segunda organización de Datadog u otra infraestructura interna) puedes configurar el Agent para que envíe datos a endpoints adicionales. Si deseas configurarlo para enviar distintos tipos de datos a varios endpoints o claves de API, utiliza las configuraciones que se indican a continuación. + +Para ver una lista de destinos de tráfico de red, consulta [Network Traffic (tráfico de red)][1]. + +## Métricas y checks de servicio + +Puedes añadir la configuración YAML a tu `datadog.yaml` o iniciar el Agent con las variables de entorno adecuadas. + +### Configuración YAML + +Es necesaria la versión 6.17 o 7.17 del Agent o una posterior. + +En `datadog.yaml`: + +```yaml +additional_endpoints: + "https://app.datadoghq.com": + - apikey2 + - apikey3 + "https://app.datadoghq.eu": + - apikey4 +``` + +### Configuración de la variable de entorno + +Es necesaria la versión 6.18 o 7.18 del Agent o una posterior. + +```bash +DD_ADDITIONAL_ENDPOINTS='{\"https://app.datadoghq.com\": [\"apikey2\", \"apikey3\"], \"https://app.datadoghq.eu\": [\"apikey4\"]}' +``` + +## APM + +### Configuración YAML + +Es necesaria la versión 6.7.0 del Agent o una posterior. + +En `datadog.yaml`: +```yaml +apm_config: + [...] + additional_endpoints: + "https://trace.agent.datadoghq.com": + - apikey2 + - apikey3 + "https://trace.agent.datadoghq.eu": + - apikey4 +``` + +### Configuración de la variable de entorno + +Es necesaria la versión 6.19 o 7.19 del Agent o una posterior. + +```bash +DD_APM_ADDITIONAL_ENDPOINTS='{\"https://trace.agent.datadoghq.com\": [\"apikey2\", \"apikey3\"], \"https://trace.agent.datadoghq.eu\": [\"apikey4\"]}' +``` + +## Continuous Profiler + +### Configuración YAML + +Es necesaria la versión 6.7.0 del Agent o una posterior. + +En `datadog.yaml`: + +```yaml +apm_config: + [...] + profiling_additional_endpoints: + "https://intake.profile.datadoghq.com/api/v2/profile": + - apikey2 + - apikey3 + "https://intake.profile.datadoghq.eu/api/v2/profile": + - apikey4 +``` + +### Configuración de la variable de entorno + +Es necesaria la versión 6.19 o 7.19 del Agent o una posterior. + +```bash +DD_APM_PROFILING_ADDITIONAL_ENDPOINTS='{\"https://intake.profile.datadoghq.com/api/v2/profile\": [\"apikey2\", \"apikey3\"], \"https://intake.profile.datadoghq.eu/api/v2/profile\": [\"apikey4\"]}' +``` + +**Nota:** Las cargas a endpoints adicionales para el producto Continuous Profiler se realizan mediante el servicio de entrega con el mejor esfuerzo posible. +* El endpoint principal tiene la máxima prioridad. Las cargas a endpoints adicionales solo se gestionan después de que se hayan completado con éxito las cargas al endpoint principal. +* Las respuestas de endpoints adicionales no se reenvían de vuelta al generador de perfiles. Los errores que se producen durante la entrega a endpoints adicionales se registran en los logs de errores del Agent. + +## Live Processes + +### Configuración YAML + +Es necesaria la versión 6.4.0 del Agent o una posterior. + +En `datadog.yaml`: +```yaml +process_config: + [...] + additional_endpoints: + "https://process.datadoghq.com": + - apikey2 + - apikey3 + "https://process.datadoghq.eu": + - apikey4 +``` + +### Configuración de la variable de entorno + +Es necesaria la versión 6.20 o 7.20 del Agent o una posterior. + +```bash +DD_PROCESS_ADDITIONAL_ENDPOINTS='{\"https://process.datadoghq.com\": [\"apikey2\", \"apikey3\"], \"https://process.datadoghq.eu\": [\"apikey4\"]}' +``` + +## Métricas de Cluster Agent + +Configurar el Agent para enviar métricas de Cluster Agent, como Centro de métricas de estado de Kubernetes, a endpoints adicionales. + +### Configuración de HELM +En `valores.yaml` de Datadog: +```yaml +clusterAgent: + env: + - name: DD_ADDITIONAL_ENDPOINTS + value: '{"https://app.datadoghq.com": ["apikey2"]}' +``` +### Proveedor de métricas de Cluster Agent + +Para asegurar que el autoescalado es resistente a fallos, configura el Cluster Agent para ejecutar tus consultas de métricas para el HPA contra tus múltiples regiones de Datadog con datos de doble envío. Configura el manifiesto de Cluster Agent de Datadog con varios endpoints: + +{{< code-block lang="yaml" filename="cluster-agent-deployment.yaml" collapsible="true" >}} +external_metrics_provider: + endpoints: + - api_key: + app_key: + url: https://app.datadoghq.eu + - api_key: + app_key: + url: https://app.datadoghq.com +{{< /code-block >}} + +## Orquestador + +### Configuración de HELM +En `valores.yaml` de Datadog: +```yaml +agents: + customAgentConfig: + process_config: + additional_endpoints: + "https://process.datadoghq.com": + - apikey2 + orchestrator_explorer: + orchestrator_additional_endpoints: + "https://orchestrator.datadoghq.com": + - apikey2 + +clusterAgent: +... + datadog_cluster_yaml: + orchestrator_explorer: + orchestrator_additional_endpoints: + "https://orchestrator.ddog-gov.com": + - apikey2 +``` + + +### Configuración de la variable de entorno + +```bash +DD_ORCHESTRATOR_EXPLORER_ORCHESTRATOR_ADDITIONAL_ENDPOINTS='{\"https://orchestrator.datadoghq.com\": [\"apikey2\", \"apikey3\"], \"https://orchestrator.datadoghq.eu\": [\"apikey4\"]}' +``` + +## CI Visibility + +### Configuración YAML + +Es necesaria la versión 6.38 o 7.38 del Agent o una posterior. + +En `datadog.yaml`: +```yaml +evp_proxy_config: + [...] + additional_endpoints: + "https://-app.agent.datadoghq.com": + - apikey2 + - apikey3 + "https://-app.agent.datadoghq.eu": + - apikey4 +``` + +### Configuración de la variable de entorno + +```bash +DD_EVP_PROXY_CONFIG_ADDITIONAL_ENDPOINTS='{\"https://-app.agent.datadoghq.com\": [\"apikey2\", \"apikey3\"], \"https://-app.agent.datadoghq.eu\": [\"apikey4\"]}' +``` + +## Logs + +TCP necesita la versión 6.6 del Agent o una posterior.
+HTTPS necesita la versión 6.13 del Agent o una posterior. + +### Configuración YAML +En `datadog.yaml`: +```yaml +logs_config: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "agent-http-intake.logs.datadoghq.com" + Port: 443 + is_reliable: true +``` + +### Configuración de la variable de entorno + +Es necesaria la versión 6.18 o 7.18 del Agent o una posterior. + +```bash +DD_LOGS_CONFIG_USE_HTTP=true +DD_LOGS_CONFIG_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"agent-http-intake.logs.datadoghq.com\", \"Port\": 443, \"is_reliable\": true}]" +``` + +{{% agent-dual-shipping %}} + +## Monitorización de base de datos + +### Configuración YAML + +Es necesaria la versión 6.29 o 7.29 del Agent o una posterior. + +En `datadog.yaml`: +```yaml +database_monitoring: + samples: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "dbm-metrics-intake.datadoghq.com" + Port: 443 + is_reliable: true + activity: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "dbquery-intake.datadoghq.com" + Port: 443 + is_reliable: true + metrics: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "dbm-metrics-intake.datadoghq.com" + Port: 443 + is_reliable: true +``` + +### Configuración de la variable de entorno + +```bash +DD_DATABASE_MONITORING_SAMPLES_USE_HTTP=true +DD_DATABASE_MONITORING_SAMPLES_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"dbm-metrics-intake.datadoghq.com\", \"Port\": 443, \"is_reliable\": true}]" +DD_DATABASE_MONITORING_ACTIVITY_USE_HTTP=true +DD_DATABASE_MONITORING_ACTIVITY_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"dbquery-intake.datadoghq.com\", \"Port\": 443, \"is_reliable\": true}]" +DD_DATABASE_MONITORING_METRICS_USE_HTTP=true +DD_DATABASE_MONITORING_METRICS_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"dbm-metrics-intake.datadoghq.com\", \"Port\": 443, \"is_reliable\": true}]" +``` + +{{% agent-dual-shipping %}} + +## Dispositivos de red + +### Configuración YAML + +Es necesaria la versión 6.29 o 7.29 del Agent o una posterior. + +En `datadog.yaml`: +```yaml +network_devices: + metadata: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "ndm-intake.datadoghq.com" + Port: 443 + is_reliable: true + snmp_traps: + forwarder: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "ndm-intake.datadoghq.com" + Port: 443 + is_reliable: true + netflow: + forwarder: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "ndm-intake.datadoghq.com" + Port: 443 + is_reliable: true +``` + +### Configuración de la variable de entorno + +```bash +DD_NETWORK_DEVICES_METADATA_USE_HTTP=true +DD_NETWORK_DEVICES_METADATA_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"ndm-intake.datadoghq.com\", \"Port\": 443, \"is_reliable\": true}]" +``` + +{{% agent-dual-shipping %}} + +## Errores en la gestión de la seguridad en la nube + +### Configuración YAML + +En `datadog.yaml`: +```yaml +compliance_config: + endpoints: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "https://-app.agent.datadoghq.eu" + Port: 443 + is_reliable: true +``` + +### Configuración de la variable de entorno + +```bash +DD_COMPLIANCE_CONFIG_ENDPOINTS_USE_HTTP=true +DD_COMPLIANCE_CONFIG_ENDPOINTS_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"https://-app.agent.datadoghq.eu\", \"Port\": 443, \"is_reliable\": true}]" +``` + +{{% agent-dual-shipping %}} + +## Amenazas para la gestión de la seguridad en la nube + +### Configuración YAML +En `datadog.yaml`: +```yaml +runtime_security_config: + endpoints: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "https://-app.agent.datadoghq.eu" + Port: 443 + is_reliable: true +``` + +### Configuración de la variable de entorno + +```bash +DD_RUNTIME_SECURITY_CONFIG_ENDPOINTS_USE_HTTP=true +DD_RUNTIME_SECURITY_CONFIG_ENDPOINTS_ADDITIONAL_ENDPOINTS="[{\"api_key\": \"apiKey2\", \"Host\": \"https://-app.agent.datadoghq.eu\", \"Port\": 443, \"is_reliable\": true}]" +``` + +{{% agent-dual-shipping %}} + +## Envío doble en Kubernetes + +Si estás utilizando el [Datadog Agent Helm chart][2], debes configurar estos ajustes con un configmap. En `valores.yaml`, configura `useConfigMap: verdadero` +y añade los ajustes pertinentes a `customAgentConfig`. + +```yaml +# agents.useConfigMap -- Configures a configmap to provide the agent configuration. Use this in combination with the `agents.customAgentConfig` parameter. + useConfigMap: true + + # agents.customAgentConfig -- Specify custom contents for the datadog agent config (datadog.yaml) + ## ref: https://docs.datadoghq.com/agent/configuration/agent-configuration-files/?tab=agentv6 + ## ref: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml + ## Note the `agents.useConfigMap` needs to be set to `true` for this parameter to be taken into account. + customAgentConfig: + additional_endpoints: + "https://app.datadoghq.com": + - apikey2 + - apikey3 + "https://app.datadoghq.eu": + - apikey4 + + logs_config: + use_http: true + additional_endpoints: + - api_key: "apiKey2" + Host: "{{< region-param key=agent_http_endpoint >}}" + Port: 443 + is_reliable: true +``` + +Si utilizas el [Datadog Agent operator (operador de Datadog Agent)][3], también puedes configurar la tecla `agent.customConfig.configData`. Todas las claves configurables están documentadas en [v1][4] y [v2][5]. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent/configuration/network/ +[2]: https://github.com/DataDog/helm-charts +[3]: https://github.com/DataDog/datadog-operator +[4]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v1alpha1.md +[5]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md \ No newline at end of file diff --git a/content/es/agent/faq/_index.md b/content/es/agent/faq/_index.md index f5bc20ea65f0b..730517da6af3b 100644 --- a/content/es/agent/faq/_index.md +++ b/content/es/agent/faq/_index.md @@ -8,20 +8,21 @@ kind: faq title: FAQ del Agent --- -{{< whatsnext desc="Lista de preguntas frecuentes:">}} - {{< nextlink href="agent/faq/host-metrics-with-the-container-agent" >}}Alojar métricas con el Agent del contenedor{{< /nextlink >}} - {{< nextlink href="agent/faq/agent-downgrade-major" >}}Cambiar a una versión principal anterior del Agent{{< /nextlink >}} - {{< nextlink href="agent/faq/agent-downgrade-minor" >}}Cambiar a una versión secundaria anterior del Agent{{< /nextlink >}} - {{< nextlink href="agent/faq/how-datadog-agent-determines-the-hostname" >}}¿Cómo determina Datadog el nombre de host del Agent?{{< /nextlink >}} - {{< nextlink href="agent/faq/macos-agent-run-as-system-service" >}}¿Cómo configurar el Agent para ejecutarlo como servicio de sistema en macOS?{{< /nextlink >}} - {{< nextlink href="agent/faq/error-restarting-agent-already-listening-on-a-configured-port" >}}Error al reiniciar el Agent: ya escucha en un puerto configurado{{< /nextlink >}} - {{< nextlink href="agent/faq/kubernetes-secrets" >}}¿Cómo usar los secretos de Kubernetes para configurar mi clave de API?{{< /nextlink >}} - {{< nextlink href="agent/faq/kubernetes-state-cluster-check" >}}¿Cómo ejecutar el check de kubernetes_state como un check de clúster?{{< /nextlink >}} - {{< nextlink href="agent/faq/rpm-gpg-key-rotation-agent-6" >}}Rotación de claves GPG en paquetes RPM{{< /nextlink >}} - {{< nextlink href="agent/faq/agent-v6-changes" >}}Cambios en el Datadog Agent v6{{< /nextlink >}} - {{< nextlink href="agent/faq/ec2-use-win-prefix-detection" >}}Nombres de host de EC2 en Windows que empiezan por EC2AMAZ-{{< /nextlink >}} - {{< nextlink href="agent/guide/auto_conf" >}}Configuración automática de Autodiscovery{{< /nextlink >}} - {{< nextlink href="agent/guide/template_variables" >}}Variables de plantillas empleadas para Autodiscovery{{< /nextlink >}} - {{< nextlink href="logs/guide/commonly-used-log-processing-rules" >}}Las reglas para procesar logs más utilizadas{{< /nextlink >}} - {{< nextlink href="agent/faq/docker-hub" >}}Docker Hub{{< /nextlink >}} +{{< whatsnext desc="List of Frequently Asked Questions:">}} +{{< nextlink href="agent/faq/host-metrics-with-the-container-agent" >}}métricas de host con el Container Agent{{< /nextlink >}} +{{< nextlink href="agent/faq/agent-downgrade-major" >}}Actualizar el Agent a una versión mayor anterior{{< /nextlink >}} +{{< nextlink href="agent/faq/agent-downgrade-minor" >}}Desactualizar el Agent a una versión menor anterior{{< /nextlink >}} +{{< nextlink href="agent/faq/how-datadog-agent-determines-the-hostname" >}}¿Cómo determina Datadog el nombre del host de Agent?{{< /nextlink >}} +{{< nextlink href="agent/faq/macos-agent-run-as-system-service" >}}¿Cómo configuro Agent para que se ejecute como un servicio de sistema en macOS?{{< /nextlink >}} +{{< nextlink href="agent/faq/error-restarting-agent-already-listening-on-a-configured-port" >}}Error al reiniciar Agent: Ya estás escuchando en un puerto configurado{{< /nextlink >}} +{{< nextlink href="agent/faq/kubernetes-secrets" >}}¿Cómo utilizo secretos de Kubernetes para configurar mi clave API?{{< /nextlink >}} +{{< nextlink href="agent/faq/kubernetes-state-cluster-check" >}}¿Cómo ejecuto el kubernetes_state check como check de clúster? {{< /nextlink >}} +{{< nextlink href="agent/faq/rpm-gpg-key-rotation-agent-6" >}}Rotación de claves GPG de RPM{{< /nextlink >}} +{{< nextlink href="agent/faq/linux-agent-2022-key-rotation" >}}Rotación de claves Linux Agent 2022{{< /nextlink >}} +{{< nextlink href="agent/faq/agent-v6-changes" >}}Cambios Datadog Agent v6{{< /nextlink >}} +{{< nextlink href="agent/faq/ec2-use-win-prefix-detection" >}}Nombres de host de Windows EC2 que comienzan con EC2AMAZ-{{< /nextlink >}} +{{< nextlink href="agent/guide/auto_conf" >}}Autoconfiguración para Autodiscovery{{< /nextlink >}} +{{< nextlink href="agent/guide/template_variables" >}}Variables de plantilla utilizadas para Autodiscovery{{< /nextlink >}} +{{< nextlink href="logs/guide/commonly-used-log-processing-rules" >}}Reglas de procesamiento de log de utilizadas comúnmente{{< /nextlink >}} +{{< nextlink href="agent/faq/docker-hub" >}}Docker Hub{{< /nextlink >}} {{< /whatsnext >}} \ No newline at end of file diff --git a/content/es/agent/faq/agent-5-process-collection.md b/content/es/agent/faq/agent-5-process-collection.md new file mode 100644 index 0000000000000..cf39e6db334f5 --- /dev/null +++ b/content/es/agent/faq/agent-5-process-collection.md @@ -0,0 +1,67 @@ +--- +kind: preguntas frecuentes +private: true +title: Recolección de proceso con Agent v5 +--- + +## Configuración de Standard Agent + +**Live Processes está disponible en Datadog Agent versión 5.16.0 y superiores.** +Consulta las instrucciones para la [Agent installation (instalación de Agent)][1] para obtener detalles específicos de la plataforma. + +**Nota**: Live Processes no está disponible para el método de instalación de origen del Agent. + +Una vez instalado Datadog Agent, activa Live Processes editando el [configuration file (archivo configuración)][2] en: + +```text +/etc/dd-agent/datadog.conf +``` + +y añadiendo la siguiente línea a la sección `[Main (principal)]`: + +```yaml + process_agent_enabled: true +``` + +Una vez completada la configuración, [restart the Agent (reinicia el Agent)][3]. +**Nota**: Para recopilar información de Contenedor en la instalación estándar, el usuario de `dd-agent` necesita tener permisos para acceder a `docker.sock`. + +## Contenedor Docker + +Actualiza a la versión 5.16.0 o superior de la imagen Datadog Agent: + + $ docker pull gcr.io/datadoghq/docker-dd-agent + +Sigue las instrucciones para [Docker-dd-Agent][4], introduciendo los siguientes atributos, además de cualquier otro ajuste personalizado que resulte apropiado: + +```text +-v /etc/passwd:/etc/passwd:ro +-e DD_PROCESS_AGENT_ENABLED=true +``` + +## Kubernetes DaemonSet + +En el manifiesto [dd-Agent.yaml][5] utilizado para crear el DaemonSet, añade las siguientes variables de entorno, montaje de volumen y volumen: + +```yaml + env: + - name: DD_PROCESS_AGENT_ENABLED + value: "true" + volumeMounts: + - name: passwd + mountPath: /etc/passwd + readOnly: true + volumes: + - hostPath: + path: /etc/passwd + name: passwd +``` + +Consulta las páginas de información estándar [DaemonSet installation (instalación de DaemonSet)][6] y [Docker-dd-Agent][4] para obtener más documentación. + +[1]: https://app.datadoghq.com/account/settings/agent/5?platform=overview +[2]: /es/agent/faq/where-is-the-configuration-file-for-the-agent/ +[3]: /es/agent/configuration/agent-commands/#start-stop-restart-the-agent +[4]: https://github.com/DataDog/docker-dd-agent +[5]: https://github.com/DataDog/docker-dd-agent#configuration-files +[6]: /es/agent/kubernetes/ \ No newline at end of file diff --git a/content/es/agent/faq/agent-downgrade-major.md b/content/es/agent/faq/agent-downgrade-major.md index 46f39bfd0d244..99090fd04bdfb 100644 --- a/content/es/agent/faq/agent-downgrade-major.md +++ b/content/es/agent/faq/agent-downgrade-major.md @@ -12,7 +12,7 @@ title: Cambiar a una versión principal anterior del Agent En primer lugar, [desinstala la v7 del Agent del sistema][1]. -A continuación, si seguiste las instrucciones para [pasar de la v6 a la v7][2], ejecuta el siguiente comando de instalación del Agent para cambiar de la versión 7 a la versión 6 del Agent: +A continuación, si has seguido las instrucciones para [upgrade from v6 to v7 (actualizar de v6 a v7)][2], ejecuta el siguiente comando de instalación Agent para bajar tu Agent de la versión 7 a la versión 6: ```shell DD_API_KEY="" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" @@ -36,13 +36,13 @@ El comando funciona en todas las versiones compatibles de Amazon Linux, CentOS, [1]: /es/agent/guide/how-do-i-uninstall-the-agent/ [2]: https://ddagent-windows-stable.s3.amazonaws.com/datadog-agent-6-latest.amd64.msi [3]: https://app.datadoghq.com/organization-settings/api-keys -[4]: https://s3.amazonaws.com/ddagent-windows-stable/installers.json +[4]: https://ddagent-windows-stable.s3.amazonaws.com/installers_v2.json {{% /tab %}} {{% tab "MacOS" %}} En primer lugar, [desinstala la v7 del Agent del sistema][1]. -A continuación, si seguiste las instrucciones para [pasar de la v6 a la v7][2], ejecuta el comando de instalación del Agent con la variable de entorno `DD_AGENT_MAJOR_VERSION=6` para cambiar de la versión 7 a la versión 6 del Agent: +A continuación, si has seguido las instrucciones para [upgrade from v6 to v7 (actualizar de v6 a v7)][2], ejecuta el comando de instalación Agent con la variable de entorno `DD_AGENT_MAJOR_VERSION=6` para bajar tu Agent de la versión 7 a la versión 6: ```shell DD_AGENT_MAJOR_VERSION=6 DD_API_KEY="" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_mac_os.sh)" @@ -77,8 +77,9 @@ En esta guía, se asume que actualizaste a la v6 del Agent utilizando la [guía sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch ``` 3. Si ejecutas Ubuntu 14 o una versión anterior, o Debian 8 o una versión anterior, copia el conjunto de claves en `/etc/apt/trusted.gpg.d`: @@ -128,7 +129,7 @@ En esta guía, se asume que actualizaste a la v6 del Agent utilizando la [guía ```shell rm /etc/yum.repos.d/datadog-beta.repo - [ ! -f /etc/yum.repos.d/datadog.repo ] && echo -e '[datadog]\nname = Datadog, Inc.\nbaseurl = https://yum.datadoghq.com/rpm/x86_64/ \nenabled=1\ngpgcheck=1\nrepo_gpgcheck=1\npriority=1\ngpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public\n https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public\n https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public' | sudo tee /etc/yum.repos.d/datadog.repo + [ ! -f /etc/yum.repos.d/datadog.repo ] && echo -e '[datadog]\nname = Datadog, Inc.\nbaseurl = https://yum.datadoghq.com/rpm/x86_64/ \nenabled=1\ngpgcheck=1\nrepo_gpgcheck=1\npriority=1\ngpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public\n https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public\n https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public\n https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public' | sudo tee /etc/yum.repos.d/datadog.repo ``` **Nota**: Debido a un [error en dnf][1], utiliza `repo_gpgcheck=0` en lugar de `repo_gpgcheck=1` con RHEL/CentOS 8.1. @@ -176,7 +177,7 @@ En esta guía, se asume que actualizaste a la v6 del Agent utilizando la [guía Ejecuta el paquete del instalador del Agent para instalar la última versión 5.x; encontrarás las instrucciones [en la página de integración del Datadog Agent][1]. -[1]: https://app.datadoghq.com/account/settings#agent/windows +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=windows {{% /tab %}} {{% tab "MacOS" %}} diff --git a/content/es/agent/faq/agent_v6_changes.md b/content/es/agent/faq/agent_v6_changes.md index dae3a717f5568..a9290af375414 100644 --- a/content/es/agent/faq/agent_v6_changes.md +++ b/content/es/agent/faq/agent_v6_changes.md @@ -90,9 +90,9 @@ Las siguientes opciones de configuración del Agent han cambiado o han desaparec | `use_curl_http_client` | | | `collect_security_groups` | Obsoleta, función disponible con la [integración de AWS][6]. | -[1]: /es/agent/guide/agent-configuration-files/#agent-main-configuration-file +[1]: /es/agent/configuration/agent-configuration-files/#agent-main-configuration-file [2]: /es/agent/guide/upgrade-to-agent-v6/ -[3]: /es/agent/proxy/ +[3]: /es/agent/configuration/proxy/ [4]: /es/integrations/disk/ [5]: /es/logs/ [6]: /es/integrations/amazon_web_services/ @@ -179,7 +179,7 @@ Las versiones anteriores logueaban en varios archivos (`collector.log`, `forward ## Interfaz -La interfaz de línea de comandos del Agent v6 está basada en subcomandos. Para consultar la lista de subcomandos disponibles, ejecuta: +La interfaz de línea de comandos de Agent v6 se basa en subcomandos. Para ver la lista de subcomandos disponibles, ejecuta: ```shell --help ``` @@ -225,9 +225,9 @@ Si el comando del contenedor `service` no está disponible en tu sistema, utiliz * En sistemas basados en `upstart`: `sudo start/stop/restart/status datadog-agent` * Para sistemas basados en `systemd`: `sudo systemctl start/stop/restart/status datadog-agent` -Si no sabes con seguridad qué sistema de inicio utiliza tu distribución de forma predeterminada, consulta la siguiente tabla: +Si no sabes con seguridad qué sistema de inicialización utiliza tu distribución de forma predeterminada, consulta la siguiente tabla: -| distribución \ sistema de inicio | upstart | systemd | sysvinit | Notas | +| distribución \ sistema de inicialización | upstart | systemd | sysvinit | Notas | |---------------------------------|---------------------------|---------------------------|-------------------------------------------|-------------------------------| | Amazon Linux (<= 2017.09) | | | | | | Amazon Linux 2 (>= 2017.12) | | | | | @@ -378,7 +378,7 @@ Las siguientes opciones y etiquetas (tags) están obsoletas: * `label_to_tag_prefix` se ha reemplazado por `kubernetes_pod_labels_as_tags`. * Las etiquetas `container_alias` no se recopilan. -* `kube_replicate_controller` solo se añade si el pod se crea mediante un controlador de replicación. En lugar de ello, utiliza la etiqueta de creador correspondiente (`kube_deployment`, `kube_daemon_set`, etc.). +* `kube_replicate_controller` solo se añade si el pod ha sido creado por un controlador de replicación. En su lugar, utiliza una etiqueta (tag) creadora relevante como `kube_deployment`, o `kube_daemon_set`. [1]: /es/integrations/kubelet/ [2]: /es/integrations/kube_apiserver_metrics/ @@ -561,12 +561,12 @@ Del mismo modo, puede que añadieras un paquete PIP para cumplir un requisito de {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/agent/proxy/#using-the-agent-as-a-proxy +[1]: /es/agent/configuration/proxy/#using-the-agent-as-a-proxy [2]: https://github.com/DataDog/dd-agent/wiki/Using-custom-emitters [3]: /es/agent/guide/dogstream/ [4]: /es/integrations/go-metro/ -[5]: /es/agent/guide/agent-log-files/ -[6]: /es/agent/guide/agent-commands/ +[5]: /es/agent/configuration/agent-log-files/ +[6]: /es/agent/configuration/agent-commands/ [7]: /es/getting_started/agent/autodiscovery/ [8]: https://github.com/DataDog/integrations-core/tree/master/datadog_checks_base [9]: https://github.com/DataDog/datadog-agent/tree/main/docs/dev/checks \ No newline at end of file diff --git a/content/es/agent/faq/linux-agent-2022-key-rotation.md b/content/es/agent/faq/linux-agent-2022-key-rotation.md new file mode 100644 index 0000000000000..eb516c8a04d1a --- /dev/null +++ b/content/es/agent/faq/linux-agent-2022-key-rotation.md @@ -0,0 +1,196 @@ +--- +aliases: +- /es/agent/guide/linux-agent-2022-key-rotation +kind: guía +private: true +title: Rotación de claves del Agent de Linux de 2022 +--- + +Como práctica habitual, Datadog rota periódicamente las claves y certificados utilizados para firmar los paquetes Agent de Datadog. Las siguientes claves GPG, utilizadas para firmar los paquetes RPM y DEB de Agent, llegan al final de su vida útil en junio de 2022 y se rotarán en abril de 2022: + +- La clave de firma RPM con hash [`A4C0B90D7443CF6E4E8AA341F1068E14E09422B3`][1] será rotada el 11 de abril a las 12:00 UTC de 2022 y será reemplazada por la clave con hash [`C6559B690CA882F023BDF3F63F4D1729FD4BF915`][2]. La primera versión de RPM después de esa fecha (6.36 y 7.36) requerirá la instalación de la nueva clave de confianza. +- La clave de firma DEB con hash [`A2923DFF56EDA6E76E55E492D3A80E30382E94DE`][3] será rotada el 2 de mayo a las 12:00 UTC de 2022 y será reemplazada por la clave con hash [`D75CEA17048B9ACBF186794B32637D44F14F620E`][4]. APT comprueba la firma de metadatos del repositorio por lo que la nueva clave debe ser de confianza en esta fecha para instalar cualquier versión futura o existente de Agent desde `apt.datadoghq.com`. + +Los clientes que utilizan los paquetes RPM o DEB de Datadog podrían necesitar importar manualmente la nueva clave en sus sistemas para instalar o actualizar el Agent luego de que se produzca la rotación. + +
+Nota: Esto NO afecta a la funcionalidad de los Agents que se están ejecutando y solo limita la capacidad de instalar o actualizar a una versión más reciente de Agent. Además, esto no afecta a Agents de Linux, Windows o macOS dockerizados. +
+ +## Instala métodos que confíen automáticamente en la nueva clave GPG + +Tu host confía automáticamente en la nueva clave (no se requiere ninguna acción adicional) si estás utilizando uno de los siguientes métodos de instalación: + +- [Script de instalación del Agent][5], v1.6.0 y posteriores (lanzado el 26 de julio de 2021) +- [Cookbook de Chef][6], v4.11.0 y posteriores (lanzado el 10 de agosto de 2021) +- [Rol de Ansible][7], v4.10.0 y posteriores (lanzado el 25 de mayo de 2021) +- [Módulo Puppet][8], v3.13.0 y posteriores (lanzado el 11 de agosto de 2021) +- [Fórmula SaltStack][9], v3.4 y posteriores (lanzada el 12 de agosto de 2021) +- [Paquete de compilación de Heroku][10], v1.26 y posteriores (lanzado el 26 de mayo de 2021) +- Plantillas de configuración de [Elastic Beanstalk][11], actualizadas a partir del 29 de marzo de 2021 (deben contener `DATADOG_RPM_KEY_FD4BF915.public` en `gpgkey`) +- Agents contenedorizados (Docker/Kubernetes), cualquier versión +- Agents de Windows/MacOS, cualquier versión + +Además, al instalar el paquete DEB de Agent versiones 6.35.1, v7.35.1 o posteriores en `apt` desde el repositorio `apt.datadoghq.com` se instala la versión 1.1.0 del [paquete `datadog-signing-keys`](#the-datadog-signing-keys-paquete), lo que garantiza automáticamente que tu host confiará en la nueva clave. Si tienes instalada la versión 1.1.0 o posterior de `datadog-signing-keys`, no es necesario realizar ninguna otra acción. Las versiones de `datadog-signing-keys` anteriores a la [versión 1.1.0](#datadog-signing-keys-version-110) no garantizan la plena preparación para la rotación de claves. + +Si estás instalando el paquete DEB de Agent desde un repositorio diferente o si no estás utilizando `apt` (o una herramienta similar para comprobar las firmas de metadatos del repositorio), tu sistema no necesita conocer las claves de firma de Datadog (no es necesaria ninguna acción adicional). Sin embargo, puedes beneficiarte del [paquete`datadog-signing-keys` ](#the-datadog-signing-keys-package). + +Si no estás seguro de si un host confía en la nueva clave de firma, puedes [comprobar](#check-if-a-host-trusts-the-new-gpg-key). + +Para los hosts que ejecutan versiones anteriores de los métodos de instalación mencionados más arriba o versiones anteriores del paquete DEB, Datadog recomienda actualizar el método de instalación a la última versión. Alternativamente, los usuarios de Debian y Ubuntu pueden actualizar Agent a la versión 7.31.0+. Si no, se puede [actualizar manualmente](#manual-update). + +## ¿Qué ocurre si no confío en la nueva clave antes de su rotación? + +Al intentar instalar o actualizar paquetes de Agent utilizando `apt`, `yum`, `dnf` o `zypper` desde `apt.datadoghq.com`/`yum.datadoghq.com` sin confiar en la nueva clave se produce un error. + +Algunos de los posibles errores son: + +``` +E: The repository 'https://apt.datadoghq.com stable Release' is not signed. +``` +``` +E: Package 'datadog-agent' has no installation candidate +``` +``` +The following signatures couldn't be verified because the public key is not available: NO_PUBKEY +``` +``` +The GPG keys listed for the "Datadog, Inc." repository are already installed but they are not correct for this package. +Check that the correct key URLs are configured for this repository. +``` +``` +Public key for datadog-agent-7.35.1-1.x86_64.rpm is not installed. Failing package is: datadog-agent-1:7.35.1-1.x86_64 +``` +``` +Error: GPG check FAILED +``` + +En el caso de `apt`, esto afecta tanto a las nuevas versiones del Agent como a las ya existentes. En el caso de `yum`, `dnf` o `zypper`, es posible instalar las versiones existentes del Agent siempre que `repo_gpgcheck=0` esté configurado en el archivo `datadog.repo`. + +Esta rotación de claves no afecta a las instalaciones realizadas descargando manualmente los paquetes e instalándolos con `dpkg` o `rpm`. Esto puede causar una advertencia para `rpm`. + +## Actualización manual + +Datadog te incentiva a utilizar uno de los [métodos de instalación](#install-methods-that-automatically-trust-the-new-gpg-key) anteriores, que confían automáticamente en la nueva clave GPG, así como en todas las claves futuras. Si esto no es una opción, utiliza las siguientes instrucciones para descargar manualmente la nueva clave y confiar en ella. + +{{< tabs >}} +{{% tab "Debian/Ubuntu" %}} + +Ejecuta los siguientes comandos en el host: + +```bash +$ curl -o /tmp/DATADOG_APT_KEY_F14F620E https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public +$ sudo apt-key add /tmp/DATADOG_APT_KEY_F14F620E +$ sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg +$ cat /tmp/DATADOG_APT_KEY_F14F620E | sudo gpg --import --batch --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg +$ sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg +``` + +{{% /tab %}} +{{% tab "RedHat/CentOS/SUSE" %}} + +Ejecuta los siguientes comandos en el host: + +``` +$ curl -o /tmp/DATADOG_RPM_KEY_FD4BF915 https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public +$ sudo rpm --import /tmp/DATADOG_RPM_KEY_FD4BF915 +``` + +{{% /tab %}} +{{< /tabs >}} + +## Comprueba si un host confía en la nueva clave GPG + +{{< tabs >}} +{{% tab "Debian/Ubuntu" %}} + +Un host confía correctamente en la nueva clave si se cumple alguna de las siguientes condiciones: + +- El archivo `/usr/share/keyrings/datadog-archive-keyring.gpg` existe y el archivo de la lista de orígenes de Datadog (normalmente `/etc/apt/sources.list.d/datadog.list`) contiene la opción `[signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg]`. +- El archivo de la lista de orígenes de Datadog no contiene la opción `signed-by`, pero la versión 1.1.0 o posteriores de las `datadog-signing-keys` está instalada, por lo que aparecerá un archivo `/etc/apt/trusted.gpg.d/datadog-archive-keyring.gpg`. + +Los archivos `/usr/share/keyrings/datadog-archive-keyring.gpg` y, opcionalmente, `/etc/apt/trusted.gpg.d/datadog-archive-keyring.gpg`, se crean mediante un [método de instalación] compatible (#install-methods-that-automatically-trust-the-new-gpg-key) o instalando el [paquete`datadog-signing-keys`](#the-datadog-signing-keys-package). Asegúrate de que`datadog-signing-keys` [versión 1.1.0](#datadog-signing-keys-version-110) o posterior está instalado, a menos que utilices una de las [versiones del método de instalación mencionadas anteriormente](#install-methods-that-automatically-trust-the-new-gpg-key). + +{{% /tab %}} +{{% tab "RedHat/CentOS/SUSE" %}} + +Ejecuta el siguiente comando en el host: + +```bash +$ rpm -qa | grep gpg-pubkey-fd4bf915 +``` + +Si el host confía en la clave, el comando tendrá un código de salida 0 y las siguientes salidas: + +``` +gpg-pubkey-fd4bf915-5f573efe +``` + +Si no, el comando devuelve un código de salida distinto de 0 sin salida. + +Si lo prefieres, comprueba si tu archivo `datadog.repo` contiene `https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public` como una de las entradas `gpgkey`. Este archivo de claves se actualizará con la nueva clave en cuanto esté en uso. + +{{% /tab %}} +{{< /tabs >}} + +## El paquete `datadog-signing-keys` + +
Nota: Esta sección solo se aplica a los usuarios del paquete DEB de Agent.
+ +Desde Agent v6.31.0 y v7.31.0, todos los paquetes DEB de Datadog dependen en alguna medida del paquete `datadog-signing-keys`. Desde Agent v6.35.1 y v 7.35.1, todos los paquetes DEB de Datadog dependen del paquete `datadog-signing-keys`, versión `1.1.0` . + +Una vez instalado, este paquete: + +- Configura las claves APT en el conjunto de claves `/usr/share/keyrings/datadog-archive-keyring.gpg` y, si es necesario, también lo hace en `/etc/apt/trusted.gpg.d/datadog-archive-keyring.gpg`. **Esto garantiza la confianza en la próxima clave de firma del repositorio de APT.** Para asegurarse de que todo está listo para la siguiente rotación de claves, recomendamos utilizar el paquete [`datadog-signing-keys` versión 1.1.0](#datadog-signing-keys-version-110). +- Establece una [política `debsig-verify`][12] para los paquetes de Datadog. Esto te permite verificar firmas para paquetes DEB individuales localmente. + +Por ejemplo, para verificar que un paquete DEB descargado localmente ha sido creado y firmado por Datadog, ejecuta el siguiente comando: + + ```bash + $ debsig-verify datadog-dogstatsd_7.34.0-1_amd64.deb + ``` + +Si la verificación tiene éxito, `debsig-verify` sale con el estado `0` e imprime un mensaje: `debsig: Verified package from 'Datadog, Inc.' (Datadog).`. Los paquetes DEB de Datadog se integran a las firmas desde las versiones 6.26.0/7.26.0, por lo que esta verificación no funciona en versiones anteriores. + +Debido a que la dependencia del paquete de Agent versiones 6.31.0+/7.31.0 y posteriores de `datadog-signing-keys` es opcional, es posible que no se instale si: + +- Descarga manualmente el paquete DEB de Agent e instálalo sin tener el repositorio de Datadog configurado como origen APT. +- Puedes replicar el paquete DEB del Agent en tu propio repositorio de APT sin replicar también el paquete `datadog-signing-keys`. +- La configuración de tu APT está definida para no instalar paquetes recomendado. Por ejemplo, ejecutando `apt` con ` --no-install-recommends` or by having `APT::Install-Recommends "0"` in `apt.conf`. + +Los dos primeros métodos no requieren la verificación de los metadatos del repositorio de Datadog, por lo que la rotación de claves no tiene ningún impacto. Sin embargo, puede que te resulte útil utilizar los archivos de políticas `debsig-verify` incluidos en el paquete`datadog-signing-keys`. + +Con el tercer método, necesitas instalar explícitamente el paquete `datadog-signing-keys` si estás instalando el paquete de Agent de `apt.datadoghq.com` a `apt`. Como alternativa, utiliza uno de los [métodos de instalación](#install-methods-that-automatically-trust-the-new-gpg-key) compatibles. + +### Versión 1.1.0 de datadog-signing-keys + +
Nota: Esta sección solo se aplica a los usuarios del paquete DEB del Agent.
+ +Las versiones de `datadog-signing-keys` anteriores a la v1.1.0 no gestionan los siguientes casos de esquina: + +* En Ubuntu >= 16 y Debian >= 9, solo se creó `/usr/share/keyrings/datadog-archive-keyring.gpg`, pero no se creó `/etc/apt/trusted.gpg.d/datadog-archive-keyring.gpg`. +* Si el archivo de listas de orígenes de APT (por ejemplo, `/etc/apt/sources.list.d/datadog.list`) no contiene la opción `[signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg]`, APT nunca conocerá la nueva clave. Cualquier operación con el repositorio de Datadog fallará después de la rotación de claves. + +`datadog-signing-keys`, v1.1.0 soluciona este problema creando `/etc/apt/trusted.gpg.d/datadog-archive-keyring.gpg` cuando `/etc/apt/sources.list.d/datadog.list` no contiene la opción `signed-by` adecuada. Esto asegura que el caso anterior también está cubierto. + +Los usuarios de [métodos de instalación](#install-methods-that-automatically-trust-the-new-gpg-key) actualizados compatibles que utilicen las fuentes predeterminadas de Datadog siempre tienen configurada la opción `signed-by` adecuada, por lo que no se ven afectados por este problema. Datadog recomienda encarecidamente a todos los demás usuarios que actualicen a `datadog-signing-keys` v1.1.0 para asegurarse de estar preparados para la próxima rotación de claves. La instalación de DEB del Agent, versiones 6.35.1, v7.35.1 o posteriores, en `apt` desde el repositorio `apt.datadoghq.com` garantiza la instalación de `datadog-signing-keys` v1.1.0. + +## Impacto en usuarios de Agent v5 + +Los usuarios de Agent v5 en sistemas basados en DEB (Debian/Ubuntu) también deben confiar en la nueva clave de firma para instalar o actualizar el Agent después de la fecha de rotación. Los usuarios de Agent v5 en sistemas basados en RPM (RedHat/CentOS/SUSE) no se ven afectados por esta rotación. + +**Nota**: Agent v5 utiliza Python 2, que llegó al final de su vida útil el 1 de enero de 2021. Datadog recomienda [actualizar a la versión 7 de Agent][13]. + +[1]: https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public +[2]: https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public +[3]: https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public +[4]: https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public +[5]: https://s3.amazonaws.com/dd-agent/scripts/install_script.sh +[6]: https://github.com/DataDog/chef-datadog +[7]: https://github.com/DataDog/ansible-datadog +[8]: https://github.com/DataDog/puppet-datadog-agent +[9]: https://github.com/DataDog/datadog-formula +[10]: https://github.com/DataDog/heroku-buildpack-datadog +[11]: https://docs.datadoghq.com/es/integrations/amazon_elasticbeanstalk +[12]: https://manpages.ubuntu.com/manpages/jammy/man1/debsig-verify.1.html +[13]: https://app.datadoghq.com/account/settings/agent/latest \ No newline at end of file diff --git a/content/es/agent/faq/macos-agent-run-as-system-service.md b/content/es/agent/faq/macos-agent-run-as-system-service.md new file mode 100644 index 0000000000000..f65e205fdeb76 --- /dev/null +++ b/content/es/agent/faq/macos-agent-run-as-system-service.md @@ -0,0 +1,68 @@ +--- +further_reading: +- link: /agent/ + tag: Documentación + text: Más información sobre el Datadog Agent +kind: faq +title: ¿Cómo configuro el Agent para que se ejecute como un servicio de sistema en + macOS? +--- + +En macOS, el Datadog Agent se instala como un servicio para el usuario que ejecuta las instrucciones de instalación. Esto permite que la aplicación de la bandeja del sistema GUI del Datadog Agent funcione, si has iniciado sesión en la GUI de macOS como el usuario que realizó la instalación. El principal inconveniente es que el Agent solo se ejecuta cuando el usuario que realizó la instalación ha iniciado sesión en la GUI de macOS. + +Debido a esto, por defecto el Datadog Agent no se ejecuta en los casos en los que no se dispone de acceso GUI al host de macOS. Por lo tanto, se requieren pasos adicionales al instalar y ejecutar Datadog Agent en macOS sin acceso GUI. + +## Instalar + +1. Conéctate al host y [sigue las instrucciones de instalación del Agent ][1] para instalar el Datadog Agent en macOS. + +2. Ejecuta el siguiente script bash, como el usuario que ejecutó la instalación: + + ```sh + #!/bin/bash + + echo "Moving the Datadog Agent service for the $USER user to a system service" + # Move the per-user service definition installed by the Agent to a system service + sudo mv /Users/$USER/Library/LaunchAgents/com.datadoghq.agent.plist /Library/LaunchDaemons/com.datadoghq.agent.plist + + echo "Setting the Datadog Agent service to run as the $USER user" + # By default, system services run as root. + # This plist file modification is needed to make the Agent not run as root, but as the current user. + sudo plutil -insert UserName -string "$USER" /Library/LaunchDaemons/com.datadoghq.agent.plist + + echo "Setting permissions on the Datadog Agent service file" + # Put the correct permissions on the plist file. + # Otherwise launchctl will refuse running commands for this service. + sudo chown root:staff /Library/LaunchDaemons/com.datadoghq.agent.plist + + echo "Enabling the Datadog Agent service" + # Enable the service: makes sure it runs on reboot + sudo launchctl enable system/com.datadoghq.agent + + echo "Loading & launching the Datadog Agent service" + # Load the service: this starts the Agent + sudo launchctl load /Library/LaunchDaemons/com.datadoghq.agent.plist + ``` + +Este script reconfigura el servicio del Datadog Agent para que se ejecute como daemon de lanzamiento, con las siguientes propiedades: +- El servicio se inicia automáticamente al iniciar el host. +- Los procesos del Agent se ejecutan como el usuario que ejecutó el script anterior (para evitar que se ejecuten como raíz). +- La aplicación de la bandeja del sistema GUI del Datadog Agent no está disponible. + + +## Operaciones + +El servicio del Datadog Agent se gestiona con `launchctl`. Una vez ejecutadas las instrucciones de instalación anteriores, gestiona el servicio del Agent con los siguientes comandos: + +| Descripción | Comando | +|-------------------------------|---------------------------------------------------------------------------------------------------------------------------| +| Iniciar el servicio del Agent | `sudo launchctl start com.datadoghq.agent` | +| Detener la ejecución del servicio del Agent | `sudo launchctl stop com.datadoghq.agent` | +| Estado del servicio del Agent | `sudo launchctl list com.datadoghq.agent` | +| Desactivar el servicio del Agent | `sudo launchctl disable system/com.datadoghq.agent` | +| Activar el servicio del Agent | `sudo launchctl enable system/com.datadoghq.agent && sudo launchctl load /Library/LaunchDaemons/com.datadoghq.agent.plist`| + + +Desactivar el Agent impide que funcionen los comandos `list`, `start` y `stop`, y que se inicie el servicio del Agent al reiniciar. + +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=macos \ No newline at end of file diff --git a/content/es/agent/faq/rpm-gpg-key-rotation-agent-6.md b/content/es/agent/faq/rpm-gpg-key-rotation-agent-6.md index 83dc4c457209e..c22dc5ba8f373 100644 --- a/content/es/agent/faq/rpm-gpg-key-rotation-agent-6.md +++ b/content/es/agent/faq/rpm-gpg-key-rotation-agent-6.md @@ -4,7 +4,7 @@ title: Rotación de claves GPG en paquetes RPM ---
-Esta página hace referencia a la rotación de claves de 2019. Para más información, consulta la documentación sobre la rotación de claves del Agent de Linux de 2022. +Esta página se refiere a la rotación de claves de 2019. Para la rotación de claves de 2022, consulta la documentación de rotación de claves del Agent de Linux 2022.
@@ -19,7 +19,7 @@ La huella digital de la clave pública asociada es: `A4C0B90D7443CF6E4E8AA341F10 Si utilizas la última versión de uno de los siguientes métodos de instalación admitidos de forma oficial, tus hosts confiarán en la clave automáticamente y no tendrás que hacer nada más. * [Página de instalación del Agent][2] -* [Guía paso a paso de Chef][3] +* [Cookbook de Chef][3] * [Rol de Ansible][4] * [Módulo de Puppet][5] * [Fórmula SaltStack][6] @@ -54,10 +54,12 @@ Ejecuta los siguientes comandos en el host: ```bash $ curl -o /tmp/DATADOG_RPM_KEY_CURRENT.public https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public +$ curl -o /tmp/DATADOG_RPM_KEY_B01082D3.public https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public $ curl -o /tmp/DATADOG_RPM_KEY_FD4BF915.public https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public $ curl -o /tmp/DATADOG_RPM_KEY_E09422B3.public https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public $ rpm --import /tmp/DATADOG_RPM_KEY_CURRENT.public +$ rpm --import /tmp/DATADOG_RPM_KEY_B01082D3.public $ rpm --import /tmp/DATADOG_RPM_KEY_FD4BF915.public $ rpm --import /tmp/DATADOG_RPM_KEY_E09422B3.public ``` @@ -79,6 +81,7 @@ enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public ``` @@ -94,6 +97,7 @@ enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public ``` @@ -106,7 +110,7 @@ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public **Nota**: Este método no funciona en sistemas basados en SUSE. En su lugar, utiliza el [comando de importación](#import-command). [1]: https://yum.datadoghq.com -[2]: https://app.datadoghq.com/account/settings#agent +[2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://github.com/DataDog/chef-datadog [4]: https://github.com/DataDog/ansible-datadog [5]: https://github.com/DataDog/puppet-datadog-agent diff --git a/content/es/agent/guide/agent-5-autodiscovery.md b/content/es/agent/guide/agent-5-autodiscovery.md index 5ecf94acd7514..91122fa7db23a 100644 --- a/content/es/agent/guide/agent-5-autodiscovery.md +++ b/content/es/agent/guide/agent-5-autodiscovery.md @@ -335,7 +335,7 @@ El Agent gestiona las siguientes variables de plantilla: - `%%host_%%`: especifica el nombre de red que se utilizará cuando se conecte a varias redes. Por ejemplo, `%%host_bridge%%`, `%%host_swarm%%`, etc. Actúa como `%%host%%` si no se encuentra el nombre de red especificado. - Puerto del contenedor: `port` - - `%%port%%`: utiliza el puerto expuesto más alto **clasificado por orden numérico ascendente** (p. ej., 8443 para un contenedor que expone los puertos 80, 443 y 8443). + - `%%port%%`Utiliza el puerto expuesto más alto **ordenado numéricamente y en orden ascendente** (por ejemplo, 8443 para un contenedor que expone los puertos 80, 443 y 8443) - `%%port_0%%`: utiliza el primer puerto **clasificado por orden numérico ascendente** (para el mismo contenedor, `%%port_0%%` se refiere al puerto 80 y `%%port_1%%`, al 443). - Si tu puerto de destino es constante, Datadog recomienda que lo especifiques directamente, sin usar la variable `port`. @@ -408,5 +408,5 @@ checks: [19]: https://github.com/DataDog/integrations-core/blob/master/riak/datadog_checks/riak/data/auto_conf.yaml [20]: https://github.com/DataDog/docker-dd-agent#configuration-files [21]: https://github.com/DataDog/integrations-core/blob/master/apache/datadog_checks/apache/data/conf.yaml.example -[22]: /es/agent/guide/agent-commands/#start-stop-restart-the-agent +[22]: /es/agent/configuration/agent-commands/#start-stop-restart-the-agent [23]: https://github.com/DataDog/integrations-core/blob/master/http_check/datadog_checks/http_check/data/conf.yaml.example \ No newline at end of file diff --git a/content/es/agent/guide/ansible_standalone_role.md b/content/es/agent/guide/ansible_standalone_role.md new file mode 100644 index 0000000000000..2217860e54cf4 --- /dev/null +++ b/content/es/agent/guide/ansible_standalone_role.md @@ -0,0 +1,679 @@ +--- +dependencies: +- https://github.com/DataDog/ansible-datadog/blob/main/README.md +kind: documentation +title: Configurar Ansible con un rol independiente de Datadog +--- +El rol Ansible del Datadog Agent instala y configura el Datadog Agent y sus integraciones. + +## Rol Ansible frente a colección Ansible + +El rol Ansible del Datadog Agent está disponible a través de 2 canales diferentes: + +* Como parte de la colección Datadog, accesible bajo el nombre [datadog.dd](https://galaxy.ansible.com/Datadog/dd) en Ansible Galaxy (recomendado). +* Como rol independiente, accesible bajo el nombre [datadog.datadog](https://galaxy.ansible.com/Datadog/datadog) en Ansible Galaxy (heredado). + +La versión `4` del rol y la versión `5` de la colección instalan el Datadog Agent v7 por defecto. + +## Python + +Ten en cuenta que las instrucciones de instalación de este documento describen la instalación del rol independiente Datadog. Para obtener instrucciones de instalación de la colección Datadog, consulta [el archivo README de la colección](https://github.com/ansible-collections/Datadog/blob/main/README.md). Las variables de configuración son las mismas tanto para el rol independiente como para el rol al que se accede a través de la colección. + +### Requisitos + +- Requiere Ansible 2.6 o una versión posterior. +- Es compatible con la mayoría de distribuciones de Linux basadas en Debian y RHEL, con macOS y con Windows. +- Si se utiliza con Ansible v2.10 o posterior para gestionar hosts de Windows, es necesario tener instalada la colección `ansible.windows`: + + ```shell + ansible-galaxy collection install ansible.windows + ``` +- Si se utiliza con Ansible v2.10 o posterior para gestionar hosts openSUSE/SLES, es necesario tener instalada la colección `community.general`: + + ```shell + ansible-galaxy collection install community.general + ``` + +### Sensitive Data Scanner + +Instala el [rol de Datadog][1] desde Ansible Galaxy en tu servidor Ansible: + +```shell +ansible-galaxy install datadog.datadog +``` + +Para desplegar el Datadog Agent en hosts, añade el rol de Datadog y tu clave de API a tu cuaderno de estrategias: + +```text +- hosts: servers + roles: + - { role: datadog.datadog, become: yes } + vars: + datadog_api_key: "" +``` + +La clave de API es necesaria y su ausencia hace que el rol falle. Si deseas proporcionarla de otra forma, fuera del control de Ansible, especifica una clave de marcador de posición y sustitúyela posteriormente. + +## Variables del rol + +Estas variables proporcionan una configuración adicional durante la instalación del Datadog Agent. Deben especificarse en la sección `vars` de tu playbook. + +| Variable | Descripción | +|---------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `datadog_api_key` | Tu clave de API de Datadog. **Esta variable es obligatoria a partir de la v4.21**.| +| `datadog_site` | El sitio de ingesta de Datadog al que enviar los datos del Agent. Se establece por defecto como `datadoghq.com`, así que configúralo como `datadoghq.eu` para enviar los datos al sitio de la UE. Esta opción solo está disponible en versiones del Agent posteriores a la 6.6.0.| +| `datadog_agent_flavor` | Anula el paquete de Debian / RedHat predeterminado en las instalaciones IoT de la RPI. Se establece por defecto como "datadog-agent", así que usa "datadog-iot-agent" en la RPI.| +| `datadog_agent_version` | La versión fija del Agent a instalar (opcional, pero recomendada), por ejemplo: `7.16.0`. La configuración de `datadog_agent_major_version` no es necesaria si se utiliza `datadog_agent_version`.| +| `datadog_agent_major_version` | La versión principal del Agent que hay que instalar. Los valores posibles son 5, 6 y 7 (por defecto). Si se define `datadog_agent_version`, tiene prioridad. De lo contrario, se instala la última versión principal especificada. El parámetro `datadog_agent_major_version` no es necesario si se usa `datadog_agent_version`.| +| `datadog_checks` | Configuración YAML para aplicar los checks del Agent en:
- `/etc/datadog-agent/conf.d/.d/conf.yaml` en el Agent v6 y v7,
- `/etc/dd-agent/conf.d` en el Agent v5.| +| `datadog_disable_untracked_checks` | Configúrala como `true` para eliminar todos los checks que no estén presentes en `datadog_checks` y `datadog_additional_checks`.| +| `datadog_additional_checks` | Lista de checks adicionales que no se eliminan si se configura `datadog_disable_untracked_checks` como `true`.| +| `datadog_disable_default_checks` | Configúrala como `true` para eliminar todos los checks predeterminados.| +| `datadog_config` | Define la configuración del Datadog Agent. El rol escribe la configuración en la [ubicación correcta según el sistema operativo](https://docs.datadoghq.com/agent/guide/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file). Para ver una lista completa de opciones de configuración, consulta la [plantilla `datadog.yaml` en el repositorio de GitHub datadog-agent](https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml).| +| `datadog_config_ex` | (Opcional) Secciones INI adicionales para `/etc/dd-agent/datadog.conf` (solo para el Agent v5).| +| `datadog_apt_repo` | Anula el repositorio `apt` predeterminado de Datadog. Asegúrate de usar la opción `signed-by` si los metadatos del repositorio se firman usando las claves de firma de Datadog: `deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://yourrepo`.| +| `datadog_apt_cache_valid_time` | Anula el tiempo de expiración predeterminado de la caché de APT (1 hora, por defecto).| +| `datadog_apt_key_url_new` | Anula la localización de la cual obtener la clave `apt` de Datadog (la variable obsoleta `datadog_apt_key_url` se refiere a una clave caducada que ha sido eliminada del rol). Se espera que la URL sea un conjunto de claves GPG que contenga las claves `382E94DE`, `F14F620E` y `C0962C7D`.| +| `datadog_yum_repo_config_enabled` | Establécelo en `false` para evitar la configuración de un repositorio de Datadog `yum` (por defecto `true`). ATENCIÓN: Se desactivará la actualización automática de las claves GPG.| +| `datadog_yum_repo` | Anula el repositorio `yum` predeterminado de Datadog.| +| `datadog_yum_repo_proxy` | Establece una URL proxy para utilizarla en la configuración `yum` del repositorio de Datadog.| +| `datadog_yum_repo_proxy_username` | Establece un nombre de usuario proxy para utilizarlo en la configuración `yum` del repositorio de Datadog.| +| `datadog_yum_repo_proxy_password` | Establece una contraseña proxy para utilizarla en la configuración `yum` del repositorio de Datadog.| +| `datadog_yum_repo_gpgcheck` | Anula el valor `repo_gpgcheck` predeterminado (vacío). Si está vacío, el valor se configura de forma dinámica como `yes` cuando no se usa el valor personalizado `datadog_yum_repo` y el sistema no es RHEL/CentOS 8.1 (debido a [un error](https://bugzilla.redhat.com/show_bug.cgi?id=1792506) en el parámetro dnf); en caso contrario, se configura como `no`. **Nota**: La verificación de la firma de los metadatos del repositorio siempre está desactivada en el Agent v5.| +| `datadog_yum_gpgcheck` | Anula el valor `gpgcheck` predeterminado (`yes`), así que usa `no` para desactivar la verificación de la firma del paquete GPG.| +| `datadog_yum_gpgkey` | **Eliminada en la versión 4.18.0** Anula la URL predeterminada por la clave `yum` de Datadog que se usa para verificar los paquetes del Agent v5 y v6 (hasta la versión 6.13). (ID de clave: `4172A230`).| +| `datadog_yum_gpgkey_e09422b3` | Anula la URL predeterminada por la clave `yum` de Datadog que se usa para verificar los paquetes del Agent v6.14 (y versiones posteriores). (ID de clave: `E09422B3`).| +| `datadog_yum_gpgkey_e09422b3_sha256sum` | Anula la suma de comprobación predeterminada de la clave `datadog_yum_gpgkey_e09422b3`.| +| `datadog_zypper_repo` | Anula el repositorio `zypper` predeterminado de Datadog.| +| `datadog_zypper_repo_gpgcheck` | Anula el valor `repo_gpgcheck` predeterminado (vacío). Si está vacío, el valor se configura de forma dinámica como `yes` cuando no se usa el valor personalizado `datadog_zypper_repo`; en caso contrario, se configura como `no`. **Nota**: La verificación de la firma de los metadatos del repositorio siempre está desactivada en el Agent v5.| +| `datadog_zypper_gpgcheck` | Anula el valor `gpgcheck` predeterminado (`yes`), así que usa `no` para desactivar la verificación de la firma del paquete GPG.| +| `datadog_zypper_gpgkey` | **Eliminada en la versión 4.18.0** Anula la URL predeterminada por la clave `zypper` de Datadog que se usa para verificar los paquetes del Agent v5 y v6 (hasta la versión 6.13). (ID de clave: `4172A230`).| +| `datadog_zypper_gpgkey_sha256sum` | **Eliminada en la versión 4.18.0** Anula la suma de comprobación predeterminada de la clave `datadog_zypper_gpgkey`.| +| `datadog_zypper_gpgkey_e09422b3` | Anula la URL predeterminada por la clave `zypper` de Datadog que se usa para verificar los paquetes del Agent v6.14 (y versiones posteriores). (ID de clave: `E09422B3`).| +| `datadog_zypper_gpgkey_e09422b3_sha256sum` | Anula la suma de comprobación predeterminada de la clave `datadog_zypper_gpgkey_e09422b3`.| +| `datadog_agent_allow_downgrade` | Establécelo en `yes` para permitir una degradación del Agent (utilizar con precaución, ver `defaults/main.yml` para más detalles). **Nota**: Las degradaciones no son compatibles con las plataformas de Windows.| +| `datadog_enabled` | Configúrala como `false` para evitar que se inicie el servicio `datadog-agent` (se establece por defecto como `true`).| +| `datadog_additional_groups` | Una lista, o una cadena que contiene una lista de grupos adicionales separados entre sí por comas, para el `datadog_user` (solo en Linux).| +| `datadog_windows_ddagentuser_name` | El nombre del usuario de Windows que hay que crear/usar, en formato `\` (solo en Windows).| +| `datadog_windows_ddagentuser_password` | La contraseña usada para crear el usuario o registrar el servicio (solo en Windows).| +| `datadog_apply_windows_614_fix` | Define si se debe o no descargar y aplicar el archivo mencionado en `datadog_windows_614_fix_script_url` (solo en Windows). Consulta https://dtdg.co/win-614-fix para obtener más información. Puedes configurarla como `false` siempre que tus hosts no estén usando el Datadog Agent 6.14.\*.| +| `datadog_macos_user` | El nombre del usuario con el que hay que ejecutar el Agent. Tiene que ser un usuario existente, no se creará de forma automática. Se establece por defecto como `ansible_user` (solo en macOS).| +| `datadog_macos_download_url` | Anula la URL para descargar el instalador DMG (solo en macOS).| +| `datadog_apm_instrumentation_enabled` | Configura una instrumentación APM. Los valores posibles son:
- `host`: Tanto el Agent como su servicios se ejecutan en un host.
- `docker`: El Agent y sus servicios se ejecutan en contenedores de Docker separados en el mismo host.
- `all`: Es compatible con todos los escenarios anteriores para `host` y `docker` al mismo tiempo.| +| `datadog_apm_instrumentation_libraries` | Lista de bibliotecas APM a instalar si se activa la inyección de `host` o `docker` (por defecto es `["java", "js", "dotnet", "python", "ruby"]`). Puedes encontrar los valores disponibles en [Inyectar bibliotecas localmente][24].| +| `datadog_apm_instrumentation_docker_config` | Anula la configuración APM de Docker. Lee [Configurar inyección Docker][23] para obtener más información.| + +### Kubernetes + +Para descargar una integración (check) de Datadog, añade una entrada en la sección `datadog_checks`. La clave de primer nivel es el nombre del check, mientras que el valor es la carga útil del YAML que hay que escribir en el archivo de configuración. A continuación, te mostramos algunos ejemplos. + +Para instalar o retirar un integración, consulta el [párrafo] `datadog_integration`(#integration-installation) + +#### Check del proceso + +Para definir dos instancias del check `process`, usa la configuración de abajo. Esto creará los archivos de configuración correspondientes: + +* Agent v6 y v7: `/etc/datadog-agent/conf.d/process.d/conf.yaml` +* Agent v5: `/etc/dd-agent/conf.d/process.yaml` + +```yml + datadog_checks: + process: + init_config: + instances: + - name: ssh + search_string: ['ssh', 'sshd'] + - name: syslog + search_string: ['rsyslog'] + cpu_check_interval: 0.2 + exact_match: true + ignore_denied_access: true +``` + +#### Check personalizado + +Para configurar un check personalizado, usa la configuración de abajo. Esto creará los archivos de configuración correspondientes. + +- Agent v6 y v7: `/etc/datadog-agent/conf.d/my_custom_check.d/conf.yaml` +- Agent v5: `/etc/dd-agent/conf.d/my_custom_check.yaml` + +```yml + datadog_checks: + my_custom_check: + init_config: + instances: + - some_data: true +``` + +##### Checks personalizados de Python + +Para transferir un check de Python al cuaderno de estrategias, usa la configuración de abajo. + +Esta configuración requiere que la [estrategia y el rol][12] de Datadog sean parte de un cuaderno de estrategias más grande, en el que el valor transferido sea la ruta de archivo relativa a la tarea real en [Linux][13] o [Windows][14]. + +Solo está disponible para Agent v6 o posterior. + +La clave debería ser el nombre del archivo creado en el directorio de checks `checks.d/{{ item }}.py`: + +```yml + datadog_checks: + my_custom_check: + init_config: + instances: + - some_data: true + datadog_custom_checks: + my_custom_check: '../../../custom_checks/my_custom_check.py' +``` + +#### Cluster Agent + +Cuando se usa Autodiscovery, no se realiza ningún previo o posterior procesamiento en el YAML. Esto quiere decir que todas las secciones del YAML se añaden al archivo de configuración final, incluidos los `autodiscovery identifiers`. + +En el siguiente ejemplo, se configura el check de PostgreSQL mediante **Autodiscovery**: + +```yml + datadog_checks: + postgres: + ad_identifiers: + - db-master + - db-slave + init_config: + instances: + - host: %%host%% + port: %%port%% + username: username + password: password +``` + +Para más información sobre [Autodiscovery][3], consulta la documentación de Datadog. + +### Python + +Para activar la recopilación de trazas con el Agent v6 o v7, usa la siguiente configuración: + +```yaml +datadog_config: + apm_config: + enabled: true +``` + +Para activar la recopilación de trazas con el Agent v5, usa la siguiente configuración: + +```yaml +datadog_config: + apm_enabled: "true" # has to be a string +``` + +### Live Processes + +Para activar la recopilación de [Live Processes][6] con el Agent v6 o v7, usa la siguiente configuración: + +```yml +datadog_config: + process_config: + enabled: "true" # type: string +``` + +`enabled` puede ser `"true"`, `"false"` (solo en la recopilación de contenedores) o `"disabled"` (este valor desactiva los Live Processes por completo). + +#### Audit Trail (trazas de auditoría) + +Estas son las variables disponibles para los Live Processes: + +* `scrub_args`: Permite borrar los argumentos sensibles de una línea de comandos del proceso (se establece por defecto como `true`). +* `custom_sensitive_words`: Expande la lista predeterminada de palabras sensibles que utiliza el limpiador de líneas de comandos. + +#### Sondeo del sistema + +El sondeo del sistema se configura en la variable `system_probe_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `system_probe_config`. + +La herramienta [Network Performance Monitoring][7] (NPM) se configura en la variable `network_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `network_config`. + +La herramienta [Cloud Workload Security][8] se configura en la variable `runtime_security_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml` y `security-agent.yaml`, en la sección `runtime_security_config`. + +La herramienta [Universal Service Monitoring][17] (USM) se configura en la variable `service_monitoring_config`. Cualquier variable anidada bajo ella se incluye en `system-probe.yaml`, en la sección `service_monitoring_config`. + +[Cumplimiento][18] se configura bajo la variable `compliance_config`. Cualquier variable anidada debajo se escribe en `security-agent.yaml`, en la sección `compliance_config`. + +**Nota para usuarios de Windows**: Windows admite NPM con el Agent v6.27/v7.27 (y posteriores). Esta herramienta se distribuye como un componente opcional que solo se instala si `network_config.enabled` está configurado como true en el momento de instalar o actualizar el Agent. Por este motivo, las instalaciones existentes podrían requerir la desinstalación y reinstalación del Agent para instalar el componente NPM, a no ser que se actualice el Agent al mismo tiempo. + +#### Ejemplo de configuración + +```yml +datadog_config: + process_config: + enabled: "true" # type: string + scrub_args: true + custom_sensitive_words: ['consul_token','dd_api_key'] +system_probe_config: + sysprobe_socket: /opt/datadog-agent/run/sysprobe.sock +network_config: + enabled: true +service_monitoring_config: + enabled: true +runtime_security_config: + enabled: true +``` + +**Nota**: Esta configuración funciona con el Agent 6.24.1/v7.24.1 (y posteriores). Si utilizas una versión anterior del Agent, consulta la documentación acerca de [Network Performance Monitoring][9] para descubrir cómo habilitar el sondeo del sistema. + +En Linux, una vez que completes esta modificación, sigue los pasos que aparecen a continuación si instalaste una versión del Agent anterior a las versiones 6.18.0 o 7.18.0: + +1. Inicia el sondeo del sistema: `sudo service datadog-agent-sysprobe start` **Nota**: Si el contenedor de servicio no está disponible en tu sistema, ejecuta el siguiente comando: `sudo initctl start datadog-agent-sysprobe`. +2. [Reinicia el Agent][10]: `sudo service datadog-agent restart`. +3. Habilita el sondeo del sistema para que se inicie durante el arranque: `sudo service enable datadog-agent-sysprobe`. + +Para llevar a cabo una configuración manual, consulta la documentación acerca de [NPM][9]. + +#### Agent v5 + +Para activar la recopilación de [Live Processes][6] con Agent v5, usa la siguiente configuración: + +```yml +datadog_config: + process_agent_enabled: true +datadog_config_ex: + process.config: + scrub_args: true + custom_sensitive_words: "," +``` + +## Solucionar problemas + +Por defecto, la versión principal actual del rol de Datadog de Ansible instala el Agent v7. Las variables `datadog_agent_version` y `datadog_agent_major_version` sirven para controlar la versión del Agent instalada. + +En las versiones de este rol posteriores a la v4, cuando se usa `datadog_agent_version` para anclar una versión específica del Agent, el rol genera nombres de versiones según el SO para cumplir con las normas de nomenclatura de los sistemas operativos compatibles. Ejemplo: + +- `1:7.16.0-1` para sistemas basados en Debian y SUSE +- `7.16.0-1` para sistemas basados en RedHat +- `7.16.0-1` para macOS +- `7.16.0` para Windows + +Esto hace posible dirigirse a hosts con distintos sistemas operativos en una sola ejecución de Ansible. Ejemplo: + +| Versión del Agent | Instala | Sistema | +|-------------------------------------|--------------|-----------------------| +| `datadog_agent_version: 7.16.0` | `1:7.16.0-1` | Basado en Debian y SUSE | +| `datadog_agent_version: 7.16.0` | `7.16.0-1` | Basado en RedHat | +| `datadog_agent_version: 7.16.0` | `7.16.0-1` | macOS | +| `datadog_agent_version: 7.16.0` | `7.16.0` | recopilación de logs | +| `datadog_agent_version: 1:7.16.0-1` | `1:7.16.0-1` | Basado en Debian y SUSE | +| `datadog_agent_version: 1:7.16.0-1` | `7.16.0-1` | Basado en RedHat | +| `datadog_agent_version: 1:7.16.0-1` | `7.16.0` | recopilación de logs | + +**Nota**: Si no se proporciona la versión, el rol usa `1` como epoch y `1` como número de versión. + +**Agent v5 (versión antigua)**: + +El rol de Datadog de Ansible es compatible con el Datadog Agent v5 únicamente en Linux. Para instalar el Agent v5, usa `datadog_agent_major_version: 5` para usar la última versión del Agent v5 o cambia `datadog_agent_version` a una versión específica del Agent v5. **Nota**: La variable `datadog_agent5` está obsoleta y, por tanto, se ha eliminado. + +### Repositorios + +#### Linux + +Cuando las variables `datadog_apt_repo`, `datadog_yum_repo` y `datadog_zypper_repo` no están definidas, se usan los repositorios oficiales de Datadog para la versión principal que se define en `datadog_agent_major_version`: + +| # | Repositorio apt predeterminado | Repositorio yum predeterminado | Repositorio zypper predeterminado | +|---|-------------------------------------------|------------------------------------|-----------------------------------------| +| 5 | deb https://apt.datadoghq.com stable main | https://yum.datadoghq.com/rpm | https://yum.datadoghq.com/suse/rpm | +| 6 | deb https://apt.datadoghq.com stable 6 | https://yum.datadoghq.com/stable/6 | https://yum.datadoghq.com/suse/stable/6 | +| 7 | deb https://apt.datadoghq.com stable 7 | https://yum.datadoghq.com/stable/7 | https://yum.datadoghq.com/suse/stable/7 | + +Para anular este comportamiento predeterminado, cambia las variables por algo que no sea una cadena vacía. + +Si antes usabas las variables del Agent v5, usa las variables **nuevas** de abajo con el parámetro `datadog_agent_major_version` establecido como `5` o con `datadog_agent_version` anclado a una versión específica del Agent v5. + +| Anteriores | Nuevas | +|------------------------------|-----------------------| +| `datadog_agent5_apt_repo` | `datadog_apt_repo` | +| `datadog_agent5_yum_repo` | `datadog_yum_repo` | +| `datadog_agent5_zypper_repo` | `datadog_zypper_repo` | + +Desde la versión 4.9.0, la variable `use_apt_backup_keyserver` ya no existe, ya que las claves APT se obtienen a partir de https://keys.datadoghq.com. + +#### recopilación de logs + +Cuando la variable `datadog_windows_download_url` no está definida, se usa el paquete MSI oficial de Windows correspondiente a `datadog_agent_major_version`: + +| Versión del Agent | URL predeterminada del paquete MSI de Windows | +|---------------|----------------------------------------------------------------------------------| +| 6 | https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-6-latest.amd64.msi | +| 7 | https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-7-latest.amd64.msi | + +Para anular el comportamiento por defecto, cambia esta variable a un valor distinto de una cadena vacía. + +#### macOS + +Cuando la variable `datadog_macos_download_url` no está definida, se usa el paquete DMG oficial de macOS correspondiente a `datadog_agent_major_version`: + +| Versión del Agent | URL predeterminada del paquete DMG de macOS | +|---------------|--------------------------------------------------------------| +| 6 | https://s3.amazonaws.com/dd-agent/datadog-agent-6-latest.dmg | +| 7 | https://s3.amazonaws.com/dd-agent/datadog-agent-7-latest.dmg | + +Para anular el comportamiento por defecto, cambia esta variable a un valor distinto de una cadena vacía. + +### Pasar a una versión posterior + +Para pasar del Agent v6 al v7, usa `datadog_agent_major_version: 7` para instalar la última versión o configura `datadog_agent_version` como una versión específica del Agent v7. Aplica una lógica parecida para pasar del Agent v5 al v6. + +#### Instalación de la integración + +**Disponible para el Agent v6.8 (y posteriores)** + +Utiliza el recurso `datadog_integration` para instalar una versión específica de una integración de Datadog. Ten en cuenta que el Agent viene con sus [integraciones principales][19] ya instaladas. Este comando es útil para actualizar una integración específica sin actualizar todo el Agent. Para obtener más información, consulta [Gestión de integraciones][4]. + +Si deseas configurar una integración, consulta el [párrafo](#integrations) `datadog_checks` + +Acciones disponibles: + +- `install`: Instala una versión específica de la integración. +- `remove`: Elimina una integración. + +##### Integraciones de terceros + +Las integraciones de [Datadog community][20] y [Datadog Marketplace][15] pueden instalarse con el recurso `datadog_integration`. **Nota**: Estas integraciones se consideran "de terceros" y, por lo tanto, necesitan que se configure `third_party: true` (consulta el ejemplo siguiente). + +##### Sintaxis + +```yml + datadog_integration: + : + action: + version: +``` + +Para instalar integraciones de terceros, establece `third_party` como true: + +```yml + datadog_integration: + : + action: + version: + third_party: true +``` + +##### Ejemplo + +Este ejemplo instala la versión `1.11.0` de la integración de ElasticSearch y elimina la integración de `postgres`. + +```yml + datadog_integration: + datadog-elastic: + action: install + version: 1.11.0 + datadog-postgres: + action: remove +``` + +Para ver las versiones disponibles de las integraciones de Datadog, consulta el archivo `CHANGELOG.md` en el [repositorio integrations-core][5]. + +### Pasar a una versión anterior + +Para cambiar a una versión anterior del Agent: + +1. Define `datadog_agent_version` como una versión específica. Ejemplo: `5.32.5`. +2. Configura `datadog_agent_allow_downgrade` como `yes`. + +**Notas:** + +- No es posible cambiar a versiones anteriores en plataformas con Windows. + +## Cuadernos de estrategias + +A continuación, encontrarás algunos ejemplos de cuadernos de estrategias que pueden ser útiles cuando uses el rol de Datadog de Ansible. + +El siguiente ejemplo envía datos al sitio de Datadog de EE. UU. (por defecto), activa logs, NPM y configura algunos checks. + +```yml +- hosts: servers + roles: + - { role: datadog.datadog, become: yes } + vars: + datadog_api_key: "" + datadog_agent_version: "7.16.0" + datadog_config: + tags: + - ":" + - ":" + log_level: INFO + apm_config: + enabled: true + logs_enabled: true # available with Agent v6 and v7 + datadog_checks: + process: + init_config: + instances: + - name: ssh + search_string: ['ssh', 'sshd' ] + - name: syslog + search_string: ['rsyslog' ] + cpu_check_interval: 0.2 + exact_match: true + ignore_denied_access: true + ssh_check: + init_config: + instances: + - host: localhost + port: 22 + username: root + password: + sftp_check: True + private_key_file: + add_missing_keys: True + nginx: + init_config: + instances: + - nginx_status_url: http://example.com/nginx_status/ + tags: + - "source:nginx" + - "instance:foo" + - nginx_status_url: http://example2.com:1234/nginx_status/ + tags: + - "source:nginx" + - ":" + + #Log collection is available on Agent 6 and 7 + logs: + - type: file + path: /var/log/access.log + service: myapp + source: nginx + sourcecategory: http_web_access + - type: file + path: /var/log/error.log + service: nginx + source: nginx + sourcecategory: http_web_access + # datadog_integration is available on Agent 6.8+ + datadog_integration: + datadog-elastic: + action: install + version: 1.11.0 + datadog-postgres: + action: remove + network_config: + enabled: true +``` + +### Agent v6 + +Este ejemplo instala el Agent v6 más reciente: + +```yml +- hosts: servers + roles: + - { role: datadog.datadog, become: yes } + vars: + datadog_agent_major_version: 6 + datadog_api_key: "" +``` + +### Configurar el sitio + +Si usas un sitio distinto al predeterminado, `datadoghq.com`, ajusta la variable `datadog_site` a la URL correcta (p. ej., `datadoghq.eu`, `us3.datadoghq.com`). + +Este ejemplo envía datos al sitio de la UE. + +```yml +- hosts: servers + roles: + - { role: datadog.datadog, become: yes } + vars: + datadog_site: "datadoghq.eu" + datadog_api_key: "" +``` + +### recopilación de logs + +En Windows, elimina la opción `become: yes` para que el rol no falle. A continuación, se muestran dos métodos para hacer que los cuadernos de estrategias de ejemplo funcionen con hosts que usan Windows: + +#### Archivo de inventario + +Se recomienda usar el archivo de inventario. Configura la opción `ansible_become` como `no` en el archivo de inventario de cada host que use Windows: + +```ini +[servers] +linux1 ansible_host=127.0.0.1 +linux2 ansible_host=127.0.0.2 +windows1 ansible_host=127.0.0.3 ansible_become=no +windows2 ansible_host=127.0.0.4 ansible_become=no +``` + +Para evitar repetir la misma configuración en todos los hosts que usen Windows, agrúpalos y configura la variable en nivel de grupo: + +```ini +[linux] +linux1 ansible_host=127.0.0.1 +linux2 ansible_host=127.0.0.2 + +[windows] +windows1 ansible_host=127.0.0.3 +windows2 ansible_host=127.0.0.4 + +[windows:vars] +ansible_become=no +``` + +#### Archivo del cuaderno de estrategias + +Alternativamente, si tu cuaderno de estrategias **solo funciona en hosts con Windows**, usa lo siguiente en el archivo del cuaderno de estrategias: + +```yml +- hosts: servers + roles: + - { role: datadog.datadog } + vars: + ... +``` + +**Nota**: Esta configuración no funciona en los hosts con Linux. Úsala solo si el cuaderno de estrategias es específico para hosts con Windows. De lo contrario, decántate por el [método del archivo de inventario](#inventory-file). + +### Desinstalación + +En Windows, es posible desinstalar el Agent usando el siguiente código en tu rol de Ansible: + +```yml +- name: Check If Datadog Agent is installed + win_shell: | + (@(Get-ChildItem -Path "HKLM:SOFTWARE\Microsoft\Windows\CurrentVersion\Uninstall" -Recurse) | Where {$_.GetValue("DisplayName") -like "Datadog Agent" }).PSChildName + register: agent_installed_result +- name: Set Datadog Agent installed fact + set_fact: + agent_installed: "{{ agent_installed_result.stdout | trim }}" +- name: Uninstall the Datadog Agent + win_package: + product_id: "{{ agent_installed }}" + state: absent + when: agent_installed != "" +``` + +## Python + +### Debian Stretch + +**Nota:** Esta información es aplicable a las versiones del rol anteriores a la v4.9.0. El rol dejó de usar el módulo `apt_key`en la v4.9.0. + +En Debian Stretch, el módulo `apt_key` que usa el rol requiere una dependencia de sistema adicional para funcionar correctamente. Puesto que el módulo no proporciona la dependencia (`dirmngr`), añade la siguiente configuración a tus cuadernos de estrategia para usar este rol: + +```yml +--- +- hosts: all + pre_tasks: + - name: Debian Stretch requires the dirmngr package to use apt_key + become: yes + apt: + name: dirmngr + state: present + roles: + - { role: datadog.datadog, become: yes } + vars: + datadog_api_key: "" +``` + +### CentOS 6/7 con el intérprete de Python 3 y Ansible 2.10.x o una versión anterior + +El módulo `yum` de Python, que se usa en este rol para instalar el Agent en hosts basados en CentOS, solo está disponible en Python 2 si se usa Ansible 2.10.x o una versión anterior. En estos casos, habría que utilizar el gestor de paquetes `dnf`. + +Sin embargo, `dnf` y el módulo `dnf` de Python no se instalan por defecto en hosts basados en CentOS si la versión es anterior a CentOS 8. En ese caso, no es posible instalar el Agent cuando se usa un intérprete de Python 3. + +El rol falla prematuramente cuando se detecta esta situación como indicativo de que se necesita Ansible 2.11 (o una versión posterior) o un intérprete de Python 2 para instalar el Agent en una versión de CentOS/RHEL anterior a la 8. + +Para evitar esta detección de fallo prematuro (por ejemplo, si `dnf` y el paquete `python3-dnf` están disponibles en tu host), establece la variable `datadog_ignore_old_centos_python3_error` como `true`. + +### recopilación de logs + +Debido a un error crítico en las versiones del Agent `6.14.0` y `6.14.1` para Windows, la instalación de estas versiones está bloqueada (a partir de la versión `3.3.0` de este rol). + +**NOTA:** Ansible falla en Windows si `datadog_agent_version` es `6.14.0` o `6.14.1`. Usa `6.14.2` o una versión posterior. + +Si vas a pasar de la versión **6.14.0 a la 6.14.1 en Windows**, sigue estos pasos: + +1. Actualiza el rol de Ansible actual `datadog.datadog` a la versión más reciente (`>=3.3.0`). +2. Define `datadog_agent_version` como `6.14.2` o una versión posterior (por defecto, la más reciente). + +Para más detalles, consulta [Critical Bug in Uninstaller for Datadog Agent 6.14.0 and 6.14.1 on Windows][11] (Error crítico en el desinstalador del Datadog Agent 6.14.0 y 6.14.1 para Windows). + +### Error en Ubuntu 20.04 debido a service_facts + +Ejecutar el módulo `service_facts` en Ubuntu 20.04 produce el siguiente error: + +``` +localhost | FAILED! => { + "changed": false, + "msg": "Malformed output discovered from systemd list-unit-files: accounts-daemon.service enabled enabled " +} +``` + +Para solucionarlo, [actualiza Ansible a `v2.9.8` o a una versión posterior][16]. + +### Falta la clave de API + +A partir del rol `4.21` la clave de API es obligatoria para que el rol proceda. + +Si necesitas instalar el Agent a través de Ansible, pero no quieres especificar una clave de API (por ejemplo, si lo estás incorporando a un contenedor/una imagen de MV), puedes: +* Especificar una clave de API ficticia y sustituirla después +* Desactivar managed_config (`datadog_manage_config: false`) + +[1]: https://galaxy.ansible.com/Datadog/datadog +[2]: https://github.com/DataDog/ansible-datadog +[3]: https://docs.datadoghq.com/es/agent/autodiscovery +[4]: https://docs.datadoghq.com/es/agent/guide/integration-management/ +[5]: https://github.com/DataDog/integrations-core +[6]: https://docs.datadoghq.com/es/infrastructure/process/ +[7]: https://docs.datadoghq.com/es/network_performance_monitoring/ +[8]: https://docs.datadoghq.com/es/security_platform/cloud_workload_security/getting_started/ +[9]: https://docs.datadoghq.com/es/network_performance_monitoring/installation/?tab=agent#setup +[10]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#restart-the-agent +[11]: https://app.datadoghq.com/help/agent_fix +[12]: https://docs.ansible.com/ansible/latest/reference_appendices/playbooks_keywords.html#playbook-keywords +[13]: https://github.com/DataDog/ansible-datadog/blob/main/tasks/agent-linux.yml +[14]: https://github.com/DataDog/ansible-datadog/blob/main/tasks/agent-win.yml +[15]: https://www.datadoghq.com/blog/datadog-marketplace/ +[16]: https://github.com/ansible/ansible/blob/stable-2.9/changelogs/CHANGELOG-v2.9.rst#id61 +[17]: https://docs.datadoghq.com/es/tracing/universal_service_monitoring/?tab=configurationfiles#enabling-universal-service-monitoring +[18]: https://docs.datadoghq.com/es/security/cspm/setup/?tab=docker +[19]: https://github.com/DataDog/integrations-core +[20]: https://github.com/DataDog/integrations-extras +[23]: https://docs.datadoghq.com/es/tracing/trace_collection/library_injection_local/?tab=agentandappinseparatecontainers#configure-docker-injection +[24]: https://docs.datadog.com/tracing/trace_collection/library_injection_local \ No newline at end of file diff --git a/content/es/agent/guide/azure-private-link.md b/content/es/agent/guide/azure-private-link.md new file mode 100644 index 0000000000000..a09a681092b7f --- /dev/null +++ b/content/es/agent/guide/azure-private-link.md @@ -0,0 +1,80 @@ +--- +kind: guía +title: Conéctate a Datadog a través de Azure Private Link +--- + +{{% site-region region="us,us5,eu,gov,ap1" %}} +
Esta función no es compatible con el sitio de Datadog seleccionado.
+{{% /site-region %}} + +{{% site-region region="us3" %}} +[Azure Private Link][1] te permite enviar telemetría a Datadog sin utilizar la Internet pública. + +Datadog expone parte de sus servicios de consumo de datos como [servicios de Azure Private Link][2]. + +Puedes configurar Azure Private Link para exponer una dirección IP privada por cada servicio de consumo de Datadog; esta dirección IP enruta el tráfico al backend de Datadog. A continuación, puedes configurar una [zona DNS privada][3] de Azure para anular los nombres DNS correspondientes a los productos de cada endpoint consumido. + +## Python + +### Conectar un endpoint + +1. En el portal de Azure, ve a **Private Link**. +2. En el menú de navegación de la izquierda, selecciona **Private endpoints** (Endpoints privados). +3. Selecciona **Create** (Crear). +4. En la página **Create a private endpoint** > **Basics** (Crear un endpoint privado > Aspectos básicos), configura: + - En **Project details** (Detalles del proyecto), selecciona la **Subscription** (Suscripción) y el **Resource group** (Grupo de recursos) desde los que los recursos de producción deben acceder a Private Link. + - En **Instance details** (Detalles de la instancia), ingresa un **Name** (Nombre) (por ejemplo, `datadog-api-private-link`) y selecciona tu **Region** (Región). + + Selecciona **Next: Resource** (Siguiente: Recurso) para continuar. +5. En la página **Create a private endpoint** > **Resource** (Crear un endpoint privado > Recurso), configura lo siguiente: + - Para **Connection method** (Método de conexión), selecciona **Connect to an Azure resource by resource ID or alias** (Conectarse a un recurso Azure por ID de recurso o alias). + - En **Resource ID or alias** (Recurso ID o alias), introduce el nombre del servicio de Private Link que corresponda al servicio de consumo de Datadog que quieres utilizar. Puedes encontrar este nombre de servicio en la [tabla de servicios publicados](#published-servicios). + - Opcionalmente, en **Request message** (Mensaje de solicitud), puedes introducir tu dirección de correo electrónico (asociada a una cuenta de Datadog). Esto ayuda a Datadog a identificar tu solicitud y a ponerse en contacto contigo, si es necesario. + + Selecciona **Next: Virtual Network** (Siguiente: Virtual red) para continuar. +6. En la página **Create a private endpoint** > **Virtual Network** (Crear un endpoint privado > Red virtual), configura lo siguiente: + - En **Networking** (Redes), selecciona la **Virtual network** (Red virtual) y la **Subnet** (Subred) donde debe estar alojado el endpoint. Normalmente, se encuentra en la misma red que los recursos informáticos que necesitan acceder al endpoint privado. + - En **Private DNS integration** (Integración de DNS privado), selecciona **No**. + + Selecciona **Next: Tags** (Siguiente: Etiquetas (tags) para continuar. +7. En la página **Create a private endpoint** > **Tags** (Crear un endpoint privado > Etiquetas (tags), puedes configurar opcionalmente etiquetas. Selecciona **Next** (Siguiente). +8. En la página **Review + create** (Revisar + crear), revisa tus configuraciones. A continuación, selecciona **Create** (Crear). +9. Una vez creado tu endpoint privado, búscalo en lista. Toma nota de la **IP privada** de este endpoint, ya que se utilizará en la siguiente sección. + +### Crear una zona DNS privada +1. En el portal Azure, ve a **Private DNS zones** (Zonas DNS privadas). +2. Selecciona **Create** (Crear). +3. En la página **Create Private DNS zone** > **Basics** (Crear zona DNS privada > Aspectos básicos), configura: + - En **Project details** (Detalles del proyecto), selecciona la **Subscription** (Suscripción) y el **Resource group** (Grupo de recursos) desde los que los recursos de producción deben acceder al endpoint privado. + - En **Instance details** (Detalles de la instancia), en **Name** (Nombre), introduce el nombre de DNS privado que corresponde al servicio de consumo de Datadog que quieres utilizar. Puedes encontrar este nombre servicio en la [tabla de servicios publicados](#published-servicios). + + Selecciona **Review + create** (Revisar + crear). +4. Revisa tus configuraciones. A continuación, selecciona **Create** (Crear). +5. Una vez creada la zona DNS privada, selecciónala en lista. +6. En el panel que se abre, selecciona **+ Record set** (+ Conjunto de registros). +7. En el panel **Add record set** (Añadir conjunto de registros), configura lo siguiente: + - En **Name** (Nombre), introduce `*`. + - En **Type** (Tipo), selecciona **A - Address record** (A - Registro de direcciones). + - En **IP address** (Dirección IP), introduce la dirección IP que anotaste al final de la sección anterior. + + Selecciona **OK** (Aceptar) para finalizar. + +## Servicios publicados + +| Servicio de consumo de Datadog | Nombre de servicio de Private LInk | Nombre de DNS privado | +| --- | --- | --- | +| Logs (Agent) | `logs-pl-1.9941bd04-f840-4e6d-9449-368592d2f7da.westus2.azure.privatelinkservice` | `agent-http-intake.logs.us3.datadoghq.com` | +| Logs (Consumo HTTP del usuario) | `logs-pl-1.9941bd04-f840-4e6d-9449-368592d2f7da.westus2.azure.privatelinkservice` | `http-intake.logs.us3.datadoghq.com` | +| Python | `api-pl-1.0962d6fc-b0c4-40f5-9f38-4e9b59ea1ba5.westus2.azure.privatelinkservice` | `api.us3.datadoghq.com` | +| Facturación | `metrics-agent-pl-1.77764c37-633a-4c24-ac9b-0069ce5cd344.westus2.azure.privatelinkservice` | `metrics.agent.us3.datadoghq.com` | +| Ver una lista con todos los equipos de incidencias | `orchestrator-pl-1.8ca24d19-b403-4c46-8400-14fde6b50565.westus2.azure.privatelinkservice` | `orchestrator.us3.datadoghq.com` | +| Proceso | `process-pl-1.972de3e9-3b00-4215-8200-e1bfed7f05bd.westus2.azure.privatelinkservice` | `process.us3.datadoghq.com` | +| Elaboración de perfiles | `profile-pl-1.3302682b-5bc9-4c76-a80a-0f2659e1ffe7.westus2.azure.privatelinkservice` | `intake.profile.us3.datadoghq.com` | +| Trazas (traces) | `trace-edge-pl-1.d668729c-d53a-419c-b208-9d09a21b0d54.westus2.azure.privatelinkservice` | `trace.agent.us3.datadoghq.com` | +| Solucionar problemas | `fleet-pl-1.37765ebe-d056-432f-8d43-fa91393eaa07.westus2.azure.privatelinkservice` | `config.us3.datadoghq.com` | +| Conectar logs y trazas | `dbm-metrics-pl-1.e391d059-0e8f-4bd3-9f21-708e97a708a9.westus2.azure.privatelinkservice` | `dbm-metrics-intake.us3.datadoghq.com` | + +[1]: https://azure.microsoft.com/en-us/products/private-link +[2]: https://learn.microsoft.com/en-us/azure/private-link/private-link-service-overview +[3]: https://learn.microsoft.com/en-us/azure/dns/private-dns-privatednszone +{{% /site-region %}} \ No newline at end of file diff --git a/content/es/agent/guide/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql.md b/content/es/agent/guide/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql.md new file mode 100644 index 0000000000000..90033ac27e434 --- /dev/null +++ b/content/es/agent/guide/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql.md @@ -0,0 +1,19 @@ +--- +aliases: +- /es/agent/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/ +- /es/integrations/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/ +kind: guía +title: ¿Puedo configurar el check mysql dd-Agent en mi CloudSQL de Google? +--- + +Al igual que con la [integración de Amazon RDS][1] "nativa" con MySQL, puedes configurar una integración de MySQL con un Agent de Datadog en una instancia de MySQL que se ejecuta en CloudSQL de Google. Con esta configuración, puedes complementar las métricas que de otro modo obtendrías de la [integración de CloudSQL de Google][2] de Datadog con las métricas disponibles de la [integración de MySQL][3] del Agent de Datadog. + +Para configurar este integración "extra" en tu instancia CloudSQL de Google, puedes configurar la integración de MySQL en un Agent de Datadog y [configurarla para conectarse remotamente][4] a tu instancia CloudSQL de Google en lugar de utilizar el host local por defecto. Por lo demás, los pasos de configuración son los mismos que para cualquier otra instancia MySQL alojada localmente. + +Con una advertencia: CloudSQL de Google [no es compatible con performance_schemas][5], por lo que no puedes `GRANT SELECT ON performance_schema.*` al usuario del Agent de Datadog. Como resultado, dos de las métricas extra/opcionales de los checks de MySQL no están disponibles para las instancias CloudSQL de Google. Por lo demás, la integración debería funcionar igual que con cualquier instancia MySQL alojada localmente. + +[1]: /es/integrations/amazon_rds/ +[2]: /es/integrations/google_cloudsql/ +[3]: /es/integrations/mysql/ +[4]: https://github.com/DataDog/integrations-core/blob/5.12.x/mysql/conf.yaml.example#L4-L7 +[5]: https://cloud.google.com/sql/docs/features#differences \ No newline at end of file diff --git a/content/es/agent/guide/datadog-agent-manager-windows.md b/content/es/agent/guide/datadog-agent-manager-windows.md index ee5a901f9c15b..deb891dc07cfa 100644 --- a/content/es/agent/guide/datadog-agent-manager-windows.md +++ b/content/es/agent/guide/datadog-agent-manager-windows.md @@ -2,7 +2,7 @@ further_reading: - link: /agent/basic_agent_usage/windows/ tag: Documentación - text: Uso básico del Agent para el Agent de Windows + text: Uso básico del Agent para el Windows Agent kind: guía title: Datadog Agent Manager para Windows --- diff --git a/content/es/agent/guide/dogstream.md b/content/es/agent/guide/dogstream.md index c07c54d8d9cd6..173413a777bca 100644 --- a/content/es/agent/guide/dogstream.md +++ b/content/es/agent/guide/dogstream.md @@ -64,7 +64,7 @@ Si el parseador de logs personalizado no funciona, lo primero que hay que compro * Si todo va bien, deberías ver esto:`dogstream: parsing {filename} with {function name} (requested {config option text})`.
-Para comprobar si los dogstreams funcionan correctamente, añade una línea (sin editar ninguna de las existentes) en cualquier archivo de logs en los que hayas configurado el Agent para que los rastree. El Agent solo supervisa el final de cada archivo de logs, así que no detecta los cambios que realices en otras secciones del archivo. +Para comprobar que los dogstreams funcionan, añade una línea, y no edites una ya existente, a cualquier archivo de log que hayas configurado para que el Agent vigile. El Agent solo sigue el final de cada archivo de log, por lo que no se da cuenta de los cambios que haces en otras partes del archivo.
### Cómo redactar funciones de parseo @@ -238,20 +238,20 @@ dogstreams: /Users/Documents/Parser/test.log:/Users/Documents/Parser/myparser.py ## Solucionar problemas -Los errores ocurren, por lo que es importante poder acceder al rastreo de tus parseadores de logs. Sin embargo, solo podrás hacerlo si el Agent se ejecuta con los [logs del Agent][6] configurados en el nivel "DEBUG" (depuración). Este nivel se puede configurar en `datadog.conf` de la siguiente manera: quita la marca de comentario y edita esta [línea][7]; a continuación, [reinicia el Agent][8]. Tras configurar el nivel, podrás encontrar el rastreo de los errores de tu parseador de logs personalizado en el archivo `collector.log`, que generalmente incluirá la cadena checks.collector(datadog.py:278) | Error while parsing line. Consulta el [código del Agent][9], dado que es probable que el error aparezca allí. +Los errores ocurren, por lo que es importante poder acceder al rastreo de tus parseadores de logs. Sin embargo, solo podrás hacerlo si el Agent se ejecuta con los [logs del Agent][6] definidos en el nivel "DEBUG" (depuración). Este nivel se puede establecer en `datadog.conf` de la siguiente manera: quita la marca de comentario y edita esta [línea][7]; a continuación, [reinicia el Agent][8]. Tras establecerlo, podrás encontrar el rastreo de los errores de tu parseador de logs personalizado en el archivo `collector.log`, que generalmente incluirá la cadena checks.collector(datadog.py:278) | Error while parsing line. Consulta el [código del Agent][9], dado que es probable que el error aparezca allí. **Nota**: Cada vez que realices un cambio en tu parseador de logs personalizado, [reinicia el Agent][8] para que se aplique ese cambio. -Si sospechas de que se está produciendo algún error fuera del contexto de la función de tu parseador de logs personalizado, no dudes en [contactar con el equipo de asistencia][10]. Sin embargo, antes de nada, establece el nivel del log del Agent en "DEBUG", ejecuta el Agent durante unos minutos para asegurarte de que se están añadiendo nuevos logs a tus archivos y, luego, [ejecuta el comando flare][11] desde tu Agent. De este modo, el equipo de asistencia dispondrá de la información necesaria para solucionar el problema como es debido. +Si sospechas que se está produciendo algún error fuera del contexto de la función de tu parseador de logs personalizado, no dudes en [contactar con el equipo de asistencia][10]. Sin embargo, antes de nada, establece el nivel del log del Agent en "DEBUG", ejecuta el Agent durante unos minutos para asegurarte de que se están añadiendo nuevos logs a tus archivos y, luego, [ejecuta el comando flare][11] desde tu Agent. De este modo, el equipo de asistencia dispondrá de la información necesaria para solucionar el problema como es debido. [1]: https://app.datadoghq.com/infrastructure#tags [2]: /es/api/v1/tags/ [3]: https://github.com/DataDog/dd-agent/blob/master/dogstream/cassandra.py [4]: /es/events/ [5]: https://github.com/DataDog/dd-agent/blob/5.13.x/checks/datadog.py#L210 -[6]: /es/agent/guide/agent-log-files/ +[6]: /es/agent/configuration/agent-log-files/ [7]: https://github.com/DataDog/dd-agent/blob/5.7.x/datadog.conf.example#L211 -[8]: /es/agent/guide/agent-commands/ +[8]: /es/agent/configuration/agent-commands/ [9]: https://github.com/DataDog/dd-agent/blob/5.7.x/checks/datadog.py#L278 [10]: /es/help/ [11]: /es/agent/troubleshooting/send_a_flare/ \ No newline at end of file diff --git a/content/es/agent/guide/environment-variables.md b/content/es/agent/guide/environment-variables.md index befab885956a3..d168453a3f053 100644 --- a/content/es/agent/guide/environment-variables.md +++ b/content/es/agent/guide/environment-variables.md @@ -9,7 +9,7 @@ further_reading: - link: /logs/log_collection/#container-log-collection tag: Documentación text: Recopilación de logs de contenedores -- link: /agent/proxy/#environment-variables +- link: /agent/configuration/proxy/#environment-variables tag: Documentación text: Variables de entorno del proxy kind: guía @@ -85,20 +85,37 @@ En general, puedes utilizar las siguientes reglas: ```yaml process_config: - enabled: true + process_collection: + enabled: true process_dd_url: https://process.datadoghq.com - # DD_PROCESS_AGENT_ENABLED=true + # DD_PROCESS_AGENT_PROCESS_COLLECTION_ENABLED=true # DD_PROCESS_AGENT_URL=https://process.datadoghq.com ``` +## Uso de variables de entorno en unidades systemd + +En los sistemas operativos que utilizan systemd para gestionar servicios, las variables de entorno globales (por ejemplo, `/etc/environment`) o basadas en sesiones (por ejemplo, `export VAR=value`) no suelen estar disponibles para servicios, a menos que se configuren para ello. Consulta la [página de ejecución manual de systemd][8] para obtener más información. + +A partir de Datadog Agent v7.45, la (unidad`datadog-agent.service` ) de servicio de Datadog Agent puede cargar opcionalmente asignaciones de variables de entorno desde un archivo (`/environment`). + +1. Crea `/etc/datadog-agent/environment`, si no existe. +2. Define asignaciones de variables de entorno separadas por nuevas líneas. Por ejemplo: + ``` + GODEBUG=x509ignoreCN=0,x509sha1=1 + DD_HOSTNAME=myhost.local + DD_TAGS=env:dev service:foo + ``` +3. Reinicia el servicio para que los cambios surtan efecto. + ## Leer más {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/agent/guide/agent-configuration-files/#agent-main-configuration-file +[1]: /es/agent/configuration/agent-configuration-files/#agent-main-configuration-file [2]: /es/getting_started/tagging/unified_service_tagging -[3]: /es/agent/proxy/#environment-variables -[4]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config.go +[3]: /es/agent/configuration/proxy/#environment-variables +[4]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/setup/config.go [5]: https://docs.datadoghq.com/es/agent/docker/apm/#docker-apm-agent-environment-variables -[6]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/apm.go -[7]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/process.go \ No newline at end of file +[6]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/setup/apm.go +[7]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/setup/process.go +[8]: https://www.freedesktop.org/software/systemd/man/systemd.exec.html#Environment \ No newline at end of file diff --git a/content/es/agent/guide/heroku-ruby.md b/content/es/agent/guide/heroku-ruby.md index 4a8accaa0f9df..e023953dbd29b 100644 --- a/content/es/agent/guide/heroku-ruby.md +++ b/content/es/agent/guide/heroku-ruby.md @@ -616,10 +616,10 @@ Dirígete a la [sección de trazas de APM][19] para ver tus trazas: {{< img src="agent/guide/heroku_ruby/traces.png" alt="Trazas de aplicaciones de Ruby en Datadog" >}} -Accede a la [lista de servicios][20] para ver todos los servicios de tu aplicación y su vista: +Navega al [catálogo de servicios][20] para ver todos tus servicios de aplicación y una vista de tu servicio de aplicación: -{{< img src="agent/guide/heroku_ruby/ruby_service.png" alt="Vista de la lista de servicios en Datadog" >}} -{{< img src="agent/guide/heroku_ruby/service_page.png" alt="Vista de los servicios de la aplicación de Ruby en Datadog" >}} +{{< img src="agent/guide/heroku_ruby/ruby_service.png" alt="Service Catalog in Datadog" >}} +{{< img src="agent/guide/heroku_ruby/service_page.png" alt="Ruby application service details page in Datadog" >}} ## Logs @@ -856,7 +856,7 @@ Agent (v7.27.0) [17]: https://elements.heroku.com/addons/memcachedcloud [18]: https://docs.datadoghq.com/es/getting_started/tagging/unified_service_tagging/ [19]: https://app.datadoghq.com/apm/traces -[20]: https://app.datadoghq.com/apm/services +[20]: https://app.datadoghq.com/services [21]: https://devcenter.heroku.com/articles/log-runtime-metrics/ [22]: https://app.datadoghq.com/logs/livetail [23]: https://devcenter.heroku.com/articles/log-runtime-metrics#cpu-load-averages diff --git a/content/es/agent/guide/how-do-i-uninstall-the-agent.md b/content/es/agent/guide/how-do-i-uninstall-the-agent.md index eeaa8f41bcf9e..3a2f0cd46ba2c 100644 --- a/content/es/agent/guide/how-do-i-uninstall-the-agent.md +++ b/content/es/agent/guide/how-do-i-uninstall-the-agent.md @@ -1,256 +1,21 @@ --- +algolia: + tags: + - desinstalar aliases: - /es/agent/faq/how-do-i-uninstall-the-agent/ further_reading: -- link: /agent/ +- link: /agent/basic_agent_usage/ tag: Documentación - text: Más información sobre el Datadog Agent + text: Uso básico del Agent kind: guía title: Desinstalar el Agent --- -Elige tu plataforma para ver las instrucciones específicas para desinstalar el Agent: +Para obtener información sobre la desinstalación del Agent de tu sistema, consulta la página [uso básico del Agent][1] correspondiente a tu sistema operativo, plataforma o herramienta de configuración. -## Debian y Ubuntu +## Leer más -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} -```shell -sudo apt-get remove datadog-agent -y -``` +{{< partial name="whats-next/whats-next.html" >}} -> Este comando elimina el Agent, pero no elimina: - -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración`/etc/datadog-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. - -> Si también deseas eliminar estos elementos, utiliza este comando en su lugar: - -```shell -sudo apt-get remove --purge datadog-agent -y -``` -{{% /tab %}} - -{{% tab "Agent v5" %}} -```shell -sudo apt-get remove datadog-agent -y -``` - -Este comando elimina el Agent, pero no elimina: -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración `/etc/dd-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. -> Si también deseas eliminar estos elementos, utiliza este comando en su lugar: - -```shell -sudo apt-get --purge remove datadog-agent -y -``` -{{% /tab %}} -{{< /tabs >}} - -## CentOS, RHEL, Fedora y Amazon Linux -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} - - -```shell -sudo yum remove datadog-agent -``` - -> Este comando elimina el Agent, pero no elimina: -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración `/etc/datadog-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. - -> Si también deseas eliminar estos elementos y tus archivos de logs de Datadog, ejecuta este comando después de eliminar el Agent: - -```shell -sudo userdel dd-agent \ -&& sudo rm -rf /opt/datadog-agent/ \ -&& sudo rm -rf /etc/datadog-agent/ \ -&& sudo rm -rf /var/log/datadog/ -``` -{{% /tab %}} - -{{% tab "Agent v5" %}} -```shell -sudo yum remove datadog-agent -``` - -> Este comando elimina el Agent, pero no elimina: - -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración `/etc/dd-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. - -> Si también deseas eliminar estos elementos y tus archivos de logs de Datadog, ejecuta este comando después de eliminar el Agent: - -```shell -sudo userdel dd-agent \ -&& sudo rm -rf /opt/datadog-agent/ \ -&& sudo rm -rf /etc/dd-agent/ \ -&& sudo rm -rf /var/log/datadog/ -``` -{{% /tab %}} -{{< /tabs >}} - -## openSUSE y SLES -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} -```shell -sudo zypper remove datadog-agent -``` - -> Este comando elimina el Agent, pero no elimina: -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración `/etc/datadog-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. - -> Si también deseas eliminar estos elementos y tus archivos de logs de Datadog, ejecuta este comando después de eliminar el Agent: - -```shell -sudo userdel dd-agent \ -&& sudo rm -rf /opt/datadog-agent/ \ -&& sudo rm -rf /etc/datadog-agent/ \ -&& sudo rm -rf /var/log/datadog/ -``` -{{% /tab %}} - -{{% tab "Agent v5" %}} - -```shell -sudo zypper remove datadog-agent -``` - -Este comando elimina el Agent, pero no elimina: -* el archivo de configuración `datadog.yaml`, -* los archivos creados por el usuario en la carpeta de configuración `/etc/dd-agent`, -* los archivos creados por el usuario en la carpeta `/opt/datadog-agent`, -* el usuario `dd-agent`. - -Si también deseas eliminar estos elementos y tus archivos de logs de Datadog, ejecuta este comando después de eliminar el Agent: - -```shell -sudo userdel dd-agent \ -&& sudo rm -rf /opt/datadog-agent/ \ -&& sudo rm -rf /etc/dd-agent/ \ -&& sudo rm -rf /var/log/datadog/ -``` -{{% /tab %}} -{{< /tabs >}} -## macOS -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} -**Instalación por un solo usuario** - -Para eliminar el Agent y todos sus archivos de configuración: -1. Detén y cierra el Datadog Agent con el icono en forma de hueso en la bandeja. -2. Arrastra la aplicación de Datadog desde el directorio de aplicaciones a la papelera. -3. Ejecuta los siguientes comandos: - ```shell - sudo rm -rf /opt/datadog-agent - sudo rm -rf /usr/local/bin/datadog-agent - sudo rm -rf ~/.datadog-agent/**​ #to remove broken symlinks - launchctl remove com.datadoghq.agent - sudo rm -rf /var/log/datadog - ``` -4. Reinicia el equipo para que se apliquen los cambios. - -**Instalación de LaunchDaemon en todo el sistema** - -Para eliminar el Agent y todos sus archivos de configuración: -1. Arrastra la aplicación de Datadog desde el directorio de aplicaciones a la papelera. -2. Para eliminar los archivos que queden, ejecuta lo siguiente: - ```shell - sudo rm -rf /opt/datadog-agent - sudo rm -rf /usr/local/bin/datadog-agent - sudo rm -rf ~/.datadog-agent/**​ #to remove broken symlinks - sudo launchctl disable system/com.datadoghq.agent && sudo launchctl bootout system/com.datadoghq.agent - sudo rm /Library/LaunchDaemons/com.datadoghq.agent.plist - sudo rm -rf /var/log/datadog - ``` -3. Reinicia el equipo para que se apliquen los cambios. -{{% /tab %}} - -{{% tab "Agent v5" %}} -1. Detén y cierra el Datadog Agent con el icono en forma de hueso en la bandeja. -2. Arrastra la aplicación de Datadog desde el directorio de aplicaciones a la papelera. -3. Ejecuta lo siguiente: - -```shell -sudo rm -rf /opt/datadog-agent -sudo rm -rf /usr/local/bin/datadog-agent -sudo rm -rf ~/.datadog-agent/** #to remove broken symlinks -``` - -Si has ejecutado los comandos de instalación opcionales para que el Agent se ejecute en el arranque, ejecuta lo siguiente para finalizar la desinstalación: - -```shell -sudo launchctl unload -w /Library/LaunchDaemons/com.datadoghq.agent.plist -sudo rm /Library/LaunchDaemons/com.datadoghq.agent.plist -``` - -> Este método elimina el Agent, así como todos sus archivos de configuración. -{{% /tab %}} -{{< /tabs >}} - -## Windows - -{{< tabs >}} -{{% tab "Agent v6 y v7" %}} - -Existen dos métodos diferentes para desinstalar el Agent en Windows. Ambos eliminan el Agent, pero no eliminan la carpeta de configuración `C:\ProgramData\Datadog` en el host. - -### Añadir o eliminar programas - -1. Pulsa **CTRL** y **Esc** o utiliza la tecla de Windows para ejecutar Windows Search. -1. Busca `add` y haz clic en ****Add or remove programs** (Añadir o eliminar programas). -1. Busca `Datadog Agent` y haz clic en **Uninstall** (Desinstalar). - -### PowerShell - -**Nota:** Habilita WinRM para usar los comandos que se muestran a continuación. - -Utiliza uno de los siguientes comandos de PowerShell para desinstalar el Agent sin tener que reiniciar: -```powershell -start-process msiexec -Wait -ArgumentList ('/log', 'C:\uninst.log', '/q', '/x', (Get-CimInstance -ClassName Win32_Product -Filter "Name='Datadog Agent'" -ComputerName .).IdentifyingNumber, 'REBOOT=ReallySuppress') -``` - -Para ello, utiliza `/norestart`: - -```powershell -start-process msiexec -Wait -ArgumentList ('/log', 'C:\uninst.log', '/norestart', '/q', '/x', (Get-CimInstance -ClassName Win32_Product -Filter "Name='Datadog Agent'" -ComputerName .).IdentifyingNumber) -``` - -{{% /tab %}} - -{{% tab "Agent v5" %}} - -Existen dos métodos diferentes para desinstalar el Agent en Windows. Ambos eliminan el Agent, pero no eliminan la carpeta de configuración `C:\ProgramData\Datadog` en el host. - -> **Nota**: En versiones anteriores a la 5.12.0 del Agent, es importante desinstalarlo a través de la **cuenta original** con la que se instaló, de lo contrario puede que no se elimine correctamente. - -### Añadir o eliminar programas - -1. Pulsa **CTRL** y **Esc** o utiliza la tecla de Windows para ejecutar Windows Search. -1. Busca `add` y haz clic en ****Add or remove programs** (Añadir o eliminar programas). -1. Busca `Datadog Agent` y haz clic en **Uninstall** (Desinstalar). - -### PowerShell - -**Nota:** Habilita WinRM para usar los comandos que se muestran abajo. - -Utiliza el siguiente comando de PowerShell para desinstalar el Agent sin tener que reiniciar: - -```powershell -start-process msiexec -Wait -ArgumentList ('/log', 'C:\uninst.log', '/norestart', '/q', '/x', (Get-CimInstance -ClassName Win32_Product -Filter "Name='Datadog Agent'" -ComputerName .).IdentifyingNumber) -``` - -{{% /tab %}} -{{< /tabs >}} \ No newline at end of file +[1]: /es/agent/basic_agent_usage \ No newline at end of file diff --git a/content/es/agent/guide/private-link.md b/content/es/agent/guide/private-link.md index bb053e25255f7..5d923eff4fc6b 100644 --- a/content/es/agent/guide/private-link.md +++ b/content/es/agent/guide/private-link.md @@ -1,199 +1,219 @@ --- +further_reading: +- link: /agent/logs + tag: Documentación + text: Habilitar la recopilación de logs con el Agent +- link: /integrations/amazon_web_services/#log-collection + tag: Documentación + text: Recopilar logs de tus servicios AWS kind: guía -title: Conectarse a Datadog a través de AWS PrivateLink +title: Conectarse a Datadog a través de PrivateLink de AWS --- -{{% site-region region="us3,us5,eu,gov,ap1" %}} -
PrivateLink de Datadog no es compatible con el sitio de Datadog seleccionado.
-{{< /site-region >}} +{{% site-region region="us3,us5,eu,gov" %}} +
Datadog PrivateLink no admite el sitio Datadog seleccionado.
+{{% /site-region %}} -{{% site-region region="us" %}} -En esta guía, te explicaremos cómo configurar [AWS PrivateLink][1] para utilizarlo con Datadog. +{{% site-region region="us,ap1" %}} -## Información general +Esta guía te explica cómo configurar [AWS PrivateLink][1] para su uso con Datadog. -En general, el proceso consiste en configurar un endpoint interno en tu nube virtual privada (VPC, por siglas en inglés) al que puedan enviar datos los Datadog Agent locales. Después, el endpoint de tu VPC se conecta con el endpoint de la VPC de Datadog. +## Resumen -{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="Esquema del diagrama de la VPC" >}} +El proceso general consiste en configurar un endpoint interno en tu VPC al que los Agents de Datadog locales puedan enviar datos. El endpoint de tu VPC se interconecta entonces con el endpoint de la VPC de Datadog. + +{{< img src="agent/guide/private_link/vpc_diagram_schema.png" alt="Esquema gráfico de la VPC" >}} ## Configuración -Datadog expone los endpoints de AWS PrivateLink en **us-east-1**. +Datadog expone endpoints PrivateLink de AWS en **{{< region-param key="aws_region" >}}**. -Sin embargo, para dirigir el tráfico al PrivateLink de Datadog disponible en `us-east-1` desde otras regiones, utiliza la [interconexión interregional de la VPC de Amazon][2]. La interconexión interregional de la VPC permite establecer conexiones entre VPC de diferentes regiones de AWS. Esto permite la comunicación entre recursos de VPC de distintas regiones mediante direcciones IP privadas. Para obtener más información, consulta [¿Qué es una interconexión de VPC?][2]. +Sin embargo, para dirigir el tráfico a la oferta PrivateLink de Datadog en {{< region-param key="aws_region" code="true" >}} desde otras regiones, utiliza la [interconexión de VPC de Amazon][2] interregional. La interconexión de VPC interregional te permite establecer conexiones entre VPC de diferentes regiones de AWS. Esto permite que los recursos de VPC de diferentes regiones se comuniquen entre sí utilizando direcciones IP privadas. Para obtener más información, consulta [¿Qué es una interconexión de VPC de Amazon?][2]. {{< tabs >}} -{{% tab "us-east-1" %}} +{{% tab "Conectar desde la misma región" %}} -1. Conecta la consola de AWS a la región **us-east-1** y crea un endpoint de VPC. +1. Conecta la consola de AWS a la región **{{< region-param key="aws_region" >}}** y crea un endpoint de VPC. - {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="Crear endpoint de VPC" style="width:60%;" >}} + {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="Crear un endpoint de VPC" style="width:60%;" >}} 2. Selecciona **Find service by name** (Buscar servicio por nombre). -3. Rellena el campo de texto _Service Name_ (Nombre del servicio) de acuerdo con el servicio para el que deseas configurar AWS PrivateLink: - - {{< img src="agent/guide/private_link/vpc_service_name.png" alt="Nombre del servicio de VPC" style="width:70%;" >}} - -| Datadog | Nombre del servicio de PrivateLink | Nombre del DNS privado | -|---------------------------| --------------------------------------------------------- | -------------------------------------------------- | -| Logs (entrada HTTP del Agent) | `com.amazonaws.vpce.us-east-1.vpce-svc-025a56b9187ac1f63` | `agent-http-intake.logs.datadoghq.com` | -| Logs (entrada HTTP del usuario) | `com.amazonaws.vpce.us-east-1.vpce-svc-0e36256cb6172439d` | `http-intake.logs.datadoghq.com` | -| API | `com.amazonaws.vpce.us-east-1.vpce-svc-064ea718f8d0ead77` | `api.datadoghq.com` | -| Métricas | `com.amazonaws.vpce.us-east-1.vpce-svc-09a8006e245d1e7b8` | `metrics.agent.datadoghq.com` | -| Contenedores | `com.amazonaws.vpce.us-east-1.vpce-svc-0ad5fb9e71f85fe99` | `orchestrator.datadoghq.com` | -| Proceso | `com.amazonaws.vpce.us-east-1.vpce-svc-0ed1f789ac6b0bde1` | `process.datadoghq.com` | -| Elaboración de perfiles | `com.amazonaws.vpce.us-east-1.vpce-svc-022ae36a7b2472029` | `intake.profile.datadoghq.com` | -| Trazas (traces) | `com.amazonaws.vpce.us-east-1.vpce-svc-0355bb1880dfa09c2` | `trace.agent.datadoghq.com` | - -4. Haz clic en **Verify** (Verificar). Si esta acción no devuelve el mensaje _Service name found_ (Nombre de servicio encontrado), contacta con el [equipo de asistencia de Datadog][1]. -5. Selecciona la VPC y las subredes que deben conectarse con el endpoint del servicio de la VPC de Datadog. -6. En **Enable DNS name** (Habilitar el nombre del DNS), asegúrate de que está marcada la opción _Enable for this endpoint_ (Habilitar para este endpoint): +3. Rellena el cuadro de texto _Service Name_ (_Nombre del servicio_), según el servicio para el que quieras establecer PrivateLink de AWS: + + {{< img src="Agent/guide/private_link/vpc_service_name.png" alt="Nombre del servicio de VPC" style="width:70%;" >}} + +| Datadog | Nombre del servicio PrivateLink | Nombre del DNS privado | +|---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------| +| Logs (Consumo HTTP del Agent) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | {{< region-param key="agent_http_endpoint" code="true">}} | +| Logs (Consumo HTTP del usuario) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | {{< region-param key="http_endpoint" code="true" >}} | +| API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | api.{{< region-param key="dd_site" >}} | +| Métricas | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | metrics.agent.{{< region-param key="dd_site" >}} | +| Contenedores {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | orchestrator.{{< region-param key="dd_site" >}} | +| Proceso | {{< region-param key="aws_private_link_process_service_name" code="true" >}} | process.{{< region-param key="dd_site" >}} | +| Perfiles {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | intake.profile.{{< region-param key="dd_site" >}} | +| Trazas (traces) | {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | trace.agent.{{< region-param key="dd_site" >}} | +| Monitorización de bases de datos | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | dbm-metrics -intake .{{< region-param key="dd_site" >}} | +| Configuración remota | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | config.{{< region-param key="dd_site" >}} | + +4. Haz clic en **Verify** (Verificar). Si el resultado no es _Service Name found_ (_Nombre del servicio encontrado_), ponte en contacto con el [servicio de soporte de Datadog][1]. +5. Elige la VPC y las subredes que deben ser interconectadas con el servicio del endpoint de VPC de Datadog. +6. Asegúrate de que en **Enable DNS Name** (Habilitar nombre del DNS), _Enable this endpoint_ (_Habilitar para este endpoint_) está seleccionado: {{< img src="agent/guide/private_link/enabled_dns_private.png" alt="Habilitar DNS privado" style="width:80%;" >}} -7. Selecciona el grupo de seguridad que prefieras para establecer qué puede enviar tráfico a este endpoint de la VPC. +7. Selecciona el grupo de seguridad que quieres que controle qué instancia puede enviar tráfico a este endpoint de la VPC. - **Nota**: **El grupo de seguridad debe aceptar tráfico entrante en el puerto TCP `443`**. + **Nota**: **El grupo de seguridad debe aceptar tráfico entrante en el puerto TCP `443`**. -8. Haz clic en **Create endpoint** (Crear endpoint), en la parte inferior de la pantalla. Si el proceso finaliza correctamente, aparecerá lo siguiente: +8. Haz clic en **Create endpoint** (Crear endpoint), en la parte inferior de la pantalla. Si todo sale bien, se muestra lo siguiente: - {{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="Endpoint de la VPC creado" style="width:60%;" >}} + {{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="Se ha creado el endpoint de la VPC" style="width:60%;" >}} 9. Haz clic en el ID del endpoint de la VPC para comprobar su estado. -10. Espera a que el estado pase de _Pending_ (Pendiente) a _Available_ (Disponible). Esto puede tardar hasta 10 minutos. Cuando indique _Available_, ya podrás utilizar AWS PrivateLink. +10. Espera a que el estado pase de _Pending_ (Pendiente) a _Available_ (Disponible). Esto puede tardar hasta 10 minutos. Una vez que muestre _Available_, puedes utilizar PrivateLink de AWS. - {{< img src="agent/guide/private_link/vpc_status.png" alt="Estado de la VPC" style="width:60%;" >}} + {{< img src="Agent/guide/private_link/vpc_status.png" alt="Estado de la VPC" style="width:60%;" >}} -11. Si estás recopilando datos de logs, asegúrate de que tu Agent está configurado para enviar logs a través de HTTPS. Si los datos no están ya ahí, añade lo siguiente en el [archivo de configuración `datadog.yaml` del Agent][2]: +11. Si estás recopilando datos de logs, asegúrate de que tu Agent está configurado para enviar logs a través de HTTPS. Si los datos ya no están ahí, añade lo siguiente al archivo de [configuración del Agent `datadog.yaml`][2]: ```yaml - logs_config: + logs_config: use_http: true ``` - Si estás utilizando el Agent del contenedor, define la siguiente variable de entorno: + Si estás utilizando un contenedor del Agent, establece la siguiente variable de entorno en su lugar: ``` DD_LOGS_CONFIG_USE_HTTP=true ``` - Esta configuración es obligatoria cuando se envían logs a Datadog con AWS PrivateLink y el Datadog Agent, pero no es necesaria para la extensión Lambda. Para obtener más información, consulta la sección sobre la [recopilación de logs del Agent][3]. + Esta configuración es necesaria cuando se envían logs a Datadog con PrivateLink de AWS y Datadog Agent, y no es necesaria para la extensión Lambda. Para obtener más información, consulta la [colección de logs del Agent][3]. -12. Si tu extensión Lambda carga la clave de API de Datadog desde AWS Secrets Manager usando el ARN especificado por la variable de entorno `DD_API_KEY_SECRET_ARN`, tendrás que [crear un endpoint de VPC para Secrets Manager][4]. +12. Si tu extensión Lambda carga la clave de API de Datadog desde AWS Secrets Manager utilizando el ARN especificado por la variable de entorno `DD_API_KEY_SECRET_ARN`, necesitas [crear un endpoint de VPC para Secrets Manager][4]. -13. [Reinicia tu Agent][5] para enviar datos a Datadog mediante AWS PrivateLink. +13. [Reinicia tu Agent][5] para enviar datos a Datadog a través de PrivateLink de AWS. [1]: /es/help/ -[2]: /es/agent/guide/agent-configuration-files/#agent-main-configuration-file +[2]: /es/agent/configuration/agent-configuration-files/#agent-main-configuration-file [3]: /es/agent/logs/?tab=tailexistingfiles#send-logs-over-https [4]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html -[5]: /es/agent/guide/agent-commands/#restart-the-agent -{{% /tab %}} +[5]: /es/agent/configuration/agent-commands/#restart-the-agent +{{% /tab%}} -{{% tab "Interconexión de la VPC" %}} +{{% tab "Conectar desde otra región utilizando la interconexión de VPC" %}} -### Cómo interconectar la VPC de Amazon +### Interconexión de VPC de Amazon -1. Conecta la consola de AWS a la región **us-east-1** y crea un endpoint de VPC. +1. Conecta la consola de AWS a la región **{{< region-param key="aws_region" >}}** y crea un endpoint de VPC. {{< img src="agent/guide/private_link/create_vpc_endpoint.png" alt="Crear endpoint de VPC" style="width:80%;" >}} -2. Selecciona **Find service by name** (Buscar servicio por nombre). -3. Rellena el campo de texto _Service Name_ (Nombre del servicio) de acuerdo con el servicio para el que deseas configurar AWS PrivateLink: +2. Selecciona **Search Service by Name** (Buscar servicio por nombre). +3. Rellena el cuadro de texto _Service Name_ (_Nombre del servicio_), según el servicio para el que quieras establecer PrivateLink de AWS: {{< img src="agent/guide/private_link/vpc_service_name.png" alt="Nombre del servicio de VPC" style="width:90%;" >}} -| Datadog | Nombre del servicio de PrivateLink | -|---------------------------| --------------------------------------------------------- | -| Métricas | `com.amazonaws.vpce.us-east-1.vpce-svc-09a8006e245d1e7b8` | -| Logs (entrada HTTP del Agent) | `com.amazonaws.vpce.us-east-1.vpce-svc-025a56b9187ac1f63` | -| Logs (entrada HTTP del usuario) | `com.amazonaws.vpce.us-east-1.vpce-svc-0e36256cb6172439d` | -| API | `com.amazonaws.vpce.us-east-1.vpce-svc-064ea718f8d0ead77` | -| Proceso | `com.amazonaws.vpce.us-east-1.vpce-svc-0ed1f789ac6b0bde1` | -| Elaboración de perfiles | `com.amazonaws.vpce.us-east-1.vpce-svc-022ae36a7b2472029` | -| Trazas (traces) | `com.amazonaws.vpce.us-east-1.vpce-svc-0355bb1880dfa09c2` | -| Contenedores | `com.amazonaws.vpce.us-east-1.vpce-svc-0ad5fb9e71f85fe99` | +| Datadog | Nombre del servicio PrivateLink | +|---------------------------|----------------------------------------------------------------------------------------| +| Logs (Consumo HTTP del Agent) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | +| Logs (Consumo HTTP del usuario) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | +| API | {{< region-param key="aws_private_link_api_service_name" code="true" >}} | +| Métricas | {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | +| Contenedores {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | +| Proceso {{< region-param key="aws_private_link_process_service_name" code="true" >}} | +| Perfiles {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | +| Trazas (traces) {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | +| Monitorización de bases de datos {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | +| Configuración remota | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | -4. Haz clic en **Verify** (Verificar). Si esta acción no devuelve el mensaje _Service name found_ (Nombre de servicio encontrado), contacta con el [equipo de asistencia de Datadog][1]. +4. Haz clic en **Verify** (Verificar). Si no obtienes _Service Name found_ (Nombre del servicio encontrado), ponte en contacto con [el soporte de Datadog][1]. -5. A continuación, selecciona la VPC y las subredes que deben conectarse con el endpoint del servicio de la VPC de Datadog. No selecciones **Enable DNS name** (Habilitar el nombre del DNS), ya que la interconexión de la VPC requiere que el DNS se configure de forma manual. +5. A continuación, selecciona la VPC y las subredes que se deben interconectar con el servicio del endpoint de VPC de Datadog. No selecciones **Enable DNS Name** (Habilitar nombre del DNS), ya que la interconexión de VPC requiere que el DNS se configure manualmente. -6. Selecciona el grupo de seguridad que prefieras para establecer qué puede enviar tráfico a este endpoint de la VPC. +6. Selecciona el grupo de seguridad de tu elección para controlar qué instancia puede enviar tráfico a este endpoint de VPC. - **Nota**: **El grupo de seguridad debe aceptar tráfico entrante en el puerto TCP `443`**. + **Nota **El grupo de seguridad debe aceptar tráfico entrante en el puerto TCP `443`**. -7. Haz clic en **Create endpoint** (Crear endpoint), en la parte inferior de la pantalla. Si el proceso finaliza correctamente, aparecerá lo siguiente: +7. Haz clic en **Create endpoint** (Crear endpoint) en la parte inferior de la pantalla. Si todo sale bien, se muestra lo siguiente: -{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="Endpoint de la VPC creado" style="width:80%;" >}} +{{< img src="agent/guide/private_link/vpc_endpoint_created.png" alt="Se ha creado el endpoint de la VPC" style="width:80%;" >}} 8. Haz clic en el ID del endpoint de la VPC para comprobar su estado. -9. Espera a que el estado pase de _Pending_ (Pendiente) a _Available_ (Disponible). Esto puede tardar hasta 10 minutos. -10. Después de crear el endpoint, aprovecha la interconexión de la VPC para permitir que el endpoint de PrivateLink esté disponible en otra región y enviar telemetría a Datadog a través de PrivateLink. Para obtener más información, consulta [Trabaje con interconexiones de VPC][2] en AWS. +9. Espera a que el estado pase de _Pending_ (Pendiente) a _Available_ (Disponible). Esto puede tardar hasta 10 minutos. +10. Luego de crear el endpoint, utiliza la interconexión de VPC para que el endpoint de PrivateLink esté disponible en otra región para enviar telemetría a Datadog a través de PrivateLink. Para obtener más información, lee la página [Trabajar con interconexiones de VPC][2] en AWS. {{< img src="agent/guide/private_link/vpc_status.png" alt="Estado de la VPC" style="width:80%;" >}} ### Amazon Route53 -1. Crea una [zona alojada privada de Route53][3] para cada servicio para el que hayas creado un endpoint de AWS PrivateLink. Añade la zona alojada privada a la VPC en `us-east-1`. +1. Crea una [zona alojada privada de Route53][3] para cada servicio para el que hayas creado un endpoint PrivateLink de AWS. Adjunta la zona privada alojada a la VPC en {{< region-param key="aws_region" code="true" >}}. {{< img src="agent/guide/private_link/create-a-route53-private-hosted-zone.png" alt="Crear una zona alojada privada de Route53" style="width:80%;" >}} -Utiliza la siguiente lista para asignar el servicio y el nombre del DNS a diferentes partes de Datadog: +Utiliza el siguiente lista para asignar el servicio y el nombre del DNS a diferentes partes de Datadog: - | Datadog | Nombre del servicio de PrivateLink | Nombre del DNS privado | - |---------------------------| --------------------------------------------------------- | -------------------------------------------------- | - | Métricas | `com.amazonaws.vpce.us-east-1.vpce-svc-09a8006e245d1e7b8` | `metrics.agent.datadoghq.com` | - | Logs (entrada HTTP del Agent) | `com.amazonaws.vpce.us-east-1.vpce-svc-025a56b9187ac1f63` | `agent-http-intake.logs.datadoghq.com` | - | Logs (entrada HTTP del usuario) | `com.amazonaws.vpce.us-east-1.vpce-svc-0e36256cb6172439d` | `http-intake.logs.datadoghq.com` | - | API | `com.amazonaws.vpce.us-east-1.vpce-svc-064ea718f8d0ead77` | `api.datadoghq.com` | - | Proceso | `com.amazonaws.vpce.us-east-1.vpce-svc-0ed1f789ac6b0bde1` | `process.datadoghq.com` | - | Elaboración de perfiles | `com.amazonaws.vpce.us-east-1.vpce-svc-022ae36a7b2472029` | `intake.profile.datadoghq.com` | - | Trazas (traces) | `com.amazonaws.vpce.us-east-1.vpce-svc-0355bb1880dfa09c2` | `trace.agent.datadoghq.com` | - | Contenedores | `com.amazonaws.vpce.us-east-1.vpce-svc-0ad5fb9e71f85fe99` | `orchestrator.datadoghq.com` | + | Datadog | Nombre del servicio PrivateLink | Nombre del DNS privado | + |---------------------------|----------------------------------------------------------------------------------------|------------------------------------------------------------------------| + | Logs (Consumo HTTP del Agent) | {{< region-param key="aws_private_link_logs_agent_service_name" code="true" >}} | agent-http-intake .logs.{{< region-param key="dd_site" >}} | + | Logs (Consumo HTTP del usuario) | {{< region-param key="aws_private_link_logs_user_service_name" code="true" >}} | http-intake.logs.{{< region-param key="dd_site" >}} | + | API {{< region-param key="aws_private_link_api_service_name" code="true" >}} | api.{{ < region-param key="dd_site" >}} | + | metrics {{< region-param key="aws_private_link_metrics_service_name" code="true" >}} | metrics.agent.{{< region-param key="dd_site" >}} | + | Contenedores {{< region-param key="aws_private_link_containers_service_name" code="true" >}} | orchestrator.{{< region-param key="dd_site" >}} | + | Proceso | {{< region-param key="aws_private_link_process_service_name" code="true" >}} | process.{{< region-param key="dd_site" >}} | + | Perfiles {{< region-param key="aws_private_link_profiling_service_name" code="true" >}} | intake.profile.{{< region-param key="dd_site" >}} | + | Trazas (traces) | {{< region-param key="aws_private_link_traces_service_name" code="true" >}} | trace.agent.{{< region-param key="dd_site" >}} | + | Monitorización de bases de datos | {{< region-param key="aws_private_link_dbm_service_name" code="true" >}} | dbm-metrics-intake.{{< region-param key="dd_site" >}} | + | Configuración remota | {{< region-param key="aws_private_link_remote_config_service_name" code="true" >}} | config.{{< region-param key="dd_site" >}} | - También puedes encontrar esta información si realizas una consulta a la API de AWS, `DescribeVpcEndpointServices`, o si utilizas el siguiente comando de la CLI: `aws ec2 describe-vpc-endpoint-services --service-names `. - - Por ejemplo, en el caso del endpoint de métricas de Datadog: + También puedes encontrar esta información enviando una consulta a la API de AWS, `DescribeVpcEndpointServices`, o utilizando el siguiente comando: ```bash - aws ec2 describe-vpc-endpoint-services --service-names com.amazonaws.vpce.us-east-1.vpce-svc-09a8006e245d1e7b8 | jq '.ServiceDetails[0].PrivateDnsName' + aws ec2 describe-vpc-endpoint-services --service-names ` ``` -Esto devuelve `metrics.agent.datadoghq.com`, que es el nombre de la zona alojada privada que necesitas para asociarla con la VPC en la que se origina el tráfico del Agent. Al anular este registro, se obtienen todos los nombres de host de entrada relacionados con las métricas. + Por ejemplo, en el caso de métricas del endpoint de Datadog para {{< region-param key="aws_region" code="true" >}}: + +
+
+
aws ec2 describe-vpc-endpoint-services --service-names {{< region-param key="aws_private_link_metrics_service_name" >}} | jq '.ServiceDetails[0].PrivateDnsName'
+
+
-2. En cada una de las nuevas zonas alojadas privadas de Route53, crea un registro A con el mismo nombre. Activa la opción **Alias**; luego, en **Route traffic to** (Dirigir tráfico hacia), elige **Alias to VPC endpoint** (Alias al endpoint de la VPC), **us-east-1**, e introduce el nombre del DNS del endpoint de la VPC asociado con el nombre del DNS. +Esto devuelve metrics.agent.{{< region-param key="dd_site" >}}}}, el nombre de zona alojada privada que necesitas para asociar con la VPC en la que se origina el tráfico del Agent. Al anular este registro, se obtienen todos los nombres de host de consumos relacionados con métricas. + +2. Dentro de cada nueva zona alojada privada de Route53, crea un registro A con el mismo nombre. Activa la opción **Alias** y, a continuación, en **Route traffic to** (Enrutar el tráfico a**), selecciona **Alias to VPC endpoint** (Alias para endpoint de VPC), **{{< region-param key="aws_region" >}}**, e introduce el nombre del DNS del endpoint de VPC asociado al nombre del DNS. **Notas**: - - Para obtener el nombre de tu DNS, consulta la [documentación dedicada a la configuración del nombre de DNS privado de los servicios de endpoint][4]. - - El Agent envía telemetría a endpoints con versión, como`-app.agent.datadoghq.com`, que cambia el nombre a `metrics.agent.datadoghq.com` mediante un alias CNAME. Por lo tanto, solo es necesario configurar una zona alojada privada para `metrics.agent.datadoghq.com`. + - Para obtener el nombre de tu DNS, consulta la [documentación de la configuración del nombre del DNS privado de los servicios de endpoint][4]. + - El Agent envía telemetría a endpoints versionados, por ejemplo, [version]-app.agent.{{< region-param key="dd_site" >}}, que se resuelven como metrics.agent.{{< region-param key="dd_site" >}} a través de un alias CNAME. Por lo tanto, sólo es necesario configurar una zona alojada privada para metrics.agent.{{< region-param key="dd_site" >}}. -{{< img src="agent/guide/private_link/create-an-a-record.png" alt="Crear un registro A" style="width:90%;" >}} +{{< img src="agent/guide/private_link/create-an-a-record.png" alt="Crear un registro A" style="width:90%;" >}} -3. Configura la interconexión y el enrutamiento de la VPC de `us-east-1` que contiene los endpoints del PrivateLink de Datadog y la VPC en la región donde se ejecutan los Datadog Agents. +3. Configura la interconexión de VPC y el enrutamiento entre VPC en una {{< region-param key="aws_region" code="true" >}} que contenga endpoints PrivateLink de Datadog y la VPC en la región donde se ejecutan los Agents de Datadog. -4. Si las VPC se encuentran en diferentes cuentas de AWS, la VPC que contiene el Datadog Agent debe estar autorizada para asociarse con las zonas alojadas privadas de Route53 antes de continuar. Crea una [autorización de asociación para la VPC][5] en cada zona alojada privada de Route53 utilizando la región y el ID de la VPC donde se ejecuta el Datadog Agent. Esta opción no está disponible en la consola de AWS y debe configurarse con la CLI, SDK o API de AWS. +4. Si las VPC se encuentran en diferentes cuentas de AWS, la VPC que contiene el Datadog Agent debe estar autorizada para asociarse con las zonas alojadas privadas de Route53 antes de continuar. Crea una [autorización de asociación para VPC][5] en cada zona alojada privada de Route53 utilizando la región y el ID de la VPC donde se ejecuta el Datadog Agent. Esta opción no está disponible en la consola de AWS y debe configurarse con la CLI, SDK o API de AWS. -5. Edita la zona alojada de Route53 para añadir la VPC de non-us-east-1. +5. Edita la zona alojada de Route53 para añadir VPC para otras regiones. {{< img src="agent/guide/private_link/edit-route53-hosted-zone.png" alt="Editar una zona alojada privada de Route53" style="width:80%;" >}} -6. Las VPC que tienen una zona alojada privada (o PHZ, por sus siglas en inglés) adjunta necesitan tener ciertas configuraciones específicas activadas; concretamente, las opciones `enableDnsHostnames` y `enableDnsSupport` de las VPC a las que está asociada la PHZ. Consulta [Consideraciones sobre el uso de una zona alojada privada][5]. +6. Las VPC que tienen una zona alojada privada (PHZ) adjunta necesitan tener ciertas configuraciones específicas activadas; concretamente, las opciones `enableDnsHostnames` y `enableDnsSupport` de las VPC a las que está asociada la PHZ. Consulta [Consideraciones sobre el uso de una zona alojada privada][5]. -7. [Reinicia el Agent][7] para enviar datos a Datadog mediante AWS PrivateLink. +7. [Reinicia el Agent][7] para enviar datos a Datadog mediante PrivateLink de AWS. #### Solucionar problemas de resolución y conectividad del DNS -Los nombres del DNS deberían resolverse en direcciones P contenidas dentro del bloque CIDR de la VPC en `us-east-1`. Además, las conexiones con `port 443` deberían funcionar correctamente. +Los nombres de DNS deberían resolverse en direcciones IP contenidas dentro del bloque CIDR de la VPC en la {{< region-param key="aws_region" code="true" >}} y las conexiones al `port 443` deberían funcionar correctamente. {{< img src="agent/guide/private_link/successful-setup.png" alt="La conexión con el puerto 443 debería funcionar correctamente" style="width:80%;" >}} -Si el DNS se resuelve en direcciones IP públicas, significa que la zona de Route53 **no** se ha asociado con la VPC en la región alternativa o que el registro A no existe. +Si el DNS se resuelve en direcciones IP públicas, significa que la zona de Route53 **no** se ha asociado con la VPC en la región alternativa o que el registro A no existe. -Si el DNS se cambia correctamente, pero las conexiones con `port 443` fallan, significa que la interconexión o el enrutamiento de la VPC pueden estar mal configurados o que el puerto 443 quizás no tenga permiso de salida hacia el bloque CIDR de la VPC en `us-east-1`. +Si el DNS se resuelve correctamente, pero las conexiones al `port 443` fallan, es posible que la interconexión o el enrutamiento de la VPC estén mal configurados o que el puerto 443 no tenga permiso de salida del bloque CIDR de la VPC en la {{< region-param key="aws_region" code="true" >}}. -Las VPC que tienen asociada una zona alojada privada (o PHZ, por sus siglas en inglés) necesitan tener activados un par de parámetros; concretamente, `enableDnsHostnames` y `enableDnsSupport` deben estar activados en las VPC a las que está asociada la PHZ. Consulta [Consideraciones sobre el uso de una zona alojada privada][6]. +Las VPC que tienen asociada una zona alojada privada (PHZ) necesitan tener ciertas configuraciones específicas activadas; concretamente, las opciones `enableDnsHostnames` y `enableDnsSupport` deben estar activadas en las VPC a las que está asociada la PHZ. Consulta [Consideraciones sobre el uso de una zona alojada privada][6]. ### Datadog Agent @@ -204,13 +224,13 @@ Las VPC que tienen asociada una zona alojada privada (o PHZ, por sus siglas en i force_use_http: true ``` - Si estás utilizando el Agent del contenedor, define la siguiente variable de entorno: + Si estás utilizando el Agent del contenedor, define la siguiente variable de entorno: ``` DD_LOGS_CONFIG_FORCE_USE_HTTP=true ``` - Esta configuración es obligatoria cuando se envían logs a Datadog con AWS PrivateLink y el Datadog Agent, pero no es necesaria para la extensión Lambda. Para obtener más información, consulta la sección sobre la [recopilación de logs del Agent][9]. + Esta configuración es obligatoria cuando se envían logs a Datadog con PrivateLink de AWS y el Datadog Agent, pero no es necesaria para la extensión Lambda. Para obtener más información, consulta la sección sobre la [recopilación de logs del Agent][9]. 2. Si tu extensión Lambda carga la clave de API de Datadog desde AWS Secrets Manager usando el ARN especificado por la variable de entorno `DD_API_KEY_SECRET_ARN`, tendrás que [crear un endpoint de VPC para Secrets Manager][10]. @@ -223,23 +243,18 @@ Las VPC que tienen asociada una zona alojada privada (o PHZ, por sus siglas en i [4]: https://docs.aws.amazon.com/vpc/latest/privatelink/view-vpc-endpoint-service-dns-name.html [5]: https://docs.amazonaws.cn/en_us/Route53/latest/DeveloperGuide/hosted-zone-private-associate-vpcs-different-accounts.html [6]: https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zone-private-considerations.html#hosted-zone-private-considerations-vpc-settings -[7]: /es/agent/guide/agent-commands/?tab=agentv6v7#restart-the-agent -[8]: /es/agent/guide/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file +[7]: /es/agent/configuration/agent-commands/?tab=agentv6v7#restart-the-agent +[8]: /es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file [9]: https://docs.datadoghq.com/es/agent/logs/?tab=tailexistingfiles#send-logs-over-https [10]: https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html {{% /tab %}} {{< /tabs >}} -## Leer más - -Más enlaces, artículos y documentación útiles: - -- [Habilitar la recopilación de logs con el Agent][3] -- [Recopilar logs desde tus servicios de AWS][4] - -{{< /site-region >}} [1]: https://aws.amazon.com/privatelink/ [2]: https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html -[3]: /es/agent/logs -[4]: /es/integrations/amazon_web_services/#log-collection \ No newline at end of file +{{% /site-region %}} + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/agent/guide/windows-agent-ddagent-user.md b/content/es/agent/guide/windows-agent-ddagent-user.md index 8fe7dbfad337d..98790c87becd7 100644 --- a/content/es/agent/guide/windows-agent-ddagent-user.md +++ b/content/es/agent/guide/windows-agent-ddagent-user.md @@ -1,13 +1,19 @@ --- +algolia: + tags: + - usuario windows agent + - usuario windows + - ddagentuser + - política de grupo aliases: - /es/agent/faq/windows-agent-ddagent-user/ kind: guía title: Usuario del Datadog Windows Agent --- -A partir de la versión `6.11.0`, los componentes de base y APM/rastreo del Windows Agent se ejecutan en una cuenta de usuario exclusiva en lugar de la cuenta `LOCAL_SYSTEM`, tal como ocurría en versiones anteriores. Sin embargo, si el componente Live Processes está activado, seguirá ejecutándose en la cuenta `LOCAL_SYSTEM`. +A partir de la versión `6.11.0`, los componentes de base y APM/rastreo del Windows Agent se ejecutan en una cuenta de usuario exclusiva, en lugar de ejecutarse en la cuenta `LOCAL_SYSTEM`, tal como ocurría en versiones anteriores. Sin embargo, si el componente Live Process está activado, seguirá ejecutándose en la cuenta `LOCAL_SYSTEM`. -El instalador del Agent crea una nueva cuenta de forma predeterminada (`ddagentuser`), pero también puede utilizar una cuenta que el usuario facilite. +El instalador del Agent crea una nueva cuenta de forma predeterminada (`ddagentuser`), pero también puede utilizar una cuenta que el usuario proporcione. Durante la instalación, la cuenta se asigna a los siguientes grupos: * “Performance Monitor Users” (Usuarios del monitor de rendimiento) @@ -23,31 +29,31 @@ Además, durante la instalación, se aplican las siguientes políticas de seguri * Se deniega el inicio de sesión a través de servicios de escritorio remoto * Se inicia sesión como servicio -**Importante**: Dado que la cuenta se modifica durante la instalación para restringir sus privilegios, como pueden ser los de inicio de sesión, verifica que no se trata de una cuenta de usuario “real”, sino de una cuenta destinada exclusivamente a ejecutar el Datadog Agent. +**Importante**: Dado que la cuenta se modifica durante la instalación para restringir sus privilegios, como pueden ser los de inicio de sesión, asegúrate de que no se trata de una cuenta de usuario “real”, sino de una cuenta destinada exclusivamente a ejecutar el Datadog Agent. -**Nota**: Todos los ejemplos de comandos de esta página utilizan `<>` para indicar las variables que deben sustituirse. Por ejemplo, si la cuenta de usuario es `ddagentuser` y el comando contiene `DDAGENTUSER_NAME=`, habrá que introducir `DDAGENTUSER_NAME=ddagentuser` en la línea de comandos. +**Nota**: Todos los ejemplos de comandos de esta página utilizan `<>` para indicar la variable que debe sustituirse. Por ejemplo, si la cuenta de usuario es `ddagentuser` y el comando contiene `DDAGENTUSER_NAME=`, habrá que introducir `DDAGENTUSER_NAME=ddagentuser` en la línea de comandos. -**Nota**: A partir de la versión `7.38.0/6.38.0`, el instalador admite el uso de una **cuenta de servicio administrada de grupo (gMSA)**. Para especificar una cuenta de este tipo, añade **$** al final del nombre de usuario: `\`$. Recuerda que esta cuenta debe existir *antes* de la instalación, ya que el instalador no puede crearla. +**Nota**: A partir de la versión , el instalador admite el uso de una **cuenta de servicio administrada de grupo (gMSA)**. Para especificar una cuenta de este tipo, añade **$** al final del nombre de usuario `\. Recuerda que la cuenta de servicio administrada de grupo debe existir *antes* de la instalación, ya que el instalador no puede crearla. ## Instalación -Si no se define ninguna cuenta de usuario en la línea de comandos, el instalador intentará crear una cuenta de usuario local llamada `ddagentuser` con una contraseña generada de forma aleatoria. +Si no se especifica una cuenta de usuario en la línea de comandos, el instalador intentará crear una cuenta de usuario local llamada `ddagentuser` con una contraseña generada de forma aleatoria. -Si se especifica una cuenta de usuario en la línea de comandos, pero la cuenta no se encuentra en el sistema, el instalador intentará crearla. Si se ha proporcionado una contraseña, el instalador la utilizará; de lo contrario, generará una contraseña aleatoria. +Si se especifica una cuenta de usuario en la línea de comandos, pero esta cuenta de usuario no se encuentra en el sistema, el instalador intentará crearla. Si se especificó una contraseña, el instalador utilizará esa contraseña, de lo contrario generará una contraseña aleatoria. -Para definir el nombre de usuario (USERNAME) y la contraseña (PASSWORD) opcionales en la línea de comandos, se han de introducir las siguientes propiedades en el comando `msiexec` (elimina los corchetes `<>` de los parámetros correspondientes): +Para definir parámetros USERNAME (Nombre de usuario) y PASSWORD (Contraseña) opcionales en la línea de comandos, debes introducir las siguientes propiedades en el comando `msiexec` (elimina los corchetes `<>` de los parámetros anteriores): ```shell msiexec /i ddagent.msi DDAGENTUSER_NAME= DDAGENTUSER_PASSWORD= ``` -**Nota**: El `` debe contener 20 caracteres como máximo para cumplir los requisitos del [atributo del nombre de cuenta SAM del esquema de Active Directory (esquema de AD)][1] de Microsoft. +**Nota**: El `` debe contener 20 caracteres como máximo para cumplir los requisitos del [atributo SAM-Account-Name (esquema de AD) de Active Directory][1] de Microsoft. **Nota**: Debido a una restricción del instalador MSI, la propiedad `DDAGENTUSER_PASSWORD` no puede contener el carácter del punto y coma: `;`. -**Nota**: Si después de haber realizado la instalación tienes algún problema de permisos con los checks `system` y `winproc`, asegúrate de que `ddagentuser` es miembro de los grupos “Performance Monitor Users” y “Event Log Readers”. +**Nota**: Si después de haber realizado la instalación tienes algún problema de permisos con los checks `system` y `winproc`, asegúrate de que `ddagentuser` es miembro de los grupos “Performance Monitor Users” (Usuarios de monitorización del rendimiento) y “Event Log Readers” (Lectores de logs de eventos). -**Nota**: No es posible definir el usuario en la IU del instalador. Utiliza la línea de comandos para introducir el `DDAGENTUSER_NAME` y otros parámetros. Estos parámetros se tendrán en cuenta incluso para instalar IU. +**Nota**: No es posible especificar el usuario en la IU del instalador. Utiliza la línea de comandos para introducir el `DDAGENTUSER_NAME` y otros parámetros. Estos parámetros se tendrán en cuenta incluso para instalar IU. ### Instalación con política de grupo @@ -60,20 +66,20 @@ Si la política de grupo del dominio no lo permite, la configuración de la inst En las máquinas unidas a un dominio, el instalador del Agent puede utilizar una cuenta proporcionada por el usuario, ya sea de dominio o local, o bien crear una cuenta local. -Si se define una cuenta de dominio en la línea de comandos, esta debe existir antes de la instalación, ya que solo los controladores de dominio pueden crear cuentas de dominio. +Si se especifica una cuenta de dominio en la línea de comandos, esta debe existir antes de la instalación, ya que sólo los controladores de dominio pueden crear cuentas de dominio. -Si se especifica una cuenta de usuario en la línea de comandos, pero la cuenta no se encuentra en el sistema, el instalador intentará crearla. Si se ha proporcionado una contraseña, el instalador la utilizará; de lo contrario, generará una contraseña aleatoria. +Si se especifica una cuenta de usuario en la línea de comandos, pero esta cuenta de usuario no se encuentra en el sistema, el instalador intentará crearla. Si se especificó una contraseña, el instalador utilizará esa contraseña, de lo contrario generará una contraseña aleatoria. -Para definir un nombre de usuario de una cuenta de dominio, utiliza el siguiente formulario de la propiedad `DDAGENTUSER_NAME`: +Para definir un nombre de usuario de una cuenta de dominio, utiliza el siguiente formato de propiedad `DDAGENTUSER_NAME`: ```shell msiexec /i ddagent.msi DDAGENTUSER_NAME=\ DDAGENTUSER_PASSWORD= ``` -El `` puede ser un nombre de dominio completo (con el formato `mydomain.com`) o el nombre NETBIOS (el nombre anterior a Windows 2000). +El `` puede ser un nombre de dominio completo (con el formato `mydomain.com`) o el nombre NETBIOS (el nombre anterior a Windows 2000). Además, debe separarse del `` con una barra inversa: `\`. -**Nota**: El `` debe contener 20 caracteres como máximo para cumplir los requisitos del [atributo del nombre de cuenta SAM del esquema de Active Directory (esquema de AD)][1] de Microsoft. +**Nota**: El `` debe contener 20 caracteres como máximo para cumplir los requisitos del [atributo SAM-Account-Name (AD Schema) del esquema de Active Directory)][1] de Microsoft. **Nota**: Debido a una restricción del instalador MSI, la propiedad `DDAGENTUSER_PASSWORD` no puede contener el carácter del punto y coma: `;`. @@ -81,35 +87,34 @@ Además, debe separarse del `` con una barra inversa: `\`. ##### Controladores de dominio principal y secundario -Cuando se instala el Agent en un controlador de dominio, el concepto de cuenta de usuario local no existe. Por tanto, si el instalador crea una cuenta de usuario, se tratará de un usuario de dominio en lugar de un usuario local. +Cuando se instala el Agent en un controlador de dominio, el concepto de cuenta de usuario local no existe. Por lo tanto, si el instalador crea una cuenta de usuario, se tratará de un usuario de dominio en lugar de un usuario local. Si se especifica una cuenta de usuario en la línea de comandos, pero la cuenta no se encuentra en el sistema, el instalador intentará crearla. Para que la instalación se realice correctamente, debe especificarse una contraseña. -Si la cuenta de usuario indicada es de un dominio superior, el instalador utilizará esa cuenta. -Si la cuenta de usuario no existe, la creará en el dominio secundario (el dominio al que está unido el controlador). El instalador nunca creará una cuenta de usuario en el dominio superior. +Si la cuenta de usuario especificada es de un dominio principal, el instalador utiliza esa cuenta de usuario. Asegúrate de que existe una cuenta de usuario en el dominio principal antes de la instalación, ya que el instalador nunca crea una cuenta de usuario en el dominio principal. -##### Controladores de dominio de solo lectura +##### Controladores de dominio de sólo lectura -El instalador solo puede utilizar una cuenta de dominio existente cuando instala en un controlador de dominio de solo lectura. +El instalador sólo puede utilizar una cuenta de dominio existente cuando instala en un controlador de dominio de sólo lectura. ### Instalación con Chef -Si utilizas Chef y el cookbook oficial de `datadog` para desplegar el Agent en hosts de Windows, **usa la versión 2.18.0 (o una posterior)** del cookbook para asegurarte de que los archivos de configuración del Agent disponen de los permisos adecuados. +Si utilizas Chef y el cookbook oficial de `datadog` para implementar el Agent en hosts de Windows, **utiliza la versión 2.18.0 o posterior** del cookbook para asegurarte de que los archivos de configuración del Agent disponen de los permisos adecuados. -## Actualización +## Actualizar -En las versiones anteriores al Agent `7.25.0`, cuando se actualice el Datadog Agent en un controlador de dominio o host en los que el usuario haya proporcionado un nombre de usuario para el Agent, habrá que introducir el `DDAGENTUSER_NAME`, pero no la `DDAGENTUSER_PASSWORD`. +En las versiones del Agent anteriores a `7.25.0`, cuando actualices el Datadog Agent en un controlador de dominio o host en que el usuario haya proporcionado un nombre de usuario para el Agent, deberás introducir el `DDAGENTUSER_NAME`, pero no la `DDAGENTUSER_PASSWORD`. -A partir de la versión `7.25.0` del Agent, el instalador mantiene el nombre de usuario utilizado para instalar el Agent y lo reutiliza en futuras actualizaciones. +A partir de la versión `7.25.0` del Agent, el instalador conserva el nombre de usuario utilizado para instalar el Agent y lo reutiliza en futuras actualizaciones. Aun así, es posible anular el valor guardado con `DDAGENTUSER_NAME`. ## Integraciones del Agent ### Permisos generales -Se ha hecho todo lo posible para garantizar que la transición de `LOCAL_SYSTEM` a `ddagentuser` se realice sin problemas. Sin embargo, se ha detectado una clase de problemas por los que, una vez instalado el Agent, es necesario realizar una modificación determinada de la configuración. Estos problemas se producen porque, anteriormente, el Windows Agent estaba sujeto a los derechos del administrador. En cambio, la nueva versión del Agent no necesita estos derechos de forma predeterminada. +Se ha hecho todo lo posible para garantizar que la transición de `LOCAL_SYSTEM` a `ddagentuser` sea fluida. Sin embargo, se ha detectado una clase de problemas que requieren que se realice una modificación determinada de la configuración después de instalar el Agent. Estos problemas se producen porque el Windows Agent anteriormente dependía de derechos de administrador que la nueva versión del Agent no posee de forma predeterminada. -Por ejemplo, si el check de directorio está monitorizando un directorio con unos derechos de acceso concretos, como puede ser permitir la lectura solo a los miembros del grupo de administradores, el Agent existente puede monitorizar ese directorio adecuadamente, dado que `LOCAL_SYSTEM` tiene derechos de administrador. Tras la actualización, el administrador deberá añadir `ddagentuser` a la lista de control de acceso de ese directorio para que el check de directorio funcione. +Por ejemplo, si el check de directorios está monitorizando un directorio con derechos de acceso específicos, como por ejemplo permitir la lectura sólo a miembros del grupo de administradores, el Agent existente puede monitorizar ese directorio adecuadamente, ya que `LOCAL_SYSTEM` cuenta con derechos de administrador. Luego de la actualización, el administrador debe añadir `ddagentuser` a la lista de control de acceso de ese directorio para que el check de directorios funcione. **Nota**: En el caso del sistema operativo Windows Server, la integración de servicios de Windows no puede comprobar el servicio del servidor DHCP debido a la lista de control de acceso especial del servicio `DHCPServer`. En este caso, el check devuelve `UNKNOWN`. @@ -117,7 +122,7 @@ Por ejemplo, si el check de directorio está monitorizando un directorio con uno ### Integraciones basadas en JMX -Con el cambio a `ddagentuser`, tus integraciones basadas en JMX se verán afectadas si el JMXFetch del Agent está configurado para conectarse a través de la extensión Attach API a las máquinas JVM monitorizadas. Por ejemplo: +El cambio a `ddagentuser` afectará tus integraciones basadas en JMX, si el JMXFetch del Agent está configurado para conectarse a través de la extensión Attach API a las máquinas JVM monitorizadas. Por ejemplo: 1. Si utilizas una integración basada en JMX, como: * [ActiveMQ][2] @@ -129,35 +134,35 @@ Con el cambio a `ddagentuser`, tus integraciones basadas en JMX se verán afecta * [Tomcat][8] * [Kafka][9] -2. **Y** si has configurado la integración con el parámetro `process_name_regex` en lugar de con los parámetros `host` y `port`. +2. **Y** si has configurado la integración con el parámetro `process_name_regex`, en lugar de con los parámetros `host` y `port`. -Si utilizas Attach API, el cambio que se produce respecto al contexto de usuario implica que el JMXFetch del Agent solo podrá conectarse a las máquinas JVM que también se ejecuten en el contexto de usuario `ddagentuser`. En la mayoría de los casos, se recomienda cambiar a JMXFetch para utilizar JMX Remote activando JMX Remote en las máquinas JVM de destino y configurando las integraciones JMX con `host` y `port`. Para obtener más información, consulta la [documentación acerca de JMX][5]. +Si utilizas Attach API, el cambio que se produce en el contexto de usuario implica que el JMXFetch del Agent sólo podrá conectarse a las máquinas JVM que también se ejecuten en el contexto de usuario `ddagentuser`. En la mayoría de los casos, recomendamos cambiar a JMXFetch para utilizar JMX Remote activando JMX Remote en las máquinas JVM de destino y configurando las integraciones JMX con `host` y `port`. Para obtener más información, consulta la [documentación acerca de JMX][5]. ### Check del proceso -En la versión 6.11 y posteriores, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Por este motivo, el Agent no tiene acceso a la línea de comandos completa de los procesos que se ejecutan en otros usuarios ni al usuario de los procesos de otros usuarios. Esto provoca que las siguientes opciones del check no funcionen: +En la versión 6.11 y posteriores, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Por este motivo, el Agent no tiene acceso a la totalidad de la línea de comandos de los procesos que se ejecutan en otros usuarios, ni al usuario de los procesos de otros usuarios. Esto provoca que las siguientes opciones del check no funcionen: -* `exact_match`, cuando se defina como `false` -* `user`, que permite seleccionar los procesos que pertenecen a un usuario concreto +* `exact_match`, cuando se define como `false` +* `user`, que permite seleccionar los procesos que pertenecen a un usuario específico -Para restablecer el comportamiento anterior y ejecutar el Agent como `Local System` (no recomendado), abre una consola del administrador y ejecuta el siguiente comando: `sc.exe config "datadogagent" obj= LocalSystem`. Otra posibilidad es abrir el administrador de servicios, ir al Datadog Agent > Properties (Propiedades) y definir “Log On” (Iniciar sesión) como `Local System`. +Para restablecer el comportamiento anterior y ejecutar el Agent como `Local System` (no recomendado), abre una consola de administrador y ejecuta el siguiente comando: `sc.exe config "datadogagent" obj= LocalSystem`. Otra posibilidad es abrir el administrador de servicios, ir a Datadog Agent > Properties (Datadog Agent > Propiedades) y definir “Log On” como `Local System`. ### Integración de Cassandra Nodetool Para que la integración de Cassandra Nodetool siga funcionando, aplica los siguientes cambios en tu entorno: * Permite que el directorio de instalación de Nodetool acceda al `ddagentuser`. -* Configura las variables de entorno del directorio de instalación de Nodetool (`CASSANDRA_HOME` y `DSCINSTALLDIR`) como variables para todo el sistema y no solo para el usuario que realiza la instalación de Nodetool. +* Configura las variables de entorno del directorio de instalación de Nodetool (`CASSANDRA_HOME` y `DSCINSTALLDIR`) como variables para todo el sistema y no sólo para el usuario que instala Nodetool. ## Canal de logs de seguridad -Si vas a utilizar la [integración de Win32 Event Log con Datadog][10], debes añadir el usuario `ddagentuser` de Datadog al grupo “Event Log Readers” para recopilar logs del canal de logs de seguridad: +Si vas a utilizar la [integración de logs de eventos Win32 con Datadog][10], debes añadir el usuario `ddagentuser` de Datadog al grupo “Event Log Readers” (Lectores de logs de eventos) para recopilar logs del canal de logs de seguridad: -1. Abre la ventana Ejecutar con el atajo *Windows+R* y escribe `compmgmt.msc` en el campo de texto. -2. Dirígete a *System Tools* (Herramientas del sistema) -> *Local Users and Groups* (Grupos y usuarios locales) -> *Groups* (Grupos). -3. Haz clic con el botón derecho del ratón en **Event Log Readers** y selecciona *Properties* (Propiedades). +1. Abre la ventana de ejecución con el atajo *Windows+R* y escribe `compmgmt.msc` en el campo de texto. +2. Ve a *System Tools* -> *Local Users and Groups* -> *Groups* (Herramientas del sistema -> Grupos y usuarios locales -> Grupos). +3. Haz clic con el botón derecho del ratón en **Event Log Readers** (Lectores de logs de eventos) y selecciona *Properties* (Propiedades). 4. Haz clic en *Add* (Añadir) e introduce `ddagentuser` -> *Check Names* (Nombres de checks). -5. Haz clic en *OK* (Aceptar) y *Apply* (Aplicar). +5. Haz clic en *OK* (Aceptar) y en *Apply* (Aplicar). [1]: https://docs.microsoft.com/en-us/windows/win32/adschema/a-samaccountname?redirectedfrom=MSDN [2]: /es/integrations/activemq/ diff --git a/content/es/agent/supported_platforms.md b/content/es/agent/supported_platforms.md new file mode 100644 index 0000000000000..12071b348c485 --- /dev/null +++ b/content/es/agent/supported_platforms.md @@ -0,0 +1,339 @@ +--- +disable_toc: false +further_reading: +- link: agent/basic_agent_usage/ + tag: Documentación + text: Uso básico del Agent +kind: Documentación +title: Plataformas compatibles +--- + +El Datadog Agent es compatible con una amplia gama de sistemas operativos y plataformas. Si tu sistema operativo no aparece en la lista, podría servirte [una instalación de origen][1]. + +{{< tabs >}} +{{% tab "Linux" %}} + +## X86 de 64 bits + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
Sistema operativoVersiones del SOVersiones del Agent 5Versiones del Agent 6Versiones del Agent 7
Amazon Linux2
2022>= 6.40.0>= 7.40.0
2023>= 6.40.0>= 7.40.0
Debian (systemd)7.0 (wheezy)<= 6.35.2<= 7.35.2
>= 8.0 (jessie)
Debian (SysVinit)7.0 (wheezy)6.6.0 - 6.35.2<= 7.35.2
>= 8.0 (jessie)
Ubuntu12.04
>= 14.04
RedHat /
CentOS
5.0
>= 6.0<= 6.51.1<= 7.51.1
>= 7.0
AlmaLinux /
Rocky
>= 8.0>= 6.33.0>= 7.33.0
SUSE Enterprise Linux (systemd)11 SP4<= 6.32.4<= 7.32.4
>= 12.0
SUSE Enterprise Linux (SysVinit)11 SP46.16.0 - 6.33.07.16.0 - 7.33.0
OpenSUSE (systemd)>= 15.0
Fedora>= 26
+ +Una marca de verificación ({{< X >}}) indica compatibilidad con todas las versiones secundarias y de parche. + +## ARM V8 de 64 bits + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
Sistema operativoVersiones del SOVersiones del Agent 6Versiones del Agent 7
Amazon Linux2>= 6.16.0>= 7.16.0
2022>= 6.40.0>= 7.40.0
2023>= 6.40.0>= 7.40.0
Debian (systemd)>= 9.0 (stretch)>= 6.16.0>= 7.16.0
Ubuntu>= 16.04>= 6.16.0>= 7.16.0
RedHat /
CentOS
>= 8.0>= 6.16.0>= 7.16.0
AlmaLinux /
Rocky
>= 8.0>= 6.33.0>= 7.33.0
Fedora>= 27>= 6.16.0>= 7.16.0
+ +[1]: /es/agent/basic_agent_usage/amazonlinux/ +[2]: /es/agent/basic_agent_usage/deb/ +[3]: /es/agent/basic_agent_usage/ubuntu/ +[4]: /es/agent/basic_agent_usage/redhat/ +[7]: /es/agent/basic_agent_usage/fedora/ + +{{% /tab %}} +{{% tab "Windows" %}} + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
Sistema operativoVersiones del SOVersiones del Agent 5Versiones del Agent 6Versiones del Agent 7Notas
Windows Server2008 R2<= 6.45.1<= 7.45.1Server 2008 R2 se ve afectado por un problema conocido con la deriva de reloj y Go.
2012/R2<= 6.46.0<= 7.46.0
>= 2016
Windows7
8.1<= 6.46.0<= 7.46.0
>=10
+ +Una marca de verificación ({{< X >}}) indica compatibilidad con todas las versiones secundarias y de parche. + +Para instalar una versión específica del Windows Agent, consulta la [lista de instaladores][8]. + +[8]: https://ddagent-windows-stable.s3.amazonaws.com/installers_v2.json + +{{% /tab %}} +{{% tab "macOS" %}} + +## X86 de 64 bits + +| Versión de macOS | Agent 5 | Agent 6 | Agent 7 | +|---------------|---------|---------|---------| +| 10.10 - 10.11 | <= 5.11.3 ||| +| 10.12 || <= 6.34.0 | <= 7.34.0 | +| 10.13 || <= 6.38.2 | <= 7.38.2 | +| >= 10.14 || | >= 7.39.0 | + +## ARM64 de Apple + +| Versión de macOS | Agent 7 | +|----------------|---------| +| >= 11.0 | >= 7.39.0 | + +{{% /tab %}} + +{{% tab "Nube y contenedores" %}} + +## Compatible con X86 de 64 bits + +| Agent | [Docker][5] | [Kubernetes][6] | [Azure Stack HCI OS][7] | +|-------|-------------|-----------------|--------------------------| +| 5 | >= 1.14 | 1.3 - 1.8 || +| 6 | >= 1.14 | >= 1.3 | Todas las versiones | +| 7 | >= 1.14 | >= 1.3 | Todas las versiones | + + +## Compatible con ARM V8 de 64 bits + +Las versiones 6 y 7 del Agent son compatibles con las siguientes plataformas ARM V8 de 64 bits: + +| Plataforma | Versiones compatibles | Compatible con ARM V8 de 64 bits | Compatible con X86 de 64 bits | +|-------------|--------------------|-----------------------|--------------------| +| [Docker][5] | >= 1.14 | | | +| [Kubernetes][6] | >= 1.3 | | | + + +[5]: /es/agent/docker/ +[6]: /es/agent/basic_agent_usage/kubernetes/ +[7]: /es/agent/basic_agent_usage/windows/ + +{{% /tab %}} + +{{% tab "Unix" %}} + +Las versiones 6 y 7 del Agent son compatibles con las siguientes versiones de [AIX][1]: + +- 6.1 TL9 SP6 +- 7.1 TL5 SP3 +- 7.2 TL3 SP0 + + +[1]: /es/agent/basic_agent_usage/aix/ +{{% /tab %}} +{{< /tabs >}} + +## Lectura adicional + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent/basic_agent_usage/source/ \ No newline at end of file diff --git a/content/es/getting_started/tagging/using_tags.md b/content/es/getting_started/tagging/using_tags.md index 6c9cf8b92a4e5..56dd880ff0ce8 100644 --- a/content/es/getting_started/tagging/using_tags.md +++ b/content/es/getting_started/tagging/using_tags.md @@ -1,46 +1,46 @@ --- aliases: - /es/tagging/using_tags/ -description: Descubre cómo usar las etiquetas (tags) en los productos de Datadog. +description: Descubre cómo utilizar etiquetas (tags) en los productos de Datadog. further_reading: - link: https://www.datadoghq.com/blog/tagging-best-practices/ tag: Blog - text: Prácticas recomendadas para el etiquetado de tu infraestructura y aplicaciones + text: Prácticas recomendadas para el etiquetado de tu infraestructura y tus aplicaciones - link: /getting_started/tagging/ tag: Documentación text: Empezando con las etiquetas (tags) - link: /getting_started/tagging/assigning_tags/ tag: Documentación - text: Aprende a asignar etiquetas (tags) + text: Aprender a asignar etiquetas kind: documentación -title: Usar etiquetas (tags) +title: Uso de etiquetas (tags) --- ## Información general -Una vez que hayas [asignado las tags][1], podrás empezar a usarlas para filtrar y agrupar los datos en la plataforma de Datadog. Las tags sirven para incluir o excluir datos. +Una vez que hayas [asignado las etiquetas][1], podrás empezar a utilizarlas para filtrar y agrupar los datos en tu plataforma de Datadog. Las etiquetas sirven para incluir o excluir datos. -Cuando se trata de incluir o excluir varias tags: +Cuándo incluir o excluir varias etiquetas: -* Para incluir, se emplea la lógica `AND` -* Para excluir, se emplea la lógica `OR` +* Para incluirlas, se emplea la lógica `AND` +* Para excluirlas, se emplea la lógica `OR` ## Eventos -El [Events Explorer][2] (Navegador de eventos) muestra los eventos de tu entorno que tienen lugar durante un determinado período de tiempo. Utiliza las tags para filtrar la lista de eventos y centrarte en un subconjunto de eventos. Después, escribe `tags:` seguido de una tag para ver todos los eventos procedentes de un host, una [integración][3] o un servicio que tengan esa misma tag. Por ejemplo, puedes usar `tags:service:coffee-house` para buscar la tag `service:coffee-house`. +El [explorador de eventos][2] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. Utiliza etiquetas para filtrar la lista de eventos y centrarte en un subconjunto de eventos. Introduce `tags:` seguido de una etiqueta para ver todos los eventos procedentes de un host, una [integración][3] o un servicio que tengan esa misma etiqueta. Por ejemplo, puedes utilizar `tags:service:coffee-house` para buscar la etiqueta `service:coffee-house`. -Para buscar varias tags de forma inclusiva, haz uso de los paréntesis y separa las tags entre sí con OR: `tags:(service:coffee-house OR host:coffeehouseprod)`. Para buscar varias tags de forma exclusiva, sepáralas entre sí con AND: `tags:(service:coffee-house AND host:coffeehouseprod)`. +Para buscar varias etiquetas de forma inclusiva, haz uso de los paréntesis y separa las etiquetas entre sí con OR: `tags:(service:coffee-house OR host:coffeehouseprod)`. Para buscar varias etiquetas de forma exclusiva, sepáralas entre sí con AND: `tags:(service:coffee-house AND host:coffeehouseprod)`. ## Dashboards {{< tabs >}} {{% tab "Asignación" %}} -Utiliza etiquetas (tags) para filtrar métricas y mostrarlas en un [dashboard gráfico][1], o para crear grupos añadidos de métricas para mostrar. Para filtrar los métricas que se van a mostrar, introduce la etiqueta (tag) en el cuadro de texto **from** (desde). Esta métrica se muestra en todas las fuentes que tienen asignada esa etiqueta (tag) particular (`service:web-store`, en el ejemplo de abajo). +Utiliza etiquetas para filtrar métricas y mostrarlas en un [dashboard gráfico][1] o para crear grupos añadidos de métricas para mostrar. Para filtrar las métricas que se van a mostrar, introduce la etiqueta en el cuadro de texto **from** (desde). Esta métrica se muestra en todas las fuentes que tienen asignada esa etiqueta particular (`service:web-store`, en el ejemplo de abajo). -{{< img src="tagging/using_tags/dashboards_tags_example.png" alt="Filtra métricas en dashboards añadiendo una etiqueta (tag) en el campo 'from' (desde). En este ejemplo, la métrica se filtra por 'service:web-store'" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboards_tags_example.png" alt="Filtra métricas en dashboards añadiendo una etiqueta en el campo 'from'. En este ejemplo, la métrica se filtra por 'service:web-store'" style="width:80%;">}} -También se pueden filtrar valores de las tags de forma avanzada con los filtros boleanos. Así pues, se admite la siguiente sintaxis boleana: +También se pueden filtrar valores de etiquetas de forma avanzada con filtros booleanos. Se admite la siguiente sintaxis booleana: * `NOT`, `!` * `AND`, `,` @@ -48,24 +48,24 @@ También se pueden filtrar valores de las tags de forma avanzada con los filtros * `key IN (tag_value1, tag_value2,...)` * `key NOT IN (tag_value1, tag_value2,...)` -Usa `AND` y `ORs` para consultar una métrica en varias tags concretas: +Utiliza `AND` y `ORs` para consultar una métrica en varias etiquetas concretas: -{{< img src="tagging/using_tags/dashboard_advanced_tags_AND_OR.png" alt="Filtro booleano con Y/O" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_advanced_tags_AND_OR.png" alt="Filtro booleano con AND/OR" style="width:80%;">}} -Usa `IN` y `NOT IN` para filtrar rápidamente una métrica en función de varias tags concretas: +Utiliza `IN` y `NOT IN` para filtrar rápidamente una métrica en función de varias etiquetas concretas: -{{< img src="tagging/using_tags/dashboard_advanced_tags_NOT_IN.png" alt="Filtro booleano con EN/NO EN" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_advanced_tags_NOT_IN.png" alt="Filtro booleano con IN/NOT IN" style="width:80%;">}} -Para crear un grupo añadido utilizando etiquetas (tags), introduce la parte clave de la etiqueta (tag) en el cuadro de texto **avg by**. Por ejemplo, si tienes un gráfico de series temporales que muestra una métrica etiquetada con la clave `service`, como `service:web-store`, introduce `service` en el cuadro de texto **avg by** para mostrar una línea por cada valor de etiqueta (tag) `service`. Cada línea representa el valor promedio de métrica en todas las fuentes que comparten ese valor de etiqueta (tag)`service`. +Para crear un grupo conjunto utilizando etiquetas, introduce la parte clave de la etiqueta en el cuadro de texto **avg by**. Por ejemplo, si tienes un gráfico de series temporales que muestra una métrica etiquetada con la clave `service`, como `service:web-store`, introduce `service` en el cuadro de texto **avg by** para mostrar una línea por cada valor de etiqueta `service`. Cada línea representa el valor promedio de métrica en todas las fuentes que comparten ese valor de etiqueta `service`. -{{< img src="tagging/using_tags/dashboard_group_by_tags.png" alt="Etiquetas (tags) en cuadros de texto avg by de dashboards" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_group_by_tags.png" alt="Etiquetas en cuadros de texto avg by de dashboards" style="width:80%;">}} -Las etiquetas (tags) también pueden utilizarse para superponer eventos en el dashboard. Esto funciona de la misma manera que en el [explorador de eventos][2]. +Las etiquetas también pueden utilizarse para superponer eventos en el dashboard. Esto funciona de la misma manera que en el [explorador de eventos][2]. Las coincidencias de eventos se superponen como barras verticales en el gráfico. En el ejemplo siguiente se utiliza `service:web-store`. -{{< img src="tagging/using_tags/dashboard_event_overlays.png" alt="Utiliza etiquetas (tags) para añadir superposiciones de eventos en dashboards" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_event_overlays.png" alt="Utiliza etiquetas para añadir superposiciones de eventos en dashboards" style="width:80%;">}} -Utiliza las [variables de plantilla][3] para ahorrar tiempo al cambiar la tag **from** en los gráficos de tu dashboard. En el ejemplo de abajo, se usa `service` para representar la clave de la tag `service`. Para usar la variable de plantilla, añade la variable `$service` en el campo de texto **from** de la consulta del gráfico. +Utiliza las [variables de plantilla][3] para ahorrar tiempo al cambiar la etiqueta **from** (desde) en los gráficos de tu dashboard. En el ejemplo de abajo, se utiliza `service` para representar la clave de la etiqueta `service`. Para utilizar la variable de plantilla, añade la variable `$service` en el campo de texto **from** de tu consulta del gráfico. {{< img src="tagging/using_tags/dashboard_dynamic_template_variables.png" alt="Variables de plantillas de dashboards" style="width:80%;">}} @@ -75,98 +75,98 @@ Utiliza las [variables de plantilla][3] para ahorrar tiempo al cambiar la tag ** {{% /tab %}} {{% tab "Ejemplos" %}} -Este es un ejemplo de etiquetas (tags) que utilizan el editor de gráficos de series temporales. En la primera captura de pantalla, no se han aplicado etiquetas (tags) y se muestra el uso promedio de CPU en todos los hosts: +Este es un ejemplo de etiquetas que utilizan el editor de gráficos de series temporales. En la primera captura de pantalla no se han aplicado etiquetas y se muestra el uso promedio de CPU en todos los hosts: -{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_no_tags.png" alt="Editor de gráficos de series temporales sin etiquetas (tags) añadidas" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_no_tags.png" alt="Editor de gráficos de series temporales sin etiquetas añadidas" style="width:75%;">}} -Luego, el editor se actualiza para incluir una etiqueta (tag) (`region:eastus`) en el cuadro de texto **from** (desde), que permite a Datadog ver el uso de CPU en toda la región este de los EE.UU. Aquí, la etiqueta (tag) `region` se utiliza como ejemplo, pero puedes utilizar cualquier etiqueta (tag) arbitraria que se envíe a tu plataforma Datadog, incluyendo `application`, `service` o `environment`. +Luego, el editor se actualiza para incluir una etiqueta (`region:eastus`) en el cuadro de texto **from** (desde), que permite a Datadog ver el uso de CPU en toda la región este de los EE. UU. Aquí, la etiqueta `region` se utiliza como ejemplo, pero puedes usar cualquier etiqueta arbitraria que se envíe a tu plataforma Datadog, incluyendo `application`, `service` o `environment`. -{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_from_tag.png" alt="Editor de gráficos de series temporales filtrado por 'region:us-east-1' tag" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_from_tag.png" alt="Editor de gráficos de series temporales filtrado por la etiqueta region:us-east-1 " style="width:75%;">}} -Por último, se ha usado el segundo campo vacío (el campo de texto **avg by**) para mostrar una línea cronológica independiente por cada `host`. Por tanto, podemos ver la CPU del servidor de todos los hosts activos en el este de Estados Unidos. +Por último, se utiliza el segundo campo vacío (el campo de texto **avg by**) para mostrar una línea cronológica independiente por cada `host`. Por tanto, podemos ver la CPU del servidor de todos los hosts activos en el este de EE. UU. -{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_sumby_tag.png" alt="Editor de gráficos de series temporales filtrado por 'region:us-east-1' and grouped by 'host'" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_sumby_tag.png" alt="Editor de gráficos de series temporales filtrado por 'region:us-east-1' y agrupado por 'host'" style="width:75%;">}} -En caso de necesidad, añade más tags para acotar aún más el contexto; por ejemplo, hosts en `region:eastus` y `env:production`. Las tags pueden usarse en toda la plataforma de Datadog y aplicarse a todos los elementos principales (métricas, trazas y logs). +Si es necesario, añade más etiquetas para acotar aún más el contexto; por ejemplo, hosts en `region:eastus` y `env:production`. Las etiquetas pueden utilizarse en toda la plataforma de Datadog y aplicarse a todos los elementos principales (métricas, trazas y logs). {{% /tab %}} {{< /tabs >}} ## Infraestructura -Para filtrar el [mapa de hosts][4], la [lista de infraestructuras][5], los [contenedores][6] y los [procesos][7], introduce una tag en el campo de texto **Filter by**, situado en la parte superior de la página. Los hosts y los contenedores se pueden agrupar por clave de tag mediante el campo de texto **Group by**. Si introduces `service` en el campo de grupo, verás cada servicio como un encabezado de grupo. +Para filtrar el [mapa de hosts][4], la [lista de infraestructuras][5], los [contenedores][6] y los [procesos][7], introduce una etiqueta en el campo de texto **Filter by** (Filtrar por), situado en la parte superior de la página. Los hosts y los contenedores se pueden agrupar por clave de etiqueta mediante el campo de texto **Group by** (Agrupar por). Si introduces `service` en el campo de grupo, verás cada servicio como un encabezado de grupo. {{< tabs >}} -{{% tab "Mapa de hosts" %}} +{{% tab "Mapa de host" %}} -En esta sección, usa tags para filtrar o agrupar hosts: +En esta sección, utiliza etiquetas para filtrar o agrupar hosts: -{{< img src="tagging/using_tags/hostmaptags.png" alt="Tags de Mapa de hosts" style="width:80%;">}} +{{< img src="tagging/using_tags/hostmaptags.png" alt="Etiquetas de mapa de hosts" style="width:80%;">}} O contenedores: -{{< img src="tagging/using_tags/containermaptags.png" alt="Tags de Mapa de contenedores" style="width:80%;">}} +{{< img src="tagging/using_tags/containermaptags.png" alt="Etiquetas de mapa de contenedores" style="width:80%;">}} {{% /tab %}} {{% tab "Lista de infraestructuras" %}} -Estos son los campos de texto para filtrar o agrupar de la página de Lista de infraestructuras: +Estos son los campos de texto para filtrar o agrupar de la página de la lista de infraestructuras: -{{< img src="tagging/using_tags/infrastructuretags.png" alt="Tags en Lista de infraestructuras" style="width:80%;">}} +{{< img src="tagging/using_tags/infrastructuretags.png" alt="Etiquetas de la lista de infraestructuras" style="width:80%;">}} {{% /tab %}} {{% tab "Contenedores" %}} Estos son los campos de texto para filtrar o agrupar de la página de Live Containers: -{{< img src="tagging/using_tags/livecontainertags.png" alt="Tags de Live Containers" style="width:80%;">}} +{{< img src="tagging/using_tags/livecontainertags.png" alt="Etiquetas de Live Containers" style="width:80%;">}} {{% /tab %}} {{% tab "Procesos" %}} Estos son los campos de texto para filtrar o agrupar de la página de Live Processes: -{{< img src="tagging/using_tags/liveprocessestags.png" alt="Tags de Live Processes" style="width:80%;">}} +{{< img src="tagging/using_tags/liveprocessestags.png" alt="Etiquetas de Live Processes" style="width:80%;">}} {{% /tab %}} {{< /tabs >}} ## Monitores -Para filtrar monitores y [tiempos de inactividad de monitores][31] por [etiquetas (tags)][32] asignadas, utiliza las casillas de verificación de barra o faceta. El formato de la barra de búsqueda es `tag::`, por ejemplo: `tag:service:coffee-house`. Para excluir de tu búsqueda monitores con etiquetas (tags) específicas, utiliza `-`, for example: `tag:-service:coffee-house`. +Para filtrar monitores y [tiempos de inactividad de monitores][31] por [etiquetas][32] asignadas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `tag::`; por ejemplo: `tag:service:coffee-house`. Para excluir de tu búsqueda monitores con etiquetas específicas, utiliza `-`, for example: `tag:-service:coffee-house`. -{{< img src="/tagging/using_tags/manage_monitor_tags.png" alt="Filtra monitores en la barra de búsqueda con etiquetas (tags)" style="width:80%;">}} +{{< img src="/tagging/using_tags/manage_monitor_tags.png" alt="Filtra monitores en la barra de búsqueda con etiquetas" style="width:80%;">}} -**Nota**: Las etiquetas (tags) de monitores son diferentes y están separadas de las etiquetas (tags) de métricas. Para más información, consulta la documentación sobre [etiquetas (tags) de monitores][30]. +**Nota**: Las etiquetas de monitores son diferentes y están separadas de las etiquetas de métricas. Para más información, consulta la documentación sobre [etiquetas de monitores][30]. -Al crear un nuevo monitor, utiliza *etiquetas (tags) de métricas* en: -* el campo de texto **from** para limitar el contexto del monitor solo a las métricas que tengan esas tags. -* el campo de texto **excluding** para eliminar las métricas correspondientes del contexto del monitor. -* el campo de texto **avg by** para transformar el monitor en un monitor multialerta en cada valor de la tag. +Al crear un nuevo monitor, utiliza *etiquetas de métricas* en: +* el campo de texto **from** (desde), para limitar el contexto del monitor solo a las métricas que tengan esas etiquetas. +* el campo de texto **excluding** (excluido), para eliminar las métricas correspondientes del contexto del monitor. +* el campo de texto **avg by**, para transformar el monitor en un monitor multi-alerta en cada valor de la etiqueta. ## Métricas -Utiliza etiquetas (tags) en el [explorador de métricas][8] para filtrar métricas por etiquetas (tags) o para mostrar múltiples gráficos por clave de etiqueta (tag). En el siguiente ejemplo se representa un gráfico de métrica sobre `service:web-store`. +Utiliza etiquetas en el [explorador de métricas][8] para filtrar métricas por etiquetas o para mostrar múltiples gráficos por clave de etiqueta. En el siguiente ejemplo se representa un gráfico de métrica sobre `service:web-store`. -{{< img src="tagging/using_tags/metrics_explorer.png" alt="Gráfico de métrica centrado en una etiqueta (tag) individual" style="width:80%;">}} +{{< img src="tagging/using_tags/metrics_explorer.png" alt="Gráfico de métricas centrado en una etiqueta individual" style="width:80%;">}} ## Integraciones -Algunas integraciones te ofrecen la opción de limitar las métricas usando tags. +Algunas integraciones te ofrecen la opción de limitar las métricas utilizando etiquetas. {{< tabs >}} {{% tab "AWS" %}} -El [cuadro de integración de AWS][1] tiene los filtros de tag `to hosts with tag` y `to Lambdas with tag`. +El [cuadro de integración de AWS][1] tiene los filtros de etiquetas `to hosts with tag` y `to Lambdas with tag`. -Estos campos aceptan una lista de tags separadas por comas (en formato `:`) que defina un filtro, el cual se usará para recopilar tus recursos de EC2 o Lambda. Puedes usar `:` tanto para incluir como para excluir funciones de monitorización según las tags. Para indicar qué tag debería excluirse, añade un `!` antes de la clave de tag. También puedes usar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). +Estos campos aceptan una lista de etiquetas separadas por comas (en formato `:`), que defina un filtro, el cual se utiliza para recopilar tus recursos de EC2 o Lambda. Puedes utilizar `:`, tanto para incluir como para excluir funciones de monitorización basadas en etiquetas. Para indicar qué etiqueta debe excluirse, añade un signo `!` antes de la clave de etiqueta. También puedes utilizar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). -Los filtros pueden incluir recursos mediante una sentencia `OR` siempre que haya una tag de inclusión presente. El filtro del siguiente ejemplo recopila instancias EC2 que contienen la tag `datadog:monitored` o `env:production`: +Los filtros pueden incluir recursos mediante una sentencia `OR` siempre que haya una etiqueta de inclusión presente. El filtro del siguiente ejemplo recopila instancias de EC2 que contienen la etiqueta `datadog:monitored` o `env:production`: ```text datadog:monitored,env:production ``` -Si has definido la exclusión de una tag, esta preferencia tendrá prioridad y dará lugar a una sentencia `AND`. El filtro del siguiente ejemplo recopila instancias EC2 que contienen las tags `datadog:monitored` o `env:production`, o bien una tag `instance-type` con un valor `c1.*`, y que no contengan una tag `region:us-east-1`: +Si has definido la exclusión de una etiqueta, esta preferencia tendrá prioridad y dará lugar a una sentencia `AND`. El filtro del siguiente ejemplo recopila instancias de EC2 que contienen las etiquetas `datadog:monitored` o `env:production`, o bien una etiqueta `instance-type` con un valor `c1.*`, y no una etiqueta `region:us-east-1`: ```text datadog:monitored,env:production,instance-type:c1.*,!region:us-east-1 @@ -180,11 +180,11 @@ Obtén más información sobre el etiquetado de AWS en la documentación acerca {{% /tab %}} {{% tab "Azure" %}} -El [cuadro de integración de Azure][1] tiene el filtro de tag `Optionally filter to VMs with tag`. +El [cuadro de integración de Azure][1] tiene el filtro de etiqueta `Optionally filter to VMs with tag`. -Este campo acepta una lista de tags separadas por comas (en formato `:`) que defina un filtro, el cual se usará para recopilar métricas de las máquinas virtuales de Azure. También puedes usar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). Solo se importarán a Datadog las máquinas virtuales que coincidan con una de las tags definidas, y se ignorarán las demás. +Este campo acepta una lista de etiquetas separadas por comas (en formato `:`), que defina un filtro, el cual se utiliza para recopilar métricas de las máquinas virtuales de Azure. También puedes utilizar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). Solo se importarán a Datadog las máquinas virtuales que coincidan con una de las etiquetas definidas y se ignorarán las demás. -Asimismo, se podrán excluir las máquinas virtuales que coincidan con una tag determinada siempre que se añada `!` antes de la tag. Ejemplo: +También se podrán excluir las máquinas virtuales que coincidan con una etiqueta determinada, siempre que se añada `!` antes de la etiqueta. Por ejemplo: ```text datadog:monitored,env:production,!env:staging,instance-type:c1.* @@ -194,17 +194,17 @@ datadog:monitored,env:production,!env:staging,instance-type:c1.* {{% /tab %}} {{% tab "Google Cloud" %}} -El [cuadro de integración de Google Cloud][1] tiene el filtro de tag `to hosts with tag`. +El [cuadro de integración de Google Cloud][1] tiene el filtro de etiqueta `to hosts with tag`. -Este campo acepta una lista de etiquetas (labels) de GCP separadas por comas (en formato `:`) que defina un filtro, el cual se usará para recopilar métricas de las máquinas virtuales de GCP. También puedes usar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). Solo se importarán a Datadog los hosts que coincidan con una de las labels definidas, y se ignorarán los demás. +Este campo acepta una lista de etiquetas (labels) de GCP separadas por comas (en formato `:`) que defina un filtro, el cual se utiliza para recopilar métricas de las máquinas virtuales de GCP. También puedes utilizar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). Solo se importarán a Datadog los hosts que coincidan con una de las etiquetas definidas y se ignorarán los demás. -Puedes excluir los hosts que coincidan con una label determinada siempre que añadas `!` antes de la tag. Ejemplo: +Puedes excluir los hosts que coincidan con una etiqueta (label) determinada, siempre que añadas `!` antes de la etiqueta (tag). Ejemplo: ```text datadog:monitored,env:production,!env:staging,instance-type:c1.* ``` -Obtén más información sobre [cómo crear y gestionar etiquetas (labels)][2] en la documentación acerca de Google Cloud. +Obtén más información sobre [cómo crear y gestionar etiquetas (labels)][2] en la documentación de Google Cloud. [1]: https://app.datadoghq.com/account/settings#integrations/google-cloud-platform [2]: https://cloud.google.com/compute/docs/labeling-resources @@ -216,18 +216,18 @@ Obtén más información sobre [cómo crear y gestionar etiquetas (labels)][2] e {{< tabs >}} {{% tab "Trace Explorer" %}} -En la herramienta [Trace Explorer][1], puedes filtrar las trazas (traces) con tags usando la barra de búsqueda o las casillas de faceta. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Si deseas realizar una búsqueda avanzada, consulta la sección [Sintaxis de las consultas][2]. +En [Trace Explorer][1], puedes filtrar las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la sección [Sintaxis de las consultas][2]. -{{< img src="tagging/using_tags/trace_explorer.png" alt="Tags de Trace Explorer" style="width:80%;">}} +{{< img src="tagging/using_tags/trace_explorer.png" alt="Etiquetas del Trace Explorer" style="width:80%;">}} [1]: /es/tracing/trace_explorer/search/ [2]: /es/tracing/trace_explorer/query_syntax/ {{% /tab %}} {{% tab "Mapa de servicios" %}} -Tras [asignar las tags][1], usa el mapa de servicios para dirigirte a distintas partes de la aplicación haciendo clic en un servicio concreto. En el ejemplo de abajo, puedes consultar los [análisis][2], los [monitores][3], los [logs][4] y el [mapa de hosts][5] filtrados en función de la tag `service:coffee-house`. +Tras [asignar las etiquetas][1], utiliza el mapa de servicios para navegar a distintas partes de la aplicación haciendo clic en un servicio concreto. En el ejemplo de abajo, puedes consultar los [análisis][2], los [monitores][3], los [logs][4] y el [mapa de host][5] filtrados en función de la etiqueta `service:coffee-house`. -{{< img src="tagging/using_tags/servicemaptags.png" alt="Tags de Mapa de servicios" style="width:80%;">}} +{{< img src="tagging/using_tags/servicemaptags.png" alt="Etiquetas de mapa de servicios" style="width:80%;">}} [1]: /es/getting_started/tagging/assigning_tags/ [2]: /es/tracing/app_analytics/search/ @@ -240,75 +240,75 @@ Tras [asignar las tags][1], usa el mapa de servicios para dirigirte a distintas ## Notebooks -Cuando crees un gráfico del [notebook][9], usa tags en el campo de texto **from** para limitar las métricas. Úsalas también en el campo de texto **avg by** para agrupar las métricas. En el ejemplo de abajo, las métricas están limitadas por `service:coffee-house` y agrupadas por `host`. +Al crear un gráfico del [notebook][9], utiliza etiquetas en el campo de texto **from** (from) para limitar las métricas. Utilízalas también en el campo de texto **avg by** para agrupar las métricas. En el ejemplo de abajo, las métricas están limitadas por `service:coffee-house` y agrupadas por `host`. -{{< img src="tagging/using_tags/notebooktags.png" alt="Tags de Notebook" style="width:80%;">}} +{{< img src="tagging/using_tags/notebooktags.png" alt="Etiquetas de notebooks" style="width:80%;">}} -Si quieres excluir tags, edita el texto con `` y, a continuación, añade la tag en cuestión en formato `!:`. En el ejemplo de abajo, se usa `!service:coffeehouse` para excluir `service:coffeehouse`. +Si quieres excluir etiquetas, edita el texto con `` y, a continuación, añade la etiqueta en cuestión en formato `!:`. En el ejemplo de abajo, se utiliza `!service:coffeehouse` para excluir `service:coffeehouse`. -{{< img src="tagging/using_tags/notebooktagsexclude.mp4" alt="Tags para excluir de notebook" video="true" width="80%">}} +{{< img src="tagging/using_tags/notebooktagsexclude.mp4" alt="Etiquetas para excluir de notebooks" video="true" width="80%">}} ## Logs -En los apartados de [búsqueda (Search)][10], [análisis (Analytics)][11], [patrones (Patterns)][12] y [Live Tail][13] de los logs, filtra las trazas (traces) con tags usando la barra de búsqueda o las casillas de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Si deseas realizar una búsqueda avanzada, consulta la página de [Buscar logs][10]. +Para la [búsqueda (Search)][10], el [análisis (Analytics)][11], los [patrones (Patterns)][12] y [Live Tail][13] de los logs, filtra las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la página [Buscar logs][10]. {{< tabs >}} {{% tab "Búsqueda" %}} -{{< img src="tagging/using_tags/logsearchtags.png" alt="Tags de Log Search" style="width:80%;">}} +{{< img src="tagging/using_tags/logsearchtags.png" alt="Etiquetas de búsqueda de logs" style="width:80%;">}} {{% /tab %}} {{% tab "Análisis" %}} -{{< img src="tagging/using_tags/loganalyticstags.png" alt="Tags de Log Analytics" style="width:80%;">}} +{{< img src="tagging/using_tags/loganalyticstags.png" alt="Etiquetas de análisis de logs" style="width:80%;">}} {{% /tab %}} {{% tab "Patrones" %}} -{{< img src="tagging/using_tags/logpatternstags.png" alt="Tags de Log Patterns" style="width:80%;">}} +{{< img src="tagging/using_tags/logpatternstags.png" alt="Etiquetas de patrones de logs" style="width:80%;">}} {{% /tab %}} {{% tab "Live Tail" %}} -{{< img src="tagging/using_tags/livetailtags.mp4" alt="Tags de Live Tail" video="true" width="80%">}} +{{< img src="tagging/using_tags/livetailtags.mp4" alt="Etiquetas de Live Tail" video="true" width="80%">}} {{% /tab %}} {{< /tabs >}} -Las tags también se pueden usar para filtrar un [pipeline][14] de registros. En el ejemplo de abajo, el pipeline filtra los registros en función de la tag `service:coffee-house`. +Las etiquetas también se pueden utilizar para filtrar un [pipeline][14] de logs. En el ejemplo de abajo, el pipeline filtra los logs en función de la etiqueta `service:coffee-house`. -{{< img src="tagging/using_tags/logpipelinetags.png" alt="Tags de Pipeline" style="width:80%;">}} +{{< img src="tagging/using_tags/logpipelinetags.png" alt="Etiquetas de pipeline" style="width:80%;">}} ## RUM y Session Replay -El [navegador RUM][15] muestra los eventos de tu entorno que tienen lugar durante un determinado período de tiempo. +El [navegador RUM][15] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. -Para filtrar los datos de los eventos de RUM por tags, usa la barra de búsqueda o las casillas de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:shopist`. Si deseas realizar una búsqueda avanzada, consulta la sección [Buscar eventos de RUM][16]. +Para filtrar los datos de los eventos de RUM por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:shopist`. Para realizar una búsqueda avanzada, consulta la sección [Buscar eventos de RUM][16]. -{{< img src="tagging/using_tags/rumtags.png" alt="Tags de RUM" style="width:80%;">}} +{{< img src="tagging/using_tags/rumtags.png" alt="Etiquetas de RUM" style="width:80%;">}} ## Synthetics {{< tabs >}} -{{% tab "Tests Synthetic" %}} +{{% tab "Pruebas de Synthetic" %}} -Tus tests Synthetic pueden verse en la página de [Tests Synthetic][1]. +Puedes ver tus pruebas de Synthetic en la página [Pruebas de Synthetic][1]. -Para filtrar los tests por tags, usa la barra de búsqueda o las casillas de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `tag:mini-website`. Si deseas realizar una búsqueda avanzada, consulta la sección [Buscar y gestionar tests de Synthetic][2]. +Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `tag:mini-website`. Para realizar una búsqueda avanzada, consulta la sección [Buscar y gestionar pruebas de Synthetic][2]. -{{< img src="tagging/using_tags/syntheticstags.png" alt="Tags de Synthetics" style="width:80%;">}} +{{< img src="tagging/using_tags/syntheticstags.png" alt="Etiquetas de Synthetics" style="width:80%;">}} [1]: https://app.datadoghq.com/synthetics/tests [2]: /es/synthetics/search/ {{% /tab %}} -{{% tab "Explorer" %}} +{{% tab "Explorador" %}} -El [explorador de monitorización y prueba continua de Synthetic][1] muestra tus ejecuciones y lotes de ejecuciones de tests en un [pipeline CI][2]. +El [explorador de monitorización y prueba continua de Synthetic][1] muestra tus ejecuciones y lotes de ejecuciones de pruebas en un [pipeline CI][2]. -Para filtrar los tests por etiquetas (tags), utiliza la barra de búsqueda o las casillas de verificación de faceta. El formato de la barra de búsqueda es `:`. Por ejemplo: `@ci.provider.name:github`. Para realizar búsquedas avanzadas, consulta [Buscar Lotes de pruebas de búsqueda][3]. +Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@ci.provider.name:github`. Para realizar una búsqueda avanzada, consulta [Buscar lotes de pruebas][3]. -{{< img src="tagging/using_tags/syntheticscitags.png" alt="Tags de Synthetics y CI" style="width:80%;">}} +{{< img src="tagging/using_tags/syntheticscitags.png" alt="Etiquetas de Synthetics y CI" style="width:80%;">}} [1]: https://app.datadoghq.com/synthetics/explorer/ @@ -322,57 +322,55 @@ Para filtrar los tests por etiquetas (tags), utiliza la barra de búsqueda o las {{< tabs >}} {{% tab "Gestionar SLOs" %}} -Para filtrar los SLOs según sus [tags asignadas][1], puedes usar la barra de búsqueda o las casillas de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `journey:add_item`. Si deseas excluir de tu búsqueda los SLOs que tengan una tag en concreto, usa `-`, for example: `-journey:add_item`. +Para filtrar los SLOs según sus [etiquetasasignadas][1], puedes utilizar la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `journey:add_item`. Para excluir de tu búsqueda los SLOs que tengan una etiqueta específica, utiliza `-`, for example: `-journey:add_item`. -{{< img src="tagging/using_tags/manage_slo_tags.png" alt="Tags de SLO" style="width:80%;">}} +{{< img src="tagging/using_tags/manage_slo_tags.png" alt="Etiquetas de SLOs" style="width:80%;">}} -Las tags de SLO son diferentes e independientes de las tags de métrica y monitor que se emplean en las métricas o monitores subyacentes de un SLO. +Las etiquetas de SLOs son diferentes e independientes de las etiquetas de métricas y monitores que se emplean en las métricas o monitores subyacentes de un SLO. [1]: /es/getting_started/tagging/assigning_tags/?tab=servicelevelobjectives#ui {{% /tab %}} {{% tab "SLOs basados en métricas" %}} -Cuando crees un [SLO basado en métricas][1], usa las tags de métrica en las consultas de métrica sobre el porcentaje de éxito del SLO (todas las métricas deben usar el mismo conjunto de tags de métrica): +Al crear un [SLO basado en métricas][1], utiliza las etiquetas de métricas en las consultas de métricas sobre el porcentaje de éxito del SLO (todas las métricas deben utilizar el mismo conjunto de etiquetas de métricas): -* en el campo de texto **from** para limitar el contexto de la métrica solo a esas tags. -* en el campo de texto **sum by** para crear un SLO basado en métricas y agrupado para mostrar un porcentaje de estado, así como el presupuesto restante para subsanar errores del SLO general y de cada valor de tag. - -{{< img src="tagging/using_tags/metric_based_slo_tags.png" alt="Tags del SLO basado en métricas" style="width:80%;">}} +* el campo de texto **from** (desde), para limitar el contexto de la métrica solo a esas etiquetas. +* el campo de texto **sum by** (sumar por), para crear un SLO basado en métricas y agrupado para mostrar un porcentaje de estado, así como el presupuesto restante para subsanar errores del SLO general y de cada valor de etiqueta. [1]: /es/service_management/service_level_objectives/metric/ {{% /tab %}} {{% tab "SLOs basados en monitores" %}} -Cuando crees un [SLO basado en monitores][1] con un solo [monitor agrupado][2], usa la opción **Calculate on selected groups** (Calcular según los grupos seleccionados) para seleccionar hasta 20 valores de tag de monitores subyacentes. De este modo, será posible mostrar un porcentaje de estado, así como el presupuesto restante para subsanar errores del SLO general y de cada valor de tag: +Al crear un [SLO basado en monitores][1] con un solo [monitor agrupado][2], utiliza la opción **Calculate on selected groups** (Calcular según los grupos seleccionados) para seleccionar hasta 20 valores de etiquetas de monitores subyacentes y mostrar un porcentaje de estado, así como el presupuesto restante para subsanar errores del SLO general y de cada valor de etiqueta: -{{< img src="tagging/using_tags/monitor_based_slo_tags.png" alt="Tags del SLO basado en monitores" style="width:80%;">}} +{{< img src="tagging/using_tags/monitor_based_slo_tags.png" alt="Etiquetas de SLO basadas en monitores" style="width:80%;">}} [1]: /es/service_management/service_level_objectives/monitor/ [2]: /es/getting_started/tagging/using_tags/?tab=newmonitor#monitors {{% /tab %}} {{< /tabs >}} -## Monitorización de bases de datos +## CI Visibility {{< tabs >}} -{{% tab "Test Runs" %}} +{{% tab "Ejecuciones de pruebas" %}} -El [explorador de Visibilidad CI][101] muestra tus pruebas ejecutados en un pipeline CI. +El [explorador de visibilidad CI][101] muestra tus pruebas ejecutadas en un pipeline CI. -Para filtrar las pruebas por etiquetas (tags), utiliza la barra de búsqueda o las casillas de verificación de faceta. El formato de la barra de búsqueda es `:`. Por ejemplo: `@test.status:failed`. Para realizar búsquedas avanzadas, consulta [Buscar y gestionar tests de CI][102]. +Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@test.status:failed`. Para realizar una búsqueda avanzada, consulta [Buscar y gestionar pruebas de CI][102]. -{{< img src="/continuous_integration/test_runs.png" alt="Ejecuta tests en el explorador de visibilidad de CI" style="width:80%;">}} +{{< img src="/continuous_integration/test_runs.png" alt="Ejecuta pruebas en el explorador de visibilidad CI" style="width:80%;">}} [101]: https://app.datadoghq.com/ci/test-runs [102]: /es/tests/search/ {{% /tab %}} -{{% tab "Pipeline Executions" %}} +{{% tab "Ejecuciones de pipelines" %}} El [explorador de visibilidad CI][101] muestra las ejecuciones de tu pipeline CI. -Para filtrar las ejecuciones de pipeline por etiquetas (tags), utiliza la barra de búsqueda o las casillas de verificación de faceta. El formato de la barra de búsqueda es `:`. Por ejemplo: `@ci.provider.name:gitlab`. Para realizar búsquedas avanzadas, consulta [Busca y gestiona pipelines CI][102]. +Para filtrar las ejecuciones de pipeline por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@ci.provider.name:gitlab`. Para realizar una búsqueda avanzada, consulta [Buscar y gestionar pipelines CI][102]. {{< img src="/continuous_integration/pipeline_executions.png" alt="Ejecuciones de pipelines en el explorador de visibilidad CI" style="width:80%;">}} @@ -382,30 +380,30 @@ Para filtrar las ejecuciones de pipeline por etiquetas (tags), utiliza la barra {{% /tab %}} {{< /tabs >}} -## Guías +## Desarrolladores -Las tags pueden usarse de diferentes formas con la [API][17]. +Las etiquetas pueden utilizarse de diferentes formas con la [API][17]. Consulta esta lista para encontrar los enlaces a cada una de las siguientes secciones: -* [Programar la caída del sistema de un monitor][18] +* [Programar el tiempo de inactividad de un monitor][18] * [Realizar consultas en el navegador de eventos][19] * [Buscar hosts][20] -* Integraciones de [AWS][21] y [Google Cloud][22] -* [Realizar consultas en los puntos de las cronologías][23] +* Integraciones para [AWS][21] y [Google Cloud][22] +* [Realizar consultas en puntos de las series temporales][23] * [Obtener todos los detalles de un monitor][24] * [Silenciar un monitor][25] * [Búsqueda de monitores][24] -* [Búsqueda de un grupo de monitores][24] +* [Búsqueda de grupos de monitores][24] * [Crear un screenboard][26] * [Crear un timeboard][26] * [Crear un SLO][27] * [Obtener los detalles de un SLO][28] * [Actualizar un SLO][29] -## Leer más +## Lectura adicional -{{< partial name="whats-next/whats-next.html" >}} +{{< nombre parcial="whats-next/whats-next.html" >}} [1]: /es/getting_started/tagging/assigning_tags/ [2]: /es/service_management/events/explorer diff --git a/content/fr/logs/log_configuration/_index.md b/content/fr/logs/log_configuration/_index.md index 96526f320280d..57601e57da228 100644 --- a/content/fr/logs/log_configuration/_index.md +++ b/content/fr/logs/log_configuration/_index.md @@ -3,35 +3,43 @@ aliases: - /fr/logs/processing description: Traiter, enrichir, contrôler et gérer vos logs depuis la page Logs Configuration further_reading: +- link: /data_security/pci_compliance/ + tag: Documentation + text: Configurer une organisation Datadog conforme à la norme PCI - link: https://www.datadoghq.com/blog/logging-without-limits/ tag: Blog text: En savoir plus sur Logging without Limits* +- link: https://www.datadoghq.com/blog/log-pipeline-scanner-datadog/ + tag: Blog + text: Explorer le traitement de vos logs grâce au scanner de pipeline de logs Datadog - link: /logs/guide/ tag: Guide text: Guides supplémentaires sur la journalisation avec Datadog kind: Documentation -title: Log Configuration +title: Configuration des logs --- ## Présentation La solution Logging without Limits* de Datadog dissocie l'ingestion des logs de leur indexation. Elle vous permet de choisir les logs que vous souhaitez indexer et conserver, ou archiver, et de gérer les paramètres et contrôles de façon globale depuis la page de configuration des logs, accessible depuis [**Logs > Configuration**][1]. +**Remarque** : consultez la section [Conformité PCI DSS][2] pour obtenir des informations sur la mise en place d'une organisation Datadog conforme à la norme PCI. + {{< img src="logs/log_configuration_overview1.mp4" alt="La section de configuration des logs dans l'application Datadog" video=true >}} ## Options de configuration -- Contrôlez le traitement de vos logs avec des [pipelines][2] et des [processeurs][3]. -- Définissez [des attributs et des alias][4] pour unifier votre environnement de logs. -- [Générez des métriques à partir des logs ingérés][5] afin de synthétiser à moindre coût les données des logs d'un flux entier ingéré. -- Contrôlez de façon extrêmement précise votre budget de gestion des logs grâce aux [index de logs][6]. -- Transférez vos logs ingérés vers votre propre compartiment de stockage dans le cloud pour conserver une [archive][7], afin d'anticiper de futurs dépannages ou audits. -- [Réintégrez une archive][8] afin d'analyser ou d'étudier des événements de log anciens ou exclus de l'indexation. -- Restreignez l'[accès aux données des logs][9] grâce à des requêtes de restriction. +- Contrôlez le traitement de vos logs avec des [pipelines][3] et des [processeurs][4]. +- Définissez [des attributs et des alias][5] pour unifier votre environnement de logs. +- [Générez des métriques à partir des logs ingérés][6] afin de synthétiser à moindre coût les données des logs d'un flux entier ingéré. +- Contrôlez de façon extrêmement précise votre budget de gestion des logs grâce aux [index de logs][7]. +- Transférez vos logs ingérés vers votre propre compartiment de stockage dans le cloud pour conserver une [archive][8], afin d'anticiper de futurs dépannages ou audits. +- [Réintégrez une archive][9] afin d'analyser ou d'étudier des événements de log anciens ou exclus de l'indexation. +- Restreignez l'[accès aux données des logs][10] grâce à des requêtes de restriction. -## Log Explorer +## LogxmExplorer -Une fois votre configuration terminée, commencez à examiner et à étudier vos logs dans le [Log Explorer][10]. +Une fois votre configuration terminée, commencez à examiner et à étudier vos logs dans le [Log Explorer][11]. ## Pour aller plus loin @@ -41,12 +49,13 @@ Une fois votre configuration terminée, commencez à examiner et à étudier vos *Logging without Limits est une marque déposée de Datadog, Inc. [1]: https://app.datadoghq.com/logs/pipelines -[2]: /fr/logs/log_configuration/pipelines -[3]: /fr/logs/log_configuration/processors -[4]: /fr/logs/log_configuration/attributes_naming_convention/ -[5]: /fr/logs/log_configuration/logs_to_metrics/ -[6]: /fr/logs/log_configuration/indexes -[7]: /fr/logs/log_configuration/archives/ -[8]: /fr/logs/log_configuration/rehydrating -[9]: /fr/logs/guide/logs-rbac/ -[10]: /fr/logs/explorer/ \ No newline at end of file +[2]: /fr/data_security/pci_compliance/ +[3]: /fr/logs/log_configuration/pipelines +[4]: /fr/logs/log_configuration/processors +[5]: /fr/logs/log_configuration/attributes_naming_convention/ +[6]: /fr/logs/log_configuration/logs_to_metrics/ +[7]: /fr/logs/log_configuration/indexes +[8]: /fr/logs/log_configuration/archives/ +[9]: /fr/logs/log_configuration/rehydrating +[10]: /fr/logs/guide/logs-rbac/ +[11]: /fr/logs/explorer/ \ No newline at end of file diff --git a/content/fr/observability_pipelines/architecture/capacity_planning_scaling.md b/content/fr/observability_pipelines/architecture/capacity_planning_scaling.md deleted file mode 100644 index ca54890367881..0000000000000 --- a/content/fr/observability_pipelines/architecture/capacity_planning_scaling.md +++ /dev/null @@ -1,100 +0,0 @@ ---- -kind: Documentation -title: Planification et dimensionnement des capacités ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles pour le site Datadog US1-FED.
-{{< /site-region >}} - -
-Ce guide concerne les déploiements de production à grande échelle. -
- -## Unités d'estimation - -Les unités suivantes servent de points de départ pour estimer la capacité de vos ressources, mais elles peuvent varier en fonction de votre workload. - -| Unité | Taille | Débit du worker de pipelines d'observabilité*| -| ----------------------| --------- | ----------------------------------------- | -| Événement de log non structuré| ~512 octets| ~10 MiB/s/vCPU | -| Événement de log structuré | ~1,5 Ko | ~25 MiB/s/vCPU | -| Événement de métrique | ~256 octets| ~25 MiB/s/vCPU | -| Événement de span de trace | ~1,5 Ko | ~25 MiB/s/vCPU | - -* Ces chiffres constituent une évaluation prudente. 1 vCPU = 1 CPU physique ARM et un demi CPU physique Intel. - -## Dimensionnement - -### Dimensionnement horizontal - -Le dimensionnement horizontal désigne la distribution du trafic sur plusieurs instances du worker de pipelines d'observabilité. Ce dernier possède une architecture « shared-nothing » (au sein de laquelle aucune ressource n'est partagée) et ne nécessite aucun nœud leader ni aucune coordination similaire qui pourraient compliquer le dimensionnement. - -Pour les sources basées sur une méthode push, placez un répartiteur de charge réseau en amont de vos instances du worker de pipelines d'observabilité et dimensionnez-les en fonction des besoins. - -{{< img src="observability_pipelines/production_deployment_overview/horizontal_scaling_push.png" alt="Un diagramme affichant une région cloud décomposées en agents, en répartiteurs de charge réseau et en un agrégateur du worker de pipelines d'observabilité. Les données des agents sont envoyées au répartiteur de charge, aux workers de pipelines d'observabilité, puis vers d'autres destinations" style="width:60%;" >}} - -Le répartiteur de charge n'est pas requis pour les sources basées sur une méthode pull. Déployez le worker de pipelines d'observabilité et dimensionnez-le en fonction des besoins. Votre système de publication/abonnement coordonne l'accès exclusif aux données lorsque le worker de pipelines d'observabilité demande à les consulter. - -{{< img src="observability_pipelines/production_deployment_overview/horizontal_scaling_push.png" alt="Un diagramme affichant une région cloud décomposées en agents, en brokers et en un agrégateur de pipelines d'observabilité. Les données des agents sont envoyées aux brokers, puis envoyées et reçues entre le broker et les workers de pipelines d'observabilité, avant d'être envoyées depuis les workers vers d'autres destinations" style="width:60%;" >}} - -Consultez les [configurations avancées][1] pour en savoir plus sur les workloads mixtes (sources basées sur une méthode push et pull). - -#### Équilibrage des charges - -Un répartiteur de charge est requis uniquement pour les sources basées sur une méthode push, telles que les agents. Vous n'avez pas besoin d'un répartiteur de charge si vous utilisez exclusivement des sources basées sur une méthode pull, telles que Kafka. - -##### Équilibrage des charges côté client - -L'équilibrage des charges côté client n'est pas recommandé. Ce sont alors les clients qui procèdent à l'équilibrage des charges du trafic sur plusieurs instances du worker de pipelines d'observabilité. Si cette approche semble plus simple, elle peut s'avérer moins fiable et plus complexe pour les raisons suivantes : - -- Parvenir à équilibrer les charges avec un failover adéquat est une opération complexe. Les problèmes rencontrés dans ce cas de figure sont délicats, car ils peuvent entraîner une perte de données ou des incidents qui interrompent vos services. Le risque est encore plus grand si vous travaillez avec plusieurs types de clients. -- L'objectif de l'agrégateur du worker de pipelines d'observabilité consiste à délester vos agents de toute responsabilité, et cela passe notamment par la prise en charge de l'équilibrage des charges. - -##### Types de répartiteurs de charge - -Datadog recommande l'utilisation de répartiteurs de charge de type L4 (layer 4, ou répartiteurs de charge réseau) étant donné qu'ils prennent en charge les protocoles du worker de pipelines d'observabilité (TCP, UDP et HTTP). Même si vous envoyez exclusivement du trafic HTTP (L7), Datadog recommande les répartiteurs de charge L4 en raison de leurs bonnes performances et de leur simplicité. - -| Fournisseur de cloud| Recommandation | -| ------------- | --------------------------------------------------------------| -| AWS | Répartiteur de charge réseau AWS (NLB, pour Network Load Balancer) | -| Azure | Répartiteur de charge interne Azure | -| Google Cloud | Répartiteur de charge réseau interne TCP/UDP | -| Private | HAProxy, Nginx ou un autre répartiteur de charge prenant en charge les données layer 4 | - -##### Configurations du répartiteur de charge - -Lors de la configuration des clients et des répartiteurs de charge, Datadog recommande les paramètres généraux suivants : - -- Utilisez une stratégie de répartiteur de charge de type round-robin. -- N'activez pas la fonctionnalité d'équilibrage de charge entre zones, sauf en cas de déséquilibre du trafic entre plusieurs zones. -- Configurez les répartiteurs de charge de sorte qu'ils utilisent l'endpoint de l'API de santé du worker de pipelines d'observabilité pour la santé cible. -- Assurez-vous que les instances de votre worker de pipelines d'observabilité sont enregistrées ou désenregistrées automatiquement lors de leur dimensionnement. Consultez la section [Réseau][2] pour en savoir plus. -- Appliquez un intervalle de conservation avec un délai d'inactivité d'une minute maximum pour vos clients et répartiteurs de charge. -- Activez la simultanéité et la mise en pool des connexions sur vos agents si ces fonctionnalités sont prises en charge. Si elles ne sont pas prises en charge, envisagez d'utiliser l'architecture unifiée qui déploie le worker de pipelines d'observabilité en périphérie. La mise en pool des connexions permet de garantir la répartition de grandes quantités de données sur plusieurs connexions pour mieux équilibrer le trafic. - -##### Zones sensibles du répartiteur de charge - -Des zones sensibles peuvent apparaître sur le répartiteur de charge lorsqu'une ou plusieurs instances du worker de pipelines d'observabilité reçoivent une quantité de trafic disproportionnée. Ce problème peut généralement survenir pour deux raisons différentes : - -1. Une grande quantité de trafic est envoyée sur une seule connexion. -2. Le trafic présent dans une zone de disponibilité est beaucoup plus élevé que dans les autres zones de disponibilité. - -Dans ces cas de figure, nous vous recommandons de mettre en œuvre les stratégies respectives suivantes pour atténuer ces zones sensibles : - -1. Divisez les connexions volumineuses en plusieurs connexions de plus petite taille. La plupart des clients prennent en charge la simultanéité ainsi que la mise en pool des connexions, qui permettent la répartition des données sur plusieurs connexions. En procédant de la sorte, votre répartiteur de charge est capable de répartir la connexion sur plusieurs instances du worker de pipelines d'observabilité. Si votre client ne prend pas en charge ces fonctionnalités, nous vous conseillons d'utiliser l'architecture unifiée, qui permet le déploiement du worker de pipelines d'observabilité en périphérie. -2. Activez la fonctionnalité d'équilibrage de charge entre zones sur votre répartiteur de charge. Cette fonctionnalité répartit la totalité du trafic des zones de disponibilité de manière équitable sur l'ensemble des instances du worker de pipelines d'observabilité. - -### Dimensionnement vertical - -Le modèle de simultanéité du worker de pipelines d'observabilité s'adapte automatiquement pour tirer parti de tous les vCPU. Il n'est pas nécessaire d'ajuster les paramètres de simultanéité ni de modifier la configuration. En cas de dimensionnement vertical, Datadog recommande d'appliquer une limite de taille à une instance de sorte qu'elle ne traite pas plus de la moitié du volume total, et de disposer d'au moins deux instances du worker de pipelines d'observabilité pour garantir une haute disponibilité. - -### Autoscaling - -L'autoscaling dépend de l'utilisation moyenne du CPU. Pour la plupart des workloads, le worker de pipelines d'observabilité est limité par le CPU. L'activation ou non de l'autoscaling est déterminée avant tout par l'utilisation du CPU, car elle ne produit aucun faux positif. Datadog recommande d'utiliser les paramètres suivants, en les ajustant au besoin : - -- CPU moyen avec un objectif d'utilisation de 85 %. -- Une période de stabilisation de cinq minutes pour le dimensionnement. - -[1]: /fr/observability_pipelines/architecture/advanced_configurations -[2]: /fr/observability_pipelines/architecture/networking \ No newline at end of file diff --git a/content/fr/observability_pipelines/guide/_index.md b/content/fr/observability_pipelines/guide/_index.md deleted file mode 100644 index 195e46c0bb17c..0000000000000 --- a/content/fr/observability_pipelines/guide/_index.md +++ /dev/null @@ -1,11 +0,0 @@ ---- -disable_toc: true -kind: guide -private: true -title: Guides sur les pipelines d'observabilité ---- - -{{< whatsnext desc="Guides généraux :" >}} - {{< nextlink href="/observability_pipelines/guide/custom-metrics-governance" >}}Gouvernance des métriques custom{{< /nextlink >}} - {{< nextlink href="/observability_pipelines/guide/control_log_volume_and_size" >}}Contrôler le volume et la taille des logs{{< /nextlink >}} -{{< /whatsnext >}} \ No newline at end of file diff --git a/content/fr/observability_pipelines/guide/control_log_volume_and_size.md b/content/fr/observability_pipelines/guide/control_log_volume_and_size.md deleted file mode 100644 index 5997fc85de0ee..0000000000000 --- a/content/fr/observability_pipelines/guide/control_log_volume_and_size.md +++ /dev/null @@ -1,505 +0,0 @@ ---- -aliases: -- /fr/integrations/observability_pipelines/guide/control_log_volume_and_size/ -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: Documentation - text: Transformer des données avec Vector -- link: /observability_pipelines/vector_configurations/ - tag: Documentation - text: En savoir plus sur les configurations Vector -kind: guide -title: Contrôler le volume et la taille des logs ---- - -## Présentation - -Avec le développement de votre organisation, vos logs deviennent de plus en plus volumineux. Cela a pour effet d'accroître les coûts d'ingestion et d'indexation liés à vos services en aval, comme les solutions de gestion de logs, de SIEM, etc. Ce guide vous explique comment utiliser les transformations Vector pour réduire le volume et la taille de vos logs, afin de contrôler vos coûts *avant* que vos données ne quittent votre infrastructure ou réseau. - -## Prérequis -- Vous avez [installé et configuré Vector][1] de façon à recueillir des données à partir de vos sources et à les acheminer vers vos destinations. -- Vous maîtrisez la [configuration de base de Vector][2]. - -## Utiliser les transformations pour gérer le volume des logs - -Au sein des pipelines d'observabilité, les **transformations** effectuent des opérations afin de modifier des événements, à savoir des logs, métriques ou traces passant par les pipelines. - -### Dédoubler des événements - -Utilisez la [transformation dedupe][3] pour supprimer les données en double passant par votre pipeline. Ajoutez le composant suivant à votre configuration pour appliquer la transformation. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: dedupe - inputs: - - my-source-or-transform-id - cache: null - fields: null -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "dedupe" -inputs = [ "my-source-or-transform-id" ] -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "dedupe", - "inputs": [ - "my-source-or-transform-id" - ], - "cache": null, - "fields": null - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -Vector attribue à chaque événement un identifiant unique permettant de suivre les événements dédupliqués. Grâce à l'option `cache`, vous pouvez mettre en cache les événements récents afin de vérifier ultérieurement si des données ont été dupliquées. Par défaut, le cache contient 5 000 événements. L'option `fields` répertorie les champs utilisés pour déterminer si un événement est un doublon. - -### Filtrer des événements - -Utilisez la [transformation filter][4] pour autoriser uniquement certains logs répondant à des critères spécifiques à passer par un composant de votre pipeline. Ces critères vous permettent par exemple d'accepter uniquement les logs qui contiennent : - -- un tag spécifique, par exemple `env` ; -- une valeur de champ spécifique, par exemple `400` pour le champ `status`. - -Pour filtrer vos logs, insérez un composant contenant une [transformation filter][4] qui repose sur la syntaxe [Vector Remap Language (VRL)][5] ou sur la [syntaxe de recherche de logs Datadog][6] afin de définir vos conditions. Les logs qui ne répondent pas aux conditions sont ignorés. - -L'exemple suivant repose sur la transformation filter et sur VRL pour transmettre uniquement les logs dont le `status` est `500`. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: filter - inputs: - - my-source-or-transform-id - condition: - type: "vrl" - source: ".status == 500" -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "filter" -inputs = [ "my-source-or-transform-id" ] - - [transforms.my_transform_id.condition] - type = "vrl" - source = ".status == 500" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "filter", - "inputs": [ - "my-source-or-transform-id" - ], - "condition": { - "type": "vrl", - "source": ".status == 500" - } - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -### Échantillonner des logs - -Lorsque vous analysez des volumes importants de données comportant de nombreuses valeurs parasites (par exemple, des logs CDN), il est inutile de transmettre l'ensemble des logs à une destination. Utilisez plutôt la [transformation sample][7] afin d'envoyer uniquement les logs dont vous avez besoin. Vos analyses sont ainsi plus pertinentes d'un point de vue statistique. - -Le champ `exclude` permet d'empêcher l'échantillonnage de certains événements. Il prend en charge la syntaxe VRL ainsi que la syntaxe de recherche de logs Datadog. L'exemple de configuration ci-dessous échantillonne chaque lot de 10 événements. Le nombre d'événements est déterminé par l'option `rate`. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: sample - inputs: - - my-source-or-transform-id - exclude: - type: "datadog_search" - source: "*stack" - rate: 10 -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "sample" -inputs = [ "my-source-or-transform-id" ] -rate = 10 - - [transforms.my_transform_id.exclude] - type = "datadog_search" - source = "*stack" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "sample", - "inputs": [ - "my-source-or-transform-id" - ], - "exclude": { - "type": "datadog_search", - "source": "*stack" - }, - "rate": 10 - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -### Convertir des logs en métriques - -Pour mieux comprendre l'évolution d'une certaine tendance, il est plus intéressant d'étudier les métriques associées aux points de données d'un événement plutôt qu'une série de logs. Utilisez la [transformation log to metric][8] pour réduire le volume de logs passant par votre pipeline en générant des métriques basées sur des tags spécifiques. - -Vous pouvez générer quatre types de métriques différents : - -- Des métriques counter, qui permettent de compter le nombre de logs contenant un tag spécifique. Vous pouvez incrémenter un compte ou le réinitialiser. -- Des métriques de distribution, qui représentent la distribution des valeurs échantillonnées. Ces métriques sont particulièrement utiles pour créer des synthèses et des histogrammes. -- Des métriques gauge, qui représentent une seule valeur numérique qui augmente ou diminue de façon arbitraire. Ces métriques vous permettent de surveiller des valeurs qui évoluent constamment. -- Des métriques set, qui rassemblent des valeurs uniques au sein d'un tableau. Ces métriques servent par exemple à recueillir des adresses IP uniques. - -L'exemple de configuration suivant permet de générer une métrique `counter`. L'option `metrics` définit les paires key/value ajoutées à l'événement. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: log_to_metric - inputs: - - my-source-or-transform-id - metrics: - - type: counter - field: status - name: response_total - namespace: service - tags: - status: "{{status}}" - host: "{{host}}" -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "log_to_metric" -inputs = [ "my-source-or-transform-id" ] - - [[transforms.my_transform_id.metrics]] - type = "counter" - field = "status" - name = "response_total" - namespace = "service" - - [transforms.my_transform_id.metrics.tags] - status = "{{status}}" - host = "{{host}}" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "log_to_metric", - "inputs": [ - "my-source-or-transform-id" - ], - "metrics": [ - { - "type": "counter", - "field": "status", - "name": "response_total", - "namespace": "service", - "tags": { - "status": "{{status}}", - "host": "{{host}}" - } - } - ] - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -Si la configuration ci-dessus est appliquée au log suivant : - -``` -{ - "log": { - "host": "10.22.11.222", - "message": "Sent 200 in 54.2ms", - "status": 200 - } -} -``` - -Alors la métrique suivante est générée : - -``` -{"metric":{"counter":{"value":1},"kind":"incremental","name":"response_total","namespace":"service","tags":{"host":"10.22.11.222","status":"200"}}}] - -``` - -### Rassembler plusieurs événements au sein d'un seul log - -Il est possible de regrouper plusieurs logs au sein d'un log unique. Ainsi, pour réduire votre volume de logs, une solution consiste à fusionner plusieurs logs. Utilisez la [transformation reduce][9] pour réunir plusieurs logs au sein d'un seul log. - -L'exemple de configuration ci-dessous utilise une transformation reduce pour fusionner plusieurs événements d'exception liés à des logs Ruby. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: reduce - inputs: - - my-source-or-transform-id - group_by: - - host - - pid - - tid - merge_strategies: - message: concat_newline - starts_when: match(string!(.message), r'^[^\\s]') -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "reduce" -inputs = [ "my-source-or-transform-id" ] -group_by = [ "host", "pid", "tid" ] -starts_when = "match(string!(.message), r'^[^\\s]')" - -[transforms.my_transform_id.merge_strategies] - message = "concat_newline" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "reduce", - "inputs": [ - "my-source-or-transform-id" - ], - "group_by": [ - "host", - "pid", - "tid" - ], - "merge_strategies": { - "message": "concat_newline" - }, - "starts_when": "match(string!(.message), r'^[^\\s]')" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -Dans la transformation reduce, la valeur de `group_by` correspond à la liste triée des champs servant à regrouper les événements. Ici, les événements sont regroupés en fonction des champs `host`, `pid` et `tid`. - -L'option `merge_strategies` correspond à une map des noms de champs. Elle permet d'applique une stratégie de fusion personnalisée. Il existe [différentes stratégies de fusion][10], notamment `array`, qui annote chaque valeur dans un tableau, et `sum`, qui additionne toutes les valeurs numériques. Dans l'exemple ci-dessous, la stratégie `concat_newline` permet de concaténer toutes les valeurs de chaîne, puis de les délimiter à l'aide d'un retour à la ligne. - -La condition `starts_when` permet d'identifier le premier événement d'une transaction. Si la condition génère le statut `true` pour un événement, l'opération précédente est transmise sans cet événement, et une nouvelle opération est initiée. Dans l'exemple ci-dessus, les événements comportant `.message` et qui ne correspondent pas à l'expression régulière `^[^\\s]` sont rassemblés au sein d'un seul événement. - -Si la configuration ci-dessus est appliquée aux logs d'exception Ruby suivants : - -``` -[{"log":{ - "host":"host-1.hostname.com", - "message":"foobar.rb:6:in `/': divided by 0(ZeroDivisionError)", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:6:in `bar'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:2:in `foo'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:9:in `\u003cmain\u003e'", - "pid":1234,"tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"Hello world, I am a new log", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:22.123528Z" -}}] -``` - -Alors les logs suivants sont générés : - -``` -[{ -"log": { - "host":"host-1.hostname.com", - "message":"foobar.rb:6:in `/': divided by 0 (ZeroDivisionError)\n - from foobar.rb:6:in `bar'\n - from foobar.rb:2:in `foo'\n - from foobar.rb:9:in `\u003cmain\u003e'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"Hello world, I am a new log", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:22.123528Z" -}}] -``` - -## Utiliser des transformations pour gérer la taille des logs - -### Supprimer des champs inutiles pour réduire la taille de vos logs - -Certains champs de vos logs peuvent n'avoir aucune utilité. Si vous traitez des téraoctets de données chaque jour, la suppression de ces champs superflus peut réduire considérablement le volume total de logs ingérés et indexés par votre destination. - -Pour remapper vos données de log et ainsi supprimer vos champs inutiles, utilisez la [syntaxe VRL (Vector Remap Language)][5]. L'exemple suivant permet de supprimer les tags inutiles à l'aide de `del`. - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: remap - inputs: - - my-source-or-transform-id - source: |- - del(.unecessary_env_field) - del(.unecessary_service_field) - del(.unecessary_tag_field) -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "remap" -inputs = [ "my-source-or-transform-id" ] -source = """ -del(.unecessary_env_field) -del(.unecessary_service_field) -del(.unecessary_tag_field)""" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "remap", - "inputs": [ - "my-source-or-transform-id" - ], - "source": "del(.unecessary_env_field)\ndel(.unecessary_service_field)\ndel(.unecessary_tag_field)" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -## Pour aller plus loin - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /fr/observability_pipelines/setup/ -[2]: /fr/observability_pipelines/vector_configurations/ -[3]: https://vector.dev/docs/reference/configuration/transforms/dedupe/ -[4]: https://vector.dev/docs/reference/configuration/transforms/filter/ -[5]: https://vector.dev/docs/reference/vrl/ -[6]: /fr/logs/explorer/search_syntax/ -[7]: https://vector.dev/docs/reference/configuration/transforms/sample/ -[8]: https://vector.dev/docs/reference/configuration/transforms/log_to_metric/ -[9]: https://vector.dev/docs/reference/configuration/transforms/reduce/ -[10]: https://vector.dev/docs/reference/configuration/transforms/reduce/#merge_strategies \ No newline at end of file diff --git a/content/fr/observability_pipelines/guide/route_logs_in_datadog_rehydratable_format_to_Amazon_S3.md b/content/fr/observability_pipelines/guide/route_logs_in_datadog_rehydratable_format_to_Amazon_S3.md deleted file mode 100644 index 74d5f0ca617b8..0000000000000 --- a/content/fr/observability_pipelines/guide/route_logs_in_datadog_rehydratable_format_to_Amazon_S3.md +++ /dev/null @@ -1,280 +0,0 @@ ---- -disable_toc: false -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: Documentation - text: Utilisation des données dans les pipelines d'observabilité -- link: /logs/log_configuration/archives/ - tag: Documentation - text: En savoir plus sur les archives de logs -- link: /logs/log_configuration/rehydrating/ - tag: Documentation - text: En savoir plus sur la réintégration des archives de logs -kind: documentation -title: Acheminer des logs dans un format réintégrable à Datadog vers Amazon S3 ---- - -
La destination Archives Datadog des pipelines d'observabilité est en version bêta.
- -## Présentation - -La destination Archives Datadog des pipelines d'observabilité convertit les logs dans un format réintégrable à Datadog avant leur acheminement vers les [archives de logs][1]. Ces logs ne sont pas ingérés dans Datadog mais sont acheminés directement vers l'archive. Vous pouvez ensuite réintégrer cette dernière dans Datadog lorsque vous avez besoin d'analyser et d'étudier les logs. `datadog_archives` est disponible à partir de la version 1.5 du worker de pipelines d'observabilité. - -## Configurer une archive de logs - -### Créer un compartiment Amazon S3 - -{{< site-region region="us,us3,us5" >}} -Consultez la [tarification AWS][1] pour connaître les frais de transfert de données entre régions et déterminer l'impact éventuel sur vos frais de stockage dans le cloud. - -[1]: https://aws.amazon.com/s3/pricing/ -{{< /site-region >}} - -1. Accédez aux [compartiments Amazon S3][2]. -1. Cliquez sur **Create bucket**. -1. Saisissez un nom décrivant votre compartiment. -1. Assurez-vous que votre compartiment n'est pas accessible au public. -1. Si besoin, ajoutez des tags. -1. Cliquez sur **Create bucket**. - -### Configurer une stratégie IAM permettant aux workers d'écrire dans le compartiment S3 - -1. Accédez à la [console IAM][3]. -1. Sélectionnez **Policies** dans le menu latéral gauche. -1. Cliquez sur **Create policy**. -1. Cliquez sur **JSON** dans la section **Specify permissions**. -1. Copiez la stratégie ci-dessous et collez-la dans le **Policy editor**. Remplacez `` et `` par les informations du compartiment S3 créé précédemment. -{{< code-block lang="json">}} -{ - "Version": "2012-10-17", - "Statement": [ - { - "Sid": "DatadogUploadAndRehydrateLogArchives", - "Effect": "Allow", - "Action": ["s3:PutObject", "s3:GetObject"], - "Resource": "arn:aws:s3:::/*" - }, - { - "Sid": "DatadogRehydrateLogArchivesListBucket", - "Effect": "Allow", - "Action": "s3:ListBucket", - "Resource": "arn:aws:s3:::" - } - ] -} -{{< /code-block >}} -1. Cliquez sur **Next**. -1. Saisissez un nom décrivant la stratégie. -1. Si besoin, ajoutez des tags. -1. Cliquez sur **Create policy**. - -{{< tabs >}} -{{% tab "Docker" %}} - -### Créer un utilisateur IAM - -Créez un utilisateur IAM et associez-lui la stratégie IAM créée précédemment. - -1. Accédez à la [console IAM][1]. -1. Sélectionnez **Users** dans le menu latéral gauche. -1. Cliquez sur **Create user**. -1. Saisissez un nom d'utilisateur. -1. Cliquez sur **Next**. -1. Sélectionnez **Attach policies directly**. -1. Choisissez la stratégie IAM créée précédemment à associer au nouvel utilisateur IAM. -1. Cliquez sur **Next**. -1. Si besoin, ajoutez des tags. -1. Cliquez sur **Create user**. - -Créez des identifiants d'accès pour le nouvel utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY` et `AWS_SECRET_ACCESS_KEY`. - -[1]: https://console.aws.amazon.com/iam/ - -{{% /tab %}} -{{% tab "AWS EKS" %}} - -### Créer un compte de service - -[Créez un compte de service][1] pour utiliser la stratégie créée ci-dessus. Dans la configuration Helm, remplacez `${DD_ARCHIVES_SERVICE_ACCOUNT}` par le nom du compte de service. - - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/associate-service-account-role.html -{{% /tab %}} -{{% tab "Linux avec APT" %}} - -### Créer un utilisateur IAM - -Créez un utilisateur IAM et associez-lui la stratégie IAM créée précédemment. - -1. Accédez à la [console IAM][1]. -1. Sélectionnez **Users** dans le menu latéral gauche. -1. Cliquez sur **Create user**. -1. Saisissez un nom d'utilisateur. -1. Cliquez sur **Next**. -1. Sélectionnez **Attach policies directly**. -1. Choisissez la stratégie IAM créée précédemment à associer au nouvel utilisateur IAM. -1. Cliquez sur **Next**. -1. Si besoin, ajoutez des tags. -1. Cliquez sur **Create user**. - -Créez des identifiants d'accès pour le nouvel utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY` et `AWS_SECRET_ACCESS_KEY`. - -[1]: https://console.aws.amazon.com/iam/ - -{{% /tab %}} -{{% tab "Linux avec RPM" %}} - -### Créer un utilisateur IAM - -Créez un utilisateur IAM et associez-lui la stratégie IAM créée précédemment. - -1. Accédez à la [console IAM][1]. -1. Sélectionnez **Users** dans le menu latéral gauche. -1. Cliquez sur **Create user**. -1. Saisissez un nom d'utilisateur. -1. Cliquez sur **Next**. -1. Sélectionnez **Attach policies directly**. -1. Choisissez la stratégie IAM créée précédemment à associer au nouvel utilisateur IAM. -1. Cliquez sur **Next**. -1. Si besoin, ajoutez des tags. -1. Cliquez sur **Create user**. - -Créez des identifiants d'accès pour le nouvel utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY` et `AWS_SECRET_ACCESS_KEY`. - -[1]: https://console.aws.amazon.com/iam/ - -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} - -### Associer la stratégie au profil d'instance IAM - -Associez la stratégie au profil d'instance IAM créé avec Terraform, qui est indiqué dans la sortie `iam-role-name`. - -{{% /tab %}} -{{< /tabs >}} - -### Connecter le compartiment S3 aux archives de logs Datadog - -1. Accédez à la page [Log Forwarding][4] de Datadog. -1. Cliquez sur **Add a new archive**. -1. Saisissez un nom décrivant l'archive. -1. Ajoutez une requête excluant tous les logs traités par les pipelines de logs afin qu'ils ne soient pas intégrés à cette archive. Par exemple, ajoutez la requête `observability_pipelines_read_only_archive`, en supposant que ce tag n'ait pas été ajouté aux logs traités par le pipeline. -1. Sélectionnez **AWS S3**. -1. Sélectionnez le compte AWS dans lequel se trouve votre compartiment. -1. Saisissez le nom du compartiment S3. -1. Si besoin, saisissez un chemin. -1. Vérifiez la déclaration de confirmation. -1. Si besoin, ajoutez des tags et définissez la taille d'analyse maximale pour la réintégration. Consultez la rubrique [Paramètres avancés][5] pour en savoir plus. -1. Cliquez sur **Save**. - -Consultez la [documentation relative aux archives de logs][6] pour en savoir plus. - -## Configurer la destination Archives Datadog - -Vous pouvez configurer la destination `datadog_archives` à l'aide du [fichier de configuration](#fichier-de-configuration) ou à l'aide de l'[interface utilisateur de création de pipeline](#fichier-de-configuration). - -
Si des logs qui ne proviennent pas de l'Agent Datadog sont ingérés par le worker et acheminés vers la destination Archives Datadog, ils ne seront pas tagués avec les attributs réservés. Cela signifie que vous perdrez la télémétrie Datadog et les avantages du tagging de service unifié. Supposons, par exemple, que vos logs Syslog soient envoyés à la destination datadog_archives et qu'ils présentent le tag de statut severity au lieu de l'attribut réservé status et le tag de host hostname au lieu de l'attribut réservé hostname. Lors de leur réintégration dans Datadog, l'attribut status de tous ces logs sera défini sur info et aucun d'eux ne possédera de tag de hostname.
- -### Fichier de configuration - -Pour les déploiements manuels, le [fichier d'exemple de configuration de pipelines][7] pour Datadog inclut un récepteur pour l'envoi des logs à Amazon S3 dans un format réintégrable à Datadog. - -{{< tabs >}} -{{% tab "Docker" %}} - -Dans le fichier d'exemple de configuration de pipelines, remplacez `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY` par les identifiants AWS créés précédemment. - -{{% /tab %}} -{{% tab "AWS EKS" %}} - -Dans le fichier d'exemple de configuration de pipelines, remplacez `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY` par les identifiants AWS créés précédemment. - -{{% /tab %}} -{{% tab "Linux avec APT" %}} - -Dans le fichier d'exemple de configuration de pipelines, remplacez `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY` par les identifiants AWS créés précédemment. - -{{% /tab %}} -{{% tab "Linux avec RPM" %}} - -Dans le fichier d'exemple de configuration de pipelines, remplacez `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY` par les identifiants AWS créés précédemment. - -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} - -Remplacez les paramètres `${DD_ARCHIVES_BUCKET}` et $`{DD_ARCHIVES_REGION}` en fonction de la configuration de votre compartiment S3. - -{{% /tab %}} -{{< /tabs >}} - -### Interface utilisateur de création de pipeline - -1. Accédez à votre [pipeline][8]. -1. (Facultatif) Ajoutez une transformation de remappage pour taguer tous les logs envoyés à la destination `datadog_archives`. - a. Cliquez sur **Edit** puis sur **Add More** dans le carré **Add Transforms**. - b. Cliquez sur le carré **Remap**. - c. Saisissez un nom décrivant le composant. - d. Dans le champ **Inputs**, sélectionnez la source à connecter à cette destination. - e. Ajoutez `.sender = "observability_pipelines_worker"` dans la section **Source**. - f. Cliquez sur **Save**. - g. Revenez à votre pipeline. -1. Cliquez sur **Edit**. -1. Cliquez sur **Add More** dans le carré **Add Destination**. -1. Cliquez sur le carré **Datadog Archives**. -1. Saisissez un nom décrivant le composant. -1. Sélectionnez les sources ou les transformations à connecter à cette destination. - -{{< tabs >}} -{{% tab "AWS S3" %}} - -7. Dans le champ **Bucket**, saisissez le nom du compartiment S3 créé précédemment. -8. Saisissez `aws_s3` dans le champ **Service**. -9. Activez **AWS S3** pour activer ces options de configuration spécifiques. -10. Dans le champ **Storage Class**, sélectionnez la classe de stockage dans le menu déroulant. -11. Définissez les autres options de configuration en fonction de vos besoins. -12. Cliquez sur **Save**. - -{{% /tab %}} -{{% tab "Blob Azure" %}} - -7. Dans le champ **Bucket**, saisissez le nom du compartiment S3 créé précédemment. -8. Saisissez `azure_blob` dans le champ **Service**. -9. Activez **Azure Blob** pour activer ces options de configuration spécifiques. -10. Saisissez la chaîne de connexion au compte Stockage Blob Azure. -11. Définissez les autres options de configuration en fonction de vos besoins. -12. Cliquez sur **Save**. - -{{% /tab %}} -{{% tab "GCP Cloud Storage" %}} - -7. Dans le champ **Bucket**, saisissez le nom du compartiment S3 créé précédemment. -8. Saisissez `gcp_cloud_storage` dans le champ **Service**. -9. Activez **GCP Cloud Storage** pour activer ces options de configuration spécifiques. -10. Définissez les options de configuration en fonction de vos besoins. -11. Cliquez sur **Save**. - -{{% /tab %}} -{{< /tabs >}} - -Si vous utilisez la configuration à distance, déployez la modification dans votre pipeline par le biais de l'interface utilisateur. Dans le cas d'une configuration manuelle, téléchargez la configuration mise à jour et redémarrez le worker. - -Consultez la [documentation de référence relative aux archives Datadog][9] pour en savoir plus sur l'ensemble des options de configuration. - -## Réintégrer votre archive - -Consultez la rubrique [Réintégration à partir des archives][10] pour savoir comment réintégrer votre archive dans Datadog afin de pouvoir commencer à analyser et étudier ces logs. - -## Pour aller plus loin - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /fr/logs/log_configuration/archives/ -[2]: https://s3.console.aws.amazon.com/s3/home -[3]: https://console.aws.amazon.com/iam/ -[4]: https://app.datadoghq.com/logs/pipelines/log-forwarding -[5]: /fr/logs/log_configuration/archives/#advanced-settings -[6]: /fr/logs/log_configuration/archives -[7]: /fr/observability_pipelines/setup/datadog#installing-the-observability-pipelines-worker -[8]: https://app.datadoghq.com/observability-pipelines/ -[9]: /fr/observability_pipelines/reference/sinks/#datadogarchivessink -[10]: /fr/logs/log_configuration/rehydrating/ \ No newline at end of file diff --git a/content/fr/observability_pipelines/monitoring.md b/content/fr/observability_pipelines/monitoring.md deleted file mode 100644 index 95f7c094c5c4f..0000000000000 --- a/content/fr/observability_pipelines/monitoring.md +++ /dev/null @@ -1,66 +0,0 @@ ---- -disable_toc: false -kind: documentation -title: Surveillance ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -## Présentation - -Vos [pipelines d'observabilité][1] comprennent des composants qui recueillent, traitent et acheminent vos données d'observabilité. L'intégrité de vos pipelines et composants est illustrée par des statuts et des graphiques de santé, ainsi que des graphiques sur l'utilisation des ressources et la transmission des données. - -Les statuts de santé sont déterminés par des métriques spécifiques basées sur des seuils et des intervalles de temps par défaut. Voici la liste des statuts disponibles : - -- `Healthy` : ce statut indique que le worker n'a pas pris de retard. -- `Warning` : ce statut indique que le worker ne fonctionne pas de manière optimale et risque de prendre du retard. Le worker peut prendre du retard lorsqu'une destination ou un service en aval génère une certaine contre-pression alors que la quantité de ressources provisionnées pour les workers est insuffisante. -- `Critical` : ce statut indique que le worker est en train de prendre du retard. Si le worker prend du retard, il risque éventuellement d'ignorer des données. Sachez cependant que tant que vos pipelines sont [architecturés][2] et configurés correctement, le worker ne perd involontairement aucune donnée. - -Les métriques internes, qui sont regroupées selon leur type (santé, transmission de données et utilisation de ressources), gouvernent le statut de santé global de votre pipeline et de ses composants. - -Les graphiques de santé sont disponibles pour les métriques suivantes : -- Événements ignorés involontairement -- Erreurs -- Temps de latence (uniquement disponible pour les sources) -- Taux de variation des temps de latence (uniquement disponible pour les sources) -- Utilisation - -Les graphiques sur la transmission des données sont disponibles pour les métriques suivantes : -- Entrée/sortie d'événements par seconde -- Entrée/sortie d'octets par seconde - -Les graphiques sur l'utilisation des ressources sont disponibles pour les métriques suivantes : -- Utilisation du CPU -- Utilisation de la mémoire -- Utilisation du disque (uniquement disponible pour les destinations) - -## Consulter le statut de vos pipelines et composants - -1. Accédez à [Observability Pipelines][3]. -1. Cliquez sur un pipeline. -1. Passez le curseur sur un graphique pour afficher des points de données spécifiques. - -## Métriques de santé relatives à l'utilisation des ressources d'un pipeline - -| Métrique | OK | Warning | Critical | Description | -| ------------ | :------: | :--------: | :-------: | --------------------------------- | -| Utilisation du CPU | <= 0.85 | > 0.85 | S. O. | Surveille la quantité de CPU utilisé par un processus de worker.

La valeur `1` signifie que le processus du worker n'a plus aucune marge en ce qui concerne le host ou les unités de calcul qui l'exécutent. Cela peut mener à d'éventuels problèmes : dépassement des limites de latence de traitement, surcharges de données en amont ou en aval, etc.| -| Utilisation de la mémoire | >= 0.15 | < 0.15 | S. O. | Surveille la quantité de mémoire utilisée et disponible sur le host. Le worker n'est pas limité en termes de mémoire, mais une utilisation élevée de la mémoire peut indiquer des fuites. - -## Métriques de santé des composants - -| Métrique | Sources | Transformations| Destinations | OK | Warning | Critical | Description | -| ------------------------ | :-------: | :-------: | :----------: | :-----: | :------: | :--------:| --------------------------------- | -| Événements ignorés | {{< X >}} | {{< X >}} |{{< X >}} | ==0 | S. O. | > 0 |La valeur attendue est toujours `0`. Si vous avez configuré le worker de façon à ignorer volontairement des données, par exemple à l'aide de la transformation `filter`, ces données ne sont pas comptabilisées par cette métrique. Par conséquent, il suffit d'une erreur pour indiquer que le worker n'est pas sain.| -| Erreurs totales |{{< X >}} |{{< X >}} |{{< X >}} | ==0 | >0 | S. O. | Le nombre total d'erreurs rencontrées par le composant. Ces erreurs sont également émises sous forme de [logs de diagnostic][4], qui fournissent plus d'informations sur les logs d'erreurs internes spécifiques. | -| Utilisation | |{{< X >}} |{{< X >}} | <= 0.95 | > 0.95 | S. O. | Surveille l'activité d'un composant.

La valeur `0` indique que le composant est inactif et en attente de données. La valeur `1` indique que le composant n'est jamais inactif. Une valeur supérieure à `0.95` indique que le composant est occupé et qu'il y a probablement un goulot d'étranglement au niveau de la topologie de traitement. | -| Temps de latence |{{< X >}} | | | S. O. | S. O. | S. O. | Il s'agit de l'écart de temps brut (en millisecondes) entre le timestamp de l'événement et celui de l'ingestion de l'événement par le worker. Un temps de latence élevé ou une variation de celui-ci (voir ci-dessous) indique si le worker prend ou non du retard en raison d'une contre-pression provenant d'un service en aval, d'un sous-provisionnement de ressources pour le worker ou d'un goulot d'étranglement dans le pipeline. | -| Taux de variation du temps de latence | {{< X >}} | | | <= 0 | > 0 | > 1 | Indique s'il y a un délai important entre la génération de l'événement et la réception des données par le worker. Un délai signifie que le worker prend du retard dans la réception des données de la source.

La valeur `0` indique qu'il n'y a aucun délai supplémentaire entre le moment où les données d'observabilité sont générées et celui où le worker reçoit les données. Une valeur supérieure ou égale à `1` indique la présence d'une contre-pression et d'un goulot d'étranglement. | -| Utilisation du disque | | |{{< X >}} | >= 0.20 | > 0.20 | S. O. | Mesure le niveau de remplissage d'un disque donné.

La valeur `1` indique qu'aucune donnée supplémentaire ne peut être stockée sur le disque. La valeur `0` indique que le disque est vide. | - -[1]: /fr/observability_pipelines/ -[2]: /fr/observability_pipelines/architecture/ -[3]: https://app.datadoghq.com/observability-pipelines/ -[4]: /fr/observability_pipelines/troubleshooting/#investigate-diagnostic-logs \ No newline at end of file diff --git a/content/fr/observability_pipelines/production_deployment_overview.md b/content/fr/observability_pipelines/production_deployment_overview.md deleted file mode 100644 index 2844122f9f645..0000000000000 --- a/content/fr/observability_pipelines/production_deployment_overview.md +++ /dev/null @@ -1,148 +0,0 @@ ---- -kind: Documentation -title: Principes et méthodologie de déploiement ---- - -{{< site-region region="gov" >}} -
La fonctionnalité Pipelines d'observabilité n'est pas disponible pour le site Datadog US1-FED.
-{{< /site-region >}} - -## Présentation - -Dans le cadre du déploiement du worker des pipelines d'observabilité au sein de votre infrastructure, il se peut que vous vous posiez un certain nombre de questions, par exemple : - -- À quel endroit du réseau le worker des pipelines d'observabilité doit-il être déployé ? -- Comment les données doivent-elles être recueillies ? -- Où les données doivent-elles être traitées ? - -Ce guide aborde les différents éléments qui interviennent dans la conception de l'architecture de votre worker de pipelines d'observabilité, et plus particulièrement les points suivants : - -- [Réseau](#reseau) -- [Collecte de données](#collecte-de-donnees) -- [Traitement des données](#traitement-des-donnees) -- [Mise en mémoire tampon des données](#mise-en-memoire-tampon-des-donnees) -- [Acheminement des données](#acheminement-des-donnees) - -## Réseau - -Dans le cadre de la conception du déploiement de votre worker de pipelines d'observabilité, la première étape consiste à comprendre la place occupée par le worker des pipelines d'observabilité au sein de votre réseau et l'endroit où le déployer. - -### Respecter les limites du réseau - -Étant donné que le worker des pipelines d'observabilité est déployé en tant qu'agrégateur, il convient de le déployer à l'intérieur des limites du réseau pour limiter les coûts liés au trafic de sortie. Les données réceptionnées par le worker des pipelines d'observabilité ne doivent jamais être transférées par le biais du réseau Internet public. Par souci de facilité, Datadog recommande donc de commencer par un agrégateur par région. - -### Utiliser des pare-feu et des proxies - -Si vous utilisez des pare-feu, limitez les communications de l'Agent à vos agrégateurs et les communications de l'agrégateur à vos sources et récepteurs configurés. - -Si vous préférez utiliser un proxy HTTP, le worker des pipelines d'observabilité offre une option de proxy global permettant d'acheminer l'intégralité du trafic HTTP du worker de pipelines d'observabilité via un proxy. - -### Utiliser la découverte du DNS et de services - -Utilisez la découverte du DNS ou de services pour détecter les agrégateurs et services de votre worker de pipelines d'observabilité. Cette stratégie facilite l'acheminement ainsi que l'équilibrage de charge de votre trafic ; il s'agit également de la stratégie employée par vos agents et répartiteurs de charge pour découvrir vos agrégateurs. Pour séparer clairement les problèmes, le worker des pipelines d'observabilité ne résout pas les requêtes DNS lui-même, mais délègue cette tâche à un résolveur au niveau du système ([résolution de requêtes Linux][1]), par exemple). - -{{< img src="observability_pipelines/production_deployment_overview/dns_service_discovery.png" alt="Un diagramme présentant une région cloud avec un cluster d'agents, un cluster de répartiteurs de charge et plusieurs workers de pipelines d'observabilité ; chaque groupe envoie des requêtes distinctes au registre DNS ou au registre de service" style="width:60%;" >}} - -### Choix des protocoles - -Lors de l'envoi de données au worker des pipelines d'observabilité, Datadog recommande de choisir un protocole facilitant l'équilibrage de charge et permettant d'obtenir une confirmation de réception au niveau de l'application. Nous recommandons de privilégier les protocoles HTTP et gRPC étant donné qu'ils sont couramment utilisés et que de nombreux outils et documents sont disponibles pour gérer efficacement les services utilisant le protocole HTTP/gRPC. - -Choisissez la source qui correspond à votre protocole. Chaque source du worker de pipelines d'observabilité implémente des protocoles distincts. Par exemple, les sources et récepteurs du worker de pipelines d'observabilité se servent du protocole gRPC pour les communications du worker de pipelines d'inter-observabilité, tandis que la source HTTPS vous permet de recevoir des données via HTTPS. Consultez la section [Sources][2] pour découvrir leurs protocoles respectifs. - -## Collecte de données - -Votre pipeline démarre par la collecte de données. Vos services et systèmes génèrent des données[*](#prise-en-charge) qui peuvent être recueillies et envoyées en aval vers vos destinations. Les données sont recueillies au moyen d'agents, et il est primordial de comprendre lequel utiliser pour bien recueillir les données qui vous intéressent. - -### Choix des agents - -Vous devez choisir l'agent qui aidera votre équipe d'ingénieurs à surveiller leurs systèmes de façon optimale. Aussi, intégrez le worker des pipelines d'observabilité à l'agent le plus adéquat selon la tâche à accomplir, et déployez le worker des pipelines d'observabilité sur des nœuds distincts en tant qu'agrégateur. - -Par exemple, la solution [Network Performance Monitoring][4] de Datadog intègre à l'Agent Datadog des systèmes propres au fournisseur et produit des données uniques pour ce dernier. L'Agent Datadog doit donc recueillir et envoyer directement les données à Datadog, puisque ce type de données n'est pas pris en charge dans le worker des pipelines d'observabilité. - -Autre exemple : l'Agent Datadog recueille des métriques de service et les enrichit avec des tags Datadog propres au fournisseur. Dans ce cas précis, l'Agent Datadog doit envoyer les métriques directement à Datadog ou les acheminer via le worker des pipelines d'observabilité. Ce dernier ne doit pas remplacer l'Agent Datadog, car les données produites sont enrichies avec des éléments propres au fournisseur. - -Lorsque vous intégrez des éléments à un agent, configurez le worker des pipelines d'observabilité afin qu'il reçoive les données directement à partir de l'agent par le biais du réseau local, en acheminant les données via le worker des pipelines d'observabilité. Utilisez des composants source comme `datadog_agent` ou `open_telemetry` pour recevoir les données de vos agents. - -##### Limiter les risques liés à un agent - -Lorsque vous intégrez des éléments à un agent, configurez-le de façon à ce qu'il fasse office de simple forwarder de données et acheminez les types de données pris en charge par le biais du worker des pipelines d'observabilité. En procédant de la sorte, vous réduisez les risques de perte de données et d'interruption de service en limitant les responsabilités de l'agent. - -## Traitement des données - -Pour concevoir un pipeline efficace entre les sources et les récepteurs de votre worker de pipelines d'observabilité, vous devez notamment apprendre à identifier les types de données à traiter et l'endroit où les traiter. - -### Choix des données à traiter - -Vous pouvez utiliser le worker des pipelines d'observabilité pour traiter vos données[*](#prise-en-charge). Toutefois, les données en temps réel propres au fournisseur, telles que les données de profiling en continu, ne sont pas interopérables et leur traitement ne vous est généralement d'aucune utilité. - -#### Traitement à distance - -Pour le traitement à distance, le worker des pipelines d'observabilité peut être déployé sur des nœuds distincts en tant qu'agrégateur. - -{{< img src="observability_pipelines/production_deployment_overview/aggregator_role.png" alt="Un diagramme présentant un agrégateur du worker de pipelines d'observabilité comportant plusieurs workers qui reçoivent des données du répartiteur d'équilibre du réseau et qui en envoient à différents récepteurs" style="width:100%;" >}} - -Le traitement des données ne passe plus par vos nœuds, mais par ceux de l'agrégateur distant. Le traitement à distance est recommandé pour les environnements à haute disponibilité et hautement robustes (autrement dit, la plupart des environnements). En outre, la configuration se veut simplifiée, puisque la restructuration de l'infrastructure indispensable en cas d'ajout d'un agent n'est pas requise avec le traitement à distance. - -Consultez la section [Architecture de l'agrégateur][5] pour en savoir plus. - -## Mise en mémoire tampon des données - -L'efficacité de votre pipeline dépend également de l'endroit où vous mettez vos données en mémoire tampon et de la méthode utilisée. - -### Choisir l'endroit où mettre les données en mémoire tampon - -Les données doivent être mises en mémoire tampon juste avant d'atteindre vos destinations, et chaque destination doit posséder son propre buffer isolé afin de profiter des avantages suivants : - -1. Chaque destination peut configurer son buffer afin qu'il respecte les conditions du récepteur. Consultez la section [Choisir comment mettre les données en mémoire tampon](#choisir-comment-mettre-les-donnees-en-memoire-tampon) -2. Isoler les buffers pour chaque destination permet d'éviter qu'une destination défectueuse interrompe l'ensemble du pipeline jusqu'à ce que le buffer atteigne la capacité configurée. - -Ce sont les raisons pour lesquelles le worker des pipelines d'observabilité associe les buffers à ses récepteurs. - -{{< img src="observability_pipelines/production_deployment_overview/where_to_buffer.png" alt="Un diagramme présentant l'agent dans un nœud envoyant des données à un worker des pipelines d'observabilité avec un buffer dans un nœud distinct" style="width:50%;" >}} - -### Choisir la manière de mettre les données en mémoire tampon - -Les buffers intégrés au worker des pipelines d'observabilité facilitent les opérations en éliminant la nécessité d'avoir recours à des buffers externes complexes. - -Au moment de choisir un type de buffer intégré au worker des pipelines d'observabilité, sélectionnez celui qui est le plus adapté en fonction de la nature de la destination. Par exemple, votre système d'enregistrement doit utiliser des buffers de disque afin de garantir une grande durabilité. Votre système d'analyse doit, quant à lui, utiliser des buffers de mémoire pour garantir une faible latence. Par ailleurs, tout excès de données dans un type de buffer peut être transféré vers l'autre type de buffer, ce qui évite de propager la pression à vos clients. - -{{< img src="observability_pipelines/production_deployment_overview/how_to_buffer.png" alt="Un diagramme présentant les sources d'un worker de pipelines d'observabilité envoyant des données aux buffers de disque et de mémoire situés à proximité des récepteurs" style="width:100%;" >}} - -## Acheminement des données - -L'acheminement des données, qui permet à vos agrégateurs d'envoyer les données à la destination adéquate, constitue la dernière étape de la conception de votre pipeline. Utilisez les agrégateurs pour acheminer de manière flexible les données vers le meilleur système, selon les besoins de vos équipes. - -### Séparer les systèmes d'enregistrement et d'analyse - -Séparez votre système d'enregistrement de votre système d'analyse afin d'optimiser les coûts sans effectuer de compromis susceptibles de nuire à leur fonctionnement. Par exemple, votre système d'enregistrement est capable de regrouper de grandes quantités de données au fil du temps et de les compresser afin de limiter les coûts tout en garantissant une grande durabilité pour l'ensemble des données. Votre système d'analyse, quant à lui, peut échantillonner et nettoyer des données pour réduire les coûts tout en maintenant une faible latence pour les analyses en temps réel. - -{{< img src="observability_pipelines/production_deployment_overview/separating_concerns.png" alt="Un diagramme présentant les sources d'un worker de pipelines d'observabilité envoyant des données au buffer de disque, qui transmet ensuite ces données pour qu'elles soient archivées ou les envoie à un disque de stockage en bloc pour qu'elles soient échantillonnées" style="width:100%;" >}} - -### Acheminer les données vers vos systèmes d'enregistrement (archivage) - -Suivez ces étapes pour renforcer la durabilité de votre système d'enregistrement tout en limitant les coûts : - -- Écrivez uniquement sur votre archive à partir du rôle d'agrégateur pour limiter les pertes de données dues au redémarrage du nœud et aux échecs de logiciels. -- Placez un buffer de disque avant le récepteur. -- Activez les confirmations de bout en bout sur toutes les sources. -- Définissez `batch.max_bytes` sur ≥ 5 MiB, `batch.timeout_secs` sur ≥ 5 minutes, puis activez la compression (paramètres par défaut pour l'archivage de récepteurs, comme le récepteur `aws_s3`). -- Archivez des données brutes non traitées afin de pouvoir les relire et de limiter les risques de corruption accidentelle des données pendant leur traitement. - -### Acheminer les données vers votre système d'analyse - -Suivez ces étapes pour optimiser les analyses de votre système d'analyse tout en limitant les coûts : - -- Placez un buffer de mémoire avant le récepteur. -- Définissez `batch.timeout_sec` sur ≤ 5 secondes (paramètre par défaut pour les récepteurs analytiques, tels que `datadog_logs`). -- Utilisez le transform `remap` pour supprimer les attributs non utilisés dans le cadre de l'analyse. -- Filtrez les événements non utilisés dans le cadre de l'analyse. -- Envisagez d'échantillonner les logs en définissant le paramètre `level` sur `info` ou un niveau inférieur pour réduire leur volume. - -[1]: https://wiki.archlinux.org/title/Domain_name_resolution -[2]: /fr/observability_pipelines/reference/sources/ -[4]: /fr/network_monitoring/performance/ -[5]: /fr/observability_pipelines/architecture/ - ---- - - * Les pipelines d'observabilité prennent en charge les logs. La prise en charge des métriques est en version bêta. \ No newline at end of file diff --git a/content/fr/observability_pipelines/reference/processing_language/errors.md b/content/fr/observability_pipelines/reference/processing_language/errors.md deleted file mode 100644 index 6ecc9eb3abba5..0000000000000 --- a/content/fr/observability_pipelines/reference/processing_language/errors.md +++ /dev/null @@ -1,12 +0,0 @@ ---- -title: Erreurs ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -Datadog Processing Language (DPL), ou Vector Remap Language (VRL), est un langage « fail-safe », ce qui signifie qu'un programme DPL/VRL se compile uniquement si toutes les erreurs potentielles ont été gérées. Vos programmes DPL/VRL peuvent ainsi régler les problèmes de mise en forme de données. - -## Erreurs au moment de la compilation -{{< vrl-errors >}} \ No newline at end of file diff --git a/content/fr/observability_pipelines/reference/processing_language/functions.md b/content/fr/observability_pipelines/reference/processing_language/functions.md deleted file mode 100644 index b0c6a6ff543a6..0000000000000 --- a/content/fr/observability_pipelines/reference/processing_language/functions.md +++ /dev/null @@ -1,30 +0,0 @@ ---- -title: Fonctions ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -Datadog Processing Language (DPL), ou Vector Remap Language (VRL), intègre des fonctions de transformation de vos données. - -{{< whatsnext desc="Les fonctions sont classées en plusieurs catégories :" >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#tableau" >}}Tableau{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#codec" >}}Codec{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#conversion" >}}Conversion{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#cryptographie" >}}Cryptographie{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#debugging" >}}Debugging{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#enrichissement" >}}Enrichissement{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#ip" >}}IP{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#nombre" >}}Nombre{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#objet" >}}Objet{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#parsing" >}}Parsing{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#chemin" >}}Chemin{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#aleatoire" >}}Aléatoire{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#chaîne" >}}Chaîne{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#systeme" >}}Système{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#timestamp" >}}Timestamp{{< /nextlink >}} - {{< nextlink href="observability_pipelines/reference/processing_language/functions/#type" >}}Type{{< /nextlink >}} -{{< /whatsnext >}} - -{{< vrl-functions >}} \ No newline at end of file diff --git a/content/fr/observability_pipelines/setup/datadog.md b/content/fr/observability_pipelines/setup/datadog.md deleted file mode 100644 index 448fd29ecb296..0000000000000 --- a/content/fr/observability_pipelines/setup/datadog.md +++ /dev/null @@ -1,589 +0,0 @@ ---- -aliases: -- /fr/agent/vector_aggregation/ -- /fr/integrations/observability_pipelines/integrate_vector_with_datadog/ -- /fr/observability_pipelines/integrate_vector_with_datadog/ -- /fr/observability_pipelines/integrations/integrate_vector_with_datadog/ -- /fr/observability_pipelines/production_deployment_overview/integrate_datadog_and_the_observability_pipelines_worker/ -further_reading: -- link: /observability_pipelines/production_deployment_overview/ - tag: Documentation - text: Conception et principes de déploiement en production du worker de pipelines - d'observabilité -- link: https://dtdg.co/d22op - tag: Centre d'apprentissage - text: Traitement en local sécurisé à l'aide de pipelines d'observabilité -kind: Documentation -title: Configurer des pipelines d'observabilité dans Datadog ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -## Présentation - -Le [worker de pipelines d'observabilité][1] peut collecter et traiter les logs et les métriques de n'importe quelle source et les acheminer vers n'importe quelle destination. Datadog vous permet de concevoir et de gérer tous vos déploiements de worker de pipelines d'observabilité de façon évolutive. - -Ce guide explique comment déployer le worker dans votre cluster d'outils communs et configurer l'Agent Datadog pour qu'il envoie les logs et les métriques au worker. - -{{< img src="observability_pipelines/setup/opw-dd-pipeline.png" alt="Diagramme de deux clusters de charge de travail envoyant leurs données via l'agrégateur de pipelines d'observabilité." >}} - -## Hypothèses -* Vous utilisez déjà Datadog et voulez utiliser des pipelines d'observabilité. -* Vous bénéficiez d'un accès administrateur aux clusters dans lesquels le worker de pipelines d'observabilité va être déployé, ainsi qu'aux charges de travail qui vont être agrégées. -* Vous disposez dans votre environnement d'un cluster d'outils communs ou de sécurité auquel tous les autres clusters sont connectés. - -## Prérequis -Avant de procéder à l'installation, assurez-vous que vous disposez des éléments suivants : - -* Une [clé d'API Datadog][2] valide. -* Un ID de pipeline. - -Vous pouvez générer ces deux éléments dans [Observability Pipelines][3]. - -### Exigences propres au fournisseur -{{< tabs >}} -{{% tab "Docker" %}} -Assurez-vous que votre machine est configurée pour exécuter Docker. -{{% /tab %}} -{{% tab "AWS EKS" %}} -Pour exécuter le worker sur vos nœuds Kubernetes, vous devez disposer au minimum de deux nœuds avec un processeur et 512 Mo de mémoire RAM disponibles. Datadog vous conseille de créer un pool de nœuds distinct pour les workers, ce qui correspond également à la configuration conseillée pour les déploiements en production. - -* Le [pilote EBS CSI][1] est requis. Pour savoir s'il est installé, exécutez la commande suivante et recherchez `ebs-csi-controller` dans la liste : - - ```shell - kubectl get pods -n kube-system - ``` - -* Une `StorageClass` est requise pour que les workers provisionnent les disques EBS adéquats. Pour savoir si elle est déjà installée, exécutez la commande suivante et recherchez `io2` dans la liste : - - ```shell - kubectl get storageclass - ``` - - Si `io2` ne figure pas dans la liste, téléchargez [le fichier YAML StorageClass][2] et exécutez la commande `kubectl apply` pour l'appliquer. - -* Le contrôleur [AWS Load Balancer Controller][3] est requis. Pour savoir s'il est installé, exécutez la commande suivante et recherchez `aws-load-balancer-controller` dans la liste : - - ```shell - helm list -A - ``` -* Datadog vous conseille d'utiliser la version 1.16 ou supérieure d'Amazon EKS. - -Consultez la section [Meilleures pratiques pour l'architecture de l'agrégateur OPW][4] pour connaître les exigences au niveau production. - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html -[2]: /resources/yaml/observability_pipelines/helm/storageclass.yaml -[3]: https://docs.aws.amazon.com/eks/latest/userguide/aws-load-balancer-controller.html -[4]: /fr/observability_pipelines/architecture/ - -{{% /tab %}} -{{% tab "Azure AKS" %}} -Pour exécuter le worker sur vos nœuds Kubernetes, vous devez disposer au minimum de deux nœuds avec un processeur et 512 Mo de mémoire RAM disponibles. Datadog vous conseille de créer un pool de nœuds distinct pour les workers, ce qui correspond également à la configuration conseillée pour les déploiements en production. - -Consultez la section [Meilleures pratiques pour l'architecture de l'agrégateur OPW][1] pour connaître les exigences au niveau production. - -[1]: /fr/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "Google GKE" %}} -Pour exécuter le worker sur vos nœuds Kubernetes, vous devez disposer au minimum de deux nœuds avec un processeur et 512 Mo de mémoire RAM disponibles. Datadog vous conseille de créer un pool de nœuds distinct pour les workers, ce qui correspond également à la configuration conseillée pour les déploiements en production. - -Consultez la section [Meilleures pratiques pour l'architecture de l'agrégateur OPW][1] pour connaître les exigences au niveau production. - -[1]: /fr/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "Linux avec APT" %}} -Il n'y a aucune exigence propre au fournisseur pour les distributions Linux utilisant APT. -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -Il n'y a aucune exigence propre au fournisseur pour les distributions Linux utilisant RPM. -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Pour exécuter le worker dans votre compte AWS, vous devez bénéficier d'un accès administrateur à ce dernier. Recueillez les informations suivantes pour exécuter les instances du worker : -* L'ID du VPC dans lequel s'exécuteront vos instances. -* Les ID des sous-réseaux dans lesquels s'exécuteront vos instances. -* La région AWS dans laquelle se trouve votre VPC. -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
Les installations CloudFormation ne prennent en charge que la configuration à distance.
-
Les installations CloudFormation ne doivent pas être utilisées pour les charges de travail de production.
- -Pour exécuter le worker dans votre compte AWS, vous devez bénéficier d'un accès administrateur à ce dernier. Recueillez les informations suivantes pour exécuter les instances du worker : -* L'ID du VPC dans lequel s'exécuteront vos instances. -* Les ID des sous-réseaux dans lesquels s'exécuteront vos instances. -* La région AWS dans laquelle se trouve votre VPC. -{{% /tab %}} -{{< /tabs >}} - -## Installer le worker de pipelines d'observabilité - -{{< tabs >}} -{{% tab "Docker" %}} - -L'image Docker du worker de pipelines d'observabilité est disponible sur Docker Hub [ici][1]. - -1. Téléchargez le [fichier d'exemple de configuration de pipeline][2]. - -2. Exécutez la commande suivante pour démarrer le worker de pipelines d'observabilité avec Docker : - ``` - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -p 8282:8282 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - Remplacez `` par votre clé d'API Datadog, `` par votre ID de configuration de pipeline d'observabilité, et `` par {{< region-param key="dd_site" code="true" >}}. `./pipeline.yaml` doit correspondre au chemin relatif ou absolu du fichier de configuration que vous avez téléchargé à l'étape 1. - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. Téléchargez le [chart Helm][1] pour AWS EKS. - -2. Dans le chart Helm, remplacez les valeurs `datadog.apiKey` et `datadog.pipelineId` par celles correspondant à votre pipeline, et utilisez {{< region-param key="dd_site" code="true" >}} pour la valeur `site`. Installez-le ensuite dans votre cluster avec les commandes suivantes : - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/aws_eks.yaml -{{% /tab %}} -{{% tab "Azure AKS" %}} -1. Téléchargez le [chart Helm][1] pour Azure AKS. - -2. Dans le chart Helm, remplacez les valeurs `datadog.apiKey` et `datadog.pipelineId` par celles correspondant à votre pipeline, et utilisez {{< region-param key="dd_site" code="true" >}} pour la valeur `site`. Installez-le ensuite dans votre cluster avec les commandes suivantes : - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f azure_aks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/azure_aks.yaml -{{% /tab %}} -{{% tab "Google GKE" %}} -1. Téléchargez le [chart Helm][1] pour Google GKE. - -2. Dans le chart Helm, remplacez les valeurs `datadog.apiKey` et `datadog.pipelineId` par celles correspondant à votre pipeline, et utilisez {{< region-param key="dd_site" code="true" >}} pour la valeur `site`. Installez-le ensuite dans votre cluster avec les commandes suivantes : - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f google_gke.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/google_gke.yaml -{{% /tab %}} -{{% tab "Linux avec APT" %}} -1. Exécutez les commandes suivantes pour configurer APT de sorte que les téléchargements se fassent via le protocole HTTPS : - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. Exécutez les commandes suivantes pour configurer le référentiel `deb` de Datadog sur votre système et créer un keyring d'archive Datadog : - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. Exécutez les commandes suivantes pour mettre à jour votre référentiel `apt` local et installer le worker : - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. Ajoutez vos clés et le site ({{< region-param key="dd_site" code="true" >}}) aux variables d'environnement du worker : - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -5. Téléchargez le [fichier d'exemple de configuration][1] vers `/etc/observability-pipelines-worker/pipeline.yaml` sur le host. - -6. Démarrez le worker : - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -1. Exécutez les commandes suivantes pour configurer le référentiel `rpm` de Datadog sur votre système : - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public - EOF - ``` - - **Remarque :** si vous exécutez RHEL 8.1 ou CentOS 8.1, utilisez `repo_gpgcheck=0` au lieu de `repo_gpgcheck=1` dans la configuration ci-dessus. - -2. Mettez à jour vos packages et installez le worker : - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. Ajoutez vos clés et le site ({{< region-param key="dd_site" code="true" >}}) aux variables d'environnement du worker : - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -4. Téléchargez le [fichier d'exemple de configuration][1] vers `/etc/observability-pipelines-worker/pipeline.yaml` sur le host. - -5. Démarrez le worker : - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Configurez le module du worker dans votre environnement Terraform existant en utilisant cet exemple de configuration. Remplacez les valeurs de `vpc-id`, `subnet-ids` et `region` par celles correspondant à votre déploiement AWS. Remplacez les valeurs de `datadog-api-key` et `pipeline-id` par celles correspondant à votre pipeline. - -``` -module "opw" { - source = "git::https://github.com/DataDog/opw-terraform//aws" - vpc-id = "{ID VPC}" - subnet-ids = ["{ID SOUS-RÉSEAU 1}", "{ID SOUS-RÉSEAU 2}"] - region = "{RÉGION}" - - datadog-api-key = "{CLÉ API DATADOG}" - pipeline-id = "{ID PIPELINE OBSERVABILITÉ}" - pipeline-config = <Les installations CloudFormation ne doivent pas être utilisées pour les charges de travail de production.
- -Pour installer le worker dans votre compte AWS, utilisez le modèle CloudFormation pour créer une stack : - - 1. Téléchargez [le modèle CloudFormation][1] pour le worker. - - 2. Dans la **console CloudFormation**, cliquez sur **Create stack** et sélectionnez l'option **With new resources (standard)**. - - 3. Assurez-vous que l'option **Template is ready** est sélectionnée, puis sélectionnez **Upload a template file**. Cliquez sur **Choose file** et ajoutez le fichier du modèle CloudFormation téléchargé précédemment. Cliquez sur **Next**. - - 4. Saisissez un nom pour la stack dans **Specify stack details**. - - 5. Renseignez les paramètres du modèle CloudFormation. Certains d'entre eux nécessitent une attention particulière : - - * Pour `APIKey` et `PipelineID`, indiquez la clé et l'ID recueillis précédemment dans la rubrique Prérequis. - - * Pour `VPCID` et `SubnetIDs`, indiquez les sous-réseaux et le VPC choisis précédemment. - - * Tous les autres paramètres sont définis sur des valeurs par défaut adaptées à un déploiement de worker, mais vous pouvez les modifier selon vos besoins. - - 6. Cliquez sur **Next**. - - 7. Vérifiez les paramètres et assurez-vous qu'ils sont corrects. Cochez les cases des autorisations nécessaires pour IAM, puis cliquez sur **Submit** pour créer la stack. - -À ce stade, CloudFormation gère l'installation ; les instances du worker se lancent, téléchargent les logiciels nécessaires et s'exécutent automatiquement. - -[1]: /resources/yaml/observability_pipelines/cloudformation/datadog.yaml -{{% /tab %}} -{{< /tabs >}} - -### Équilibrage de charge - -{{< tabs >}} -{{% tab "Docker" %}} -La configuration en vue de la mise en production n'est pas abordée dans les instructions Docker. Reportez-vous plutôt aux normes de votre entreprise en matière d'équilibrage de charge dans les environnements conteneurisés. Si vous effectuez des tests sur votre machine locale, il n'est pas nécessaire de configurer un équilibreur de charge. -{{% /tab %}} -{{% tab "AWS EKS" %}} -Utilisez les équilibreurs de charge mis à votre disposition par votre fournisseur de cloud. Ils s'ajustent en fonction des événements de mise à l'échelle automatique pour lesquels l'installation Helm par défaut est configurée. Les équilibreurs de charge sont internes et ne sont donc accessibles qu'à l'intérieur de votre réseau. - -Utilisez l'URL d'équilibreur de charge fournie par Helm lors de la configuration de l'Agent Datadog. - -Des équilibreurs de charge réseau provisionnés par le contrôleur [AWS Load Balancer Controller][1] sont utilisés. - -Consultez la rubrique [Planification et dimensionnement des capacités][2] pour obtenir des recommandations quant à l'équilibreur de charge lors du dimensionnement du worker. -#### Équilibrage de charge entre zones de disponibilité -La configuration Helm fournie tente de simplifier l'équilibrage de charge, mais vous devez prendre en compte les éventuelles implications financières du trafic entre zones de disponibilité. Dans la mesure du possible, les exemples tentent d'éviter d'engendrer des situations dans lesquelles plusieurs sauts entre zones de disponibilité peuvent se produire. - -Les exemples de configuration n'activent pas la fonctionnalité d'équilibrage de charge entre zones de disponibilité offerte par ce contrôleur. Pour l'activer, ajoutez l'annotation suivante au bloc `service` : - -``` -service.beta.kubernetes.io/aws-load-balancer-attributes: load_balancing.cross_zone.enabled=true -``` - -Consultez la documentation du contrôleur [AWS Load Balancer Controller][3] pour en savoir plus. - -[1]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/ -[2]: /fr/observability_pipelines/architecture/capacity_planning_scaling/ -[3]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/service/annotations/#load-balancer-attributes -{{% /tab %}} -{{% tab "Azure AKS" %}} -Utilisez les équilibreurs de charge mis à votre disposition par votre fournisseur de cloud. Ils s'ajustent en fonction des événements de mise à l'échelle automatique pour lesquels l'installation Helm par défaut est configurée. Les équilibreurs de charge sont internes et ne sont donc accessibles qu'à l'intérieur de votre réseau. - -Utilisez l'URL d'équilibreur de charge fournie par Helm lors de la configuration de l'Agent Datadog. - -Consultez la rubrique [Planification et dimensionnement des capacités][1] pour obtenir des recommandations quant à l'équilibreur de charge lors du dimensionnement du worker. - -#### Équilibrage de charge entre zones de disponibilité -La configuration Helm fournie tente de simplifier l'équilibrage de charge, mais vous devez prendre en compte les éventuelles implications financières du trafic entre zones de disponibilité. Dans la mesure du possible, les exemples tentent d'éviter d'engendrer des situations dans lesquelles plusieurs sauts entre zones de disponibilité peuvent se produire. - -[1]: /fr/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "Google GKE" %}} -Utilisez les équilibreurs de charge mis à votre disposition par votre fournisseur de cloud. Ils s'ajustent en fonction des événements de mise à l'échelle automatique pour lesquels l'installation Helm par défaut est configurée. Les équilibreurs de charge sont internes et ne sont donc accessibles qu'à l'intérieur de votre réseau. - -Utilisez l'URL d'équilibreur de charge fournie par Helm lors de la configuration de l'Agent Datadog. - -Consultez la rubrique [Planification et dimensionnement des capacités][1] pour obtenir des recommandations quant à l'équilibreur de charge lors du dimensionnement du worker. - -#### Équilibrage de charge entre zones de disponibilité -La configuration Helm fournie tente de simplifier l'équilibrage de charge, mais vous devez prendre en compte les éventuelles implications financières du trafic entre zones de disponibilité. Dans la mesure du possible, les exemples tentent d'éviter d'engendrer des situations dans lesquelles plusieurs sauts entre zones de disponibilité peuvent se produire. - -L'accès global est activé par défaut dans la mesure où cela est probablement nécessaire pour une utilisation dans un cluster d'outils partagés. - -[1]: /fr/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "Linux avec APT" %}} -L'équilibrage de charge n'est pas pris en charge par défaut en raison de la nature de l'installation (une seule machine). Il vous faudra provisionner vos propres équilibreurs de charge en suivant les normes de votre entreprise. -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -L'équilibrage de charge n'est pas pris en charge par défaut en raison de la nature de l'installation (une seule machine). Il vous faudra provisionner vos propres équilibreurs de charge en suivant les normes de votre entreprise. -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Un équilibreur de charge réseau est provisionné par le module Terraform ; il est configuré pour pointer vers les instances. Son adresse DNS est renvoyée dans la sortie `lb-dns` dans Terraform. -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
Les installations CloudFormation ne doivent pas être utilisées pour les charges de travail de production.
- -Un équilibreur de charge réseau est provisionné par le modèle CloudFormation ; il est configuré pour pointer vers le groupe de mise à l'échelle automatique. Son adresse DNS est renvoyée dans la sortie `LoadBalancerDNS` de CloudFormation. -{{% /tab %}} -{{< /tabs >}} - -### Mise en mémoire tampon -Les pipelines d'observabilité proposent plusieurs stratégies de mise en mémoire tampon qui vous permettent d'augmenter la résilience de votre cluster aux erreurs en aval. Les exemples de configuration fournis utilisent des buffers disque, dont les capacités sont prévues pour environ 10 minutes de données à 10 Mbit/s/cœur pour les déploiements de pipelines d'observabilité. Cela laisse généralement suffisamment de temps pour que les problèmes transitoires se résolvent d'eux-mêmes, ou pour que les intervenants décident de ce qu'ils souhaitent faire des données d'observabilité. - -{{< tabs >}} -{{% tab "Docker" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Assurez-vous qu'une capacité de stockage suffisante est allouée au point de montage du conteneur sur la machine du host. -{{% /tab %}} -{{% tab "AWS EKS" %}} -Pour AWS, Datadog conseille d'utiliser des disques EBS `io2`. Il est également possible d'utiliser des disques `gp3`. -{{% /tab %}} -{{% tab "Azure AKS" %}} -Pour Azure AKS, Datadog conseille d'utiliser les disques `default` (également appelés `managed-csi`). -{{% /tab %}} -{{% tab "Google GKE" %}} -Pour Google GKE, Datadog conseille d'utiliser la classe de disque `premium-rwo`, car elle repose sur des SSD. La classe `standard-rwo`, qui repose sur des disques durs mécaniques, risque de ne pas offrir une vitesse d'écriture suffisamment élevée pour garantir l'efficacité des buffers. -{{% /tab %}} -{{% tab "Linux avec APT" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Si vous utilisez l'exemple de configuration, assurez-vous qu'un espace d'au moins 288 Go est disponible pour la mise en mémoire tampon. - -Lorsque cela est possible, il est conseillé de monter un SSD dédié à cet emplacement. -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Si vous utilisez l'exemple de configuration, assurez-vous qu'un espace d'au moins 288 Go est disponible pour la mise en mémoire tampon. - -Lorsque cela est possible, il est conseillé de monter un SSD dédié à cet emplacement. -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Par défaut, un disque EBS de 288 Go est alloué à chaque instance, et l'exemple de configuration ci-dessus utilise cet espace pour la mise en mémoire tampon. -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
Le cycle de vie des disques EBS créés par ce modèle CloudFormation est lié à l'instance avec laquelle ils sont créés. Par conséquent, si une instance est fermée, par exemple par le groupe de mise à l'échelle automatique, cela entraîne une perte de données. C'est pourquoi les installations CloudFormation ne doivent pas être utilisées pour les charges de travail de production.
- -Par défaut, un disque EBS de 288 Go est alloué à chaque instance ; il est monté automatiquement et formaté à l'initialisation de celle-ci. -{{% /tab %}} -{{< /tabs >}} - -## Connecter l'Agent Datadog au worker de pipelines d'observabilité -Pour envoyer les logs et les métriques de l'Agent Datadog au worker de pipelines d'observabilité, mettez à jour la configuration de l'Agent comme suit : - -```yaml -observability_pipelines_worker: - logs: - enabled: true - url: "http://:8282" - metrics: - enabled: true - url: "http://:8282" - -``` - -`OPW_HOST` correspond à l'adresse IP de l'équilibreur de charge ou de la machine configurée précédemment. Pour les installations Docker à un seul host, il s'agit de l'adresse IP du host sous-jacent. Pour les installations Kubernetes, vous pouvez la récupérer en exécutant la commande suivante et en copiant la valeur de `EXTERNAL-IP` : - -```shell -kubectl get svc opw-observability-pipelines-worker -``` - -Pour les installations Terraform, la sortie `lb-dns` fournit la valeur requise. Pour les installations CloudFormation, l'URL à utiliser est fournie dans la sortie `LoadBalancerDNS`. - -À ce stade, vos données d'observabilité devraient être transmises au worker et prêtes à être traitées. La rubrique suivante présente les étapes de traitement incluses par défaut ainsi que les options supplémentaires qui s'offrent à vous. - -## Utilisation des données -L'exemple de configuration fourni intègre des exemples d'étape de configuration qui exploitent les outils des pipelines d'observabilité et garantit que les données sont envoyées à Datadog dans le format approprié. - -### Traitement des logs -L'exemple de configuration des pipelines d'observabilité prévoit les opérations suivantes : -- Collecte des logs envoyés au worker de pipelines d'observabilité par l'Agent Datadog. -- Application de tags aux logs traités par le worker de pipelines d'observabilité. Cela permet de déterminer quel trafic doit encore être transmis au worker à mesure que vous mettez à jour vos clusters. Ces tags vous montrent également comment les logs sont acheminés via l'équilibreur de charge, en cas de déséquilibres. -- Correction du statut des logs traités par le worker. En raison de la façon dont l'Agent Datadog collecte les logs à partir des conteneurs, l'attribut `.status` fourni ne reflète pas correctement le véritable niveau du message. Il convient donc de le supprimer pour éviter tout problème au niveau des règles de parsing dans le backend, où sont reçus les logs envoyés par le worker. -- Acheminement des logs par transmission multiple des données aux endpoints d'ingestion des métriques et des logs de Datadog. - -Les étapes suivantes constituent deux composants importants de l'exemple de configuration : -- `logs_parse_ddtags` : parse les tags stockés dans une chaîne pour générer un ensemble de données structuré. -- `logs_finish_ddtags` : réencode les tags de sorte qu'ils soient dans le format qu'utiliserait l'Agent Datadog pour leur envoi. - -En interne, l'Agent Datadog représente les tags des logs au format CSV dans une seule et même chaîne. Pour pouvoir manipuler efficacement ces tags, il convient de les parser, de les modifier puis de les réencoder avant leur envoi à l'endpoint d'ingestion. Ces étapes sont conçues pour effectuer automatiquement ces actions pour vous. Toute modification du pipeline, en particulier au niveau de la manipulation des tags, doit être apportée entre ces deux étapes. - -### Traitement des métriques -Le pipeline des métriques fourni ne nécessite pas d'étapes de parsing et de réencodage supplémentaires. À l'instar du pipeline des logs, il applique des tags aux métriques entrantes pour la prise en compte du trafic. Cette cardinalité supplémentaire peut avoir un impact financier pour les métriques personnalisées. - -À ce stade, votre environnement est configuré pour les pipelines d'observabilité et les données leur sont transmises. Il est probable que vous deviez adapter la configuration à vos besoins spécifiques, mais les outils fournis ici vous offrent un bon point de départ. - -## Pour aller plus loin -{{< partial name="whats-next/whats-next.html" >}} - - -[1]: /fr/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /fr/account_management/api-app-keys/#api-keys -[3]: https://app.datadoghq.com/observability-pipelines/create \ No newline at end of file diff --git a/content/fr/observability_pipelines/setup/datadog_with_archiving.md b/content/fr/observability_pipelines/setup/datadog_with_archiving.md deleted file mode 100644 index f76798a435cd1..0000000000000 --- a/content/fr/observability_pipelines/setup/datadog_with_archiving.md +++ /dev/null @@ -1,554 +0,0 @@ ---- -further_reading: -- link: /observability_pipelines/production_deployment_overview/ - tag: Documentation - text: Conception et principes de déploiement en production du worker de pipelines - d'observabilité -- link: https://dtdg.co/d22op - tag: Centre d'apprentissage - text: Traitement en local sécurisé à l'aide de pipelines d'observabilité -kind: Documentation -title: Configurer des pipelines d'observabilité pour envoyer des logs dans un format - réintégrable à Datadog vers Amazon S3 et Datadog ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -## Présentation - -Le [worker de pipelines d'observabilité][1] peut collecter et traiter les logs et les métriques de n'importe quelle source et les acheminer vers n'importe quelle destination. Datadog vous permet de concevoir et de gérer tous vos déploiements de worker de pipelines d'observabilité de façon évolutive. - -Ce guide explique comment déployer le worker dans votre cluster d'outils communs et le configurer pour qu'il envoie les logs dans un format réintégrable à Datadog vers un service de stockage dans le cloud à des fins d'archivage. - -## Hypothèses -* Vous utilisez déjà Datadog et voulez utiliser des pipelines d'observabilité. -* Vous bénéficiez d'un accès administrateur aux clusters dans lesquels le worker de pipelines d'observabilité va être déployé, ainsi qu'aux charges de travail qui vont être agrégées. -* Vous disposez dans votre environnement d'un cluster d'outils communs ou de sécurité auquel tous les autres clusters sont connectés. - -## Prérequis -Avant de procéder à l'installation, assurez-vous que vous disposez des éléments suivants : - -* Une [clé d'API Datadog][2] valide. -* Un ID de pipeline. - -Vous pouvez générer ces deux éléments dans [Observability Pipelines][3]. - -### Exigences propres au fournisseur -{{< tabs >}} -{{% tab "Docker" %}} -Assurez-vous que votre machine est configurée pour exécuter Docker. - -{{% /tab %}} -{{% tab "AWS EKS" %}} - -Pour exécuter le worker sur vos nœuds Kubernetes, vous devez disposer au minimum de deux nœuds avec un processeur et 512 Mo de mémoire RAM disponibles. Datadog vous conseille de créer un pool de nœuds distinct pour les workers, ce qui correspond également à la configuration conseillée pour les déploiements en production. - -* Le [pilote EBS CSI][1] est requis. Pour savoir s'il est installé, exécutez la commande suivante et recherchez `ebs-csi-controller` dans la liste : - - ```shell - kubectl get pods -n kube-system - ``` - -* Une `StorageClass` est requise pour que les workers provisionnent les disques EBS adéquats. Pour savoir si elle est déjà installée, exécutez la commande suivante et recherchez `io2` dans la liste : - - ```shell - kubectl get storageclass - ``` - - Si `io2` ne figure pas dans la liste, téléchargez [le fichier YAML StorageClass][2] et exécutez la commande `kubectl apply` pour l'appliquer. - -* Le contrôleur [AWS Load Balancer Controller][3] est requis. Pour savoir s'il est installé, exécutez la commande suivante et recherchez `aws-load-balancer-controller` dans la liste : - - ```shell - helm list -A - ``` -* Datadog vous conseille d'utiliser la version 1.16 ou supérieure d'Amazon EKS. - -Consultez la section [Meilleures pratiques pour l'architecture de l'agrégateur OPW][4] pour connaître les exigences au niveau production. - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html -[2]: /resources/yaml/observability_pipelines/helm/storageclass.yaml -[3]: https://docs.aws.amazon.com/eks/latest/userguide/aws-load-balancer-controller.html -[6]: /fr/observability_pipelines/architecture/ - -{{% /tab %}} -{{% tab "Linux avec APT" %}} - -Il n'y a aucune exigence propre au fournisseur pour les distributions Linux utilisant APT. - -{{% /tab %}} -{{% tab "Linux avec RPM" %}} - -Il n'y a aucune exigence propre au fournisseur pour les distributions Linux utilisant APT. - -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} - -Pour exécuter le worker dans votre compte AWS, vous devez bénéficier d'un accès administrateur à ce dernier et disposer des informations suivantes : - -* L'ID du VPC dans lequel s'exécuteront vos instances. -* Les ID des sous-réseaux dans lesquels s'exécuteront vos instances. -* La région AWS dans laquelle se trouve votre VPC. - -{{% /tab %}} -{{< /tabs >}} - -## Configurer les archives de logs - -Lors de l'[installation du worker de pipelines d'observabilité](#installer-le-worker-de-pipelines-d-observabilite), l'exemple de configuration fourni inclut un récepteur pour l'envoi des logs vers Amazon S3 dans un format réintégrable à Datadog. Pour utiliser cette configuration, vous devez créer un compartiment S3 pour vos archives et configurer une stratégie IAM permettant aux workers d'écrire dans ce dernier. Il vous faudra ensuite connecter le compartiment S3 aux archives de logs Datadog. - -{{% site-region region="us,us3,us5" %}} -Consultez la [tarification AWS][1] pour connaître les frais de transfert de données entre régions et déterminer l'impact éventuel sur vos frais de stockage dans le cloud. - -[1]: https://aws.amazon.com/s3/pricing/ -{{< /site-region >}} - -### Créer un compartiment S3 et configurer une stratégie IAM - -{{< tabs >}} -{{% tab "Docker" %}} - -{{% op-datadog-archives-s3-setup %}} - -3. Créez un utilisateur IAM et associez-lui la stratégie ci-dessus. Créez des identifiants d'accès pour cet utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY` et `AWS_SECRET_ACCESS_KEY`. - -{{% /tab %}} -{{% tab "AWS EKS" %}} - -{{% op-datadog-archives-s3-setup %}} - -3. [Créez un compte de service][1] pour utiliser la stratégie créée ci-dessus. - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/associate-service-account-role.html - -{{% /tab %}} -{{% tab "Linux avec APT" %}} - -{{% op-datadog-archives-s3-setup %}} - -3. Créez un utilisateur IAM et associez-lui la stratégie ci-dessus. Créez des identifiants d'accès pour cet utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY` et `AWS_SECRET_ACCESS_KEY`. - -{{% /tab %}} -{{% tab "Linux avec RPM" %}} - -{{% op-datadog-archives-s3-setup %}} - -3. Créez un utilisateur IAM et associez-lui la stratégie ci-dessus. Créez des identifiants d'accès pour cet utilisateur IAM. Enregistrez-les sous `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY`. - -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} - -{{% op-datadog-archives-s3-setup %}} - -3. Associez la stratégie au profil d'instance IAM créé avec Terraform, qui est indiqué dans la sortie `iam-role-name`. - -{{% /tab %}} -{{< /tabs >}} - -### Connecter le compartiment S3 aux archives de logs Datadog - -Vous devez connecter le compartiment S3 créé précédemment aux archives de logs Datadog afin de pouvoir réintégrer ultérieurement les archives. - -1. Accédez à la page [Log Forwarding][5] de Datadog. -1. Cliquez sur **+ New Archive**. -1. Saisissez un nom décrivant l'archive. -1. Ajoutez une requête excluant tous les logs traités par les pipelines de logs afin qu'ils ne soient pas intégrés à cette archive. Par exemple, ajoutez la requête `observability_pipelines_read_only_archive`, en supposant que ce tag n'ait pas été ajouté aux logs traités par le pipeline. -1. Sélectionnez **AWS S3**. -1. Sélectionnez le compte AWS dans lequel se trouve votre compartiment. -1. Saisissez le nom du compartiment S3. -1. Si besoin, saisissez un chemin. -1. Vérifiez la déclaration de confirmation. -1. Si besoin, ajoutez des tags et définissez la taille d'analyse maximale pour la réintégration. Consultez la rubrique [Paramètres avancés][6] pour en savoir plus. -1. Cliquez sur **Save**. - -Consultez la [documentation relative aux archives de logs][7] pour en savoir plus. - -## Installer le worker de pipelines d'observabilité - -{{< tabs >}} -{{% tab "Docker" %}} - -L'image Docker du worker de pipelines d'observabilité est disponible sur Docker Hub [ici][1]. - -1. Téléchargez le [fichier d'exemple de configuration de pipeline][2]. - -2. Exécutez la commande suivante pour démarrer le worker de pipelines d'observabilité avec Docker : - - ```shell - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -e AWS_ACCESS_KEY_ID= \ - -e AWS_SECRET_ACCESS_KEY= \ - -e DD_ARCHIVES_BUCKET= \ - -e DD_ARCHIVES_SERVICE_ACCOUNT= \ - -p 8282:8282 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - - Remplacez les paramètres fictifs suivants par les valeurs appropriées : - - `` par votre clé d'API Datadog. - - `` par votre ID de configuration de pipeline d'observabilité. - - `` par {{< region-param key="dd_site" code="true" >}}. - - `AWS_ACCESS_KEY_ID` et `AWS_SECRET_ACCESS_KEY` par les identifiants AWS créés précédemment. - - `` par le nom du compartiment S3 utilisé pour le stockage des logs. - - `` par la [région AWS][3] du service cible. - - `./pipeline.yaml` doit correspondre au chemin relatif ou absolu du fichier de configuration que vous avez téléchargé à l'étape 1. - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/archives/pipeline.yaml -[3]: https://docs.aws.amazon.com/general/latest/gr/rande.html#regional-endpoints -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. Téléchargez le [chart Helm][1] pour AWS EKS. - -2. Dans le chart Helm, remplacez les paramètres fictifs suivants par les valeurs appropriées : - - `datadog.apiKey` par votre clé d'API Datadog. - - `datadog.pipelineId` par votre ID de configuration de pipeline d'observabilité. - - `site` par {{< region-param key="dd_site" code="true" >}}. - - `${DD_ARCHIVES_SERVICE_ACCOUNT}` dans `serviceAccount.name` par le nom du compte de service. - - `${DD_ARCHIVES_BUCKET}` dans `pipelineConfig.sinks.datadog_archives` par le nom du compartiment S3 utilisé pour le stockage des logs. - - `${DD_ARCHIVES_SERVICE_ACCOUNT}` dans `pipelineConfig.sinks.datadog_archives` par la [région AWS][2] du service cible. - -3. Installez le chart dans votre cluster en exécutant les commandes suivantes : - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/archives/aws_eks.yaml -[2]: https://docs.aws.amazon.com/general/latest/gr/rande.html#regional-endpoints -{{% /tab %}} - -{{% tab "Linux avec APT" %}} -1. Exécutez les commandes suivantes pour configurer APT de sorte que les téléchargements se fassent via le protocole HTTPS : - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. Exécutez les commandes suivantes pour configurer le référentiel `deb` de Datadog sur votre système et créer un keyring d'archive Datadog : - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. Exécutez les commandes suivantes pour mettre à jour votre référentiel `apt` local et installer le worker : - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. Ajoutez vos clés et le site ({{< region-param key="dd_site" code="true" >}}) aux variables d'environnement du worker. Remplacez `` par le nom du compartiment S3 utilisé pour le stockage des logs et `` par la [région AWS][2] du service cible. - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - AWS_ACCESS_KEY_ID= - AWS_SECRET_ACCESS_KEY= - DD_ARCHIVES_BUCKET= - DD_ARCHIVES_SERVICE_ACCOUNT= - EOF - ``` - -5. Téléchargez le [fichier d'exemple de configuration][1] vers `/etc/observability-pipelines-worker/pipeline.yaml` sur le host. - -6. Démarrez le worker : - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/archives/pipeline.yaml -[2]: https://docs.aws.amazon.com/general/latest/gr/rande.html#regional-endpoints -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -1. Exécutez les commandes suivantes pour configurer le référentiel `rpm` de Datadog sur votre système : - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public - EOF - ``` - - **Remarque :** si vous exécutez RHEL 8.1 ou CentOS 8.1, utilisez `repo_gpgcheck=0` au lieu de `repo_gpgcheck=1` dans la configuration ci-dessus. - -2. Mettez à jour vos packages et installez le worker : - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. Ajoutez vos clés et le site ({{< region-param key="dd_site" code="true" >}}) aux variables d'environnement du worker. Remplacez `` par le nom du compartiment S3 utilisé pour le stockage des logs et `` par la [région AWS][2] du service cible. - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - AWS_ACCESS_KEY_ID= - AWS_SECRET_ACCESS_KEY= - DD_ARCHIVES_BUCKET= - DD_ARCHIVES_SERVICE_ACCOUNT= - EOF - ``` - -4. Téléchargez le [fichier d'exemple de configuration][1] vers `/etc/observability-pipelines-worker/pipeline.yaml` sur le host. - -5. Démarrez le worker : - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/archives/pipeline.yaml -[2]: https://docs.aws.amazon.com/general/latest/gr/rande.html#regional-endpoints -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Configurez le module du worker dans votre environnement Terraform existant en utilisant cet exemple de configuration. Remplacez les valeurs de `vpc-id`, `subnet-ids` et `region` par celles correspondant à votre déploiement AWS. Remplacez les valeurs de `datadog-api-key` et `pipeline-id` par celles correspondant à votre pipeline. - -``` -module "opw" { - source = "git::https://github.com/DataDog/opw-terraform//aws" - vpc-id = "{ID VPC}" - subnet-ids = ["{ID SOUS-RÉSEAU 1}", "{ID SOUS-RÉSEAU 2}"] - region = "{RÉGION}" - - datadog-api-key = "{CLÉ API DATADOG}" - pipeline-id = "{ID PIPELINE OBSERVABILITÉ}" - pipeline-config = <}} - -### Équilibrage de charge - -{{< tabs >}} -{{% tab "Docker" %}} -La configuration en vue de la mise en production n'est pas abordée dans les instructions Docker. Reportez-vous plutôt aux normes de votre entreprise en matière d'équilibrage de charge dans les environnements conteneurisés. Si vous effectuez des tests sur votre machine locale, il n'est pas nécessaire de configurer un équilibreur de charge. -{{% /tab %}} -{{% tab "AWS EKS" %}} -Utilisez les équilibreurs de charge mis à votre disposition par votre fournisseur de cloud. Ils s'ajustent en fonction des événements de mise à l'échelle automatique pour lesquels l'installation Helm par défaut est configurée. Les équilibreurs de charge sont internes et ne sont donc accessibles qu'à l'intérieur de votre réseau. - -Utilisez l'URL d'équilibreur de charge fournie par Helm lors de la configuration de l'Agent Datadog. - -Des équilibreurs de charge réseau provisionnés par le contrôleur [AWS Load Balancer Controller][1] sont utilisés. - -Consultez la rubrique [Planification et dimensionnement des capacités][2] pour obtenir des recommandations quant à l'équilibreur de charge lors du dimensionnement du worker. -#### Équilibrage de charge entre zones de disponibilité -La configuration Helm fournie tente de simplifier l'équilibrage de charge, mais vous devez prendre en compte les éventuelles implications financières du trafic entre zones de disponibilité. Dans la mesure du possible, les exemples tentent d'éviter d'engendrer des situations dans lesquelles plusieurs sauts entre zones de disponibilité peuvent se produire. - -Les exemples de configuration n'activent pas la fonctionnalité d'équilibrage de charge entre zones de disponibilité offerte par ce contrôleur. Pour l'activer, ajoutez l'annotation suivante au bloc `service` : - -``` -service.beta.kubernetes.io/aws-load-balancer-attributes: load_balancing.cross_zone.enabled=true -``` - -Consultez la documentation du contrôleur [AWS Load Balancer Controller][3] pour en savoir plus. - -[1]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/ -[2]: /fr/observability_pipelines/architecture/capacity_planning_scaling/ -[3]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/service/annotations/#load-balancer-attributes -{{% /tab %}} - -{{% tab "Linux avec APT" %}} -En raison de la nature de l'installation (une seule machine), l'équilibrage de charge n'est pas pris en charge par défaut. Vous devez provisionner vos propres équilibreurs de charge en suivant les normes de votre entreprise. -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -En raison de la nature de l'installation (une seule machine), l'équilibrage de charge n'est pas pris en charge par défaut. Vous devez provisionner vos propres équilibreurs de charge en suivant les normes de votre entreprise. -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Le module Terraform provisionne un équilibreur de charge réseau configuré pour pointer vers les instances. Son adresse DNS est renvoyée dans la sortie `lb-dns` dans Terraform. -{{% /tab %}} -{{< /tabs >}} - -### Mise en mémoire tampon -Les pipelines d'observabilité proposent plusieurs stratégies de mise en mémoire tampon qui vous permettent d'augmenter la résilience de votre cluster aux erreurs en aval. Les exemples de configuration fournis utilisent des buffers disque, dont les capacités sont prévues pour environ 10 minutes de données à 10 Mbit/s/cœur pour les déploiements de pipelines d'observabilité. Cela laisse généralement suffisamment de temps pour que les problèmes transitoires se résolvent d'eux-mêmes, ou pour que les intervenants décident de ce qu'ils souhaitent faire des données d'observabilité. - -{{< tabs >}} -{{% tab "Docker" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Assurez-vous qu'une capacité de stockage suffisante est allouée au point de montage du conteneur sur la machine du host. -{{% /tab %}} -{{% tab "AWS EKS" %}} -Pour AWS, Datadog conseille d'utiliser des disques EBS `io2`. Il est également possible d'utiliser des disques `gp3`. -{{% /tab %}} -{{% tab "Linux avec APT" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Si vous utilisez l'exemple de configuration, assurez-vous qu'un espace d'au moins 288 Go est disponible pour la mise en mémoire tampon. - -Lorsque cela est possible, il est conseillé de monter un SSD dédié à cet emplacement. -{{% /tab %}} -{{% tab "Linux avec RPM" %}} -Par défaut, le répertoire de données du worker de pipelines d'observabilité est défini sur `/var/lib/observability-pipelines-worker`. Si vous utilisez l'exemple de configuration, assurez-vous qu'un espace d'au moins 288 Go est disponible pour la mise en mémoire tampon. - -Lorsque cela est possible, il est conseillé de monter un SSD dédié à cet emplacement. -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -Par défaut, un disque EBS de 288 Go est alloué à chaque instance, et l'exemple de configuration ci-dessus utilise cet espace pour la mise en mémoire tampon. -{{% /tab %}} -{{< /tabs >}} - -## Connecter l'Agent Datadog au worker de pipelines d'observabilité -Pour envoyer les logs et les métriques de l'Agent Datadog au worker de pipelines d'observabilité, mettez à jour la configuration de l'Agent comme suit : - -```yaml -observability_pipelines_worker: - logs: - enabled: true - url: "http://:8282" - metrics: - enabled: true - url: "http://:8282" - -``` - -`OPW_HOST` correspond à l'adresse IP de l'équilibreur de charge ou de la machine configurée précédemment. Pour les installations Docker à un seul host, il s'agit de l'adresse IP du host sous-jacent. Pour les installations Kubernetes, vous pouvez la récupérer en exécutant la commande suivante et en copiant la valeur de `EXTERNAL-IP` : - -```shell -kubectl get svc opw-observability-pipelines-worker -``` - -Pour les installations Terraform, la sortie `lb-dns` fournit la valeur requise. - -À ce stade, vos données d'observabilité devraient être transmises au worker puis envoyées à votre archive S3. - -## Réintégrer vos archives - -Consultez la rubrique [Réintégration à partir des archives][4] pour savoir comment réintégrer votre archive dans Datadog afin de pouvoir commencer à analyser et étudier ces logs. - -## Pour aller plus loin -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /fr/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /fr/account_management/api-app-keys/#api-keys -[3]: https://app.datadoghq.com/observability-pipelines/create -[4]: /fr/logs/log_configuration/rehydrating/ -[5]: https://app.datadoghq.com/logs/pipelines/log-forwarding -[6]: /fr/logs/log_configuration/archives/#advanced-settings -[7]: /fr/logs/log_configuration/archives \ No newline at end of file diff --git a/content/fr/observability_pipelines/troubleshooting.md b/content/fr/observability_pipelines/troubleshooting.md deleted file mode 100644 index 6b8a1cd5a111a..0000000000000 --- a/content/fr/observability_pipelines/troubleshooting.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -disable_toc: false -further_reading: -- link: /observability_pipelines/monitoring/ - tag: Documentation - text: Surveiller l'intégrité de vos pipelines -kind: documentation -title: Dépannage ---- - -{{< site-region region="gov" >}} -
Les pipelines d'observabilité ne sont pas disponibles sur le site US1-FED de Datadog.
-{{< /site-region >}} - -## Présentation -Si les pipelines d'observabilité Datadog se comportent de manière inattendue, consultez ce guide pour passer en revue les problèmes courants et suivre les solutions proposées. Si vous ne parvenez pas à résoudre votre problème, contactez l'[assistance Datadog][3] pour obtenir de l'aide. - -## Analyser les logs de diagnostic - -Le worker de pipelines d'observabilité génère des logs internes concernant sa propre santé. Dans l'interface des pipelines d'observabilité, vous pouvez analyser n'importe quel log d'erreur interne généré par le processus du worker pour chacun de ses composants. Pour afficher ces logs de diagnostic, procédez comme suit : - -1. Accédez à la page [Observability Pipelines][1]. -1. Cliquez sur le pipeline que vous souhaitez analyser. -1. Cliquez sur un composant pour afficher le volet latéral correspondant. -1. Cliquez sur l'onglet **Diagnostic Logs** pour afficher les logs d'erreur générés par le worker. Cliquez sur une entrée de log pour l'analyser dans le Log Explorer. Si aucun log n'est affiché, le composant n'a généré aucun log d'erreur. - -### Obtenir des logs plus détaillés - -Si vous avez besoin d'informations plus détaillées que celles figurant dans les logs internes générés par le worker des pipelines d'observabilité, vous pouvez augmenter le niveau des logs à l'aide de la variable d'environnement `VECTOR_LOG`. Par défaut, celle-ci est définie sur `INFO`, ce qui signifie que les messages `INFO`, `WARNING` et `ERROR` sont affichés dans la console. - -La valeur `DEBUG` vous permet d'obtenir des informations plus détaillées sur les processus internes du worker (notamment les requêtes HTTP envoyées et les réponses reçues). L'assistance Datadog peut vous demander de fournir des logs `DEBUG` afin de faciliter la résolution de vos problèmes. Ces logs figurent également dans le Log Explorer et les [logs de diagnostic](#analyser-les-logs-de-diagnostic). - -## Étudier les événements passant par votre pipeline pour identifier les problèmes de configuration - -Si vous utilisez la version 1.4.0+ du worker des pipelines d'observabilité, vous pouvez explorer, via la commande `tap`, les données qui passent par vos sources, transformations et récepteurs, afin de visualiser les données brutes qui transitent via chaque composant de votre pipeline. - -### Activer l'API du worker des pipelines d'observabilité - - L'API du worker des pipelines d'observabilité vous permet d'interagir avec les processus du worker à l'aide de la commande `tap`. Si vous utilisez les charts Helm fournis dans les [guides de configuration][2], l'API est déjà activée. Sinon, vérifiez que la variable d'environnement `DD_OP_API_ENABLED` est définie sur `true`. Cela configure l'API de façon à effectuer une écoute sur `localhost` et le port `8686`, soit le comportement attendu par la CLI pour la commande `tap`. - -### Utiliser la commande `tap` pour visualiser vos données - -Si vous êtes sur le même host que le worker, exécutez la commande `tap` suivante pour obtenir la sortie : - -``` -observability-pipelines-worker tap -``` - -Pour un environnement conteneurisé, utilisez la commande `docker exec` ou `kubectl exec`. Cela vous permet d'obtenir un shell dans le conteneur, afin d'exécuter la commande `tap` ci-dessus. - -### Exemple d'utilisation de la commande `tap` - -Ajoutez l'exemple de configuration suivant, qui permet à la transformation `cleanup` de copier le contenu de `message` dans l'attribut `log` : - -``` -sources: - demo: - type: demo_logs - format: json - -transforms: - cleanup: - type: remap - inputs: - - demo - source: |- - .log = .message - -sinks: - blackhole: - type: blackhole - inputs: - - cleanup - print_interval_secs: 0 -``` - -Utilisez la commande suivante pour exécuter l'exemple de configuration et afficher la sortie de la transformation `cleanup` : - -``` -observability-pipelines-worker tap cleanup -``` - -La sortie attendue doit être similaire ce qui suit ; l'attribut `log` copie l'attribut `message` : - -``` -[tap] Pattern 'cleanup' successfully matched. -{"log":"{\"host\":\"121.142.241.212\",\"user-identifier\":\"meln1ks\",\"datetime\":\"25/Aug/2023:00:07:53\",\"method\":\"OPTION\",\"request\":\"/observability/metrics/production\",\"protocol\":\"HTTP/1.0\",\"status\":\"550\",\"bytes\":3185,\"referer\":\"https://make.us/wp-admin\"}","message":"{\"host\":\"121.142.241.212\",\"user-identifier\":\"meln1ks\",\"datetime\":\"25/Aug/2023:00:07:53\",\"method\":\"OPTION\",\"request\":\"/observability/metrics/production\",\"protocol\":\"HTTP/1.0\",\"status\":\"550\",\"bytes\":3185,\"referer\":\"https://make.us/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:53.429855261Z"} -{"log":"{\"host\":\"117.214.24.224\",\"user-identifier\":\"Karimmove\",\"datetime\":\"25/Aug/2023:00:07:54\",\"method\":\"HEAD\",\"request\":\"/do-not-access/needs-work\",\"protocol\":\"HTTP/2.0\",\"status\":\"503\",\"bytes\":41730,\"referer\":\"https://some.org/wp-admin\"}","message":"{\"host\":\"117.214.24.224\",\"user-identifier\":\"Karimmove\",\"datetime\":\"25/Aug/2023:00:07:54\",\"method\":\"HEAD\",\"request\":\"/do-not-access/needs-work\",\"protocol\":\"HTTP/2.0\",\"status\":\"503\",\"bytes\":41730,\"referer\":\"https://some.org/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:54.430584949Z"} -{"log":"{\"host\":\"108.145.218.149\",\"user-identifier\":\"shaneIxD\",\"datetime\":\"25/Aug/2023:00:07:55\",\"method\":\"DELETE\",\"request\":\"/this/endpoint/prints/money\",\"protocol\":\"HTTP/2.0\",\"status\":\"403\",\"bytes\":18340,\"referer\":\"https://up.de/wp-admin\"}","message":"{\"host\":\"108.145.218.149\",\"user-identifier\":\"shaneIxD\",\"datetime\":\"25/Aug/2023:00:07:55\",\"method\":\"DELETE\",\"request\":\"/this/endpoint/prints/money\",\"protocol\":\"HTTP/2.0\",\"status\":\"403\",\"bytes\":18340,\"referer\":\"https://up.de/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:55.430085107Z"} -``` - -## Pour aller plus loin - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/observability-pipelines/ -[2]: /fr/observability_pipelines/setup/ -[3]: /fr/help \ No newline at end of file diff --git a/content/fr/serverless/guide/_index.md b/content/fr/serverless/guide/_index.md index 2787a6939abc0..8ed015b68a41d 100644 --- a/content/fr/serverless/guide/_index.md +++ b/content/fr/serverless/guide/_index.md @@ -17,7 +17,7 @@ title: Guides d'utilisation de la surveillance sans serveur {{< nextlink href="/serverless/guide/serverless_warnings" >}}Avertissements de la surveillance sans serveur{{< /nextlink >}} {{< nextlink href="/serverless/guide/serverless_tagging" >}}Tagging de fonctions sans serveur{{< /nextlink >}} {{< nextlink href="/serverless/guide/agent_configuration" >}}Configuration de l'Agent sans serveur{{< /nextlink >}} -{{< /whatsnext >}} + {{< nextlink href="/serverless/guide/opentelemetry" >}}Surveillance sans serveur et OpenTelemetry{{< /nextlink >}}{{< /whatsnext >}} ## Effectuer l'installation avec le Forwarder Datadog @@ -37,4 +37,5 @@ title: Guides d'utilisation de la surveillance sans serveur {{< nextlink href="/serverless/guide/serverless_tracing_and_webpack" >}}Tracing Lambda Node.js et compatibilité de Webpack{{< /nextlink >}} {{< nextlink href="/serverless/guide/serverless_package_too_large" >}}Correction des erreurs de package sans serveur trop volumineux{{< /nextlink >}} {{< nextlink href="/serverless/guide/handler_wrapper" >}}Incorporer la fonction Lambda du gestionnaire dans le code{{< /nextlink >}} + {{< nextlink href="/serverless/guide/layer_not_authorized" >}}Dépannage des erreurs relatives aux couches non autorisées{{< /nextlink >}} {{< /whatsnext >}} \ No newline at end of file diff --git a/content/fr/watchdog/_index.md b/content/fr/watchdog/_index.md index 385edfa9f50f8..6542b0b6824c9 100644 --- a/content/fr/watchdog/_index.md +++ b/content/fr/watchdog/_index.md @@ -13,12 +13,12 @@ further_reading: tag: Notes de version text: Découvrez les dernières versions de la solution Watchdog Datadog (connexion à l'application requise). +- link: https://www.datadoghq.com/blog/datadog-bits-generative-ai/ + tag: Blog + text: Présentation de Bits AI, votre nouvel outil d'assistance DevOps - link: /logs/ tag: Documentation text: Recueillir vos logs -- link: /infrastructure/process/ - tag: Documentation - text: Recueillir vos processus - link: /tracing/ tag: Documentation text: Recueillir vos traces @@ -28,71 +28,61 @@ further_reading: - link: https://www.datadoghq.com/blog/watchdog-impact-analysis/ tag: Blog text: Mesurer l'impact utilisateur avec l'analyse de l'impact Watchdog +- link: https://www.datadoghq.com/blog/watchdog-live-processes/ + tag: Blog + text: Correction des anomalies liées aux performances des workloads avec Watchdog Insights + pour les live processes kind: Documentation title: Datadog WatchdogTM --- - -{{< img src="watchdog/watchdog.png" alt="La page d'alertes de Watchdog, avec une alerte d'anomalie en cours dans des logs d'erreur, une alerte d'anomalie résolue dans des logs d'erreur et une alerte de taux d'erreur résolue via une analyse des causes d'origine" >}} - ## Présentation -Watchdog est une fonction à base d'algorithmes qui analyse les métriques d'infrastructure et de performance APM ainsi que les logs afin de détecter les problèmes potentiels au niveau de vos applications et de votre infrastructure. Elle repose sur les mêmes algorithmes saisonniers que ceux utilisés par les dashboards et la fonctionnalité de détection d'anomalies. Watchdog identifie les tendances et les patterns parmi les métriques suivantes : - -* Métriques APM : - * Hits (taux de requête) - * Taux d'erreur - * Latence - -* Logs - * Nouveaux logs d'erreur - * Augmentations du nombre de logs d'erreur existants +Le moteur IA de Datadog, Watchdog, vous fournit des alertes automatiques, des informations exploitables, ainsi que des analyses des causes à l'origine de vos problèmes. Ces précieuses informations sont obtenues à partir des données d'observabilité provenant de l'ensemble de la plateforme Datadog. Watchdog surveille constamment votre infrastructure et attire votre attention sur les signaux les plus importants. Vous pouvez ainsi détecter, étudier et résoudre plus facilement vos problèmes. -* Métriques d'infrastructure issues des intégrations : - * [Système][1], pour l'utilisation de la mémoire (fuites de mémoire) et le taux de retransmissions TCP au niveau du host. - * [Redis][2] - * [PostgreSQL][3] - * [NGINX][4] - * [Amazon Web Services][5], pour les services Amazon [S3][6], [ELB/ALB/NLB][7], [CloudFront][8] et [DynamoDB][9]. - * [Alertes][10] +Toutes les fonctionnalités Watchdog sont automatiquement intégrées et ne nécessitent pas la moindre configuration. -Watchdog recherche des irrégularités dans les métriques, comme une élévation soudaine du taux de hits. Pour chaque irrégularité, une alerte est affichée sur la [page Watchdog][11]. Chaque alerte comprend un graphique illustrant l'irrégularité détectée et offre des informations supplémentaires sur l'intervalle et les endpoints pertinents. Watchdog surveille automatiquement les données envoyées par l'Agent Datadog ou par les intégrations. +{{< vimeo url="https://player.vimeo.com/progressive_redirect/playback/781921620/rendition/1080p/file.mp4?loc=external&signature=8889419b739e3398d03a72edca4f96909144567e045d30deeb8f9345c43a682d" poster="/images/poster/watchdog.png" >}} -En cas de nouvelle source de métriques, de logs ou d'autres données, Watchdog a besoin de deux semaines de données pour analyser le comportement normal attendu. Les anomalies détectées par Watchdog alors qu'il existe moins de deux semaines de données sont susceptibles d'être inexactes. +
-## Watchdog dans la liste des services +### Alertes proactives -Lorsque Watchdog détecte une irrégularité dans une métrique APM, l'icône Watchdog rose en forme de jumelles s'affiche à proximité du service affecté dans la [liste des services APM][12]. Le nombre affiché à côté des jumelles indique le nombre de problèmes détectés par Watchdog dans ce service. +Watchdog détermine de façon proactive le comportement attendu de vos systèmes, applications et déploiements. Ce cadre de référence permet ainsi de détecter tout comportement anormal. -{{< img src="watchdog/service_list.png" alt="Capture d'écran de la liste des services APM avec 5 services affichés. Une icône rose en forme de jumelles est visible à côté du nom du service web-store." style="width:75%;" >}} +{{< whatsnext desc="">}} + {{< nextlink href="/watchdog/alerts">}}Alertes Watchdog Alerts : découvrez comment visualiser et interpréter des alertes Datadog et familiarisez-vous avec les informations fournies par les alertes, la portée de chaque alerte ainsi que leurs emplacements dans la plateforme Datadog.{{< /nextlink >}} + {{< nextlink href="/watchdog/faulty_deployment_detection">}}Détection des déploiements défectueux : découvrez comment Watchdog identifie les déploiements de code défectueux.{{< /nextlink >}} +{{< /whatsnext >}} -Accédez à la [page Services][13] pour consulter des informations détaillées sur une anomalie de métrique. Une case Watchdog Insights est visible en haut de la page. Watchdog Insights vous aide à découvrir les valeurs de tag associées à un comportement inattendu, comme un taux d'erreurs ou une latence élevée. +Pour personnaliser les algorithmes Watchdog, consultez les rubriques suivantes : + * [Algorithme pour les anomalies][7] + * [Algorithme pour les prévisions][8] + * [Algorithmes pour les singularités][9] -L'icône Watchdog apparaît également sur les graphiques de métriques. +### Informations facilitant les enquêtes -{{< img src="watchdog/latency_graph.png" alt="Un graphique illustrant la latence d'un service, en secondes, sur l'axe des ordonnées et l'heure de la journée sur l'axe des abscisses. Le graphique est représenté sur un fond rose et le texte May 2: 13:31 Ongoing apparaît en haut." style="width:75%;" >}} +Pour que vous puissiez enquêter plus efficacement sur vos problèmes, Watchdog affiche des informations utiles basées sur le contexte dans toutes les vues Explorer, recherche les causes fondamentales et détermine l'impact utilisateur. -Cliquez sur l'icône en forme de jumelles pour visualiser une [alerte Watchdog][14] dans une carte plus détaillée. +{{< whatsnext desc="">}} + {{< nextlink href="/watchdog/insights">}}Watchdog Insights : Watchdog Insights est un moteur de recommandations vous aidant à identifier et à résoudre vos problèmes.{{< /nextlink >}} + {{< nextlink href="/watchdog/rca">}}Root Cause Analysis : découvrez comment la fonctionnalité Root Cause Analysis (RCA) Watchdog identifie la cause fondamentale d'une anomalie et apprenez à exploiter les informations fournies.{{< /nextlink >}} + {{< nextlink href="/watchdog/impact_analysis">}}Analyse de l'impact : découvrez comment Watchdog détermine qu'une anomalie a une incidence sur l'expérience des utilisateurs.{{< /nextlink >}} +{{< /whatsnext >}} ## Dépannage -Besoin d'aide ? Contactez [l'assistance Datadog][15]. +Besoin d'aide ? Contactez [l'assistance Datadog][1]. ## Pour aller plus loin {{< partial name="whats-next/whats-next.html" >}} -[1]: /fr/integrations/system/ -[2]: /fr/integrations/redisdb/ -[3]: /fr/integrations/postgres/ -[4]: /fr/integrations/nginx/ -[5]: /fr/integrations/amazon_web_services/ -[6]: /fr/integrations/amazon_s3/ -[7]: /fr/integrations/amazon_elb/ -[8]: /fr/integrations/amazon_cloudfront/ -[9]: /fr/integrations/amazon_dynamodb/ -[10]: /fr/monitors/ -[11]: https://app.datadoghq.com/watchdog -[12]: /fr/tracing/services/services_list/ -[13]: /fr/tracing/services/service_page/#overview -[14]: /fr/watchdog/alerts#alert-details -[15]: /fr/help/ \ No newline at end of file +[1]: /fr/help/ +[2]: /fr/watchdog/alerts +[3]: /fr/watchdog/faulty_deployment_detection/ +[4]: /fr/watchdog/insights?tab=logmanagement +[5]: /fr/watchdog/rca/ +[6]: /fr/watchdog/impact_analysis/ +[7]: /fr/monitors/types/anomaly/#anomaly-detection-algorithms +[8]: /fr/monitors/types/forecasts/?tab=linear#algorithms +[9]: /fr/monitors/types/outlier/?tab=dbscan#algorithms \ No newline at end of file diff --git a/content/ja/integrations/fiddler.md b/content/ja/integrations/fiddler.md index 9c6c6b8c74d13..ed896168fddc2 100644 --- a/content/ja/integrations/fiddler.md +++ b/content/ja/integrations/fiddler.md @@ -34,7 +34,7 @@ draft: false git_integration_title: fiddler integration_id: fiddler integration_title: Fiddler -integration_version: 2.0.0 +integration_version: 3.0.0 is_public: true kind: integration manifest_version: 2.0.0 @@ -101,7 +101,7 @@ Agent v7.21 / v6.21 以降の場合は、下記の手順に従い Fiddler チェ 1. 以下のコマンドを実行して、Agent インテグレーションをインストールします。 ```shell - datadog-agent integration install -t datadog-fiddler==2.0.0 + datadog-agent integration install -t datadog-fiddler==3.0.0 ``` 2. Agent ベースの[インテグレーション][3]と同様にインテグレーションを構成します。 diff --git a/content/ja/integrations/skykit_digital_signage.md b/content/ja/integrations/skykit_digital_signage.md index be8b6176f1d66..6dc9b885e704d 100644 --- a/content/ja/integrations/skykit_digital_signage.md +++ b/content/ja/integrations/skykit_digital_signage.md @@ -33,7 +33,7 @@ pricing: short_description: 10 画面までのライセンス。ボリュームディスカウントあり。 tag: 画面 unit_label: 画面 - unit_price: 40 + unit_price: 33 public_title: Skykit Digital Signage short_description: Skykit で Datadog のダッシュボードをテレビ画面に表示する supported_os: @@ -102,6 +102,7 @@ Skykit は、デジタルサイネージとワークプレイスエクスペリ [1]: https://www.skykit.com/products/dashboards/connections/datadog-trial/ [2]: mailto:sales@skykit.com [3]: https://www.datadoghq.com/blog/showcase-datadog-dashboards-securely-with-skykit/ -[4]: https://support.skykit.com/en/articles/324-getting-started-with-skykit-beam-and-datadog-dashboards +[4]: https://support.skykit.com/docs/getting-started-with-skykit-beam-and-datadog-dashboards + --- このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/_index.md b/content/ja/observability_pipelines/architecture/_index.md deleted file mode 100644 index a1090a9d54c41..0000000000000 --- a/content/ja/observability_pipelines/architecture/_index.md +++ /dev/null @@ -1,31 +0,0 @@ ---- -aliases: -- /ja/observability_pipelines/production_deployment_overview/aggregator_architecture -kind: Documentation -title: OPW アグリゲーターアーキテクチャのベストプラクティス ---- - -## 概要 - -観測可能性パイプラインワーカー (OPW) のアグリゲーターアーキテクチャは、データの集中処理とルーティングのためのスタンドアローンサービスとして観測可能性パイプラインワーカーをデプロイします。 - -{{< img src="observability_pipelines/production_deployment_overview/aggregator_role.png" alt="ネットワークロードバランサーが様々なソースからデータを受け取り、観測可能性パイプラインワーカーアグリゲーターにデータを送る様子を示した図。このアグリゲーターは、異なるアベイラビリティゾーンに複数のワーカーを持ち、様々なシンクにデータを送る" style="width:100%;" >}} - -観測可能性パイプラインワーカーを他のサービスのようにインフラストラクチャーにデプロイし、データをインターセプトして操作し、宛先に転送することができます。観測可能性パイプラインワーカーインスタンスはそれぞれ独立して動作するため、シンプルなロードバランサーでアーキテクチャを拡張することができます。 - -このガイドでは、新規の観測可能性パイプラインワーカーユーザーのために、推奨されるアグリゲーターアーキテクチャを説明します。具体的には、以下のトピックが含まれています。 - -- データの収集、処理、ルーティングを行うための[観測可能性パイプラインワーカーの構成](#configuring-the-observability-pipelines-worker)。 -- [インスタンスの最適化][3]により、観測可能性パイプラインワーカーのアグリゲーターを水平方向にスケールさせることができるようになります。 -- [キャパシティプランニングと観測可能性パイプラインワーカーをスケーリングする][4]ためのリソース容量を見積もるための出発点。 -- 観測可能性パイプラインワーカー用の[ネットワークトポロジと構成][5]の決定。 -- [高耐久性][6]と[高可用性](#high-availability)の実現。 -- 観測可能性パイプラインワーカーを[災害復旧][7]の一環として活用する。 -- 複数のアグリゲーター、パブリッシュサブスクライブシステム、およびグローバル集計をデプロイするための、その他の[高度な構成][8]。 - -[3]: /ja/observability_pipelines/architecture/optimize -[4]: /ja/observability_pipelines/architecture/capacity_planning_scaling -[5]: /ja/observability_pipelines/architecture/networking -[6]: /ja/observability_pipelines/architecture/preventing_data_loss -[7]: /ja/observability_pipelines/architecture/availability_disaster_recovery -[8]: /ja/observability_pipelines/architecture/advanced_configurations \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/advanced_configurations.md b/content/ja/observability_pipelines/architecture/advanced_configurations.md deleted file mode 100644 index a03dcd83affb0..0000000000000 --- a/content/ja/observability_pipelines/architecture/advanced_configurations.md +++ /dev/null @@ -1,62 +0,0 @@ ---- -kind: Documentation -title: 高度なコンフィギュレーション ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は US1-FED の Datadog サイトでは利用できません。
-{{< /site-region >}} - -
このガイドは、大規模な本番環境レベルのデプロイメントを対象としています。
- -### 複数のアグリゲーターのデプロイメント - -[ネットワーキング][1]で説明したように、Datadog では、1 つのリージョンにつき 1 つの Observability Pipelines Worker アグリゲーターで始めることを推奨しています。これは、Observability Pipelines Worker の最初のデプロイを複雑にしすぎないためですが、複数のデプロイで開始することが理想的な場合もあります。 - -1. **公衆インターネット上でのデータ送信を防止する。**複数のクラウドやリージョンがある場合、インターネット上に大量のデータを送信しないように、それぞれのクラウドやリージョンに Observability Pipelines Worker アグリゲーターをデプロイしてください。Observability Pipelines Worker アグリゲーターは、内部データを受け取り、そして、ネットワークの単一の出口点として機能する必要があります。 - -2. **独立した管理。**それぞれのユースケースに対して Observability Pipelines Worker アグリゲーターを独立して運用・管理できるチームがある場合です。例えば、データサイエンスチームは、独自のインフラストラクチャーを運用する責任があり、独自の Observability Pipelines Worker アグリゲーターを独立して運用する手段を持っている場合があります。 - -### 複数のクラウドアカウント - -多くのユーザーは、VPC とクラスターを内部に持つ複数のクラウドアカウントを持っています。Datadog はこのような場合でも、1 つのリージョンに 1 つの Observability Pipelines Worker アグリゲーターを導入することを推奨しています。Observability Pipelines Worker をユーティリティやツールのクラスターにデプロイし、すべてのクラウドアカウントがこのクラスターにデータを送信するように構成します。詳細については、[ネットワーキング][1]を参照してください。 - -### Pub-Sub システム - -Kafka のようなパブリッシュ・サブスクライブ (Pub-Sub) システムを使用することは、アーキテクチャを高可用性または高耐久性にするために必須ではありませんが ([高可用性と災害復旧][2]を参照)、次のような利点があります。 - -1. **信頼性の向上。**Pub-Sub システムは、高い信頼性と耐久性を持ち、頻繁に変更されることのないシステムとして設計されています。マネージドオプションを使用している場合は特に信頼性が高くなります。Observability Pipelines Worker は、その目的から頻繁に変更される可能性があります。Observability Pipelines Worker のダウンタイムを Pub-Sub システムの背後に分離することで、クライアントの認識から可用性を高め、復旧をよりシンプルにすることができます。 - - -2. **ロードバランサーが不要。**Pub-Sub システムは、ロードバランサーを必要としません。Pub-Sub システムがコンシューマーの調整を行うため、Observability Pipelines Worker を簡単に水平にスケールすることができます。 - -#### Pub-Sub パーティショニング - -パーティショニング (Kafka 用語では「トピック」) とは、Pub-Sub システム内のデータを分離することを指します。データを生成したサービスやホストなど、データの起点に沿ったパーティショニングを行う必要があります。 - -{{< img src="observability_pipelines/production_deployment_overview/partitioning.png" alt="ノード上の Agent が、Pub-Sub の 4 つのサービスにデータを送信し、そのデータを 4 つの Observability Pipelines Worker に送信する図" style="width:55%;" >}} - -#### Pub-Sub 構成 - -Pub-Sub システムを使用する場合、Datadog は、Observability Pipelines Worker の以下の構成変更を推奨しています。 - -- **すべてのシンクでエンドツーエンドの確認応答を有効にする。**この設定により、データの書き込みが成功するまで Pub-Sub チェックポイントを進めないようにします。 -- **メモリバッファを使用する。**Observability Pipelines Worker が Pub-Sub システムの背後にある場合、Observability Pipelines Worker のディスクバッファを使用する必要はありません。Pub-Sub システムは、高い耐久性を持つ長期的なバッファリングのために設計されています。Observability Pipelines Worker は、データの読み取り、処理、ルーティングのみを担当する必要があります (耐久性ではありません)。 - -### グローバル集計 - -このセクションでは、レガシーの宛先に対してグローバル計算を実行するための推奨事項を説明します。最新の宛先は、すでにグローバル計算をサポートしています。例えば、Datadog は、メトリクスデータのグローバルな観測を解決するディストリビューション (DDSketch など) をサポートしています。 - -グローバル集計とは、リージョン全体のデータを集計する機能です。例えば、CPU 負荷平均のグローバル分位を計算することができます。これを実現するには、1 つの Observability Pipelines Worker インスタンスが、すべてのノードの CPU 負荷平均統計にアクセスできる必要があります。これは水平スケーリングでは不可能です。個々の Observability Pipelines Worker インスタンスは、全体のデータのスライスにしかアクセスすることができません。したがって、集計は階層化する必要があります。 - -{{< img src="observability_pipelines/production_deployment_overview/global_aggregation.png" alt="ロードバランサーが、複数の Observability Pipelines Worker のある第 1 層のアグリゲーターにデータを送り、第 1 層から 1 つの Worker を持つ第 2 層のアグリゲーターにデータを送る様子を示した図" style="width:90%;" >}} - -上の図では、第 2 層のアグリゲーターは、第 1 層のアグリゲーターから全体データの集計されたサブストリームを受け取っています。これにより、単一のインスタンスが、ストリーム全体を処理することなく、また単一障害点を導入することなく、グローバルビューを取得することができます。 - -#### 推奨事項 - -- グローバルヒストグラムの計算など、データを削減できるタスクにグローバル集計を限定します。すべてのデータをグローバルアグリゲーターに送りません。 -- 単一障害点を発生させないために、ほとんどのデータの処理と配信には、引き続きローカルアグリゲーターを使用してください。 - -[1]: /ja/observability_pipelines/architecture/networking -[2]: /ja/observability_pipelines/architecture/availability_disaster_recovery \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/availability_disaster_recovery.md b/content/ja/observability_pipelines/architecture/availability_disaster_recovery.md deleted file mode 100644 index 7f32cbcf567ba..0000000000000 --- a/content/ja/observability_pipelines/architecture/availability_disaster_recovery.md +++ /dev/null @@ -1,53 +0,0 @@ ---- -kind: Documentation -title: 高可用性と災害復旧 ---- - -観測可能性パイプラインの文脈では、高可用性とは、システムに問題が発生しても観測可能性パイプラインワーカーが利用可能であることを指します。 - -{{< img src="observability_pipelines/production_deployment_overview/high_availability.png" alt="アベイラビリティゾーン 1 では、ロードバランサー 1 がオフラインで、両方の Agent がロードバランサー 2 にデータを送信し、さらにワーカー 1 とワーカー 2 にデータを送信している図。アベイラビリティゾーン 2 では、ワーカー 3 がダウンしているため、両方のロードバランサーがワーカー N にデータを送信している" style="width:65%;" >}} - -高可用性を実現するには - -1. 各アベイラビリティゾーンに少なくとも 2 つの観測可能性パイプラインワーカーインスタンスをデプロイします。 -2. 観測可能性パイプラインワーカーを少なくとも 2 つのアベイラビリティゾーンにデプロイします。 -3. 観測可能性パイプラインワーカーインスタンス間のトラフィックをバランスさせるロードバランサーで観測可能性パイプラインワーカーインスタンスを前面化します。詳細については、[キャパシティプランニングとスケーリング][1]を参照してください。 - -## 障害シナリオの軽減 - -### 観測可能性パイプラインワーカープロセスの問題への対応 - -システムプロセスの問題を軽減するには、観測可能性パイプラインワーカーを複数のノードに分散し、必要に応じて別の観測可能性パイプラインワーカーインスタンスにトラフィックをリダイレクトできるネットワークロードバランサーで前面化します。さらに、プラットフォームレベルの自動自己修復機能により、最終的にはプロセスを再起動するか、ノードを交換する必要があります。 - -{{< img src="observability_pipelines/production_deployment_overview/process_failure.png" alt="3 つのノードを示す図。各ノードには観測可能性パイプラインワーカーを配置" style="width:45%;" >}} - -### ノード障害の軽減 - -ノードの問題を軽減するには、観測可能性パイプラインワーカーを複数のノードに分散し、別の観測可能性パイプラインワーカーノードにトラフィックをリダイレクトできるネットワークロードバランサーで前面化します。さらに、プラットフォームレベルの自動自己修復機能により、最終的にはノードを交換する必要があります。 - -{{< img src="observability_pipelines/production_deployment_overview/node_failure.png" alt="ノード 1 のロードバランサーにデータが行くが、ノード 1 で観測可能性パイプラインワーカーがダウンしているため、ノード 2 やノード N のワーカーにデータが送られる図" style="width:40%;" >}} - -### アベイラビリティゾーン障害への対応 - -アベイラビリティゾーンの問題を軽減するために、複数のアベイラビリティゾーンに観測可能性パイプラインワーカーをデプロイします。 - -{{< img src="observability_pipelines/production_deployment_overview/availability_zone_failure.png" alt="アベイラビリティゾーン 1 でロードバランサーと観測可能性パイプラインワーカーがダウンしているが、ゾーン N のロードバランサーとワーカーはデータの受信と送信を継続していることを示す図" style="width:45%;" >}} - -### リージョン障害の軽減 - -観測可能性パイプラインワーカーは、内部の観測可能性データをルーティングするために設計されており、他のリージョンにフェイルオーバーするべきではありません。その代わりに、観測可能性パイプラインワーカーは、全てのリージョンにデプロイされるべきです。そのため、ネットワーク全体やリージョンに障害が発生した場合、観測可能性パイプラインワーカーも一緒に障害になります。詳しくは[ネットワーキング][2]をご覧ください。 - -## 災害復旧 - -### 内部災害復旧 - -観測可能性パイプラインワーカーは、内部の観測可能性データをルーティングするために設計されたインフラストラクチャーレベルのツールです。シェアードナッシングアーキテクチャを実装しており、災害復旧 (DR) サイトに複製または転送されるべき状態を管理しません。そのため、リージョン全体が障害になった場合、観測可能性パイプラインワーカーも一緒に障害になります。したがって、より広範な DR 計画の一環として、DR サイトに観測可能性パイプラインワーカーをインストールする必要があります。 - -### 外部災害復旧 - -Datadog のようなマネージドデスティネーションを使用している場合、観測可能性パイプラインワーカーのサーキットブレーカー機能を使用して、Datadog DR サイトへのデータの自動ルーティングを容易にすることができます。 - -{{< img src="observability_pipelines/production_deployment_overview/external_disaster_recovery.png" alt="観測可能性パイプラインワーカーを異なるゾーンに配置し、すべてのデータを同じ災害復旧宛先に送信している図" style="width:75%;" >}} - -[1]: /ja/observability_pipelines/architecture/capacity_planning_scaling -[2]: /ja/observability_pipelines/architecture/networking \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/capacity_planning_scaling.md b/content/ja/observability_pipelines/architecture/capacity_planning_scaling.md deleted file mode 100644 index e2bfd2b2580ef..0000000000000 --- a/content/ja/observability_pipelines/architecture/capacity_planning_scaling.md +++ /dev/null @@ -1,92 +0,0 @@ ---- -kind: Documentation -title: キャパシティプランニングとスケーリング ---- - -## 試算の単位 - -以下の単位は、リソースの容量を見積もるための出発点ですが、ワークロードによって異なる場合があります。 - -| 単位 | サイズ | 観測可能性パイプラインワーカースループット*| -| ----------------------| --------- | ----------------------------------------- | -| 非構造化ログイベント| ~512 バイト| ~10 MiB/s/vCPU | -| 構造化ログイベント | ~1.5 KB | ~25 MiB/s/vCPU | -| メトリクスイベント | ~256 バイト| ~25 MiB/s/vCPU | -| トレーススパンイベント | ~1.5 KB | ~25 MiB/s/vCPU | - -*この数値は試算のための保守的なものです。1 vCPU = ARM 物理 CPU × 1、Intel 物理 CPU × 0.5。 - -## スケーリング - -### 水平スケーリング - -水平スケーリングとは、複数の観測可能性パイプラインワーカーインスタンスにトラフィックを分散させることです。観測可能性パイプラインワーカーはシェアードナッシングのアーキテクチャを採用しており、リーダーノードやスケーリングを複雑にするような調整を必要としません。 - -プッシュベースのソースの場合、観測可能性パイプラインワーカーインスタンスをネットワークロードバランサーで前面化し、必要に応じてスケールアップ/ダウンしてください。 - -{{< img src="observability_pipelines/production_deployment_overview/horizontal_scaling_push.png" alt="クラウドリージョンを Agent、ネットワークロードバランサー、観測可能性パイプラインワーカーアグリゲーターに分解し、Agent からのデータをロードバランサー、観測可能性パイプラインワーカー、そして他の宛先に送る様子を示した図" style="width:60%;" >}} - -プルベースのソースの場合、ロードバランサーは必要ありません。観測可能性パイプラインワーカーをデプロイし、必要に応じてスケールアップ/ダウンしてください。観測可能性パイプラインワーカーがデータの読み取りを要求したときに、パブリッシュサブスクリプションシステムがデータへの排他的なアクセスを調整します。 - -{{< img src="observability_pipelines/production_deployment_overview/horizontal_scaling_pull.png" alt="クラウドリージョンを Agent、ブローカー、観測可能性パイプラインアグリゲーターに分解して示した図。Agent からのデータはブローカーに送られ、ブローカーと観測可能性パイプラインワーカーとの間で送受信され、ワーカーから他の宛先に送信される" style="width:60%;" >}} - -混合ワークロード (プッシュベースとプルベースのソース) の詳細については、[高度な構成][1]を参照してください。 - -#### ロードバランシング - -ロードバランサーは、Agent のようなプッシュベースのソースにのみ必要です。Kafka のようなプルベースのソースのみを使用する場合は、ロードバランサーは必要ありません。 - -##### クライアント側のロードバランシング - -クライアント側のロードバランシングは推奨されません。クライアント側のロードバランシングとは、複数の観測可能性パイプラインワーカーインスタンスにまたがるトラフィックのロードバランシングをクライアントが行うことを指します。このアプローチはよりシンプルに聞こえますが、以下のため信頼性が低く、より複雑になる可能性があります。 - -- 適切なフェイルオーバーを伴うロードバランシングは複雑です。この分野の問題は、データの損失やサービスを停止させるインシデントにつながる可能性があるため、デリケートな問題です。複数のタイプのクライアントを取り扱っている場合は、さらに悪化します。 -- 観測可能性パイプラインワーカーアグリゲーターのポイントは、Agent から責任を取り除くことであり、ロードバランシングを担うことはその一助となります。 - -##### ロードバランサーの種類 - -Datadog では、レイヤー 4 (L4) ロードバランサー (ネットワークロードバランサー) を推奨しています。これは、観測可能性パイプラインワーカーのプロトコル (TCP、UDP、HTTP) をサポートしているためです。HTTP トラフィック (レイヤー7) のみを送信している場合でも、Datadog はそのパフォーマンスとシンプルさのために L4 ロードバランサーを推奨しています。 - -| クラウドプロバイダー| 推奨事項 | -| ------------- | --------------------------------------------------------------| -| AWS | AWS ネットワークロードバランサー (NLB) | -| Azure | 内部 Azure ロードバランサー | -| Google Cloud | 内部 TCP/UDP ネットワークロードバランサー | -| プライベート | HAProxy、Nginx、またはレイヤー 4 をサポートするその他のロードバランサー | - -##### ロードバランサーの構成 - -クライアントとロードバランサーを構成する場合、Datadog は以下の一般的な設定を推奨しています。 - -- シンプルなラウンドロビンのロードバランシング戦略を使用します。 -- ゾーン間のトラフィックが非常に不均衡である場合を除き、クロスゾーンのロードバランシングを有効にしません。 -- 観測可能性パイプラインワーカーのヘルス API エンドポイントを使用して、ターゲットのヘルスを確認するようにロードバランサーを構成します。 -- 観測可能性パイプラインワーカーインスタンスがスケールする際に、自動的に登録または登録解除されるようにします。詳細は、[ネットワーキング][2]を参照してください。 -- クライアントとロードバランサーの両方で、1 分以内のアイドルタイムアウトでキープアライブを有効にします。 -- サポートされている場合は、Agent で接続の同時実行とプーリングを有効にします。サポートされていない場合は、エッジに観測可能性パイプラインワーカーをデプロイする統合アーキテクチャを検討してください。接続プーリングは、大量のデータを複数の接続に分散させ、トラフィックのバランスを取ることを可能にします。 - -##### ロードバランサーのホットスポット - -ロードバランシングホットスポットは、1 つまたは複数の観測可能性パイプラインワーカーインスタンスが不均衡なトラフィックを受け取る場合に発生します。ホットスポットは通常、2 つの理由のうちの 1 つによって発生します。 - -1. 1 つの接続でかなりの量のトラフィックが送信されている。 -2. あるアベイラビリティゾーンのトラフィックが、他のゾーンよりはるかに多い。 - -このような場合、以下のようなそれぞれの緩和策をとることをお勧めします。 - -1. 大きな接続を複数の接続に分割します。ほとんどのクライアントでは、複数の接続にデータを分散させる接続の同時実行とプーリングが可能です。この戦術により、ロードバランサーは複数の観測可能性パイプラインワーカーインスタンスに接続を分散させることができます。クライアントがこれをサポートしていない場合は、観測可能性パイプラインワーカーをエッジに追加でデプロイできる統一アーキテクチャを検討してください。 -2. ロードバランサーでクロスゾーンのロードバランシングを有効にします。クロスゾーンバランシングは、すべての観測可能性パイプラインワーカーインスタンスですべてのアベイラビリティゾーンのトラフィックをバランスさせます。 - -### 垂直スケーリング - -観測可能性パイプライン ワーカーの同時実行モデルは、すべての vCPU を活用するために自動的にスケーリングされます。同時実行の設定や構成の変更は必要ありません。Datadog では、垂直スケーリングを行う場合、インスタンスのサイズを総ボリュームの 50% 以下に抑え、高可用性のために最低 2 つの観測可能性パイプラインワーカーインスタンスをデプロイすることを推奨しています。 - -### オートスケーリング - -オートスケーリングは、平均的な CPU 使用率に基づいて行う必要があります。大半のワークロードでは、観測可能性パイプラインワーカーは CPU の制約を受けています。CPU 使用率は、誤検出が発生しないため、オートスケーリングの最も強力なシグナルとなります。Datadog は、以下の設定を使用し、必要に応じて調整することを推奨します。 - -- 使用率 85% を目標とした平均的な CPU。 -- スケールアップとスケールダウンのための 5 分間の安定時間。 - -[1]: /ja/observability_pipelines/architecture/advanced_configurations -[2]: /ja/observability_pipelines/architecture/networking \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/networking.md b/content/ja/observability_pipelines/architecture/networking.md deleted file mode 100644 index c6e8cdebfbe5a..0000000000000 --- a/content/ja/observability_pipelines/architecture/networking.md +++ /dev/null @@ -1,64 +0,0 @@ ---- -kind: Documentation -title: ネットワーキング ---- - -## ネットワークトポロジー - -### ネットワーク境界 - -多くのユーザーは、複数のクラウド、リージョン、VPC、クラスターなど、多くのネットワーク境界を持つ複雑な本番環境を持っています。これらの境界の中で、観測可能性パイプラインワーカーをどこに位置づけるかを決めると、複雑になることがあります。そのため、Datadogで は、複数のアカウント、VPC、クラスターがある場合でも、リージョンごとに 1 つの観測可能性パイプラインワーカーアグリゲーターで始めることを推奨しています。この境界は、公衆インターネット上でのデータ送信を回避する最も広いネットワーク粒度です。複数のクラスターがある場合は、ユーティリティやツールクラスターに観測可能性パイプラインワーカーをデプロイするか、共有サービスに最も適したクラスタを選びましょう。 - -{{< img src="observability_pipelines/production_deployment_overview/multi-cluster.png" alt="複数の Agent を持つ 2 つのクラスターから、ネットワークロードバランサーを持つユーティリティとツールクラスター、複数の観測可能性パイプラインワーカーを持つアグリゲーターにデータが送信されるクラウドリージョンを示す図" style="width:75%;" >}} - -観測可能性パイプラインワーカーの利用が増えれば、複数の観測可能性パイプラインワーカーのデプロイがどのような位置づけになるかが明らかになります。 - -複数デプロイの詳細については、[高度な構成][1]を参照してください。 - -### DNS とサービスディスカバリー - -組織は、基本的な DNS を通じて促進されているとしても、何らかの形のサービスディスカバリーを採用しているかもしれません。観測可能性パイプラインワーカーアグリゲーターとサービスの発見は、サービスディスカバリーメカニズムによって解決される必要があります。 - -{{< img src="observability_pipelines/production_deployment_overview/dns_service_discovery.png" alt="Agent のクラスター、ロードバランサーのクラスター、観測可能性パイプラインワーカーの集計を持つクラウドリージョンを示す図で、各グループは DNS やサービスレジストリに別々のクエリを送信している" style="width:60%;" >}} - -サービスディスカバリーを使用すると、名前付きホスト名 (固定 IP アドレスではない) で Agent を構成し、トラフィックのルーティングとロードバランシングを促進することができます。これは、Agent がロードバランサーを発見し、ロードバランサーが観測可能性パイプラインワーカーアグリゲーターを発見する方法です。 - -観測可能性パイプラインワーカー自身は DNS クエリの解決を行わず、システムレベルのリゾルバ (例えば [Linux 解決][2]など) に委ねます。 - -## ネットワークトラフィック - -### プロキシ - -観測可能性パイプラインワーカーには、すべての送信 HTTP トラフィックをプロキシ経由でルーティングするグローバルプロキシオプションがあります。プロキシを使用するかどうかは、組織のセキュリティとネットワークの設定に依存します。 - -### ポート - -観測可能性パイプラインワーカーは、ネットワーク管理者が簡単に発見できるように、すべてのポートを明示的に構成する必要があります。したがって、観測可能性パイプラインワーカーのコンフィギュレーションファイルを見ることで、公開されているすべてのポートの完全なインベントリを得ることができます。観測可能性パイプラインワーカーアグリゲーターは、以下のポートを公開するデフォルト構成で出荷されています。 - -| ポート | ソース | プロトコル | 方向| 説明 | -| --- | -------------- | ----------| -------- | ---------------------------------------| -| 8282 | Datadog Agent | HTTP | 着信 | フルエントソースからデータを受け取ります。 | -| 123 | ファイル | Syslog | 着信 | Syslog ソースからデータを受け取ります。 | - -管理者が公開ポートを変更している可能性がありますので、観測可能性パイプラインワーカーの構成を見直してください。 - -### プロトコル - -観測可能性パイプラインワーカーは、様々なプロトコルでデータを受信・送信できるように設計されています。Datadog では、インテグレーションで最もサポートされているプロトコルを使用することを推奨しています。可能であれば、アプリケーションレベルの配信確認とプラットフォーム間でのユビキタスなサポートのために、HTTP ベースのプロトコルを選択します。それ以外の場合は、TCP ベースのプロトコルを選択します。UDP は、データを失うリスクがあるため、推奨されません。 - -#### ワーカー間の通信 - -観測可能性パイプラインワーカーのソースとシンクを使用して、観測可能性パイプラインワーカーインスタンス間でデータを送信します (例えば、統一アーキテクチャを使用した場合など)。これらのソースは、効率的なロスレス通信のために GRPC プロトコルを使用します。 - -#### Agent 通信 - -観測可能性パイプラインワーカーは、多くの Agent のために特定のソースを提供します。例えば、`datadog_agent` ソースは Datadog Agent から全てのデータタイプをロスレス構造化フォーマットで受信する処理を行います。 - -### 圧縮 - -Datadog のベンチマークによると、圧縮を行うとスループットが 50% 低下する可能性があります。圧縮は慎重に使用し、有効にした後はパフォーマンスを監視してください。 - -ネットワークトラフィックの圧縮は、パフォーマンスに影響を与えるため、コスト重視のイグレスシナリオにのみ使用する必要があります (例えば、公衆インターネット上でのデータ送信など)。したがって、内部ネットワークトラフィックの圧縮は推奨されません。 - -[1]: /ja/observability_pipelines/architecture/advanced_configurations -[2]: https://wiki.archlinux.org/title/Domain_name_resolution \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/optimize.md b/content/ja/observability_pipelines/architecture/optimize.md deleted file mode 100644 index fe9d88475cb9d..0000000000000 --- a/content/ja/observability_pipelines/architecture/optimize.md +++ /dev/null @@ -1,61 +0,0 @@ ---- -kind: Documentation -title: インスタンスの最適化 ---- - -## インスタンスサイジング - -少なくとも 8 つの vCPU と 16 GiB のメモリを持つ最適化されたインスタンスを計算します。これらは、観測可能性パイプラインワーカーアグリゲーターを水平方向に拡張するための理想的なユニットです。観測可能性パイプラインワーカーは、より大きなインスタンスを選択すると、垂直方向にスケールし、自動的に追加リソースを利用することができます。可用性を高めるために、データボリュームに対して少なくとも 2 つの観測可能性パイプラインワーカーインスタンスを使用できるサイズを選択します。 - -| クラウドプロバイダー| 推奨事項 | -| ------------- | ----------------------------------------------------- | -| AWS | c6i.2xlarge (推奨) または c6g.2xlarge | -| Azure | f8 | -| Google Cloud | c2 (8 vCPU、16 GiB メモリ) | -| プライベート | 8 vCPU、16 GiB メモリ、ローカルディスクは必要ありません | - -## CPU サイジング - -観測可能性パイプラインワーカーワークロードの多くは、CPU に制約があり、最新の CPU の恩恵を受けることができます。 - -| クラウドプロバイダー| 推奨事項 | -| ------------- | --------------------------------------------------------------------- | -| AWS | 最新世代の Intel Xeon、8 vCPU (推奨)、最低 4 vCPU | -| Azure | 最新世代の Intel Xeon、8 vCPU (推奨)、最低 4 vCPU | -| Google Cloud | 最新世代の Intel Xeon、8 vCPU (推奨)、最低 4 vCPU | -| プライベート | 最新世代の Intel Xeon、8 vCPU (推奨)、最低 4 vCPU | - -## CPU アーキテクチャ - -観測可能性パイプラインワーカーは、最新の CPU アーキテクチャで動作します。X86_64 アーキテクチャは、観測可能性パイプラインワーカーに最も適したパフォーマンスを提供します。 - -## メモリサイジング - -観測可能性パイプラインワーカーのアフィン型システムにより、観測可能性パイプラインワーカーのワークロードでは、メモリが制約されることはほとんどありません。そのため、Datadog は最小で vCPU あたり 2 GiB 以上のメモリを推奨しています。メモリ内バッファリングとバッチ処理により、シンクの数に応じてメモリ使用量が増加します。シンクの数が多い場合は、メモリの増設やディスクバッファへの切り替えを検討してください。 - -## ディスクサイジング - -観測可能性パイプラインワーカーのディスクバッファを使用して高耐久性を実現する場合 (推奨)、vCPU あたり少なくとも 36 GiB のディスクスペースをプロビジョニングします。8 vCPU の推奨に従い、288 GiB のディスク領域をプロビジョニングします (10 MiB * 60 秒 * 60 分 * 8 vCPU)。 - -| クラウドプロバイダー| 推奨* | -| ------------- | --------------------------------------------------------------| -| AWS | EBS gp3、vCPU あたり 36 GiB、IOPS およびスループットの追加なし | -| Azure | Ultra-disk または標準的な SSD、vCPU あたり 36 GiB | -| Google Cloud | バランス型または SSD の永続ディスク、vCPU あたり 36 GiB | -| プライベート | ネットワークベースのブロックストレージ相当、vCPU あたり 36 GiB | - -*推奨サイズは、観測可能性パイプラインワーカーの 10MiB/s/vCPU のスループットで 1 時間計算したものです。例えば、8 vCPU のマシンの場合、288 GiB のディスクスペースが必要です (10 MiB * 60 秒 * 60 分 * 8 vCPU)。 - -### ディスクタイプ - -耐久性と回復のために最適化されたディスクタイプを選択します。例えば、標準的なブロックストレージは、インスタンスから切り離され、複数のディスクにデータをレプリケートして高い耐久性を実現するため、理想的なストレージです。高性能なローカルドライブは、スループットが観測可能性パイプラインワーカーのニーズを上回り、耐久性がブロックストレージに比べて低下するため、推奨されません。 - -また、Amazon の EFS などのネットワークファイルシステムも使用可能ですが、十分なスループットがプロビジョニングされる場合に限られます。バーストスループットモードでは不十分です。Datadog では、需要が急上昇した場合に備えて余裕を持たせるため、予測される最大スループットの 2 倍の構成にすることを推奨しています。上記の推奨ディスクはどれも十分なスループットを備えているため、この点が問題になることはありません。 - -このアーキテクチャでディスクが使用される理由については、[データ損失の防止][1]を参照してください。 - -### オペレーティングシステムと GCC - -可能であれば、glibc (GNU) ≧ 2.14 (2011 年リリース) の Linux ベースの OS を選択してください。観測可能性パイプラインワーカーは他のプラットフォームでも動作しますが、この組み合わせが Datadog のベンチマークで最高のパフォーマンスを発揮します。 - -[1]: /ja/observability_pipelines/architecture/preventing_data_loss \ No newline at end of file diff --git a/content/ja/observability_pipelines/architecture/preventing_data_loss.md b/content/ja/observability_pipelines/architecture/preventing_data_loss.md deleted file mode 100644 index f6016ba99f62e..0000000000000 --- a/content/ja/observability_pipelines/architecture/preventing_data_loss.md +++ /dev/null @@ -1,75 +0,0 @@ ---- -kind: Documentation -title: データ損失の防止 ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は US1-FED Datadog サイトでは利用できません。
-{{< /site-region >}} - -
このガイドは、大規模な本番環境レベルのデプロイメントを対象としています。
- -## 高耐久性 - -高耐久性とは、システム障害が発生したときにデータを保持できることです。アグリゲーターアーキテクチャは、高耐久性の責任を負うように設計されています。このため、Agent からアグリゲーターに負担を移し、ローカライズすることで、耐久性戦略を簡素化することができます。さらに、この集中的なアプローチにより、すべての Agent ノードに渡って実装することが困難な耐久性戦略が可能になります。 - -{{< img src="observability_pipelines/production_deployment_overview/high_durability.png" alt="Observability Pipelines Worker が、複製されたブロックストレージにデータを送信している様子を示す図" style="width:100%;" >}} - -高耐久性を実現するために - -1. Agent をシンプルなデータ転送装置として構成し、Observability Pipelines Worker アグリゲーターに直接データをストリーミングします。これにより、データがまだ冗長化されていないため、エッジでのデータロスにさらされる時間が短縮されます。 - -2. 記録システムとして機能する耐久性の高い宛先を選択します (例えば、Amazon S3)。このシステムは、静止しているデータの耐久性に責任があり、一般的にアーカイブやデータレイクと呼ばれます。 - -最後に、記録システムに書き込む Observability Pipelines Worker のシンクを構成し、[エンドツーエンド確認応答](#using-end-to-end-acknowledgment)とディスクバッファを有効にしてください。例: - -``` -sinks: - aws_s3: - acknowledgments: true - buffer: - type: "disk" -``` - -## データ損失防止ガイドライン - -### エンドツーエンド確認応答の使用 - -Observability Pipelines Worker のオペレーティングシステムプロセスの問題により、問題の発生時にメモリに保持されているデータが失われる危険性があります。Observability Pipelines Worker のエンドツーエンド確認応答機能を有効にして、データ消失のリスクを軽減してください。 - -``` -sinks: - aws_s3: - acknowledgments: true -``` - -この機能を有効にすると、Observability Pipelines Worker は、データが永続的に保持されるまで Agent に応答しません。これにより、Agent が早期にデータを解放し、確認応答を受信していない場合に再度送信することを防ぐことができます。 - -{{< img src="observability_pipelines/production_deployment_overview/end_to_end_acknowledgments.png" alt="Observability Pipelines Worker のソースからクライアントに戻って送信される確認応答を示す図" style="width:100%;" >}} - -### ノード障害への対応 - -ノード障害は個々のノードの完全な障害を扱います。これらはエンドツーエンドの確認応答を使って対処することもできます。詳しくは[エンドツーエンド確認応答の使用](#using-end-to-end-acknowledgment)を参照してください。 - -### ディスク障害への対応 - -ディスク障害は個々のディスクの障害を扱います。ディスク障害に関連するデータ損失は、ブロックストレージ (例えば、Amazon EBS) のように、複数のディスクにデータを複製する高耐久性のファイルシステムを使用することで軽減できます。 - -### データ処理障害への対応 - -Observability Pipelines Worker は、不正なデータを処理しようとすると、ログのパースに失敗するなどの問題が発生することがあります。この問題を軽減する方法は 2 つあります。 - -1. **ダイレクトアーカイブ**: ソースからアーカイブに直接データをルーティングします。これにより、データが落とされるリスクなしにアーカイブに到達することを保証します。また、このデータは、処理エラーを修正した後に再生することができます。 - -2. **イベントルーティングの失敗**: Observability Pipelines Worker は、構造化データやリッチ化データなど、処理したデータをアーカイブしたいユーザー向けに、失敗したイベントのルーティングを提供します。Observability Pipelines Worker の変換には、耐久性と再生のためにシンクに接続することができるドロップ出力が付属しているものがあります。 - -#### どの戦略がベストなのか? - -耐久性が最も重要な基準である場合は、データ損失のシナリオに対応するため、ダイレクトアーカイブ方式を使用します。アーカイブでのデータ分析を希望する場合は、一般にデータレイクとも呼ばれる失敗イベントルーティング方式を使用します。アーカイブ/データレイクを長期的な分析に使用できる利点があります。Datadog [Log Archives][1] や Amazon Athena は、アーカイブストレージソリューションの一例です。 - -### 宛先障害への対応 - -宛先の障害とは、ダウンストリームの宛先 (例えば Elasticsearch) の全障害を指します。ダウンストリーム宛先の問題に対して、停止時間を持続させるのに十分な大きさのディスクバッファを使用することで、データ損失を軽減できます。これにより、サービスが停止している間、データを持続的にバッファリングし、サービスが回復したときにデータを排出することができます。このため、少なくとも 1 時間分のデータを保持するのに十分な大きさのディスクバッファを使用することをお勧めします。詳しくは、[インスタンスの最適化][2]を参照してください。 - -[1]: /ja/logs/log_configuration/archives -[2]: /ja/observability_pipelines/architecture/optimize \ No newline at end of file diff --git a/content/ja/observability_pipelines/configurations.md b/content/ja/observability_pipelines/configurations.md deleted file mode 100644 index cac70bc05c62f..0000000000000 --- a/content/ja/observability_pipelines/configurations.md +++ /dev/null @@ -1,292 +0,0 @@ ---- -aliases: -- /ja/integrations/observability_pipelines/vector_configurations/ -- /ja/observability_pipelines/vector_configurations/ -- /ja/observability_pipelines/reference/ -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: ドキュメント - text: 観測可能性パイプラインを使ったデータの操作 -- link: /observability_pipelines/setup - tag: Documentation - text: 観測可能性パイプラインを設定する -kind: ドキュメント -title: 構成 ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は、US1-FED Datadog サイトではご利用いただけません。
-{{< /site-region >}} - -## 概要 - -Observability Pipelines Worker の構成では、あらゆるソースからあらゆる宛先へログを収集し、変換し、ルーティングすることが可能です。コンフィギュレーションファイルは、YAML、TOML、JSON をサポートします。主な構成要素は、ソース、トランスフォーム、シンクの 3 つです。 - -## サンプルソースを設定する - -[ソースコンポーネント][1]は、観測可能性パイプラインワーカーが可観測性データソースからどのようにデータを収集し、または受信するかを定義します。 - -YAML コンフィギュレーションファイルを作成し、以下のソースの例を追加します。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -sources: - generate_syslog: - type: demo_logs - format: syslog - count: 100 -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[sources.generate_syslog] - type = "demo_logs" - format = "syslog" - count = 100 -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -"sources": { - "generate_syslog": { - "type": "demo_logs", - "format": "syslog", - "count": 100 - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -この `source` コンポーネントは `generate_syslog` という一意の ID を持っています。こ一意の ID は `sink` コンポーネントでデータを変換してルーティングする際に重要です。 - -`type` は、観測可能性パイプラインワーカーが観測可能性データを収集するソースの種類です。この例では `demo_logs` ソースを使用しています。このソースは、さまざまな形式のイベントの種類をシミュレートできるように、サンプルログデータを作成します。`format` オプションは `demo_logs` ソースに対して、どのタイプのログを出力するかを指定します (この場合、Syslog フォーマット)。`count` オプションは `demo_logs` ソースに対して、何行のログを出力するかを指定します。 - -サポートされているすべてのソースは、[ソースドキュメント][1]をご覧ください。 - -## トランスフォームの例を設定する - -次の例を使用して、`demo_logs` ソースから収集したデータを操作する[トランスフォームコンポーネント][2]を定義します。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - remap_syslog: - inputs: - - generate_syslog - type: remap - source: |2 - structured = parse_syslog!(.message) - . = merge(., structured) -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.remap_syslog] - inputs = ["generate_syslog" ] - type = "remap" - source = ''' - structured = parse_syslog!(.message) - . = merge(., structured) -''' -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -"transforms": { - "remap_syslog": { - "inputs": [ - "generate_syslog" - ], - "type": "remap", - "source": " structured = parse_syslog!(.message)\n . = merge(., structured)\n" - } - } -``` - -{{% /tab %}} -{{< /tabs >}} - -この `transforms.remap_syslog` コンポーネントでは、`inputs` オプションが `generate_syslog` に設定されており、先に定義した `generate_syslog` ソースからイベントを受信することになります。このトランスフォームのコンポーネントタイプは `remap` です。 - -`source` には、観測可能性パイプラインワーカーが受け取る各イベントに適用する再マッピング変換のリストが含まれています。この例では、`parse_syslog` という 1 つの処理のみを実行していますが、複数の処理を追加することもできます。 - -`parse_syslog` 関数は `message` という単一のフィールドを受け取ります。このフィールドには、`generate_syslog` ソースで生成された Syslog イベントが格納されています。この関数は Syslog フォーマットのメッセージの内容をパースして、構造化イベントとして出力します。 - -この変換例は、データ[*](#support)を形成し変換するための Observability Pipelines Worker の能力のほんの一部を紹介するものです。サンプリング、フィルター、リッチ化など、サポートされているすべての変換については、[トランスフォームのドキュメント][2]を参照してください。 - -## シンクの例を設定する - -`transform` コンポーネントでパースされたデータを、次の[シンク][3]の例を使って、宛先にルーティングします。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -sinks: - emit_syslog: - inputs: - - remap_syslog - type: console - encoding: - codec: json -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[sinks.emit_syslog] -inputs = [ "remap_syslog" ] -type = "console" - - [sinks.emit_syslog.encoding] - codec = "json" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -"sinks": { - "emit_syslog": { - "inputs": [ - "remap_syslog" - ], - "type": "console", - "encoding": { - "codec": "json" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -この `sink` (または宛先) コンポーネントは `emit_syslog` という ID を持ちます。`inputs` オプションは、`remap_syslog` トランスフォームによって生成されたイベントをこのシンクで処理することを指定します。`encoding` オプションは、イベントを JSON フォーマットで出力するようにシンクに指示します。 - -サポートされているすべてのシンクについては、[シンクのドキュメント][3]を参照してください。 - -## ここまでのまとめ - -ソース、トランスフォーム、シンクの 3 つの基本コンポーネントが揃えば、これで観測可能性パイプラインのコンフィギュレーションファイルは完成です。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -sources: - generate_syslog: - type: demo_logs - format: syslog - count: 100 -transforms: - remap_syslog: - inputs: - - generate_syslog - type: remap - source: |2 - structured = parse_syslog!(.message) - . = merge(., structured) - -sinks: - emit_syslog: - inputs: - - remap_syslog - type: console - encoding: - codec: json -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[sources.generate_syslog] -type = "demo_logs" -format = "syslog" -count = 100 - -[transforms.remap_syslog] -inputs = [ "generate_syslog" ] -type = "remap" -source = ''' - structured = parse_syslog!(.message) - . = merge(., structured) -''' - -[sinks.emit_syslog] -inputs = [ "remap_syslog" ] -type = "console" - - [sinks.emit_syslog.encoding] - codec = "json" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "sources": { - "generate_syslog": { - "type": "demo_logs", - "format": "syslog", - "count": 100 - } - }, - "transforms": { - "remap_syslog": { - "inputs": [ - "generate_syslog" - ], - "type": "remap", - "source": " structured = parse_syslog!(.message)\n . = merge(., structured)\n" - } - }, - "sinks": { - "emit_syslog": { - "inputs": [ - "remap_syslog" - ], - "type": "console", - "encoding": { - "codec": "json" - } - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -この構成をコンパイルして実行するには、以下のコマンドを実行します。 - -``` -vector --config ./ -``` - -設定に成功すると、パースされたデモログが JSON 形式で出力されます。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/observability_pipelines/reference/sources/ -[2]: /ja/observability_pipelines/reference/transforms/ -[3]: /ja/observability_pipelines/reference/sinks/ \ No newline at end of file diff --git a/content/ja/observability_pipelines/guide/_index.md b/content/ja/observability_pipelines/guide/_index.md deleted file mode 100644 index 0c26a21fccef1..0000000000000 --- a/content/ja/observability_pipelines/guide/_index.md +++ /dev/null @@ -1,21 +0,0 @@ ---- -aliases: -- /ja/integrations/observability_pipelines/guide/ -cascade: - algolia: - category: ガイド - rank: 20 - subcategory: Observability Pipelines ガイド -disable_toc: true -kind: ガイド -private: true -title: Observability Pipelines ガイド ---- - -{{< whatsnext desc="一般ガイド:" >}} - {{< nextlink href="/observability_pipelines/setup/splunk" >}}Splunk 環境での観測可能性パイプラインのセットアップ{{< /nextlink >}} - {{< nextlink href="/observability_pipelines/guide/custom-metrics-governance" >}}カスタムメトリクスのガバナンス{{< /nextlink >}} - {{< nextlink href="/observability_pipelines/guide/control_log_volume_and_size" >}}ログのボリュームとサイズの制御{{< /nextlink >}} - {{< nextlink href="/observability_pipelines/guide/ingest_aws_s3_logs_with_the_observability_pipelines_worker" >}}観測可能性パイプラインワーカーを使用して Amazon S3 ログを取り込む{{< /nextlink >}} - {{< nextlink href="/observability_pipelines/guide/route_logs_in_datadog_rehydratable_format_to_amazon_s3/" >}}Datadog がリハイドレート可能な形式のログを Amazon S3 にルーティングする{{< /nextlink >}} -{{< /whatsnext >}} \ No newline at end of file diff --git a/content/ja/observability_pipelines/guide/control_log_volume_and_size.md b/content/ja/observability_pipelines/guide/control_log_volume_and_size.md deleted file mode 100644 index 7c816c99909fd..0000000000000 --- a/content/ja/observability_pipelines/guide/control_log_volume_and_size.md +++ /dev/null @@ -1,504 +0,0 @@ ---- -aliases: -- /ja/integrations/observability_pipelines/guide/control_log_volume_and_size/ -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: ドキュメント - text: 観測可能性パイプラインを使ったデータの操作 -- link: /observability_pipelines/configurations/ - tag: ドキュメント - text: 観測可能性パイプラインの構成の詳細 -kind: ガイド -title: ログの量とサイズの制御 ---- - -## 概要 - -組織の規模が大きくなるとログの量が増えるため、下流のサービス (ログ管理ソリューション、SIEM など) で取り込みやインデックスを作成するコストも増加します。このガイドでは、観測可能性パイプラインの変換を使用してログ量を削減し、ログのサイズを切り詰めて、データがインフラストラクチャーやネットワークから離れる前にコストを管理する方法を説明します。 - -## 前提条件 -- [観測可能性パイプラインワーカーをインストール、構成し][1]、ソースからデータを収集し、宛先にルーティングしている。 -- [観測可能性パイプラインの構成の基本][2]に精通している。 - -## ログ量を管理するために変換を使用する - -観測可能性パイプラインでは、変換はイベントを変更するアクションを実行します。イベントは、パイプラインを流れるログです。 - -### イベントの重複排除 - -[重複排除変換][3]を使用して、パイプラインを通過するデータのコピーを削除するには、構成に次のコンポーネントを追加します。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: dedupe - inputs: - - my-source-or-transform-id - cache: null - fields: null -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "dedupe" -inputs = [ "my-source-or-transform-id" ] -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "dedupe", - "inputs": [ - "my-source-or-transform-id" - ], - "cache": null, - "fields": null - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -観測可能性パイプラインワーカーは、重複排除されたイベントを追跡するために、すべてのイベントに一意の識別子を割り当てます。`cache` オプションは、将来的に重複したデータをチェックするために、最近のイベントをキャッシュすることができます。`fields` オプションは、イベントが重複しているかどうかを判断するためにどのフィールドを使用するかをリストアップします。 - -### イベントの絞り込み - -[フィルター変換][4]は、特定の条件を満たす特定のログのみをパイプラインのコンポーネントを通過させたい場合に使用します。例えば、それらの条件は、ログが含まれている場所となります。 - -- `env` のような特定のタグ。 -- 特定のフィールドの値、例えば `status` フィールドは `400` でなければなりません。 - -そのような場合は、[Datadog Processing Language (DPL) / Vector Remap Language (VRL)][5] または [Datadog Log Search 構文][6]を使用して条件を設定するログをフィルタリングするための[フィルター変換][4]を含むコンポーネントを挿入してください。条件に一致しないログはドロップされます。 - -以下の例では、フィルター変換と DPL/VRL を使って、`status` が `500` のログのみを送信しています。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: filter - inputs: - - my-source-or-transform-id - condition: - type: "vrl" - source: ".status == 500" -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "filter" -inputs = [ "my-source-or-transform-id" ] - - [transforms.my_transform_id.condition] - type = "vrl" - source = ".status == 500" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "filter", - "inputs": [ - "my-source-or-transform-id" - ], - "condition": { - "type": "vrl", - "source": ".status == 500" - } - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -### サンプルログ - -CDN のログなど、大量に送られてくるデータやノイズを多く含むデータを分析する場合、すべてのログを送信先に送ることは不要です。代わりに、[サンプル変換][7]を使って、統計的に有意な分析を行うために必要なログのみを送信します。 - -`exclude` フィールドは、サンプリングするイベントを除外し、DPL/VRL や Datadog Log Search 構文もサポートします。以下の例では、`rate` で設定された 10 イベントごとにサンプリングする構成を示しています。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: sample - inputs: - - my-source-or-transform-id - exclude: - type: "datadog_search" - source: "*stack" - rate: 10 -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "sample" -inputs = [ "my-source-or-transform-id" ] -rate = 10 - - [transforms.my_transform_id.exclude] - type = "datadog_search" - source = "*stack" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "sample", - "inputs": [ - "my-source-or-transform-id" - ], - "exclude": { - "type": "datadog_search", - "source": "*stack" - }, - "rate": 10 - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -### ログをメトリクスに変換する - -時間の経過とともに振る舞いを理解したいシナリオでは、一連のログよりも、イベントのデータポイントに関連するメトリクスが有用です。ログがパイプラインを流れるとき、[ログからメトリクスへの変換][8]を使用して、特定のタグに基づいてメトリクスを生成することによって、ログの量を削減することができます。 - -4 種類のメトリクスを生成することができます。 - -- カウンター: 特定のタグを持つログのインスタンス数をカウントするのに便利です。カウントを増やしたり、ゼロに戻したりすることができます。 -- ディストリビューション: サンプリングされた値の分布を表します。サマリーやヒストグラムの生成に便利です。 -- ゲージ: 任意に上下できる単一の数値を表します。頻繁に変動する値を追跡するのに便利です。 -- セット: 一意な値を配列にまとめます。一意の IP アドレスを収集する場合などに便利です。 - -以下の例では、`counter` メトリクスを生成するための構成を示しています。`metrics` はイベントに追加するキーと値のペアを定義します。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: log_to_metric - inputs: - - my-source-or-transform-id - metrics: - - type: counter - field: status - name: response_total - namespace: service - tags: - status: "{{status}}" - host: "{{host}}" -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "log_to_metric" -inputs = [ "my-source-or-transform-id" ] - - [[transforms.my_transform_id.metrics]] - type = "counter" - field = "status" - name = "response_total" - namespace = "service" - - [transforms.my_transform_id.metrics.tags] - status = "{{status}}" - host = "{{host}}" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "log_to_metric", - "inputs": [ - "my-source-or-transform-id" - ], - "metrics": [ - { - "type": "counter", - "field": "status", - "name": "response_total", - "namespace": "service", - "tags": { - "status": "{{status}}", - "host": "{{host}}" - } - } - ] - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -上記の構成で以下のようなログが流れた場合 - -``` -{ - "log": { - "host": "10.22.11.222", - "message": "Sent 200 in 54.2ms", - "status": 200 - } -} -``` - -以下のメトリクスが生成されます。 - -``` -{"metric":{"counter":{"value":1},"kind":"incremental","name":"response_total","namespace":"service","tags":{"host":"10.22.11.222","status":"200"}}}] - -``` - -### 複数のイベントを 1 つのログに折りたたむ - -場合によっては、複数のログを 1 つのログに統合することも可能です。このように、ログ量を削減するもう一つの方法は、複数のログを 1 つのログに統合することです。複数のログを 1 つにまとめるには、[縮小変換][9]を使用します。 - -以下の例では、縮小変換の構成を使用して、複数の Ruby ログの例外イベントを統合しています。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: reduce - inputs: - - my-source-or-transform-id - group_by: - - host - - pid - - tid - merge_strategies: - message: concat_newline - starts_when: match(string!(.message), r'^[^\\s]') -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "reduce" -inputs = [ "my-source-or-transform-id" ] -group_by = [ "host", "pid", "tid" ] -starts_when = "match(string!(.message), r'^[^\\s]')" - -[transforms.my_transform_id.merge_strategies] - message = "concat_newline" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "reduce", - "inputs": [ - "my-source-or-transform-id" - ], - "group_by": [ - "host", - "pid", - "tid" - ], - "merge_strategies": { - "message": "concat_newline" - }, - "starts_when": "match(string!(.message), r'^[^\\s]')" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -縮小変換では、`group_by` はイベントをグループ化するために使用するフィールドの順序付きリストです。この例では、イベントは `host`、`pid`、`tid` フィールドでグループ化されています。 - -`merge_strategies` は、フィールド名とカスタム統合戦略の対応表です。各値を配列に追加する `array` や、すべての数値を加算する `sum` など、さまざまな統合戦略が存在します。この例では、`concat_newline` を使用して、各文字列の値を連結し、改行で区切ります。 - -`starts_when` はトランザクションの最初のイベントを区別するために使用される条件です。この条件があるイベントに対して `true` に解決されると、前のトランザクションはこのイベントなしでフラッシュされ、新しいトランザクションが開始されます。この例では、`^[^\\s]` 正規表現条件にマッチしない `.message` を持つイベントは、1 つのイベントにまとめられます。 - -上記の構成で、以下の Ruby の例外ログが渡された場合 - -``` -[{"log":{ - "host":"host-1.hostname.com", - "message":"foobar.rb:6:in `/': divided by 0(ZeroDivisionError)", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:6:in `bar'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:2:in `foo'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"from foobar.rb:9:in `\u003cmain\u003e'", - "pid":1234,"tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"Hello world, I am a new log", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:22.123528Z" -}}] -``` - -以下のログが生成されます。 - -``` -[{ -"log": { - "host":"host-1.hostname.com", - "message":"foobar.rb:6:in `/': divided by 0 (ZeroDivisionError)\n - from foobar.rb:6:in `bar'\n - from foobar.rb:2:in `foo'\n - from foobar.rb:9:in `\u003cmain\u003e'", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:21.223543Z"} -}, -{ -"log":{ - "host":"host-1.hostname.com", - "message":"Hello world, I am a new log", - "pid":1234, - "tid":5678, - "timestamp":"2020-10-07T12:33:22.123528Z" -}}] -``` - -## ログサイズを管理するために変換を使用する - -### 不要なフィールドを削除し、ログを切り詰める - -ログには不要なフィールドが含まれることがあります。1 日に何テラバイトものデータを処理する場合、不要なフィールドを削除することで、取り込みとインデックス作成を行うログの総数を大幅に削減することができます。 - -不要なフィールドを削除するには、[DPL/VRL][5] を使ってログデータをリマップします。次の例では、`del` を使って不要なタグを削除しています。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: remap - inputs: - - my-source-or-transform-id - source: |- - del(.unecessary_env_field) - del(.unecessary_service_field) - del(.unecessary_tag_field) -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "remap" -inputs = [ "my-source-or-transform-id" ] -source = """ -del(.unecessary_env_field) -del(.unecessary_service_field) -del(.unecessary_tag_field)""" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "remap", - "inputs": [ - "my-source-or-transform-id" - ], - "source": "del(.unecessary_env_field)\ndel(.unecessary_service_field)\ndel(.unecessary_tag_field)" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/observability_pipelines/setup/ -[2]: /ja/observability_pipelines/configurations/ -[3]: /ja/observability_pipelines/reference/transforms/#dedupe -[4]: /ja/observability_pipelines/reference/transforms/#filter -[5]: /ja/observability_pipelines/reference/processing_language/ -[6]: /ja/logs/explorer/search_syntax/ -[7]: /ja/observability_pipelines/reference/transforms/#sample -[8]: /ja/observability_pipelines/reference/transforms/#logtometric -[9]: /ja/observability_pipelines/reference/transforms/#reduce \ No newline at end of file diff --git a/content/ja/observability_pipelines/guide/ingest_aws_s3_logs_with_the_observability_pipelines_worker.md b/content/ja/observability_pipelines/guide/ingest_aws_s3_logs_with_the_observability_pipelines_worker.md deleted file mode 100644 index 0b6b43e2f2bdd..0000000000000 --- a/content/ja/observability_pipelines/guide/ingest_aws_s3_logs_with_the_observability_pipelines_worker.md +++ /dev/null @@ -1,217 +0,0 @@ ---- -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: Documentation - text: 観測可能性パイプラインを使ったデータの操作 -- link: /observability_pipelines/configurations/ - tag: Documentation - text: 観測可能性パイプラインの構成の詳細 -kind: ガイド -title: 観測可能性パイプラインワーカーを使用して Amazon S3 ログを取り込む ---- - -## 概要 - -[観測可能性パイプラインワーカー][1]は、さまざまなソースからログを取り込むことができます。AWS CloudTrail や CloudWatch などの外部システムからログを受信している Amazon S3 バケットがある場合、これらのログを取り込むようにワーカーを構成することができます。この設定では、観測可能性パイプラインワーカーの Amazon S3 ソースを使用し、S3 バケットからイベント通知を受け取るために Amazon SQS キューを構成する必要があります。そして、イベント通知は、S3 バケットに新しいログイベントを収集するようにワーカーに通知します。 - -このガイドでは、以下の手順で説明します。 - -1. [S3 イベント通知を受け取るための Amazon SQS トピックを作成する](#create-an-amazon-sqs-topic-to-receive-s3-notifications) -2. [S3 バケットでイベント通知を有効にする](#enable-event-notifications-on-the-s3-bucket) -3. [ワーカーに必要な権限のみを与える IAM ロールを作成する](#create-an-iam-role-for-the-worker) -4. [SQS キューから通知を受け取り、S3 バケットからログを収集するようにワーカーを構成する](#configure-the-worker-to-receive-notifications-from-the-sqs-queue) -5. [バッチされた S3 ログイベントを分離するようにワーカーを構成する](#configure-the-worker-to-separate-out-batched-aws-s3-log-events) - -## 前提条件 -- 観測可能性パイプラインワーカーを[インストール][2]、[構成][3]し、ソースからデータを収集し、宛先にルーティングしている。 -- [観測可能性パイプラインの構成の基本][3]に精通している。 - -## S3 通知を受け取るための Amazon SQS トピックを作成する - -Amazon SQS コンソールで、この構成に固有の新しいキューをプロビジョニングします。これにより、使用中の他のログ分析ツールから、それに加えるすべての変更を分離しておくことができます。 - -1. [Amazon SQS コンソール][4]に移動します。 -2. この構成に固有の新しいキューをプロビジョニングするために、**Create queue** をクリックします。 -3. キューの名前を入力します。 -4. **Access policy** セクションで、**Advanced** ボタンをクリックします。 -5. 以下の例の JSON オブジェクトをコピーして、高度なアクセスポリシーセクションに貼り付けます。キューを構成し、S3 バケットにイベント通知を送信できるようにするものです。`${REGION}`、`${AWS_ACCOUNT_ID}`、`${QUEUE_NAME}`、`${BUCKET_NAME}` を、先ほど入力した該当の AWS アカウント情報、キュー名、バケット名に置き換えます。 - ```json - { - "Version": "2008-10-17", - "Id": "__default_policy_ID", - "Statement": [ - { - "Effect": "Allow", - "Principal": { - "Service": "s3.amazonaws.com" - }, - "Action": "SQS:SendMessage", - "Resource": "arn:aws:sqs:${REGION}:${AWS_ACCOUNT_ID}:${QUEUE_NAME}", - "Condition": { - "StringEquals": { - "aws:SourceAccount": "${AWS_ACCOUNT_ID}" - }, - "StringLike": { - "aws:SourceArn": "arn:aws:s3:*:*:${BUCKET_NAME}" - } - } - } - ] - } - ``` -6. 他のキューオプションはデフォルトのままにしておきます。 -7. **Create queue** をクリックします。 - -## S3 バケットでイベント通知を有効にする - -1. [Amazon S3 コンソール][5]で、ワーカーに取り込ませたいログを収集している S3 バケットに移動します。 -2. **Properties** タブをクリックします。 -3. **Event notifications** セクションに移動し、**Create event notification** をクリックします。 -4. イベントの名前を入力します。 -5. **Event types** セクションで、**All object create events** をクリックします。ワーカーはオブジェクト作成イベントにのみ応答するので、サブスクライブする必要があるのはこれらのイベントだけです。 -6. **Destination** セクションで、**SQS queue** を選択し、先ほど作成した SQS キューを選択します。 -7. **Save changes** をクリックします。 - -SQS キューは、ワーカーが処理するためのメッセージを受信するようになっているはずです。 - -"Unable to validate the following destination configurations" (以下の宛先構成を検証することができません) エラーが発生した場合は、SQS のアクセスポリシーが正しく設定されているか確認してください。 - -## ワーカーの IAM ロールを作成する - -必要な権限だけが与えられるように、ワーカーのために別の IAM ロールを作成します。 - -1. [AWS IAM コンソール][6]に移動します。 -2. ナビゲーションペインで、**Roles** をクリックします。 -3. **Create role** をクリックします。 -4. ロールがアタッチされている信頼されたエンティティタイプを選択します。 -5. **Next** をクリックします。 -6. **Create policy** をクリックします。 -7. **JSON** タブをクリックします。ロールにアタッチする必要がある最小限の権限をコピーして貼り付けます。 - ```json - { - "Version": "2012-10-17", - "Statement": [ - { - "Effect": "Allow", - "Action": [ - "sqs:DeleteMessage", - "s3:GetObject", - "sqs:ReceiveMessage", - "s3:ListBucket" - ], - "Resource": [ - "arn:aws:s3:::${BUCKET_NAME}/*", - "arn:aws:s3:::${BUCKET_NAME}", - "arn:aws:sqs:${REGION}:${ACCOUNT_ID}:${QUEUE_NAME}" - ] - } - ] - } - ``` -8. `${REGION`}、`${AWS_ACCOUNT_ID}`、`${QUEUE_NAME}`、`${BUCKET_NAME}` を、該当する AWS アカウント情報、使用するキュー名とバケット名に置き換えます。ロールを EC2 インスタンスにアタッチしたり、ユーザーから引き受けたりしたい場合は、さらにロールの権限を変更する必要があります。 -9. **Next: Tags** をクリックします。オプションで、タグを追加します。 -10. **Next: Review** をクリックします。 -11. ポリシーの名前を入力します。 -12. **Create policy** をクリックします。 - -実行中の観測可能性パイプラインのプロセスにロールを適用します。EC2 インスタンスにロールをアタッチするか、指定されたユーザープロファイルからロールを引き受けることでこれを行うことができます。 - -## SQS キューから通知を受け取るようにワーカーを構成する - -1. 以下のソース構成例を参考に、ワーカーを設定して、 - a. SQS のイベント通知を受信します。 - b. S3 バケット内の関連ログを読み取ります。 - c. コンソールにログを発行します。 - ```yaml - sources: - cloudtrail: - type: aws_s3 - region: ${REGION} - sqs: - queue_url: ${SQS_URL} - ``` -2. `${REGION}` は AWS アカウントのリージョンに置き換えてください。`${SQS_URL}` をコンソールの SQS キューの **Details** セクションに記載されている HTTP URL に置き換えます。 - -その他のオプションについては、[Amazon S3 ソースドキュメント][7]を参照してください。 - -Amazon S3 のソースをセットアップした後は、データを操作するための[変換][8]と、ユースケースに応じた宛先にログを出力するための[シンク][9]を追加することができます。ソース、変換、シンクの詳細については、[構成][3]を参照してください。 - -## バッチ化された Amazon S3 ログイベントを分離するようにワーカーを構成する - - -ほとんどのサービス (例えば CloudTrail) は S3 にログをバッチで送信するので、ワーカーが受け取る各イベントは複数のログで構成されていることになります。以下の例では、`Records` はバッチされた 3 つのログイベントの配列です。 - -```json -{ - "Records": [ - { - "log event 1": "xxxx" - }, - { - "log event 2": "xxxx" - }, - { - "log event 3": "xxxx" - } - ] -} -``` - -以下の `explode` と `map` 変換を追加して、バッチされたログイベントを個々のイベントに分離し、シンクで正しく処理できるようにします。 - -```json -transforms: - explode: - type: remap - inputs: - - cloudtrail - source: |- - .message = parse_json!(.message) - . = unnest!(.message.Records) - - map: - type: remap - inputs: - - explode - source: |- - merge!(., .message.Records) - del(.message) -``` - -この例では、`parse_json` 関数が文字列を JSON にパースしています。 - -`unnest` 関数は、バッチされたログイベントを個々のログイベントの配列に分離します。 - -``` -[ - {"Records": {"log event 1": "xxx"}}, - {"Records": {"log event 2": "xxx"}}, - {"Records": {"log event 3": "xxx"}} -] -``` - -次に、`merge` 関数が `.Records` のデータをトップレベルに折り畳み、各ログイベントが個々のログ行になるようにします。`del` 関数は、余計なフィールドを削除します。 - -``` -{"log event 1": "xxx"} -``` -``` -{"log event 2": "xxx"} -``` -``` -{"log event 3": "xxx"} -``` - -### その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/observability_pipelines/#observability-pipelines-worker -[2]: /ja/observability_pipelines/setup/ -[3]: /ja/observability_pipelines/configurations/ -[4]: https://console.aws.amazon.com/sqs/home -[5]: https://console.aws.amazon.com/s3/ -[6]: https://console.aws.amazon.com/iam/ -[7]: /ja/observability_pipelines/reference/sources/#awss3 -[8]: /ja/observability_pipelines/reference/transforms/ -[9]: /ja/observability_pipelines/reference/sinks/ \ No newline at end of file diff --git a/content/ja/observability_pipelines/reference/_index.md b/content/ja/observability_pipelines/legacy/reference/_index.md similarity index 81% rename from content/ja/observability_pipelines/reference/_index.md rename to content/ja/observability_pipelines/legacy/reference/_index.md index d306b486e8545..b3709b4442685 100644 --- a/content/ja/observability_pipelines/reference/_index.md +++ b/content/ja/observability_pipelines/legacy/reference/_index.md @@ -7,6 +7,6 @@ cascade: type: リファレンス disable_sidebar: true disable_toc: true -title: リファレンス +title: Threat Monitoring and Protection type: リファレンス --- diff --git a/content/ja/observability_pipelines/reference/sources.md b/content/ja/observability_pipelines/legacy/reference/sources.md similarity index 58% rename from content/ja/observability_pipelines/reference/sources.md rename to content/ja/observability_pipelines/legacy/reference/sources.md index 34fced9e35b20..fe8d3042408de 100644 --- a/content/ja/observability_pipelines/reference/sources.md +++ b/content/ja/observability_pipelines/legacy/reference/sources.md @@ -2,7 +2,13 @@ aliases: - /ja/integrations/observability_pipelines/guide/ - /ja/observability_pipelines/integrations/ -title: ソース +- /ja/observability_pipelines/reference/sources/ +legacy: true +title: OOTB ルール --- +{{< site-region region="gov" >}} +
Observability Pipelines は、US1-FED Datadog サイトではご利用いただけません。
+{{< /site-region >}} + ソースは、データが収集され、観測可能性パイプラインに送信される場所です。構成内のソースコンポーネントは、観測可能性パイプラインがソースからデータを収集または受信する方法を定義します。 \ No newline at end of file diff --git a/content/ja/observability_pipelines/reference/sinks.md b/content/ja/observability_pipelines/reference/sinks.md deleted file mode 100644 index c06cb5d858755..0000000000000 --- a/content/ja/observability_pipelines/reference/sinks.md +++ /dev/null @@ -1,9 +0,0 @@ ---- -title: シンク ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は、US1-FED Datadog サイトではご利用いただけません。
-{{< /site-region >}} - -シンクとは、イベントの宛先です。各シンクの設計と送信方法は、それが相互作用するダウンストリームサービスによって決定されます。例えば、`socket` シンクは個々のイベントをストリームし、一方、`aws_s3` シンクはデータをバッファリングし、フラッシュします。 \ No newline at end of file diff --git a/content/ja/observability_pipelines/reference/transforms.md b/content/ja/observability_pipelines/reference/transforms.md deleted file mode 100644 index 43269e2987f5f..0000000000000 --- a/content/ja/observability_pipelines/reference/transforms.md +++ /dev/null @@ -1,5 +0,0 @@ ---- -title: 変換 ---- - -変換を使用すると、データをパース、構造化、エンリッチ化することができます。パイプラインで複数の変換を使用することができます。 \ No newline at end of file diff --git a/content/ja/observability_pipelines/setup/_index.md b/content/ja/observability_pipelines/setup/_index.md deleted file mode 100644 index 3fe31b63cfc9b..0000000000000 --- a/content/ja/observability_pipelines/setup/_index.md +++ /dev/null @@ -1,326 +0,0 @@ ---- -aliases: -- /ja/getting_started/observability_pipelines/ -- /ja/observability_pipelines/installation/ -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: ドキュメント - text: 観測可能性パイプラインのデータの操作 -- link: /observability_pipelines/production_deployment_overview/ - tag: ドキュメント - text: 観測可能性パイプラインワーカーのデプロイ設計と原則 -- link: /observability_pipelines/architecture/ - tag: ドキュメント - text: 観測可能性パイプラインワーカーの本番デプロイ設計と原則 -- link: https://dtdg.co/d22op - tag: ラーニングセンター - text: 観測可能性パイプラインによる安心・安全なローカル処理 -kind: documentation -title: 観測可能性パイプラインワーカーの設定 -type: multi-code-lang ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は、US1-FED Datadog サイトではご利用いただけません。
-{{< /site-region >}} - -## 概要 - -[Observability Pipelines Worker][1] は、ログをあらゆるソースからあらゆる宛先に収集、処理、ルーティングすることができます。Datadog を使用することで、Observability Pipelines Worker のデプロイメントを大規模に構築・管理することができます。 - -観測可能性パイプラインワーカーを使い始めるには、いくつかの方法があります。 - -- [クイックスタート](#quickstart): デモデータを出力するシンプルなパイプラインを備えたワーカーをインストールすれば、すぐに使い始められます。 -- [Datadog セットアップガイド][2]: Datadog Agent からデータを受信し、Datadog へルーティングするためのすぐに使えるパイプラインを備えたワーカーをインストールします。 -- [Datadog アーカイブセットアップガイド][3]: Datadog Agent からデータを受信し、Datadog と S3 へルーティングするためのすぐに使えるパイプラインを備えたワーカーをインストールします。 -- [Splunk セットアップガイド][4]: Splunk HEC からデータを受信し、Splunk と Datadog の両方へルーティングするためのすぐに使えるパイプラインを備えたワーカーをインストールします。 - -このドキュメントでは、クイックスタートのインストール手順を説明し、次のステップのためのリソースを提供します。このソフトウェアの使用および運用には、[エンドユーザーライセンス契約][5]が適用されます。 - -## デプロイメントモード - -{{% op-deployment-modes %}} - -## 前提条件 - -観測可能性パイプラインワーカーをインストールするには、以下が必要です。 - -- 有効な [Datadog API キー][7]。 -- パイプライン ID。 - -新しい API キーとパイプラインを生成するには - -1. [観測可能性パイプライン][6]に移動します。 -2. **New Pipeline** をクリックします。 -3. パイプラインの名前を入力します。 -4. **Next** をクリックします。 -4. 希望するテンプレートを選択し、指示に従います。 - -## Quickstart - -以下の手順に従ってワーカーをインストールし、デモデータを使用するサンプルパイプライン構成をデプロイします。 - -### 観測可能性パイプラインワーカーのインストール - -{{< tabs >}} -{{% tab "Docker" %}} - -Observability Pipelines Worker Docker イメージは[こちら][1]の Docker Hub に公開されています。 - -1. [サンプルのパイプラインコンフィギュレーションファイル][2]をダウンロードします。この構成は、デモデータを出力し、データをパースして構造化し、それをコンソールと Datadog に送信します。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][3]を参照してください。 - -2. 以下のコマンドを実行して、Docker でObservability Pipelines Worker を起動します。 - - ```shell - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -p 8282:8282 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - - `` は Datadog API キー、`` は観測可能性パイプライン構成 ID、`` は {{< region-param key="dd_site" code="true" >}} に置き換えてください。**注**: `./pipeline.yaml` には、ステップ 1 でダウンロードした構成の相対パスまたは絶対パスを指定します。 - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/quickstart/pipeline.yaml -[3]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. AWS EKS 用の [Helm チャート値ファイル][1]をダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/aws_eks.yaml -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Azure AKS" %}} -1. Azure AKS 用の [Helm チャート値ファイル][1]をダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f azure_aks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/azure_aks.yaml -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Google GKE" %}} -1. Google GKE 用の [Helm チャート値ファイル][1]をダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f google_gke.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/google_gke.yaml -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} - -1 行のインストールスクリプトまたは手動でワーカーをインストールします。 -#### 1 行のインストールスクリプト - -1. 1 行のインストールコマンドを実行して、ワーカーをインストールします。`` を Datadog API キー、`` を観測可能性パイプライン ID、`` を {{< region-param key="dd_site" code="true" >}} に置き換えます。 - - ``` - DD_API_KEY= DD_OP_PIPELINE_ID= DD_SITE= bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_op_worker1.sh)" - ``` - -2. [サンプルのコンフィギュレーションファイル][1]をホストの `/etc/observability-pipelines-worker/pipeline.yaml` にダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -3. Worker を起動します。 - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -#### 手動インストール - -1. 以下のコマンドを実行し、APT が HTTPS 経由でダウンロードするようにセットアップします。 - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. 以下のコマンドを実行して、システム上に Datadog の `deb` リポジトリをセットアップし、Datadog のアーカイブキーリングを作成します。 - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. 以下のコマンドを実行し、ローカルの `apt` リポジトリを更新し、Worker をインストールします。 - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. キーとサイト ({{< region-param key="dd_site" code="true" >}}) を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -5. ホストの `/etc/observability-pipelines-worker/pipeline.yaml` に[サンプルコンフィギュレーションファイル][1]をダウンロードします。 - -6. ワーカーを起動します。 - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} - -1 行のインストールスクリプトまたは手動でワーカーをインストールします。 - -#### 1 行のインストールスクリプト - -1. 1 行のインストールコマンドを実行して、ワーカーをインストールします。`` を Datadog API キー、`` を観測可能性パイプライン ID、`` を {{< region-param key="dd_site" code="true" >}} に置き換えます。 - - ``` - DD_API_KEY= DD_OP_PIPELINE_ID= DD_SITE= bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_op_worker1.sh)" - ``` - -2. [サンプルのコンフィギュレーションファイル][1]をホストの `/etc/observability-pipelines-worker/pipeline.yaml` にダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -3. 以下のコマンドを実行してワーカーを起動します。 - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -#### 手動インストール - -1. 以下のコマンドを実行して、システム上に Datadog の `rpm` リポジトリをセットアップします。 - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public - EOF - ``` - - **注:** RHEL 8.1 または CentOS 8.1 を使用している場合は、上記の構成で `repo_gpgcheck=1` の代わりに `repo_gpgcheck=0` を使用してください。 - -2. パッケージを更新し、Worker をインストールします。 - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. キーとサイト ({{< region-param key="dd_site" code="true" >}}) を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -4. [サンプルのコンフィギュレーションファイル][1]をホストの `/etc/observability-pipelines-worker/pipeline.yaml` にダウンロードします。サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -5. 以下のコマンドを実行してワーカーを起動します。 - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/pipeline.yaml -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} - -1. [サンプル構成][1]をダウンロードします。 -1. サンプル構成を使って、既存の Terraform に Worker モジュールをセットアップします。必ず、構成内の `vpc-id`、`subnet-ids`、`region` の値を AWS のデプロイに合わせて更新します。また、パイプラインに合わせて `datadog-api-key` と `pipeline-id` の値も更新します。 - -サンプル構成で使用されているソース、トランスフォーム、シンクの詳細については、[構成][2]を参照してください。 - -[1]: /resources/yaml/observability_pipelines/quickstart/terraform_opw.tf -[2]: /ja/observability_pipelines/configurations/ -{{% /tab %}} -{{< /tabs >}} - -データの変換については、[データを活用する][8]を参照してください。 - -## デプロイメントモードの更新 - -{{% op-updating-deployment-modes %}} - -## 次のステップ - -クイックスタートでは、ワーカーのインストールとサンプルパイプライン構成のデプロイについて説明しました。データを受信して Datadog Agent から Datadog へ、または Splunk HEC から Splunk と Datadog へルーティングするためのワーカーのインストール方法については、特定のユースケースを選択してください。 - -{{< partial name="observability_pipelines/use_cases.html" >}} - -複数のワーカーのデプロイとスケーリングに関する推奨事項については - -- Observability Pipelines のアーキテクチャを設計する際に考慮すべき点については、[デプロイメントの設計と原則][9]を参照してください。 -- [OP ワーカーのアグリゲーターアーキテクチャのベストプラクティス][10]を参照してください。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /ja/observability_pipelines/setup/datadog/ -[3]: /ja/observability_pipelines/setup/datadog_with_archiving/ -[4]: /ja/observability_pipelines/setup/splunk/ -[5]: https://www.datadoghq.com/legal/eula/ -[6]: https://app.datadoghq.com/observability-pipelines -[7]: /ja/account_management/api-app-keys/#api-keys -[8]: /ja/observability_pipelines/working_with_data/ -[9]: /ja/observability_pipelines/production_deployment_overview/ -[10]: /ja/observability_pipelines/architecture/ \ No newline at end of file diff --git a/content/ja/observability_pipelines/setup/datadog.md b/content/ja/observability_pipelines/setup/datadog.md deleted file mode 100644 index 59278c4696462..0000000000000 --- a/content/ja/observability_pipelines/setup/datadog.md +++ /dev/null @@ -1,586 +0,0 @@ ---- -aliases: -- /ja/agent/vector_aggregation/ -- /ja/integrations/observability_pipelines/integrate_vector_with_datadog/ -- /ja/observability_pipelines/integrate_vector_with_datadog/ -- /ja/observability_pipelines/integrations/integrate_vector_with_datadog/ -- /ja/observability_pipelines/production_deployment_overview/integrate_datadog_and_the_observability_pipelines_worker/ -further_reading: -- link: /observability_pipelines/production_deployment_overview/ - tag: ドキュメント - text: 観測可能性パイプラインワーカーの本番デプロイ設計と原則 -- link: https://learn.datadoghq.com/courses/safe-and-secure-local-processing-with-observability-pipelines - tag: ラーニングセンター - text: 観測可能性パイプラインによる安心・安全なローカル処理 -kind: ドキュメント -title: Datadog で観測可能性パイプラインを設定する ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は、US1-FED Datadog サイトでは利用できません。
-{{< /site-region >}} - -## 概要 - -[Observability Pipelines Worker][1] は、ログやメトリクスをあらゆるソースからあらゆる宛先に収集、処理、ルーティングすることができます。Datadog を使用することで、Observability Pipelines Worker のデプロイメントを大規模に構築・管理することができます。 - -このガイドでは、一般的なツールのクラスターにWorkerをデプロイし、Datadog Agent がWorkerにログとメトリクスを送信するように構成する方法を説明します。 - -{{< img src="observability_pipelines/setup/opw-dd-pipeline.png" alt="Observability Pipelines アグリゲーターを通してデータを送信するいくつかのワークロードクラスターの図。" >}} - -## 仮定 -* すでに Datadog を使用していて、Observability Pipelines を使用したい。 -* Observability Pipelines Worker がデプロイされるクラスターや、集計されるワークロードへの管理アクセス権がある。 -* 環境には一般的なツールまたはセキュリティクラスターがあり、他のすべてのクラスターはこれに接続されている。 - -## 前提条件 -インストールする前に、以下をお持ちであることを確認してください。 - -* 有効な [Datadog API キー][2]。 -* パイプライン ID。 - -[Observability Pipelines][3] で、この 2 つを生成することができます。 - -### プロバイダー固有の要件 -{{< tabs >}} -{{% tab "Docker" %}} -マシンが Docker を実行するように構成されていることを確認します。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker 用に別のノードプールを作成することを推奨しており、これは本番デプロイのための推奨構成でもあります。 - -* [EBS CSI ドライバー][1]が必要です。インストールされているかどうかは、以下のコマンドを実行し、リストの中に `ebs-csi-controller` があるかどうかで確認することができます。 - - ```shell - kubectl get pods -n kube-system - ``` - -* Worker が正しい EBS ドライブをプロビジョニングするには、`StorageClass` が必要です。すでにインストールされているかどうかは、以下のコマンドを実行し、リストの中に `io2` があるかどうかで確認することができます。 - - ```shell - kubectl get storageclass - ``` - - `io2` がない場合は、[StorageClass YAML][2] をダウンロードし、`kubectl apply` を実行します。 - -* [AWS ロードバランサーコントローラー][3]が必要です。インストールされているかどうかは、以下のコマンドを実行し、リストの中に `aws-load-balancer-controller` があるかどうかで確認することができます。 - - ```shell - helm list -A - ``` -* Datadog では、Amazon EKS >= 1.16 を使用することを推奨しています。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][4]を参照してください。 - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html -[2]: /resources/yaml/observability_pipelines/helm/storageclass.yaml -[3]: https://docs.aws.amazon.com/eks/latest/userguide/aws-load-balancer-controller.html -[4]: /ja/observability_pipelines/architecture/ - -{{% /tab %}} -{{% tab "Azure AKS" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker 用に別のノードプールを作成することを推奨しており、これは本番デプロイのための推奨構成でもあります。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][1]を参照してください。 - -[1]: /ja/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "Google GKE" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker 用に別のノードプールを作成することを推奨しており、これは本番デプロイのための推奨構成でもあります。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][1]を参照してください。 - -[1]: /ja/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -APT ベースの Linux には、プロバイダー固有の要件はありません。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -RPM ベースの Linux には、プロバイダー固有の要件はありません。 -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -AWS アカウントで Worker を実行するには、そのアカウントの管理者権限が必要です。Worker インスタンスを実行するために、以下の情報を収集します。 -* インスタンスが実行される VPC ID。 -* インスタンスが実行されるサブネット ID。 -* VPC が置かれている AWS リージョン。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
CloudFormation を使ったインストールは、リモート構成のみをサポートしています。
-
CloudFormation によるインストールは非本番レベルのワークロードにのみ使用してください。
- -AWS アカウントで Worker を実行するには、そのアカウントの管理者権限が必要です。Worker インスタンスを実行するために、以下の情報を収集します。 -* インスタンスが実行される VPC ID。 -* インスタンスが実行されるサブネット ID。 -* VPC が置かれている AWS リージョン。 -{{% /tab %}} -{{< /tabs >}} - -## Observability Pipelines Worker のインストール - -{{< tabs >}} -{{% tab "Docker" %}} - -Observability Pipelines Worker Docker イメージは[こちら][1]の Docker Hub に公開されています。 - -1. [サンプルパイプラインコンフィギュレーションファイル][2]をダウンロードします。 - -2. 以下のコマンドを実行して、Docker で Observability Pipelines Worker を起動します。 - ``` - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -p 8282:8282 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - `` は Datadog API キー、`` は Observability Pipelines 構成 ID、`` は {{< region-param key="dd_site" code="true" >}} に置き換えてください。`./pipeline.yaml` には、ステップ 1 でダウンロードした構成の相対パスまたは絶対パスを指定します。 - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. AWS EKS 用の [Helm チャート][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/aws_eks.yaml -{{% /tab %}} -{{% tab "Azure AKS" %}} -1. Azure AKS 用の [Helm チャート][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f azure_aks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/azure_aks.yaml -{{% /tab %}} -{{% tab "Google GKE" %}} -1. Google GKE 用の [Helm チャート][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` の値をパイプラインに合わせて置き換え、`site` の値には {{< region-param key="dd_site" code="true" >}} を使用します。その後、以下のコマンドでクラスターにインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f google_gke.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/google_gke.yaml -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -1. 以下のコマンドを実行し、APT が HTTPS 経由でダウンロードするようにセットアップします。 - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. 以下のコマンドを実行して、システム上に Datadog の `deb` リポジトリをセットアップし、Datadog のアーカイブキーリングを作成します。 - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. 以下のコマンドを実行し、ローカルの `apt` リポジトリを更新し、Worker をインストールします。 - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. キーとサイト ({{< region-param key="dd_site" code="true" >}}) を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -5. ホストの `/etc/observability-pipelines-worker/pipeline.yaml` に[サンプルコンフィギュレーションファイル][1]をダウンロードします。 - -6. Worker を起動します。 - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -1. 以下のコマンドを実行して、システム上に Datadog の `rpm` リポジトリをセットアップします。 - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public - EOF - ``` - - **注:** RHEL 8.1 または CentOS 8.1 を使用している場合は、上記の構成で `repo_gpgcheck=1` の代わりに `repo_gpgcheck=0` を使用してください。 - -2. パッケージを更新し、Worker をインストールします。 - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. キーとサイト ({{< region-param key="dd_site" code="true" >}}) を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -4. ホストの `/etc/observability-pipelines-worker/pipeline.yaml` に[サンプルコンフィギュレーションファイル][1]をダウンロードします。 - -5. Worker を起動します。 - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -このサンプル構成を使って、既存の Terraform に Worker モジュールをセットアップします。`vpc-id`、`subnet-ids`、`region` の値を AWS のデプロイに合わせて更新します。パイプラインに合わせて `datadog-api-key` と `pipeline-id` の値を更新します。 - -``` -module "opw" { - source = "git::https://github.com/DataDog/opw-terraform//aws" - vpc-id = "{VPC ID}" - subnet-ids = ["{SUBNET ID 1}", "{SUBNET ID 2}"] - region = "{REGION}" - - datadog-api-key = "{DATADOG API KEY}" - pipeline-id = "{OP PIPELINE ID}" - pipeline-config = <CloudFormation によるインストールは非本番レベルのワークロードにのみ使用してください。 - -AWS アカウントに Worker をインストールするには、CloudFormation テンプレートを使用してスタックを作成します。 - - 1. Worker 用の [CloudFormation テンプレート][1]をダウンロードします。 - - 2. **CloudFormation コンソール**で、**Create stack** をクリックし、**With new resources (standard)** オプションを選択します。 - - 3. **Template is ready** オプションが選択されていることを確認し、*Upload a template file** を選択します。**Choose file** をクリックし、先ほどダウンロードした CloudFormation テンプレートファイルを追加します。**Next** をクリックします。 - - 4. **Specify stack details** でスタック名を入力します。 - - 5. CloudFormation テンプレートのパラメーターを入力します。特別な注意が必要なものがいくつかあります。 - - * `APIKey` および `PipelineID` には、前提条件のセクションで取得したキーと ID を入力します。 - - * `VPCID` および `SubnetIDs` には、先ほど選択したサブネットおよび VPC を入力します。 - - * その他のパラメーターはすべて、Worker をデプロイするのに合理的なデフォルト値に設定されていますが、必要に応じて、ユースケースに合わせて調整することができます。 - - 6. **Next** をクリックします。 - - 7. パラメーターが想定通りであることを確認します。IAM で必要な権限のチェックボックスをクリックし、**Submit** をクリックしてスタックを作成します。 - -この時点で、CloudFormation がインストールを処理します。Worker インスタンスが起動され、必要なソフトウェアをダウンロードし、自動的に実行を開始します。 - -[1]: /resources/yaml/observability_pipelines/cloudformation/datadog.yaml -{{% /tab %}} -{{< /tabs >}} - -### ロードバランシング - -{{< tabs >}} -{{% tab "Docker" %}} -本番環境向けのセットアップは Docker の説明には含まれていません。代わりに、コンテナ化環境でのロードバランシングに関するあなたの会社の基準を参照してください。ローカルマシンでテストする場合は、ロードバランサーの構成は不要です。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -クラウドプロバイダーが提供するロードバランサーを使用してください。 -ロードバランサーはデフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内でのみアクセス可能です。 - -Datadog Agent の構成時に Helm から渡されたロードバランサーの URL を使用します。 - -[AWS ロードバランサーコントローラー][1]でプロビジョニングされた NLB を使用します。 - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][2]を参照してください。 -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングの簡素化を目指していますが、クロス AZ (アヴェイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -サンプルの構成では、このコントローラーで利用可能なクロスゾーンのロードバランシング機能は有効化されていません。これを有効にするには、`service` ブロックに以下のアノテーションを追加します。 - -``` -service.beta.kubernetes.io/aws-load-balancer-attributes: load_balancing.cross_zone.enabled=true -``` - -詳しくは [AWS ロードバランサーコントローラー][3]をご覧ください。 - -[1]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/ -[2]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -[3]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/service/annotations/#load-balancer-attributes -{{% /tab %}} -{{% tab "Azure AKS" %}} -クラウドプロバイダーが提供するロードバランサーを使用します。 -これらは、デフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内からのみアクセス可能です。 - -Datadog Agent の構成時に Helm から渡されたロードバランサーの URL を使用します。 - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][1]を参照してください。 - -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングの簡素化を目指していますが、クロス AZ (アヴェイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -[1]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "Google GKE" %}} -クラウドプロバイダーが提供するロードバランサーを使用します。 -これらは、デフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内からのみアクセス可能です。 - -Datadog Agent の構成時に Helm から渡されたロードバランサーの URL を使用します。 - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][1]を参照してください。 - -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングの簡素化を目指していますが、クロス AZ (アヴェイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -グローバルアクセスは、共有ツールクラスターで使用するために必要であると考えられるため、デフォルトで有効になっています。 - -[1]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -シングルマシンでのインストールのため、ロードバランシングのビルトインサポートは提供されません。ロードバランサーの準備は、あなたの会社の標準に従って行ってください。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -シングルマシンでのインストールのため、ロードバランシングのビルトインサポートは提供されません。ロードバランサーの準備は、あなたの会社の標準に従って行ってください。 -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -NLB は Terraform モジュールによって準備され、インスタンスを指すように設定されます。DNS アドレスは Terraform の `lb-dns` 出力で返されます。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
CloudFormation によるインストールは非本番レベルのワークロードにのみ使用してください。
- -CloudFormation テンプレートによって NLB がプロビジョニングされ、オートスケーリンググループを指すように構成されます。その DNS アドレスが CloudFormation の出力 `LoadBalancerDNS` で返されます。 -{{% /tab %}} -{{< /tabs >}} - -### バッファリング -Observability Pipelines には複数のバッファリング戦略があり、ダウンストリーム障害に対するクラスターの耐性を高めることができます。提供されているサンプル構成では、ディスクバッファを使用していますが、その容量は、Observability Pipelines のデプロイメントにおいて、10Mbps/コアのデータレートで約 10 分間のデータを保持できるように評価されています。これは、一過性の問題が解決するまでの時間や、インシデント対応担当者が観測可能性データに対して何をすべきかを判断するのに十分な時間であることが多いでしょう。 - -{{< tabs >}} -{{% tab "Docker" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。ホストマシンがコンテナのマウントポイントに十分なストレージ容量を割り当てていることを確認してください。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -AWS の場合、Datadog は `io2` EBS ドライブファミリーの使用を推奨しています。代わりに、`gp3` ドライブを使用することも可能です。 -{{% /tab %}} -{{% tab "Azure AKS" %}} -Azure AKS の場合、Datadog は `default` (`managed-csi` とも呼ばれる) ディスクの使用を推奨しています。 -{{% /tab %}} -{{% tab "Google GKE" %}} -Google GKE では、Datadog は SSD を基盤とする `premium-rwo` ドライブクラスの使用を推奨しています。HDD を基盤とする `standard-rwo` クラスは、バッファにとって十分な書き込み性能を提供しない可能性があります。 -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。サンプルの構成を使用する場合は、バッファリングに使用できる容量が少なくとも 288GB あることを確認する必要があります。 - -可能であれば、その場所に別の SSD をマウントすることをお勧めします。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。サンプルの構成を使用する場合は、バッファリングに使用できる容量が少なくとも 288GB あることを確認する必要があります。 - -可能であれば、その場所に別の SSD をマウントすることをお勧めします。 {{% /tab %}} -{{% tab "Terraform (AWS)" %}} -デフォルトでは、各インスタンスに 288GB の EBS ドライブが割り当てられており、上記のサンプル構成では、これをバッファリングに使用するように設定されています。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
この CloudFormation テンプレートによって作成される EBS ドライブのライフサイクルは、併せて作成されたインスタンスと連動しています。そのため、たとえばオートスケーリンググループによってインスタンスが終了された場合に、データが失われます。したがって、CloudFormation によるインストールは非本番レベルのワークロードにのみ使用してください。
- -デフォルトで、各インスタンスには 288GB の EBS ドライブが割り当てられ、インスタンスのブート時に自動マウントされ、フォーマットされます。 -{{% /tab %}} -{{< /tabs >}} - -## Datadog Agent をObservability Pipelines Worker に接続する -Datadog Agent のログとメトリクスを Observability Pipelines Worker に送信するには、以下のように Agent の構成を更新してください。 - -```yaml -observability_pipelines_worker: - logs: - enabled: true - url: "http://:8282" - metrics: - enabled: true - url: "http://:8282" - -``` - -`OPW_HOST` は先ほど設定したロードバランサーやマシンの IP です。シングルホスト Docker ベースのインストールの場合、これは基盤となるホストの IP アドレスです。Kubernetes ベースのインストールでは、以下のコマンドを実行して `EXTERNAL-IP` をコピーすることで取得できます。 - -```shell -kubectl get svc opw-observability-pipelines-worker -``` - -Terraform のインストールでは、 `lb-dns` 出力が必要な値を提供します。CloudFormation のインストールでは、CloudFormation の出力 `LoadBalancerDNS` で使用すべき正しい URL を確認できます。 - -この時点で、観測可能性データは Worker に送られ、データ処理に利用できるようになっているはずです。次のセクションでは、デフォルトで含まれている処理と、利用可能な追加オプションについて説明します。 - -## データを活用する -提供されるサンプル構成には、Observability Pipelines ツールを示す処理手順の例があり、Datadog に送られるデータが正しいフォーマットであることを保証します。 - -### ログの処理 -Observability Pipelines のサンプル構成は以下を実行します。 -- Datadog Agent から Observability Pipelines Worker に送信されたログを収集する。 -- Observability Pipelines Worker を経由してくるログにタグを付ける。これは、クラスターを更新する際に、どのトラフィックがまだ Worker に移行する必要があるかを判断するのに役立ちます。これらのタグはまた、不均衡がある場合に備えて、ログがロードバランサーを介してルーティングされている方法を示しています。 -- Worker を経由するログのステータスを修正する。Datadog Agent がコンテナからログを収集する方法のため、提供される `.status` 属性はメッセージの実際のレベルを適切に反映しません。これは、Worker からログを受信するバックエンドでのパースルールの問題を防ぐために削除されます。 -- Datadog メトリクスとログの両方にデータをデュアルシッピングすることで、ログをルーティングする。 - -例示された構成において、以下の 2 つは重要なコンポーネントとなっています。 -- `logs_parse_ddtags`: 文字列に格納されているタグを構造化データにパースします。 -- `logs_finish_ddtags`: Datadog Agent が送信するような形式になるようにタグを再エンコードします。 - -内部的には、Datadog Agent はログタグを 1 つの文字列の CSV として表現します。これらのタグを効果的に操作するには、取り込みエンドポイントに送信する前に、パース、修正、そして再エンコードする必要があります。これらのステップは、これらのアクションを自動的に実行するように設計されています。パイプラインに加える修正、特にタグの操作に関しては、この 2 つのステップの間に行う必要があります。 - -### メトリクスの処理 -提供されるメトリクスパイプラインは、追加のパースおよび再エンコード手順を必要としません。ログパイプラインと同様に、トラフィックアカウンティングの目的で、受信したメトリクスにタグを付けます。カーディナリティが増えるため、カスタムメトリクスではコストに影響することがあります。 - -この時点で、環境は、データが流れる Observability Pipelines 用に構成されています。特定のユースケースにはさらなる構成が必要になる可能性がありますが、提供されているツールはその出発点となります。 - -## その他の参考資料 -{{< partial name="whats-next/whats-next.html" >}} - - -[1]: /ja/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /ja/account_management/api-app-keys/#api-keys -[3]: https://app.datadoghq.com/observability-pipelines/create \ No newline at end of file diff --git a/content/ja/observability_pipelines/setup/splunk.md b/content/ja/observability_pipelines/setup/splunk.md deleted file mode 100644 index 612ebc4771241..0000000000000 --- a/content/ja/observability_pipelines/setup/splunk.md +++ /dev/null @@ -1,607 +0,0 @@ ---- -aliases: -- /ja/integrations/observability_pipelines/splunk -- /ja/observability_pipelines/guide/setup_splunk_environment -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: ドキュメント - text: 観測可能性パイプラインを使ったデータの操作 -- link: /observability_pipelines/configurations/ - tag: ドキュメント - text: 観測可能性パイプラインの構成の詳細 -- link: https://dtdg.co/d22op - tag: ラーニングセンター - text: 観測可能性パイプラインによる安心・安全なローカル処理 -kind: ドキュメント -title: Splunk 環境で観測可能性パイプラインを設定する ---- - -{{< site-region region="gov" >}} -
Observability Pipelines は US1-FED Datadog サイトでは利用できません。
-{{< /site-region >}} - -
Observability Pipelines は、Splunk の HTTP Event Collector (HEC) プロトコルのみをサポートしています。
- -## 概要 - -[Observability Pipelines Worker][1] は、ログをあらゆるソースからあらゆる宛先に収集、処理、ルーティングすることができます。Datadog を使用することで、Observability Pipelines Worker のデプロイメントを大規模に構築・管理することができます。 - -このガイドでは、共通ツールクラスターに Worker をデプロイし、Splunk が Worker を経由してログを送信し、Datadog に二重書き込みするように構成する手順を説明します。 - -{{< img src="observability_pipelines/guide/splunk/setup2.png" alt="いくつかの Splunk Heavy Forwarder が Observability Pipelines アグリゲーターを経由してデータを送信している図。" >}} - -## 仮定 -* Splunk HTTP Event Collector (HEC) プロトコルと互換性のあるログコレクターを使用している。 -* コレクターとログが送信される Splunk インデックスへの管理者アクセス権を持っている。 -* Observability Pipelines Worker がデプロイされるクラスターへの管理アクセス権がある。 -* 環境には一般的なツールまたはセキュリティクラスターがあり、他のすべてのクラスターはこれに接続されている。 - -## 前提条件 -インストールする前に、以下があることを確認してください。 - -* 有効な [Datadog API キー][2]。 -* パイプライン ID。 - -[Observability Pipelines][3] で、この 2 つを生成することができる。 - - -### プロバイダー固有の要件 -{{< tabs >}} -{{% tab "Docker" %}} -マシンが Docker を実行するように構成されていることを確認します。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker のために別のノードプールを作成することを推奨し、これは本番デプロイメントの推奨構成でもあります。 - -* [EBS CSI ドライバー][1]が必要です。インストールされているかどうかは、以下のコマンドを実行し、リストの中に `ebs-csi-controller` があるかどうかで確認することができます。 - - ```shell - kubectl get pods -n kube-system - ``` - -* Worker が正しい EBS ドライブを準備するには、`StorageClass` が必要です。すでにインストールされているかどうかは、以下のコマンドを実行し、リストの中に `io2` があるかどうかで確認することができます。 - - ```shell - kubectl get storageclass - ``` - - `io2` がない場合は、[StorageClass YAML][2] をダウンロードし、`kubectl apply` を実行します。 - -* [AWS ロードバランサーコントローラー][3]が必要です。インストールされているかどうかは、以下のコマンドを実行し、リストの中に `aws-load-balancer-controller` があるかどうかで確認することができます。 - - ```shell - helm list -A - ``` -* Datadog では、Amazon EKS >= 1.16 を使用することを推奨しています。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][4]を参照してください。 - -[1]: https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html -[2]: /resources/yaml/observability_pipelines/helm/storageclass.yaml -[3]: https://docs.aws.amazon.com/eks/latest/userguide/aws-load-balancer-controller.html -[4]: /ja/observability_pipelines/architecture/ - -{{% /tab %}} -{{% tab "Azure AKS" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker のために別のノードプールを作成することを推奨し、これは本番デプロイメントの推奨構成でもあります。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][1]を参照してください。 - -[1]: /ja/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "Google GKE" %}} -Kubernetes ノードで Worker を実行するには、1 つの CPU と 512MB RAM が利用可能なノードが最低 2 台必要です。Datadog は、Worker のために別のノードプールを作成することを推奨し、これは本番デプロイメントの推奨構成でもあります。 - -本番レベルの要件については、[OPW アグリゲーターアーキテクチャのベストプラクティス][1]を参照してください。 - -[1]: /ja/observability_pipelines/architecture/ -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -APT ベースの Linux には、プロバイダー固有の要件はありません。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -APT ベースの Linux には、プロバイダー固有の要件はありません。 -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -AWS アカウントで Worker を実行するには、そのアカウントの管理者権限が必要です。Worker インスタンスを実行するために、以下の情報を収集します。 -* インスタンスが実行される VPC ID。 -* インスタンスが実行されるサブネット ID。 -* VPC が置かれている AWS リージョン。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
現時点では、CloudFormation を使ったインストールは、リモート構成のみをサポートしています。
-
CloudFormation を使ったインストールは、非本番レベルのワークロードにのみ使用してください。
- -AWS アカウントで Worker を実行するには、そのアカウントの管理者権限が必要です。Worker インスタンスを実行するために、以下の情報を収集します。 -* インスタンスが実行される VPC ID。 -* インスタンスが実行されるサブネット ID。 -* VPC が置かれている AWS リージョン。 -{{% /tab %}} -{{< /tabs >}} - -## Splunk インデックスの設定 - -
入力で Enable Indexer Acknowledgments 設定を有効にすると、Observability Pipelines は確認応答をサポートします。
- -Observability Pipelines Worker からログを受信するには、インデックスに HEC 入力と HEC トークンを準備する必要があります。 - - -1. Splunk で、**Settings** > **Data Inputs** に移動します。 -2. 新しい HTTP イベントコレクター入力を追加し、名前を割り当てます。 -3. ログを送信するインデックスを選択します。 - -入力を追加すると、Splunk はトークンを作成します。トークンは通常 UUID 形式です。この記事の後のセクションで提供するサンプル構成では、Observability Pipelines Worker が自分自身を認証できるように、このトークンを構成に追加します。 - -## Observability Pipelines Worker のインストール - -{{< tabs >}} -{{% tab "Docker" %}} - -Observability Pipelines Worker Docker イメージは[こちら][1]の Docker Hub に公開されています。 - -1. [サンプルパイプラインコンフィギュレーションファイル][2]をダウンロードします。 - -2. 以下のコマンドを実行して、Docker でObservability Pipelines Worker を起動します。 - ``` - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -e SPLUNK_HEC_ENDPOINT= \ - -e SPLUNK_TOKEN= \ - -p 8088:8088 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - `` は Datadog API キー、`` は Observability Pipelines 構成 ID、`` は {{< region-param key="dd_site" code="true" >}} に置き換えてください。`SPLUNK_HEC_ENDPOINT` と `SPLUNK_TOKEN` も、[Splunk インデックスの設定](#setting-up-the-splunk-index)で作成した Splunk デプロイと一致する値に更新してください。`./pipeline.yaml` には、ステップ 1 でダウンロードした構成の相対パスまたは絶対パスを指定します。 - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/splunk/pipeline.yaml -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. AWS EKS 用の [Helm チャート値ファイル][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` をそれぞれの値に置き換え、`` を {{< region-param key="dd_site" code="true" >}} に置き換えます。 - ```yaml - datadog: - apiKey: "" - pipelineId: "" - site: "" - ``` - -3. `SPLUNK_HEC_ENDPOINT` と `SPLUNK_HEC_TOKEN` の値を、[Splunk インデックスの設定](#setting-up-the-splunk-index)で作成したトークンを含め、Splunk のデプロイメントに合わせて置き換えます。 - ```yaml - env: - - name: SPLUNK_HEC_ENDPOINT - value: - - name: SPLUNK_TOKEN - value: - ``` - -4. 以下のコマンドでクラスターに Helm チャートをインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/splunk/aws_eks.yaml -{{% /tab %}} -{{% tab "Azure AKS" %}} -1. Azure AKS 用の [Helm チャート値ファイル][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` をそれぞれの値に置き換え、`` を {{< region-param key="dd_site" code="true" >}} に置き換えます。 - ```yaml - datadog: - apiKey: "" - pipelineId: "" - site: "" - ``` - -3. `SPLUNK_HEC_ENDPOINT` と `SPLUNK_HEC_TOKEN` の値を、[Splunk インデックスの設定](#setting-up-the-splunk-index)で作成したトークンを含め、Splunk のデプロイメントに合わせて置き換えます。 - ```yaml - env: - - name: SPLUNK_HEC_ENDPOINT - value: - - name: SPLUNK_TOKEN - value: - ``` - -4. 以下のコマンドでクラスターに Helm チャートをインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f azure_aks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/splunk/azure_aks.yaml -{{% /tab %}} -{{% tab "Google GKE" %}} -1. Google GKE 用の [Helm チャート値ファイル][1]をダウンロードします。 - -2. Helm チャートで、`datadog.apiKey` と `datadog.pipelineId` をそれぞれの値に置き換え、`` を {{< region-param key="dd_site" code="true" >}} に置き換えます。 - ```yaml - datadog: - apiKey: "" - pipelineId: "" - site: "" - ``` - -3. `SPLUNK_HEC_ENDPOINT` と `SPLUNK_HEC_TOKEN` の値を、[Splunk インデックスの設定](#setting-up-the-splunk-index)で作成したトークンを含め、Splunk のデプロイメントに合わせて置き換えます。 - ```yaml - env: - - name: SPLUNK_HEC_ENDPOINT - value: - - name: SPLUNK_TOKEN - value: - ``` - -4. 以下のコマンドでクラスターに Helm チャートをインストールします。 - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f google_gke.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/splunk/google_gke.yaml -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -1. 以下のコマンドを実行し、APT が HTTPS 経由でダウンロードするようにセットアップします。 - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. 以下のコマンドを実行して、システム上に Datadog の `deb` リポジトリをセットアップし、Datadog のアーカイブキーリングを作成します。 - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. 以下のコマンドを実行し、ローカルの `apt` リポジトリを更新し、Worker をインストールします。 - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. キー、サイト ({{< region-param key="dd_site" code="true" >}})、Splunk 情報を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - SPLUNK_HEC_ENDPOINT= - SPLUNK_TOKEN= - EOF - ``` - -5. ホストの `/etc/observability-pipelines-worker/pipeline.yaml` に[サンプルコンフィギュレーションファイル][1]をダウンロードします。 - -6. Worker を起動します。 - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/splunk/pipeline.yaml -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -1. 以下のコマンドを実行して、システム上に Datadog の `rpm` リポジトリをセットアップします。 - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - EOF - ``` - - **注:** RHEL 8.1 または CentOS 8.1 を使用している場合は、上記の構成で `repo_gpgcheck=1` の代わりに `repo_gpgcheck=0` を使用してください。 - -2. パッケージを更新し、Worker をインストールします。 - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. キー、サイト ({{< region-param key="dd_site" code="true" >}})、Splunk 情報を Worker の環境変数に追加します。 - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - SPLUNK_HEC_ENDPOINT= - SPLUNK_TOKEN= - EOF - ``` - -4. ホストの `/etc/observability-pipelines-worker/pipeline.yaml` に[サンプルコンフィギュレーションファイル][1]をダウンロードします。 - -5. Worker を起動します。 - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/splunk/pipeline.yaml -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -このサンプル構成を使って、既存の Terraform に Worker モジュールをセットアップします。`vpc-id`、`subnet-ids`、`region` の値を AWS のデプロイメントに合わせて更新します。パイプラインに合わせて `datadog-api-key` と `pipeline-id` の値を更新します。 - -``` -module "opw" { - source = "git::https://github.com/DataDog/opw-terraform//aws" - vpc-id = "{VPC ID}" - subnet-ids = ["{SUBNET ID 1}", "{SUBNET ID 2}"] - region = "{REGION}" - - datadog-api-key = "{DATADOG API KEY}" - pipeline-id = "{OP PIPELINE ID}" - environment = { - "SPLUNK_TOKEN": "", - } - pipeline-config = < - default_token: $${SPLUNK_TOKEN} - encoding: - codec: json - buffer: - type: disk - max_size: 154618822656 -EOT -} -``` -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
CloudFormation を使ったインストールは、非本番レベルのワークロードにのみ使用してください。
- -AWS アカウントに Worker をインストールするには、CloudFormation テンプレートを使用してスタックを作成します。 - - 1. Worker 用の [CloudFormation テンプレート][1]をダウンロードします。 - - 2. **CloudFormation コンソール**で、**Create stack** をクリックし、**With new resources (standard)** オプションを選択します。 - - 3. **Template is ready** オプションが選択されていることを確認します。**Choose file** をクリックし、先ほどダウンロードした CloudFormation テンプレートファイルを追加します。**Next** をクリックします。 - - 4. **Specify stack details** でスタック名を入力します。 - - 5. CloudFormation テンプレートのパラメーターを入力します。特別な注意が必要なものがいくつかあります。 - - * `APIKey` および `PipelineID` には、前提条件のセクションで取得したキーと ID を入力します。 - - * `SplunkToken` には、Splunk インデックスで先ほど作成したトークンを入力します。 - - * `VPCID` および `SubnetIDs` には、先ほど選択したサブネットおよび VPC を入力します。 - - * その他のパラメーターはすべて、Worker デプロイメントにとって合理的なデフォルト値に設定されていますが、必要に応じてユースケースに合わせて調整することができます。 - - 6. **Next** をクリックします。 - - 7. パラメーターが想定通りであることを確認します。IAM で必要な権限のチェックボックスをクリックし、**Submit** をクリックしてスタックを作成します。 - -この時点で、CloudFormation がインストールを処理します。Worker インスタンスが起動され、インスタンスが自動的に必要なソフトウェアをダウンロードし、実行を開始します。 - -[1]: /resources/yaml/observability_pipelines/cloudformation/splunk.yaml -{{% /tab %}} -{{< /tabs >}} - -### ロードバランシング - -{{< tabs >}} -{{% tab "Docker" %}} -本番環境向けのセットアップは Docker の説明には含まれていません。代わりに、コンテナ化環境でのロードバランシングに関するあなたの会社の基準を参照してください。ローカルマシンでテストする場合は、ロードバランサーの構成は不要です。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -クラウドプロバイダーが提供するロードバランサーを使用してください。 -ロードバランサーはデフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内でのみアクセス可能です。 - -既存のコレクターを構成するときに、Helm から与えられたロードバランサーの URL を使用します。 - -[AWS ロードバランサーコントローラー][1]で準備された NLB を使用します。 - - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][2]を参照してください。 - -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングを簡素化しようとしていますが、クロス AZ (アベイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -サンプルの構成では、このコントローラーで利用可能なクロスゾーンのロードバランシング機能は有効化されていません。これを有効にするには、`service` ブロックに以下のアノテーションを追加します。 - -``` -service.beta.kubernetes.io/aws-load-balancer-attributes: load_balancing.cross_zone.enabled=true -``` - -詳しくは [AWS ロードバランサーコントローラー][3]をご覧ください。 - -[1]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/ -[2]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -[3]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/service/annotations/#load-balancer-attributes -{{% /tab %}} -{{% tab "Azure AKS" %}} -クラウドプロバイダーが提供するロードバランサーを使用します。 -これらは、デフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内からのみアクセス可能です。 - -既存のコレクターを構成するときに、Helm から与えられたロードバランサーの URL を使用します。 - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][1]を参照してください。 - -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングを簡素化しようとしていますが、クロス AZ (アベイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -[1]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "Google GKE" %}} -クラウドプロバイダーが提供するロードバランサーを使用します。 -これらは、デフォルトの Helm セットアップで構成されているオートスケーリングイベントに基づいて調整されます。ロードバランサーは内部向けなので、あなたのネットワーク内からのみアクセス可能です。 - -既存のコレクターを構成するときに、Helm から与えられたロードバランサーの URL を使用します。 - -Worker をスケーリングする際のロードバランサーの推奨事項については、[キャパシティプランニングとスケーリング][1]を参照してください。 - -#### クロスアベイラビリティゾーンロードバランシング -提供されている Helm の構成は、ロードバランシングを簡素化しようとしていますが、クロス AZ (アベイラビリティーゾーン) トラフィックの潜在的な価格的影響を考慮する必要があります。可能な限り、サンプルは複数のクロス AZ ホップが起こりうる状況を避けるよう努めています。 - -グローバルアクセスは、共有ツールクラスターで使用するために必要であると考えられるため、デフォルトで有効になっています。 - -[1]: /ja/observability_pipelines/architecture/capacity_planning_scaling/ -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -シングルマシンでのインストールのため、ロードバランシングのビルトインサポートは提供されません。ロードバランサーの準備は、あなたの会社の標準に従って行ってください。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -シングルマシンでのインストールのため、ロードバランシングのビルトインサポートは提供されません。ロードバランサーの準備は、あなたの会社の標準に従って行ってください。 -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -NLB は Terraform モジュールによって準備され、インスタンスを指すように設定されます。DNS アドレスは Terraform の `lb-dns` 出力で返されます。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
CloudFormation を使ったインストールは、非本番レベルのワークロードにのみ使用してください。
- -CloudFormation テンプレートによって NLB が準備され、オートスケーリンググループを指すように構成されます。その DNS アドレスが CloudFormation の出力値 `LoadBalancerDNS` で返されます。 -{{% /tab %}} -{{< /tabs >}} - -### バッファリング -Observability Pipelines には複数のバッファリング戦略があり、ダウンストリーム障害に対するクラスターの耐性を高めることができます。提供されているサンプル構成では、ディスクバッファを使用していますが、その容量は、Observability Pipelines のデプロイメントにおいて、10Mbps/コアのデータレートで約 10 分間のデータを保持できるように評価されています。これは、一過性の問題が解決するまでの時間や、インシデント対応担当者が観測可能性データに対して何をすべきかを判断するのに十分な時間であることが多いでしょう。 - -{{< tabs >}} -{{% tab "Docker" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。ホストマシンがコンテナのマウントポイントに十分なストレージ容量を割り当てていることを確認してください。 -{{% /tab %}} -{{% tab "AWS EKS" %}} -AWS の場合、Datadog は `io2` EBS ドライブファミリーの使用を推奨しています。代わりに、`gp3` ドライブを使用することも可能です。 -{{% /tab %}} -{{% tab "Azure AKS" %}} -Azure AKS の場合、Datadog は `default` (`managed-csi` とも呼ばれる) ディスクの使用を推奨しています。 -{{% /tab %}} -{{% tab "Google GKE" %}} -Google GKE では、Datadog は SSD を基盤とする `premium-rwo` ドライブクラスの使用を推奨しています。HDD を基盤とする `standard-rwo` クラスは、バッファにとって十分な書き込み性能を提供しない可能性があります。 -{{% /tab %}} -{{% tab "APT ベースの Linux" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。サンプルの構成を使用する場合は、バッファリングに使用できる容量が少なくとも 288GB あることを確認する必要があります。 - -可能であれば、その場所に別の SSD をマウントすることをお勧めします。 -{{% /tab %}} -{{% tab "RPM ベースの Linux" %}} -デフォルトでは、Observability Pipelines Worker のデータディレクトリは `/var/lib/observability-pipelines-worker` に設定されています。サンプルの構成を使用する場合は、バッファリングに使用できる容量が少なくとも 288GB あることを確認する必要があります。 - -可能であれば、その場所に別の SSD をマウントすることをお勧めします。 {{% /tab %}} -{{% tab "Terraform (AWS)" %}} -デフォルトでは、各インスタンスに 288GB の EBS ドライブが割り当てられており、上記のサンプル構成では、これをバッファリングに使用するように設定されています。 -{{% /tab %}} -{{% tab "CloudFormation" %}} - -
この CloudFormation テンプレートによって作成される EBS ドライブのライフサイクルは、併せて作成されたインスタンスと連動しています。そのため、たとえばオートスケーリンググループによってインスタンスが終了された場合に、データが失われます。したがって、CloudFormation を使ったインストールは、非本番レベルのワークロードにのみ使用してください。
- -デフォルトで、各インスタンスには 288GB の EBS ドライブが割り当てられ、インスタンスのブート時に自動マウントされ、フォーマットされます。 -{{% /tab %}} -{{< /tabs >}} - -## Splunk フォワーダーを Observability Pipelines Worker に接続する -Observability Pipelines Worker をインストールして構成し、Splunk インデックスにログを送信したら、既存のコレクターを更新して Worker を指すようにする必要があります。 - -ほとんどの Splunk コレクターは、Observability Pipelines Worker に関連付けられているホスト (またはロードバランサー) の IP/URL を使用して更新できます。 - -Terraform のインストールでは、 `lb-dns` 出力が必要な値を提供します。CloudFormation のインストールでは、CloudFormation の出力 `LoadBalancerDNS` で使用すべき正しい URL を確認できます。 - -さらに、`pipeline.yaml` の Observability Pipelines Worker の `valid_tokens` リストに指定されたトークンと一致するように、認証に使用する HEC トークンで Splunk コレクターを更新する必要があります。 - -``` -# サンプル pipeline.yaml splunk_receiver source -sources: - splunk_receiver: - type: splunk_hec - address: 0.0.0.0:8088 - valid_tokens: - - ${SPLUNK_TOKEN} -``` -提供されているサンプル構成では、Splunk のソースと宛先の両方で同じ HEC トークンが使用されています。 - -この時点で、ログは Worker に送られ、処理に利用できるようになっているはずです。次のセクションでは、デフォルトで含まれているプロセスと、利用可能な追加オプションについて説明します。 - -## データを活用する -Observability Pipelines のサンプル構成は以下を実行します。 -- Splunk フォワーダーから Observability Pipelines Worker に送信されるログを収集する。 -- Observability Pipelines Worker を経由してくるデータにタグを追加することでログを変換する。これは、クラスターを更新する際に、どのトラフィックがまだ Worker に移行する必要があるかを判断するのに役立ちます。これらのタグはまた、不均衡がある場合に備えて、ログがロードバランサーを介してルーティングされている方法を示しています。 -- Splunk と Datadog の両方にデータをデュアルシッピングすることで、ログをルーティングする。 - -## その他の参考資料 -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /ja/account_management/api-app-keys/#api-keys -[3]: https://app.datadoghq.com/observability-pipelines/create \ No newline at end of file diff --git a/content/ja/observability_pipelines/working_with_data.md b/content/ja/observability_pipelines/working_with_data.md deleted file mode 100644 index 9f01bf8a71402..0000000000000 --- a/content/ja/observability_pipelines/working_with_data.md +++ /dev/null @@ -1,407 +0,0 @@ ---- -aliases: -- /ja/integrations/observability_pipelines/working_with_data/ -further_reading: -- link: /observability_pipelines/setup/ - tag: ドキュメント - text: 観測可能性パイプラインを設定する -- link: /observability_pipelines/reference/transforms/#awsec2metadata - tag: ドキュメント - text: AWS EC2 インスタンスが発するメタデータのパース -- link: /observability_pipelines/reference/transforms/#lua - tag: ドキュメント - text: Lua でイベントを変更する -- link: /observability_pipelines/reference/transforms/#tagcardinalitylimit - tag: ドキュメント - text: カーディナリティの爆発を防ぐために、メトリクスのタグのカーディナリティを制限する -- link: /observability_pipelines/reference/transforms/#logtometric - tag: ドキュメント - text: ログをメトリクスイベントに変換する -- link: /observability_pipelines/reference/transforms/#metrictolog - tag: ドキュメント - text: メトリクスをログイベントに変換する -- link: /observability_pipelines/configurations/ - tag: Documentation - text: 観測可能性パイプラインの構成の詳細 -kind: ドキュメント -title: データを活用する ---- - -## 概要 - -観測可能性パイプラインは観測可能性データを整形し、変換することができます。Logging without Limits™ パイプラインと同様に、一連の `transform` コンポーネントで構成される観測可能性パイプラインのパイプラインを構成することができます。これらの変換により、ビルトインの型安全性でデータの解析、構造化、リッチ化を行うことができます。 - -## VRL でデータをリマップする - -Vector Remap Language (VRL) は、観測可能性データ (ログやメトリクス) を変換するために設計された、式指向のドメイン特化型言語です。観測可能性のユースケースに合わせたシンプルな構文と[組み込み関数][1]を特徴としています。 - -Vector Remap Language は、`remap` 変換でサポートされています。 - -リマップ変換は単一のイベントに作用し、それらを変換したり、ルーティングやフィルターのための条件を指定するために使用できます。VRL は次のような方法で使用することができます。 - -- [配列][2]、[文字列][3]などのデータ型を操作する。 -- [コーデック][4]を使って値をエンコード、デコードする。 -- 値を[暗号化][5]、[復号化][6]する。 -- データ型を別のデータ型に[変換][7]する (例えば、整数から文字列に変換する)。 -- [syslog の値を読み取り可能な値に変換][8]する。 -- [エンリッチメントテーブル][9]を使用して値をリッチ化する。 -- [IP 値を操作する][10]。 -- カスタムルール (grok、regex など) や既成の関数 (syslog、apache、VPC フローログなど) を使って値を[パース][11]する。 -- イベントの[メタデータ][12]と[パス][13]を操作する。 - -VRL 組み込み関数の一覧は、[VRL 関数リファレンス][1]を参照してください。 - -まず始めに、`source` フィールドに VRL プログラムを含む基本的なリマップ変換の例を以下に示します。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - modify: - type: remap - inputs: - - previous_component_id - source: |2 - del(.user_info) - .timestamp = now() -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.modify] -type = "remap" -inputs = ["previous_component_id"] -source = ''' - del(.user_info) - .timestamp = now() -''' -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "modify": { - "type": "remap", - "inputs": [ - "previous_component_id" - ], - "source": " del(.user_info)\n .timestamp = now()\n" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -この例では、`type` フィールドに `remap` 変換が設定されています。`inputs` フィールドは、先に定義した `previous_component_id` ソースからイベントを受け取る場所を定義します。`source` フィールドの最初の行は、`.user_info` フィールドを削除します。規模が大きくなると、フィールドを削除することは、イベントのペイロードを減らし、下流のサービスにかける費用を削減するために特に有効です。 - -2 行目は `.timestamp` フィールドとその値をイベントに追加し、この変換を通過するすべてのイベントのコンテンツを変更します。 - -詳しくは、[VRL リファレンス][14]、[構成][15]をご覧ください。 - -## データのパース - -VRL の高度な利用例として、パース処理を紹介します。以下のスニペットは、JSON 形式の HTTP ログイベントです。 - -``` -"{\"status\":200,\"timestamp\":\"2021-03-01T19:19:24.646170Z\",\"message\":\"SUCCESS\",\"username\":\"ub40fan4life\"}" -``` - -以下の構成では、VRL を使用して、以下を行うことでログイベントを変更します。 - -- 生の文字列を JSON にパースする。 -- 時刻を UNIX タイムスタンプに再フォーマットする。 -- ユーザー名フィールドを削除する。 -- メッセージを小文字に変換する。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - parse_syslog_id: - type: remap - inputs: - - previous_component_id - source: |2 - . = parse_json!(string!(.message)) - .timestamp = to_unix_timestamp(to_timestamp!(.timestamp)) - del(.username) - .message = downcase(string!(.message)) -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.parse_syslog_id] -type = "remap" -inputs = ["previous_component_id"] -source = ''' - . = parse_json!(string!(.message)) - .timestamp = to_unix_timestamp(to_timestamp!(.timestamp)) - del(.username) - .message = downcase(string!(.message)) -''' -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "parse_syslog_id": { - "type": "remap", - "inputs": [ - "previous_component_id" - ], - "source": " . = parse_json!(string!(.message))\n .timestamp = to_unix_timestamp(to_timestamp!(.timestamp))\n del(.username)\n .message = downcase(string!(.message))\n" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -この構成では、次のように返されます。 - -``` -{ - "message": "success", - "status": 200, - "timestamp": 1614626364 -} -``` - -## データのサンプリング、削減、フィルター、集計 - -下流のサービスに配信される観測可能性データの量を減らすために、サンプリング、削減、フィルター、集計などの変換が一般的に行われています。観測可能性パイプラインは、データ量をコントロールするための様々な方法を提供します。 - -- 指定された条件に基づき、構成可能なレートで[イベントをサンプリング][16]する。 -- 複数のイベントを 1 つのイベントに[縮小してまとめる][17]。 -- 不要なフィールドを削除する。 -- イベントを[複製][18]する。 -- 一連の条件に基づいて、[イベントをフィルターする][19]。 -- 定義されたインターバルウィンドウに基づいて、[複数のメトリクスイベントを 1 つのメトリクスイベントに集計][20]する。 -- [メトリクスをログに変換する][21]。 - -これらの変換の使用例については、[ログ容量とサイズの制御][22]を参照してください。 - -## データのルーティング - -もうひとつよく使われる変換に `route` があります。これは、指定した条件に基づいてイベントのストリームを複数のサブストリームに分割することができるものです。これは、観測可能性データを異なる宛先に送ったり、ユースケースに応じてデータのストリームを異なるように操作する必要がある場合に便利です。 - -以下のスニペットは、`level` フィールドの値に基づいて、異なる宛先にルーティングしたいログの例です。 - -``` -{ - "logs": { - "kind": "absolute", - "level": "info, - "name": "memory_available_bytes", - "namespace": "host", - "tags": {} - } -} -``` - -`level` の値に基づいてルーティングを行うには、以下の構成例を参照してください。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - splitting_logs_id: - type: route - inputs: - - my-source-or-transform-id - route: - debug: .level == "debug" - info: .level == "info" - warn: .level == "warn" - error: .level == "error" -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.splitting_logs_id] -type = "route" -inputs = [ "my-source-or-transform-id" ] - - [transforms.splitting_logs_id.route] - debug = '.level == "debug"' - info = '.level == "info"' - warn = '.level == "warn"' - error = '.level == "error"' -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "route", - "inputs": [ - "my-source-or-transform-id" - ], - "route": { - "debug": ".level == \"debug\"", - "info": ".level == \"info\"", - "warn": ".level == \"warn\"", - "error": ".level == \"error\"" - } - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -`route` フィールドの各行では、ルート識別子を定義し、その後に `route` のフィルターを表す論理条件を定義します。この `route` の最終結果は、他のコンポーネントから `.` という名前で入力として参照することができます。 - -例えば、`level` フィールドの値が `warn` と `error` のログを Datadog にルーティングしたい場合、以下の例を参照してください。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -sinks: - my_sink_id: - type: datadog_logs - inputs: - - splitting_logs_id.warn - - splitting_logs_id.error - default_api_key: '${DATADOG_API_KEY_ENV_VAR}' - compression: gzip -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[sinks.my_sink_id] -type = "datadog_logs" -inputs = [ "splitting_logs_id.warn", "splitting_logs_id.error" ] -default_api_key = "${DATADOG_API_KEY_ENV_VAR}" -compression = "gzip" -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "sinks": { - "my_sink_id": { - "type": "datadog_logs", - "inputs": [ - "splitting_logs_id.warn", - "splitting_logs_id.error" - ], - "default_api_key": "${DATADOG_API_KEY_ENV_VAR}", - "compression": "gzip" - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -詳しくは、[ルート変換のドキュメント][23]をご覧ください。 - -## データのスロットル - -下流のサービスは、ボリュームが急増したときに圧倒されることがあり、その結果、データがドロップされることがあります。このシナリオから保護するために `throttle` 変換を使用し、ユーザーに使用量のクォータを強制します。`throttle` 変換は、トポロジーを通過するログをレート制限します。次の `throttle` 変換の構成例を参照してください。 - -{{< tabs >}} -{{% tab "YAML" %}} - -```yaml -transforms: - my_transform_id: - type: throttle - inputs: - - my-source-or-transform-id - exclude: null - threshold: 100 - window_secs: 1 -``` - -{{% /tab %}} -{{% tab "TOML" %}} - -```toml -[transforms.my_transform_id] -type = "throttle" -inputs = [ "my-source-or-transform-id" ] -threshold = 100 -window_secs = 1 -``` - -{{% /tab %}} -{{% tab "JSON" %}} - -```json -{ - "transforms": { - "my_transform_id": { - "type": "throttle", - "inputs": [ - "my-source-or-transform-id" - ], - "exclude": null, - "threshold": 100, - "window_secs": 1 - } - } -} -``` - -{{% /tab %}} -{{< /tabs >}} - -`threshold` フィールドは、与えられたバケットに許可されるイベント数を定義します。`window_secs` は、設定されたしきい値が適用される時間枠を定義します。この構成例では、コンポーネントが 1 秒間に 100 個以上のイベントを受信すると、それ以降のイベントはすべて削除されます。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://vector.dev/docs/reference/vrl/functions/ -[2]: https://vector.dev/docs/reference/vrl/functions/#array-functions -[3]: https://vector.dev/docs/reference/vrl/functions/#string-functions -[4]: https://vector.dev/docs/reference/vrl/functions/#codec-functions -[5]: https://vector.dev/docs/reference/vrl/functions/#encrypt -[6]: https://vector.dev/docs/reference/vrl/functions/#decrypt -[7]: https://vector.dev/docs/reference/vrl/functions/#coerce-functions -[8]: https://vector.dev/docs/reference/vrl/functions/#convert-functions -[9]: https://vector.dev/docs/reference/vrl/functions/#enrichment-functions -[10]: https://vector.dev/docs/reference/vrl/functions/#ip-functions -[11]: https://vector.dev/docs/reference/vrl/functions/#parse-functions -[12]: https://vector.dev/docs/reference/vrl/functions/#event-functions -[13]: https://vector.dev/docs/reference/vrl/functions/#path-functions -[14]: https://vector.dev/docs/reference/vrl/#reference -[15]: /ja/observability_pipelines/configurations/ -[16]: /ja/observability_pipelines/reference/transforms/#sample -[17]: /ja/observability_pipelines/reference/transforms/#reduce -[18]: /ja/observability_pipelines/reference/transforms/#dedupe -[19]: /ja/observability_pipelines/reference/transforms/#filter -[20]: /ja/observability_pipelines/reference/transforms/#aggregate -[21]: /ja/observability_pipelines/reference/transforms/#metrictolog -[22]: /ja/observability_pipelines/guide/control_log_volume_and_size/ -[23]: /ja/observability_pipelines/reference/transforms/#route \ No newline at end of file diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md b/content/ja/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md deleted file mode 100644 index b52d72db1a971..0000000000000 --- a/content/ja/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md +++ /dev/null @@ -1,307 +0,0 @@ ---- -aliases: -- /ja/tracing/opentracing/ruby -- /ja/tracing/manual_instrumentation/ruby -- /ja/tracing/custom_instrumentation/ruby -- /ja/tracing/setup_overview/custom_instrumentation/ruby -- /ja/tracing/trace_collection/custom_instrumentation/ruby -code_lang: ruby -code_lang_weight: 20 -description: Ruby アプリケーションを手動でインスツルメントしてカスタムトレースを Datadog に送信します。 -further_reading: -- link: tracing/other_telemetry/connect_logs_and_traces - tag: ドキュメント - text: ログとトレースの接続 -- link: tracing/trace_collection/otel_instrumentation/java/ - tag: ドキュメント - text: サービス、リソース、トレースの詳細 -kind: ドキュメント -title: Datadog ライブラリを使った Ruby カスタムインスツルメンテーション -type: multi-code-lang ---- -
-自動インスツルメンテーションとセットアップの手順をまだ読んでいない場合は、Python セットアップ手順をお読みください。 -
- -このページでは、Datadog APM で観測可能性を追加・カスタマイズするユースケースを詳しく説明します。 - -## `ddtrace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。 - -カスタム[スパンタグ][1]を[スパン][2]に追加して、Datadog 内の可観測性をカスタマイズします。スパンタグは受信トレースに適用されるため、観測された動作を、マーチャントの階層、チェックアウト金額、ユーザー ID などのコードレベルの情報と関連付けることができます。 - -### カスタムスパンタグを追加する - -`customer.id` などのアプリケーションコード内の動的な値に対応するカスタムタグをスパンに追加します。 - -{{< tabs >}} -{{% tab "アクティブスパン" %}} -コード内のどのメソッドからでも、現在のアクティブ[スパン][1]にアクセスできます。 - -**注**: このメソッドが呼び出されたときにアクティブスパンがない場合、`active_span` は `nil` になります。 - -```ruby -require 'ddtrace' - -# get '/shopping_cart/:customer_id', to: 'shopping_cart#index' -class ShoppingCartController < ApplicationController - # GET /shopping_cart - def index - #アクティブスパンを取得し、customer_id -> 254889 を設定します - Datadog::Tracing.active_span&.set_tag('customer.id', params.permit([:customer_id])) - - # [...] - end - - # POST /shopping_cart - def create - # [...] - end -end -``` - -[1]: /ja/tracing/glossary/#spans -{{% /tab %}} - -{{% tab "Manually Instrumented Spans" %}} - -`#set_tag` を呼び出して、`Datadog::Span` オブジェクトに[タグ][1]を直接追加します。 - -```ruby -# Sinatra エンドポイントの例。 -# Datadog がリクエストをトレースします。 -get '/posts' do - Datadog::Tracing.trace('web.request') do |span| - span.set_tag('http.url', request.path) - span.set_tag('', '') - end -end -``` - - -[1]: /ja/tracing/glossary/#span-tags -{{% /tab %}} -{{< /tabs >}} - -### すべてのスパンにグローバルにタグを追加する - -`tags` オプションでトレーサーを構成して、すべての[スパン][2]に[タグ][1]を追加します。 - -```ruby -Datadog.configure do |c| - c.tags = { 'team' => 'qa' } -end -``` - -環境変数 `DD_TAGS` を使用してアプリケーションのすべてのスパンにタグを設定することも可能です。Ruby の環境変数に関する詳細は、[セットアップドキュメント][3]をお読みください。 - -### スパンにエラーを設定する - -スパンにエラーを設定する方法には 2 つあります。 - -- `span.set_error` を呼び出し、Exception オブジェクトを渡します。これにより、エラーの種類、メッセージ、バックトレースが自動的に抽出されます。 - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - span = Datadog::Tracing.trace('example.trace') - puts 'some work' - sleep(1) - raise StandardError, "This is an exception" -rescue StandardError => error - Datadog::Tracing.active_span&.set_error(error) - raise -ensure - span.finish -end - -example_method() -``` - -- また、`tracer.trace` を使用すると、デフォルトでエラータイプ、メッセージ、バックトレースを設定することができます。この動作を構成するには、`on_error` オプションを使用します。これは、`trace` にブロックが提供され、ブロックがエラーを発生させたときに呼び出されるハンドラーです。Proc には `span` と `error` が引数として渡されます。デフォルトでは、`on_error` はスパンにエラーを設定します。 - -`on_error` のデフォルトの動作: - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - puts 'some work' - sleep(1) - raise StandardError, "This is an exception" -end - -Datadog::Tracing.trace('example.trace') do |span| - example_method() -end -``` - -`on_error` のカスタム動作: - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - puts 'some work' - sleep(1) - raise StandardError.new "This is a special exception" -end - -custom_error_handler = proc do |span, error| - span.set_tag('custom_tag', 'custom_value') - span.set_error(error) unless error.message.include?("a special exception") -end - -Datadog::Tracing.trace('example.trace', on_error: custom_error_handler) do |span| - example_method() -end -``` - -## タグの追加 - -対応するライブラリインスツルメンテーションを使用しない場合( [ライブラリの互換性][4]参照)、手動でコードをインスツルメントすることができます。`Datadog::Tracing.trace` メソッドを使ってコードにトレーシングを追加します。これは、Ruby コードにラップできます。 - -Ruby コードをトレースするには、`Datadog::Tracing.trace` メソッドを使用できます。 - -```ruby -Datadog::Tracing.trace(name, resource: resource, **options) do |span| - # このブロックを、インスツルメントするコードでラップします - # さらに、ここでスパンを変更できます。 - # 例: リソース名の変更、タグの設定 -end -``` - -ここで、`name` は、実行されている一般的な種類の操作を説明する `String` です(例: `'web.request'` または `'request.parse'`)。 - -`resource` は操作するアクションの名前を表す `String` です。同じリソースの値を持つトレースは、メトリクスの目的のために一緒にグループ化されます。リソースは通常、URL、クエリ、リクエストなど、ドメイン固有のものです (例: 'Article#submit’、http://example.com/articles/list.)。 - -利用可能なすべての `**options` については、[リファレンスガイド][5]を参照してください。 - -### 新しいスパンを手動で作成する - -プログラムで、コードのブロックの周囲にスパンを作成します。この方法で作成されたスパンは、他のトレースメカニズムと自動的に統合されます。つまり、トレースがすでに開始されている場合、手動スパンはその親スパンとして呼び出し元を持ちます。同様に、コードのラップされたブロックから呼び出されたトレースメソッドは、その親として手動スパンを持ちます。 - -```ruby -# Sinatra エンドポイントの例、 -# Datadog でリクエスト周りをトレーシング -# データベースクエリ、およびレンダリング手順。 -get '/posts' do - Datadog::Tracing.trace('web.request', service: '<サービス名>', resource: 'GET /posts') do |span| - # activerecord 呼び出しをトレース - Datadog::Tracing.trace('posts.fetch') do - @posts = Posts.order(created_at: :desc).limit(10) - end - - # APM タグを追加 - span.set_tag('http.method', request.request_method) - span.set_tag('posts.count', @posts.length) - - # テンプレートレンダリングをトレース - Datadog::Tracing.trace('template.render') do - erb :index - end - end -end -``` - -### トレースの後処理 - -一部のアプリケーションでは、トレースを Datadog に送信する前に、トレースを変更またはフィルタリングする必要がある場合があります。処理パイプラインを使用すると、このような動作を定義する*プロセッサー*を作成できます。 - -#### フィルタリング - -ブロックが真と評価された場合、`Datadog::Tracing::Pipeline::SpanFilter` プロセッサーを使用してスパンを削除できます。 - -```ruby -Datadog::Tracing.before_flush( - # 特定のリソースに一致するスパンを削除します - Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.resource =~ /PingController/ }, - # localhost に送られたスパンを削除します - Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.get_tag('host') == 'localhost' } -) -``` - -#### 処理 - -`Datadog::Tracing::Pipeline::SpanProcessor` プロセッサーを使用してスパンを変更できます。 - -```ruby -Datadog::Tracing.before_flush( - # リソースフィールドから一致するテキストを削除します - Datadog::Tracing::Pipeline::SpanProcessor.new { |span| span.resource.gsub!(/password=.*/, '') } -) -``` - -#### カスタムプロセッサー - -プロセッサーは、`trace` を引数として受け入れる `#call` に応答する任意のオブジェクトです(これは、`Datadog::Span` の `Array` です)。 - -例えば、ショートハンドのブロック構文を使用する場合: - -```ruby -Datadog::Tracing.before_flush do |trace| - # 処理ロジック... - trace -end -``` - -次の例では、複雑な後処理ロジックを実現するプロセッサーを実装しています。 - -```ruby -Datadog::Tracing.before_flush do |trace| - trace.spans.each do |span| - originalPrice = span.get_tag('order.price')) - discount = span.get_tag('order.discount')) - - # 他のタグから計算したタグを設定します - if (originalPrice != nil && discount != nil) - span.set_tag('order.value', originalPrice - discount) - end - end - trace -end -``` - -カスタムプロセッサーのクラスの場合: - -```ruby -class MyCustomProcessor - def call(trace) - # 処理ロジック... - trace - end -end - -Datadog::Tracing.before_flush(MyCustomProcessor.new) -``` - -どちらの場合も、プロセッサーのメソッドは `trace` オブジェクトを返す必要があります。この戻り値は、パイプラインの次のプロセッサーに渡されます。 - - -## トレースクライアントと Agent コンフィギュレーション - -トレーシングクライアントと Datadog Agent の両方で、コンフィギュレーションを追加することで、B3 ヘッダーを使用したコンテキスト伝播や、ヘルスチェックなどの計算されたメトリクスでこれらのトレースがカウントされないように、特定のリソースがトレースを Datadog に送信しないように除外することができます。 - -### ヘッダー抽出と挿入によるコンテキストの伝搬 - -分散型トレーシングのコンテキストの伝搬は、ヘッダーの挿入と抽出で構成できます。詳しくは[トレースコンテキストの伝播][6]をお読みください。 - - -### リソースのフィルター - -トレースはそれぞれのリソース名に基づいて除外可能で、これによりヘルスチェックなどの外形監視トラフィックが Datadog にレポートされるトレースから削除されます。この設定およびその他のセキュリティ/微調整に関するコンフィギュレーションについては[セキュリティ][7]ページを参照してください。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/tracing/glossary/#span-tags -[2]: /ja/tracing/glossary/#spans -[3]: /ja/tracing/setup/ruby/#environment-and-tags -[4]: /ja/tracing/compatibility_requirements/ruby/ -[5]: /ja/tracing/trace_collection/dd_libraries/ruby/#manual-instrumentation -[6]: /ja/tracing/trace_collection/trace_context_propagation/ruby/ -[7]: /ja/tracing/security \ No newline at end of file diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet.md b/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet.md deleted file mode 100644 index c89beb56a4b1b..0000000000000 --- a/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet.md +++ /dev/null @@ -1,60 +0,0 @@ ---- -aliases: -- /ja/tracing/trace_collection/otel_instrumentation/dotnet/ -code_lang: dotnet -code_lang_weight: 80 -description: OpenTelemetry API で .NET アプリケーションをインスツルメンテーションし、Datadog にトレースを送信します。 -further_reading: -- link: tracing/trace_collection/otel_instrumentation/java/ - tag: ドキュメント - text: サービス、リソース、トレースの詳細 -- link: /opentelemetry/guide/otel_api_tracing_interoperability - tag: ドキュメント - text: OpenTelemetry API と Datadog でインスツルメントされたトレースの相互運用性 -kind: ドキュメント -title: OpenTelemetry API を使った .NET アプリケーションのカスタムインスツルメンテーション -type: multi-code-lang ---- - -{{% otel-custom-instrumentation %}} - -## 要件と制限 - -- Datadog .NET トレースライブラリ `dd-trace-dotnet` バージョン 2.21.0 以上。 - -特記されている通り、Datadog のライブラリに実装されている以下の OpenTelemetry 機能: - -| 機能 | サポートノート | -|---------------------------------------|---------------------------------------------------------| -| OpenTelemetry コンテキスト伝搬 | [W3C Trace Context と Datadog ヘッダーフォーマット][9]はデフォルトで有効になっています。 | -| [スパンプロセッサー][2] | 非サポート | -| [スパンエクスポーター][3] | 非サポート | -| トレース/スパン [ID ジェネレーター][4] | ID 生成はトレーシングライブラリによって実行され、[128 ビットのトレース ID][12] をサポートしています。 | - - -## Datadog トレースプロバイダーを使用するための OpenTelemetry の構成 - -1. [OpenTelemetry .NET 手動インスツルメンテーションのドキュメント][5]に従って、希望する OpenTelemetry 手動インスツルメンテーションを .NET コードに追加します。**重要!** コードが OpenTelemetry SDK を呼び出すように指示されている場合は、代わりに Datadog トレーシングライブラリを呼び出してください。 - -2. Datadog .NET トレーシングライブラリをインストールし、[.NET Framework サービス][10]または [.NET Core (および .NET 5+) サービス][11]のトレーサーを有効にします。**ベータ版:** [ワンステップ APM インスツルメンテーション][13]を使って、オプションでこれを行うことができます。 - -3. `DD_TRACE_OTEL_ENABLED` 環境変数を `true` に設定します。 - -4. アプリケーションを実行します。 - -Datadog は、これらの OpenTelemetry スパンと他の Datadog APM スパンを組み合わせて、アプリケーションの単一のトレースにします。また、[OpenTelemetry インスツルメンテーションライブラリ][8]もサポートしています。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[2]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#span-processor -[3]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#span-exporter -[4]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#id-generators -[5]: https://opentelemetry.io/docs/instrumentation/net/manual/ -[8]: https://opentelemetry.io/docs/instrumentation/net/libraries/ -[9]: /ja/tracing/trace_collection/trace_context_propagation/dotnet/ -[10]: /ja/tracing/trace_collection/dd_libraries/dotnet-framework/#installation-and-getting-started -[11]: /ja/tracing/trace_collection/dd_libraries/dotnet-core/#installation-and-getting-started -[12]: /ja/opentelemetry/guide/otel_api_tracing_interoperability/ -[13]: /ja/tracing/trace_collection/single-step-apm/ \ No newline at end of file diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/java.md b/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/java.md deleted file mode 100644 index c8f7a16649a08..0000000000000 --- a/content/ja/tracing/trace_collection/custom_instrumentation/otel_instrumentation/java.md +++ /dev/null @@ -1,149 +0,0 @@ ---- -aliases: -- /ja/tracing/trace_collection/otel_instrumentation/java/ -code_lang: java -code_lang_weight: 0 -description: OpenTelemetry API で Java アプリケーションをインスツルメンテーションし、Datadog にトレースを送信します。 -further_reading: -- link: tracing/trace_collection/otel_instrumentation/java/ - tag: ドキュメント - text: サービス、リソース、トレースの詳細 -- link: /opentelemetry/guide/otel_api_tracing_interoperability - tag: ドキュメント - text: OpenTelemetry API と Datadog でインスツルメントされたトレースの相互運用性 -kind: ドキュメント -title: OpenTelemetry API を使った Java アプリケーションのカスタムインスツルメンテーション -type: multi-code-lang ---- - -{{% otel-custom-instrumentation %}} - -## 要件と制限 - -- Datadog Java トレーシングライブラリ `dd-trace-java` バージョン 1.10.0 以上。 - -特記されている通り、Datadog のライブラリに実装されている以下の OpenTelemetry 機能: - -| 機能 | サポートノート | -|---------------------------------------------------|---------------------------------------------------------------------------------------------| -| [OpenTelemetry コンテキスト伝搬][1] | デフォルトでは、[Datadog 分散ヘッダーフォーマット][2]が代わりに使用されます。 | -| [スパンプロセッサー][3] | 非サポート | -| [スパンエクスポーター][4] | 非サポート | -| トレース/スパン [ID ジェネレーター][5] | ID 生成はトレーシングライブラリによって実行され、[128 ビットのトレース ID][6] をサポートしています。 | -| [Metrics][7]、[Baggage][8] および [Context][9] API | 非サポート | -| [スパンリンク][14] (ベータ版) | `dd-trace-java` のバージョン 1.24.0 以降が必要です。 | - -## Datadog トレーシングライブラリを使用するための OpenTelemetry の構成 - -
-自動インスツルメンテーションとセットアップの手順をまだ読んでいない場合は、Java セットアップ手順からご覧ください。 -
- -1. [OpenTelemetry Java Manual Instrumentation ドキュメント][10]に従って、ご希望の手動 OpenTelemetry インスツルメンテーションを Java コードに追加します。 - -1. [Datadog トレーシングライブラリを JVM に][11]追加します。**ベータ版:** [ワンステップ APM インスツルメンテーション][12]を使って、オプションでこれを行うことができます。 - -1. (OpenTelemetry SDK ではなく) OpenTelemetry API だけに依存していることを確認します。 - -{{< tabs >}} -{{% tab "Gradle" %}} - -{{< code-block lang="groovy" >}} -// OpenTelemetry API -implementation "io.opentelemetry:opentelemetry-api:${opentelemetryVersion}" -{{< /code-block >}} - -{{% /tab %}} -{{% tab "Maven" %}} - -{{< code-block lang="xml" >}} - - - io.opentelemetry - opentelemetry-api - ${io.opentelemetry.version} - -{{< /code-block >}} - -{{% /tab %}} -{{< /tabs >}} - -1. システムプロパティ `dd.trace.otel.enabled` または環境変数 `DD_TRACE_OTEL_ENABLED` を `true` に設定します。 - -Datadog は、これらの OpenTelemetry スパンと他の Datadog APM スパンを組み合わせて、アプリケーションの単一のトレースにします。 - - -## 一般的なユースケース - -### 現在のスパンまたはローカル root スパンにカスタム属性を追加する - -```java -// 現在のスパンに属性を追加します -Span currentSpan = Span.current(); -currentSpan.setAttributes("some-key", "some-value"); - -// ローカル root スパンに属性を追加します -ContextKey localRootSpanKey = ContextKey.named("opentelemetry-traces-local-root-span"); -Span rootSpan = Context.current().get(localRootSpanKey); -rootSpan.setAttributes("some-key", "some-value"); -``` - -**注:** 現在のスパンまたはローカル root スパンが存在しない場合、返されるスパンは `null` ではなく無効であり、属性は設定されません。 - -### アノテーションを使用してカスタムスパンを追加する - -まず、`opentelemetry-instrumentation-annotations` ライブラリに依存関係を追加します。 - -{{< tabs >}} -{{% tab "Gradle" %}} - -{{< code-block lang="groovy" >}} - // OpenTelemetry インスツルメンテーションアノテーション - implementation "io.opentelemetry.instrumentation:opentelemetry-instrumentation-annotations:${opentelemetryVersion}" -{{< /code-block >}} - -{{% /tab %}} -{{% tab "Maven" %}} - -{{< code-block lang="xml" >}} - - - io.opentelemetry.instrumentation - opentelemetry-instrumentation-annotations - ${io.opentelemetry.version} - -{{< /code-block >}} - -{{% /tab %}} -{{< /tabs >}} - -次に、メソッドに `@WithSpan` アノテーションを付けて、呼び出しごとに新しいスパンを作成します。呼び出しのパラメーターには、`@SpanAttribute` アノテーションを付けて、引数を span 属性としてキャプチャすることができます。 - -```java -@WithSpan -public void myMethod(@SpanAttribute("parameter1") String parameter1, - @SpanAttribute("parameter2") long parameter2) { - <...> -} -``` - -**注:** `@WithSpan` の代わりに `@AddingSpanAttributes` メソッドアノテーションを使用すると、新しいスパンを作成せずに `@SpanAttribute` アノテーションを使用してメソッド引数をキャプチャできます。現在のスパンが存在する場合は、キャプチャされた引数で更新されます。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://opentelemetry.io/docs/instrumentation/java/manual/#context-propagation -[2]: /ja/tracing/trace_collection/trace_context_propagation/java/ -[3]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#span-processor -[4]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#span-exporter -[5]: https://opentelemetry.io/docs/reference/specification/trace/sdk/#id-generators -[6]: /ja/opentelemetry/guide/otel_api_tracing_interoperability/ -[7]: https://opentelemetry.io/docs/specs/otel/metrics/api/ -[8]: https://opentelemetry.io/docs/specs/otel/baggage/api/ -[9]: https://opentelemetry.io/docs/specs/otel/context/ -[10]: https://opentelemetry.io/docs/instrumentation/java/manual/ -[11]: /ja/tracing/trace_collection/dd_libraries/java/?tab=springboot#add-the-java-tracer-to-the-jvm -[12]: /ja/tracing/trace_collection/single-step-apm/ -[13]: /ja/tracing/trace_collection/single-step-apm/ -[14]: https://opentelemetry.io/docs/instrumentation/java/manual/#create-spans-with-links \ No newline at end of file diff --git a/content/ko/observability_pipelines/production_deployment_overview.md b/content/ko/observability_pipelines/production_deployment_overview.md deleted file mode 100644 index 9bedbba0a6299..0000000000000 --- a/content/ko/observability_pipelines/production_deployment_overview.md +++ /dev/null @@ -1,148 +0,0 @@ ---- -kind: 설명서 -title: 배포 설계 및 원칙 ---- - -{{< site-region region="gov" >}} -
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
-{{< /site-region >}} - -## 개요 - -인프라스트럭처에 옵저버빌리티 파이프라인 작업자를 배포하기 시작하면 다음과 같은 질문에 직면할 수 있습니다. - -- 네트워크 내부 어디에 옵저버빌리티 파이프라인 작업자를 배포해야 하나요? -- 데이터를 어떻게 수집해야 하나요? -- 데이터를 어디에서 처리해야 하나요? - -이 가이드에서는 옵저버빌리티 파이프라인 작업자 아키텍처를 설계할 때 고려해야 할 사항, 구체적으로 다음 항목에 대해 설명합니다: - -- [네트워킹](#networking) -- [데이터 수집](#collecting-data) -- [데이터 처리](#processing-data) -- [데이터 버퍼링](#buffering-data) -- [데이터 라우팅](#routing-data) - -## 네트워킹 - -옵저버빌리티 파이프라인 작업자 배포 구축을 위한 첫 번째 단계는 옵저버빌리티 파이프라인 작업자가 네트워크 내부 어디에 적합할지, 그리고 어디에 배포할지를 파악하는 것입니다. - -### 네트워크 경계 작업 - -옵저버빌리티 파이프라인 작업자는 애그리게이터(aggregator)로 배포되기 때문에 송신 비용을 최소화하려면 네트워크 경계 내에 배포해야 합니다. 옵저버빌리티 파이프라인 작업자의 인그레스는 공용 인터넷을 통해 이동해서는 안 됩니다. 따라서 Datadog은 이 작업을 간소화하기 위해 리전당 하나의 애그리게이터(aggregator)로 시작할 것을 권장합니다. - -### 방화벽 및 프록시 사용 - -방화벽을 사용하는 경우 에이전트 통신을 애그리게이터(aggregator)로 제한하고 애그리게이터(aggregator) 통신을 설정된 소스 및 싱크로 제한하세요. - -HTTP 프록시 사용을 선호하는 경우 옵저버빌리티 파이프라인 작업자는 모든 옵저버빌리티 파이프라인 작업자 HTTP 트래픽을 프록시를 통해 라우팅하는 전역 프록시 옵션을 제공합니다. - -### DNS 및 서비스 검색 사용 - -옵저버빌리티 파이프라인 작업자 애그리게이터 및 서비스를 찾으려면 DNS 또는 서비스 검색을 통해 이루어져야 합니다. 이 전략은 트래픽의 라우팅과 로드밸런싱을 용이하게 하며, 에이전트와 로드 밸런서가 애그리게이터를 발견하는 방법입니다. 적절한 문제 분리를 위해 옵저버빌리티 파이프라인 작업자는 DNS 쿼리를 확인하지 않고 대신 시스템 수준 리졸버(예: [Linux resolving][1])에 위임합니다. - -{{< img src="observability_pipelines/production_deployment_overview/dns_service_discovery.png" alt="에이전트 클러스터, 로드 밸런서 클러스터, 옵저버빌리티 파이프라인 작업자 집합이 있는 클라우드 리전을 보여주는 다이어그램으로, 각 그룹이 DNS 또는 서비스 레지스트리에 별도의 쿼리를 전송하고 있습니다." style="width:60%;" >}} - -### 프로토콜 선택 - -옵저버빌리티 파이프라인 작업자로 데이터를 전송할 때는 로드밸런싱과 애플리케이션 수준의 전송 승인을 쉽게 할 수 있는 프로토콜을 선택할 것을 권장합니다. HTTP와 gRPC는 유비쿼터스 특성을 가지고 있고 HTTP/gRPC 기반 서비스를 효과적이고 효율적으로 운영하는 데 도움이 되는 도구와 문서가 많아 선호됩니다. - -프로토콜에 맞는 소스를 선택하세요. 각 옵저버빌리티 파이프라인 작업자 소스는 서로 다른 프로토콜을 구현합니다. 예를 들어 옵저버빌리티 파이프라인 작업자 소스 및 싱크는 옵저버빌리티 파이프라인 작업자 간 통신을 위해 gRPC를 사용하며, HTTP 소스를 사용하면 HTTP를 통해 데이터를 수신할 수 있습니다. 해당 프로토콜은 [소스][2]를 참조하세요. - -## 데이터 수집하기 - -파이프라인은 데이터 수집에서 시작됩니다. 귀사의 서비스와 시스템은 수집하여 대상까지 다운스트림으로 전송할 수 있는 데이터[*](#support)를 생성합니다. 데이터 수집은 에이전트를 통해 이루어지며, 어떤 에이전트를 사용할지 이해하면 원하는 데이터를 수집할 수 있습니다. - -### 에이전트 선택 - -엔지니어링 팀의 시스템 모니터링 능력을 최적화하는 에이전트를 선택해야 합니다. 따라서 옵저버빌리티 파이프라인 작업자를 작업에 가장 적합한 에이전트와 통합하고 옵저버빌리티 파이프라인 작업자를 별도의 노드에 애그리게이터(aggregator)로 배포하세요. - -예를 들어 Datadog [네트워크 성능 모니터링][4]은 Datadog Agent를 공급업체별 시스템과 통합하고 공급업체별 데이터를 생성합니다. 따라서 옵저버빌리티 파이프라인 작업자에서 지원되는 데이터 유형이 아니기 때문에 Datadog Agent는 데이터를 수집하여 Datadog에 직접 보내야 합니다. - -또 다른 예로, Datadog Agent는 서비스 메트릭을 수집하고 이를 공급업체별 Datadog 태그로 강화합니다. 이 경우 Datadog Agent는 메트릭을 Datadog에 직접 보내거나 옵저버빌리티 파이프라인 작업자를 통해 라우팅해야 합니다. 생성되는 데이터가 공급업체별 방식으로 강화되므로 옵저버빌리티 파이프라인 작업자는 Datadog Agent를 대체해서는 안 됩니다. - -에이전트와 통합할 때 옵저버빌리티 파이프라인 작업자를 설정하여 로컬 네트워크를 통해 에이전트로부터 직접 데이터를 수신하고 옵저버빌리티 파이프라인 작업자를 통해 데이터를 라우팅합니다. `datadog_agent` 또는 `open_telemetry`와 같은 소스 컴포넌트를 사용하여 에이전트로부터 데이터를 받습니다. - -##### 에이전트 리스크 감소 - -에이전트와 통합할 때는 에이전트를 단순 데이터 포워더로 설정하고 지원되는 데이터 유형을 옵저버빌리티 파이프라인 작업자를 통해 라우팅하세요. 이렇게 하면 에이전트의 책임을 최소화하여 데이터 손실 및 서비스 중단의 위험을 줄일 수 있습니다. - -## 데이터 처리 - -옵저버빌리티 파이프라인 작업자의 소스와 싱크 간에 효율적인 파이프라인을 설계하려는 경우, 처리할 데이터 유형과 처리 위치를 이해하는 데 도움이 됩니다. - -### 처리할 데이터 선택 - -옵저버빌리티 파이프라인 작업자를 사용하여 데이터를 처리할 수 있습니다[*](#support). 그러나 지속적인 프로파일링 데이터와 같은 실시간 공급업체별 데이터는 상호 운용되지 않으며 처리 시에 일반적으로 얻는 이점이 없습니다. - -#### 원격 처리 - -원격 처리의 경우 옵저버빌리티 파이프라인 작업자를 애그리게이터(aggregator)로 별도의 노드에 배포할 수 있습니다. - -{{< img src="observability_pipelines/production_deployment_overview/aggregator_role.png" alt="이 다이어그램은 여러 작업자를 포함하는 옵저버빌리티 파이프라인 작업자 애그리게이터를 보여줍니다. 이 작업자들은 네트워크 로드 밸런서에서 데이터를 수신하고 여러 다른 싱크로 데이터를 전송합니다." style="width:100%;" >}} - -데이터 처리가 노드에서 원격 애그리게이터(aggregator) 노드로 이동합니다. 원격 처리는 높은 내구성과 고가용성이 필요한 환경(대부분의 환경)에 권장됩니다. 또한 에이전트를 추가할 때 인프라스트럭처 재구성이 반드시 필요하지 않으므로 설정하기가 더 쉽습니다. - -자세한 내용은 [애그리게이터(aggregator) 아키텍처][5]를 참조하세요. - -## 데이터 버퍼링 - -데이터를 버퍼링하는 위치와 방법도 파이프라인의 효율성에 영향을 미칠 수 있습니다. - -### 데이터를 버퍼링할 위치 선택 - -버퍼링은 대상과 가까운 곳에서 이루어져야 하며, 각 대상에는 다음과 같은 이점을 제공하는 자체 격리 버퍼가 있어야 합니다: - -1. 각 대상은 싱크의 요구 사항에 맞게 버퍼를 설정할 수 있습니다. 자세한 내용은 [데이터 버퍼링 방법 선택](#choosing-how-to-buffer-data)을 참조하세요. -2. 각 대상에 대한 버퍼를 격리하면 버퍼가 설정된 용량에 도달할 때까지 하나의 오작동 대상 때문에 전체 파이프라인이 중단되는 것을 방지할 수 있습니다. - -이러한 이유로 옵저버빌리티 파이프라인 작업자는 버퍼를 싱크와 연결합니다. - -{{< img src="observability_pipelines/production_deployment_overview/where_to_buffer.png" alt="노드의 에이전트가 다른 노드의 버퍼를 사용하여 옵저버빌리티 파이프라인 작업자로 데이터를 전송하는 다이어그램입니다." style="width:50%;" >}} - -### 데이터를 버퍼링할 방법 선택 - -옵저버빌리티 파이프라인 작업자의 내장 버퍼는 작업을 간소화하여 복잡한 외부 버퍼가 필요하지 않습니다. - -옵저버빌리티 파이프라인 작업자 버퍼 유형을 선택할 때는 대상의 목적에 가장 적합한 유형을 선택하세요. 예를 들어, 기록 시스템에서는 높은 내구성을 위해 디스크 버퍼를 사용해야 하고, 분석 시스템에서는 짧은 지연 시간을 위해 메모리 버퍼를 사용해야 합니다. 또한 두 버퍼 모두 다른 버퍼로 오버플로우되어 클라이언트에 역압이 전파되는 것을 방지할 수 있습니다. - -{{< img src="observability_pipelines/production_deployment_overview/how_to_buffer.png" alt="싱크에 가까운 디스크 버퍼와 메모리 버퍼로 데이터를 전송하는 옵저버빌리티 파이프라인 작업자의 소스를 보여주는 다이어그램입니다." style="width:100%;" >}} - -## 데이터 라우팅 - -애그리게이터(aggregator)가 데이터를 적절한 대상으로 보낼 수 있도록 데이터를 라우팅하는 것은 파이프라인 설계의 마지막 요소입니다. 애그리게이터(aggregator)를 사용하여 팀에 가장 적합한 시스템으로 데이터를 유연하게 라우팅하세요. - -### 기록 시스템과 분석 시스템의 분리 - -기록 시스템과 분석 시스템을 분리하여 목적에 영향을 미치는 절충안을 만들지 않고 비용을 최적화하세요. 예를 들어, 기록 시스템은 시간이 지남에 따라 대량의 데이터를 일괄 처리하고 압축하여 비용을 최소화하는 동시에 모든 데이터의 높은 내구성을 보장할 수 있습니다. 또한 분석 시스템은 데이터를 샘플링하고 정리하여 비용을 절감하는 동시에 실시간 분석을 위해 지연 시간을 낮출 수 있습니다. - -{{< img src="observability_pipelines/production_deployment_overview/separating_concerns.png" alt="데이터를 디스크 버퍼로 전송한 다음 아카이빙을 위해 데이터를 전송하거나 샘플링을 위해 블록 스토리지 디스크로 전송하는 옵저버빌리티 파이프라인 작업자의 소스를 보여주는 다이어그램입니다." style="width:100%;" >}} - -### 기록 시스템으로 라우팅(아카이빙) - -다음을 수행하여 비용을 최소화하면서 기록 시스템을 최적화하여 내구성을 높이세요: - -- 노드 재시작 및 소프트웨어 오류로 인한 데이터 손실을 줄이려면 애그리게이터 역할에서만 아카이브에 작성하세요. -- 디스크 버퍼와 함께 싱크를 앞에 위치합니다. -- 모든 소스에 대해 엔드 투 엔드 승인을 활성화합니다. -- `batch.max_bytes`는 ≥ 5MiB로, `batch.timeout_secs`는 ≥ 5분으로 설정하고, 압축(`aws_s3` 싱크와 같은 아카이빙 싱크를 위한 기본값)을 활성화합니다. -- 처리되지 않은 원시 데이터를 보관하여 데이터 재생을 허용하고 처리 중 우발적인 데이터 손상 위험을 줄이세요. - -### 분석 시스템으로 라우팅 - -분석 시스템을 최적화하고 비용을 절감하려면 다음을 수행하세요: - -- 메모리 버퍼와 함께 싱크를 앞에 위치합니다. -- `batch.timeout_sec`를 ≤ 5초로 설정합니다 (`datadog_logs`와 같은 분석 싱크의 기본값). -- `remap` 변환을 사용하여 분석에 사용되지 않는 속성을 제거합니다. -- 분석에 사용되지 않는 이벤트 필터링 -- 볼륨을 줄이기 위해 로그를 `level` `info` 또는 그 이하로 샘플링하는 것을 고려하세요. - -[1]: https://wiki.archlinux.org/title/Domain_name_resolution -[2]: /ko/observability_pipelines/reference/sources/ -[4]: /ko/network_monitoring/performance/ -[5]: /ko/observability_pipelines/architecture/ - ---- - - * 옵저버빌리티 파이프라인은 로그를 지원합니다. 메트릭에 대한 지원은 베타 버전입니다. \ No newline at end of file diff --git a/content/ko/observability_pipelines/setup/_index.md b/content/ko/observability_pipelines/setup/_index.md deleted file mode 100644 index 4310e8f8500a0..0000000000000 --- a/content/ko/observability_pipelines/setup/_index.md +++ /dev/null @@ -1,421 +0,0 @@ ---- -aliases: -- /ko/getting_started/observability_pipelines/ -- /ko/observability_pipelines/installation/ -further_reading: -- link: /observability_pipelines/working_with_data/ - tag: 설명서 - text: 옵저버빌리티 파이프라인에서 데이터 사용 -- link: /observability_pipelines/production_deployment_overview/ - tag: 설명서 - text: 옵저버빌리티 파이프라인 작업자의 배포 설계 및 원칙 -- link: /observability_pipelines/architecture/ - tag: 설명서 - text: 옵저버빌리티 파이프라인 작업자의 프로덕션 배포 설계 및 원칙 -- link: https://dtdg.co/d22op - tag: 학습 센터 - text: 옵저버빌리티 파이프라인을 통한 안전한 로컬 처리 -kind: documentation -title: 옵저버빌리티 파이프라인 작업자 설정 -type: multi-code-lang ---- - -{{< site-region region="gov" >}} -
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
-{{< /site-region >}} - -## 개요 - -[옵저버빌리티 파이프라인 작업자][1]는 모든 소스에서 모든 대상으로 로그와 메트릭을 수집, 처리 및 라우팅할 수 있습니다. Datadog을 사용하면 모든 옵저버빌리티 파이프라인 작업자 배포를 대규모로 구축하고 관리할 수 있습니다. - -옵저버빌리티 파이프라인 작업자를 시작하는 방법에는 여러 가지가 있습니다. - -- [빠른 설치](#quickstart): 데모 데이터를 내보내는 간단한 파이프라인으로 작업자를 설치하여 빠르게 시작할 수 있습니다. -- [Datadog 설정 가이드][2]: Datadog Agents에서 Datadog으로 데이터를 수신하고 라우팅하기 위해 즉시 사용 가능한 파이프라인으로 작업자를 설치합니다. -- [Datadog 아카이빙 설정 가이드][3]: Datadog Agents에서 Datadog과 S3로 데이터를 수신하고 라우팅하기 위해 즉시 사용 가능한 파이프라인으로 작업자를 설치합니다. -- [Splunk 설정 가이드][4]: Splunk HEC에서 Splunk 및 Datadog으로 데이터를 수신하고 라우팅하기 위해 즉시 사용 가능한 파이프라인으로 작업자를 설치합니다. - -이 문서는 빠른 시작 설치 단계를 안내하고 다음 단계를 위한 리소스를 제공합니다. - -## 배포 모드 - -{{% op-deployment-modes %}} - -## 필수 구성 요소 - -옵저버빌리티 파이프라인 작업자를 설치하려면 다음이 필요합니다: - -- 유효한 [Datadog API 키[5]. -- 파이프라인 ID. - -새 API 키 및 파이프라인을 생성하려면: - -1. [Observability Pipelines][6]로 이동합니다. -2. **New Pipeline**을 클릭합니다. -3. 파이프라인의 이름을 입력합니다. -4. **Next**를 클릭합니다. -4. 원하는 템플릿을 선택하고 지침을 따릅니다. - -## 빠른 시작 - -다음 지침에 따라 작업자를 설치하고 데모 데이터를 사용하는 샘플 파이프라인 설정을 배포합니다. - -### 옵저버빌리티 파이프라인 작업자 설치 - -{{< tabs >}} -{{% tab "Docker" %}} - -옵저버빌리티 파이프라인 작업자 Docker 이미지는 Docker Hub [여기][1]에 게시됩니다. - -1. [샘플 파이프라인 설정 파일][2]을 다운로드합니다. 이 설정은 데모 데이터를 내보내고 데이터를 파싱 및 구조화한 후 콘솔 및 Datadog으로 보냅니다. 샘플 설정에 사용된 소스, 변환, 싱크에 대한 자세한 내용은 [설정][3]을 참조하세요. - -2. 다음 명령을 실행하여 Docker와 함께 옵저버빌리티 파이프라인 작업자를 시작합니다: - - ```shell - docker run -i -e DD_API_KEY= \ - -e DD_OP_PIPELINE_ID= \ - -e DD_SITE= \ - -p 8282:8282 \ - -v ./pipeline.yaml:/etc/observability-pipelines-worker/pipeline.yaml:ro \ - datadog/observability-pipelines-worker run - ``` - - ``를 Datadog API 키로, ``를 옵저버빌리티 파이프라인 설정 ID로, ``를 {{< region-param key="dd_site" code="true" >}}로 교체합니다. **참고**: `./pipeline.yaml`는 1단계에서 다운로드한 설정의 상대적 또는 절대적 경로여야 합니다. - -[1]: https://hub.docker.com/r/datadog/observability-pipelines-worker -[2]: /resources/yaml/observability_pipelines/quickstart/pipeline.yaml -[3]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "AWS EKS" %}} -1. AWS EKS용 [Helm 차트][1]를 다운로드합니다. 샘플 설정에 사용된 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]을 참조하세요. - -2. Helm 차트에서 해당 파이프라인과 일치하도록 `datadog.apiKey` 및 `datadog.pipelineId` 값을 변경하고 `site` 값에는 {{< region-param key="dd_site" code="true" >}}를 사용하세요. 그런 다음 아래 명령을 사용하여 클러스터에 설치합니다: - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f aws_eks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/aws_eks.yaml -[2]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Azure AKS" %}} -1. Azure AKS의 경우 [Helm 차트][1]를 다운로드합니다. 샘플 설정에 사용된 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]을 참조하세요. - -2. Helm 차트에서 해당 파이프라인과 일치하도록 `datadog.apiKey` 및 `datadog.pipelineId`값을 변경하고 `site`값에 {{< region-param key="dd_site" code="true" >}}를 사용합니다. 그런 다음 아래 명령을 사용하여 클러스터에 설치합니다: - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f azure_aks.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/azure_aks.yaml -[2]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Google GKE" %}} -1. 구글 GKE용 [Helm 차트][1]를 다운로드합니다. 샘플 설정에 사용된 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]을 참조하세요. - -2. Helm 차트에서 해당 파이프라인과 일치하도록 `datadog.apiKey` 및 `datadog.pipelineId` 값을 변경하고 `site` 값에 {{< region-param key="dd_site" code="true" >}}를 사용합니다. 그런 다음 아래 명령을 사용하여 클러스터에 설치합니다: - - ```shell - helm repo add datadog https://helm.datadoghq.com - ``` - ```shell - helm repo update - ``` - ```shell - helm upgrade --install \ - opw datadog/observability-pipelines-worker \ - -f google_gke.yaml - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/google_gke.yaml -[2]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "APT 기반 Linux" %}} - -한 줄 설치 스크립트를 사용하거나 수동으로 작업자를 설치합니다. -#### 한 줄 설치 스크립트 - -1. 한 줄 설치 명령을 실행하여 작업자를 설치합니다. ``는 Datadog API 키로, ``는 옵저버빌리티 파이프라인 ID로, ``는 {{< region-param key="dd_site" code="true" >}}로 교체합니다. - - ``` - DD_API_KEY= DD_OP_PIPELINE_ID= DD_SITE= bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_op_worker1.sh)" - ``` - -2. [샘플 설정 파일][1]을 호스트에서 `/etc/observability-pipelines-worker/pipeline.yaml`로 다운로드합니다. 샘플 설정에 사용되는 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]를 참조하세요. - -3. 작업자 시작: - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -#### 수동 설치 - -1. HTTPS를 통해 다운로드할 APT를 설정하려면 다음 명령을 실행합니다: - - ``` - sudo apt-get update - sudo apt-get install apt-transport-https curl gnupg - ``` - -2. 다음 명령을 실행하여 시스템에 Datadog `deb` 리포지토리를 설정하고 Datadog 아카이브 키링을 생성하세요: - - ``` - sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable observability-pipelines-worker-1' > /etc/apt/sources.list.d/datadog-observability-pipelines-worker.list" - sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg - sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg - curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch - ``` - -3. 다음 명령을 실행하여 로컬 `apt` 리포지토리를 업데이트하고 작업자를 설치합니다: - - ``` - sudo apt-get update - sudo apt-get install observability-pipelines-worker datadog-signing-keys - ``` - -4. 키와 사이트 ({{< region-param key="dd_site" code="true" >}})를 작업자 환경 변수에 추가합니다: - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -5. 호스트에서 [샘플 설정 파일][1]을 `/etc/observability-pipelines-worker/pipeline.yaml`에 다운로드합니다. - -6. 작업자 시작: - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/datadog/pipeline.yaml -[2]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "RPM 기반 Linux" %}} - -한 줄 설치 스크립트를 사용하거나 수동으로 작업자를 설치합니다. - -#### 한 줄 설치 스크립트 - -1. 한 줄 설치 명령을 실행하여 작업자를 설치합니다. ``는 Datadog API 키로, ``는 옵저버빌리티 파이프라인 ID로, ``는 {{< region-param key="dd_site" code="true" >}}로 교체합니다. - - ``` - DD_API_KEY= DD_OP_PIPELINE_ID= DD_SITE= bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_op_worker1.sh)" - ``` - -2. [샘플 설정 파일][1]을 호스트에서 `/etc/observability-pipelines-worker/pipeline.yaml`로 다운로드합니다. 샘플 설정에 사용되는 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]를 참조하세요. - -3. 다음 명령을 실행하여 작업자를 시작합니다: - - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -#### 수동 설치 - -1. 다음 명령을 실행하여 시스템에서 Datadog `rpm` 리포지토리를 설정합니다: - - ``` - cat < /etc/yum.repos.d/datadog-observability-pipelines-worker.repo - [observability-pipelines-worker] - name = Observability Pipelines Worker - baseurl = https://yum.datadoghq.com/stable/observability-pipelines-worker-1/\$basearch/ - enabled=1 - gpgcheck=1 - repo_gpgcheck=1 - gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public - https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public - EOF - ``` - - **참고:** RHEL 8.1 또는 CentOS 8.1을 실행 중인 경우 위의 설정에서 `repo_gpgcheck=1` 대신 `repo_gpgcheck=0`를 사용하세요. - -2. 패키지를 업데이트하고 작업자를 설치합니다: - - ``` - sudo yum makecache - sudo yum install observability-pipelines-worker - ``` - -3. 키와 사이트 ({{< region-param key="dd_site" code="true" >}}) 를 작업자 환경 변수에 추가합니다: - - ``` - sudo cat <<-EOF > /etc/default/observability-pipelines-worker - DD_API_KEY= - DD_OP_PIPELINE_ID= - DD_SITE= - EOF - ``` - -4. [샘플 설정 파일][1]을 호스트에서 `/etc/observability-pipelines-worker/pipeline.yaml`로 다운로드합니다. 샘플 설정에 사용되는 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]를 참조하세요. - -5. 다음 명령을 실행하여 작업자를 시작합니다: - ``` - sudo systemctl restart observability-pipelines-worker - ``` - -[1]: /resources/yaml/observability_pipelines/quickstart/pipeline.yaml -[2]: /ko/observability_pipelines/configurations/ -{{% /tab %}} -{{% tab "Terraform (AWS)" %}} -이 샘플 설정을 사용하여 기존 Terraform에 작업자 모듈을 설정합니다. 해당 AWS 배포와 일치하도록 `vpc-id`, `subnet-ids` 및 `region`의 값을 업데이트합니다. 해당 파이프라인과 일치하도록 `datadog-api-key` 및 `pipeline-id`의 값을 업데이트합니다. - -샘플 설정에 사용되는 소스, 변환 및 싱크에 대한 자세한 내용은 [설정][2]을 참조하세요. - -``` -module "opw" { - source = "https://github.com/DataDog/opw-terraform//aws" - vpc-id = "{VPC ID}" - subnet-ids = ["{SUBNET ID 1}", "{SUBNET ID 2}"] - region = "{REGION}" - - datadog-api-key = "{DATADOG API KEY}" - pipeline-id = "{OP PIPELINE ID}" - pipeline-config = <}} - -데이터 변환에 대한 자세한 내용은 [데이터 작업][7]을 참조하세요. - -## 배포 모드 업데이트 - -{{% op-updating-deployment-modes %}} - -## 다음 단계 - -빠른 시작은 작업자 설치와 샘플 파이프라인 설정 배포를 안내합니다. 작업자를 설치하여 Datadog Agents에서 데이터를 수신하여 Datadog으로 라우팅하거나 Splunk HEC에서 데이터를 수신하여 Splunk 및 Datadog으로 라우팅하는 방법에 대한 지침을 보려면 특정 사용 사례를 선택하세요: - -{{< partial name="observability_pipelines/use_cases.html" >}} - -여러 작업자 배포 및 확장에 대한 권장 사항은 다음을 참조하세요. - -- 옵저버빌리티 파이프라인 아키텍처를 설계할 때 고려해야 할 사항은 [배포 설계 및 원칙][8]을 참조하세요. -- [OP 작업자 애그리게이터 아키텍처 모범 사례][9]를 참조하세요. - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ko/observability_pipelines/#what-is-observability-pipelines-and-the-observability-pipelines-worker -[2]: /ko/observability_pipelines/setup/datadog/ -[3]: /ko/observability_pipelines/setup/datadog_with_archiving/ -[4]: /ko/observability_pipelines/setup/splunk/ -[5]: https://app.datadoghq.com/observability-pipelines -[6]: /ko/account_management/api-app-keys/#api-keys -[7]: /ko/observability_pipelines/working_with_data/ -[8]: /ko/observability_pipelines/production_deployment_overview/ -[9]: /ko/observability_pipelines/architecture/ \ No newline at end of file diff --git a/content/ko/observability_pipelines/troubleshooting.md b/content/ko/observability_pipelines/troubleshooting.md deleted file mode 100644 index 2271feb96fe63..0000000000000 --- a/content/ko/observability_pipelines/troubleshooting.md +++ /dev/null @@ -1,98 +0,0 @@ ---- -disable_toc: false -further_reading: -- link: /observability_pipelines/monitoring/ - tag: 설명서 - text: 파이프라인 상태 모니터링 -kind: documentation -title: 트러블슈팅 ---- - -{{< site-region region="gov" >}} -
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
-{{< /site-region >}} - -## 개요 -Datadog 옵저버빌리티 파이프라인(OP)에서 예기치 않은 동작이 발생하는 경우, 이 가이드를 통해 문제를 신속하게 해결할 수 있습니다. 계속해서 문제가 발생하면 [Datadog 지원팀][3]에 문의하여 추가 지원을 받으세요. - -## 진단 로그 조사 - -옵저버빌리티 파이프라인 작업자는 자체 상태에 대한 내부 로그를 내보냅니다. 옵저버빌리티 파이프라인 UI에서 작업자 프로세스가 모든 개별 컴포넌트에 대해 내보내는 내부 오류 로그를 조사할 수 있습니다. 다음 진단 로그를 보려면: - -1. [Observability Pipelines][1]로 이동합니다. -1. 조사하려는 파이프라인을 클릭합니다. -1. 컴포넌트의 사이드 패널을 보려면 컴포넌트를 클릭합니다. -1. 작업자가 내보내는 오류 로그를 보려면 **Diagnostic Logs** 탭을 클릭하세요. Log Explorer에서 로그 기록을 클릭하여 조사합니다. 나열된 로그가 없으면 컴포넌트가 오류 로그를 생성하지 않는 것입니다. - -### 더 상세한 로그 보기 - -OP Worker가 수집하는 내부 로그에 대한 자세한 내용이 필요한 경우 `VECTOR_LOG` 환경 변수를 사용하여 로그의 수준을 높일 수 있습니다. 기본적으로 `INFO`로 설정되어 있으며, 이는 콘솔에서 `INFO`, `WARNING` 및 `ERROR` 메시지가 표시됨을 의미합니다. - -이 옵션을 `DEBUG`로 설정하면 작업자의 내부 프로세스(HTTP 요청 및 수신된 응답 포함)에 대한 자세한 정보를 얻을 수 있습니다. 또한, Datadog 지원팀은 트러블슈팅에 도움이 되는 `DEBUG` 로그를 요청할 수 있습니다. 이러한 로그는 로그 탐색기 및 [진단 로그](#investigate-diagnostic-logs)에도 나타납니다. - -## 파이프라인을 통해 진행되는 이벤트를 검사하여 설정 문제를 파악하세요. - -OP Worker v1.4.0+를 사용하면 소스, 변환 및 싱크를 통과하는 데이터에 `tap`할 수 있으므로 파이프라인의 각 컴포넌트를 통해 처리되는 원시 데이터를 볼 수 있습니다. - -### 옵저버빌리티 파이프라인 작업자 API 사용 - -옵저버빌리티 파이프라인 작업자 API를 사용하면 `tap` 명령을 사용하여 작업자 프로세스와 상호 작용할 수 있습니다. [설정 가이드][2]에 제공된 Helm 차트를 사용하는 경우 API가 이미 활성화되어 있으며, 그렇지 않은 경우 환경 변수 `DD_OP_API_ENABLED`가 `true`로 설정되어 있는지 확인하세요. 이렇게 설정하면 CLI가 `tap`에 대해 예상하는 대로 API가 `localhost` 및 포트 `8686`를 수신합니다. - -### 데이터를 보기 위해 `tap` 사용 - -작업자와 동일한 호스트에 있는 경우 `tap` 출력에 다음 명령을 실행하세요: - -``` -observability-pipelines-worker tap -``` - -컨테이너화된 환경을 사용하는 경우 `docker exec` 또는 `kubectl exec` 명령을 사용하여 컨테이너에 shell을 가져와 위의 `tap` 명령을 실행합니다. - -### `tap` 사용 예시 - -다음 예제 설정을 추가합니다. 여기서 `cleanup` 변환은 `log` 속성을 `message`의 복사본으로 만듭니다: - -``` -sources: - demo: - type: demo_logs - format: json - -transforms: - cleanup: - type: remap - inputs: - - demo - source: |- - .log = .message - -sinks: - blackhole: - type: blackhole - inputs: - - cleanup - print_interval_secs: 0 -``` - -다음 명령을 사용하여 예제 설정을 실행하고 `cleanup` 변환의 출력을 확인합니다: - -``` -observability-pipelines-worker tap cleanup -``` - -예상 출력은 다음과 유사해야 합니다. 여기서 `log` 속성은 `message` 속성의 복사본입니다: - -``` -[tap] Pattern 'cleanup' successfully matched. -{"log":"{\"host\":\"121.142.241.212\",\"user-identifier\":\"meln1ks\",\"datetime\":\"25/Aug/2023:00:07:53\",\"method\":\"OPTION\",\"request\":\"/observability/metrics/production\",\"protocol\":\"HTTP/1.0\",\"status\":\"550\",\"bytes\":3185,\"referer\":\"https://make.us/wp-admin\"}","message":"{\"host\":\"121.142.241.212\",\"user-identifier\":\"meln1ks\",\"datetime\":\"25/Aug/2023:00:07:53\",\"method\":\"OPTION\",\"request\":\"/observability/metrics/production\",\"protocol\":\"HTTP/1.0\",\"status\":\"550\",\"bytes\":3185,\"referer\":\"https://make.us/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:53.429855261Z"} -{"log":"{\"host\":\"117.214.24.224\",\"user-identifier\":\"Karimmove\",\"datetime\":\"25/Aug/2023:00:07:54\",\"method\":\"HEAD\",\"request\":\"/do-not-access/needs-work\",\"protocol\":\"HTTP/2.0\",\"status\":\"503\",\"bytes\":41730,\"referer\":\"https://some.org/wp-admin\"}","message":"{\"host\":\"117.214.24.224\",\"user-identifier\":\"Karimmove\",\"datetime\":\"25/Aug/2023:00:07:54\",\"method\":\"HEAD\",\"request\":\"/do-not-access/needs-work\",\"protocol\":\"HTTP/2.0\",\"status\":\"503\",\"bytes\":41730,\"referer\":\"https://some.org/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:54.430584949Z"} -{"log":"{\"host\":\"108.145.218.149\",\"user-identifier\":\"shaneIxD\",\"datetime\":\"25/Aug/2023:00:07:55\",\"method\":\"DELETE\",\"request\":\"/this/endpoint/prints/money\",\"protocol\":\"HTTP/2.0\",\"status\":\"403\",\"bytes\":18340,\"referer\":\"https://up.de/wp-admin\"}","message":"{\"host\":\"108.145.218.149\",\"user-identifier\":\"shaneIxD\",\"datetime\":\"25/Aug/2023:00:07:55\",\"method\":\"DELETE\",\"request\":\"/this/endpoint/prints/money\",\"protocol\":\"HTTP/2.0\",\"status\":\"403\",\"bytes\":18340,\"referer\":\"https://up.de/wp-admin\"}","service":"vector","source_type":"demo_logs","timestamp":"2023-08-25T00:07:55.430085107Z"} -``` - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/observability-pipelines/ -[2]: /ko/observability_pipelines/setup/ -[3]: /ko/help \ No newline at end of file diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md b/content/ko/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md deleted file mode 100644 index 6e044628ce14b..0000000000000 --- a/content/ko/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby.md +++ /dev/null @@ -1,307 +0,0 @@ ---- -aliases: -- /ko/tracing/opentracing/ruby -- /ko/tracing/manual_instrumentation/ruby -- /ko/tracing/custom_instrumentation/ruby -- /ko/tracing/setup_overview/custom_instrumentation/ruby -- /ko/tracing/trace_collection/custom_instrumentation/ruby -code_lang: 루비(Ruby) -code_lang_weight: 20 -description: Datadog에 커스텀 트레이스를 전송하여 루비(Ruby) 애플리케이션을 수동 계측합니다. -further_reading: -- link: tracing/other_telemetry/connect_logs_and_traces - tag: 설명서 - text: 로그 및 트레이스를 서로 연결 -- link: tracing/glossary/ - tag: 설명서 - text: 서비스, 리소스 및 트레이스 탐색 -kind: 설명서 -title: Datadog 라이브러리로 루비(Ruby) 커스텀 계측 -type: multi-code-lang ---- -
-자동 계측 및 설정 지침을 아직 읽지 않으셨다면 루비(Ruby) 설정 지침을 참조하세요. -
- -본 페이지에서는 Datadog 애플리케이션 성능 모니터링(APM)으로 식별 가능성을 추가 및 커스터마이징하는 예시를 자세히 살펴봅니다. - -## 태그 추가 - -[스팬(span)][2]에 커스텀 [스팬(span) 태그][1]를 추가하여 Datadog 내에서 식별 가능성을 커스터마이징합니다. 스팬(span) 태그는 수신받는 트레이스에 적용되어, 관찰한 동작을 판매자 계층, 결제 금액 또는 사용자 ID 등의 코드 수준 정보와 상호 연관시킵니다. - -### 커스텀 스팬(span) 태그 추가 - -애플리케이션 코드 내의 동적 값(예: `customer.id`)에 해당하는 스팬(span)에 커스텀 태그를 추가합니다. - -{{< tabs >}} -{{% tab "Active Span" %}} -코드 내 메서드에서 현재 활성 [스팬(span)][1]에 접근합니다. - -**참고**: 메서드가 호출되었는데 활성 스팬(span)이 없다면 `active_span`은 `nil`입니다. - -```ruby -require 'ddtrace' - -# '/shopping_cart/:customer_id', to: 'shopping_cart#index' 가져오기 -class ShoppingCartController < ApplicationController - # GET /shopping_cart - def index - # 활성 스팬을 가져와 customer_id -> 254889로 설정 - Datadog::Tracing.active_span&.set_tag('customer.id', params.permit([:customer_id])) - - # [...] - end - - # POST /shopping_cart - def create - # [...] - end -end -``` - -[1]: /ko/tracing/glossary/#spans -{{% /tab %}} - -{{% tab "수동 계측 스팬" %}} - -`#set_tag`을 호출하여 `Datadog::Span` 오브젝트에 직접 [태그][1]를 추가합니다: - -```ruby -# Sinatra 엔드포인트 예시, -# 요청에 관한 Datadog 트레이싱을 통해. -get '/posts' do - Datadog::Tracing.trace('web.request') do |span| - span.set_tag('http.url', request.path) - span.set_tag('', '') - end -end -``` - - -[1]: /ko/tracing/glossary/#span-tags -{{% /tab %}} -{{< /tabs >}} - -### 모든 스팬(span)에 글로벌 태그 추가 - -트레이서를 `tags` 옵션으로 설정하여 모든 [스팬(span)][2]에 [태그][1]를 추가합니다: - -```ruby -Datadog.configure do |c| - c.tags = { 'team' => 'qa' } -end -``` - -`DD_TAGS` 환경변수를 사용하여 애플리케이션의 모든 스팬(span)에 태그를 설정할 수도 있습니다. 루비(Ruby) 환경변수에 대한 자세한 내용을 확인하려면 [설정 문서][3]를 참조하세요. - -### 스팬(span)에 오류 설정 - -스팬(span)에 오류를 설정하는 방법은 다음 두 가지입니다. - -- `span.set_error`을 호출하고 예외 오브젝트를 전달합니다. 해당 작업으로 오류 유형, 메시지, 백트레이스가 자동 추출됩니다. - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - span = Datadog::Tracing.trace('example.trace') - puts 'some work' - sleep(1) - raise StandardError, "This is an exception" -rescue StandardError => error - Datadog::Tracing.active_span&.set_error(error) - raise -ensure - span.finish -end - -example_method() -``` - -- 또는 오류 유형, 메시지 및 백트레이스를 설정하는 `tracer.trace`을 기본값으로 사용합니다. 이 동작을 설정하면 `on_error` 옵션을 사용할 수 있는데, 이는 해당 블록이 `trace`에 제공되어 오류가 발생하면 호출되는 핸들러입니다. Proc는 `span`, `error`을 인수로 제공합니다. `on_error`은 기본값으로 스팬(span)에 오류를 설정합니다. - -`on_error` 동작 기본값: - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - puts 'some work' - sleep(1) - raise StandardError, "This is an exception" -end - -Datadog::Tracing.trace('example.trace') do |span| - example_method() -end -``` - -`on_error` 동작 커스터마이징: - -```ruby -require 'ddtrace' -require 'timeout' - -def example_method - puts 'some work' - sleep(1) - raise StandardError.new "This is a special exception" -end - -custom_error_handler = proc do |span, error| - span.set_tag('custom_tag', 'custom_value') - span.set_error(error) unless error.message.include?("a special exception") -end - -Datadog::Tracing.trace('example.trace', on_error: custom_error_handler) do |span| - example_method() -end -``` - -## 스팬(span) 추가 - -지원하는 라이브러리 계측([라이브러리 호환성][4] 참조) 방식을 사용하지 않는다면 코드를 수동 계측할 수도 있습니다. 루비(Ruby) 코드를 래핑하는`Datadog::Tracing.trace` 방식을 사용하여 코드에 트레이싱을 추가할 수 있습니다. - -루비(Ruby) 코드를 트레이싱하려면 `Datadog::Tracing.trace` 방식을 사용할 수 있습니다. - -```ruby -Datadog::Tracing.trace(name, resource: resource, **options) do |span| - # 계측하고 싶은 코드에 해당 블록을 래핑합니다. - # 여기서 스팬(span)을 수정할 수도 있습니다. - # 예를 들어, 리소스 이름을 변경하거나 태그를 설정합니다. -end -``` - -여기서 `name`은 수행 중인 일반 작업을 설명하는 `String`입니다(예: `'web.request'`, 또는 `'request.parse'`). - -`resource`은 동작 중인 작업의 이름이 표시되는 `String`입니다. 동일한 리소스 값을 가진 트레이스는 메트릭 용도별로 그룹화됩니다. 리소스는 대개 URL, 쿼리, 요청 등과 같이 도메인에 따라 특화됩니다(예: Article#submit', http://example.com/articles/list.). - -사용 가능한 모든 `**options`을 보려면 [참조 가이드][5]를 확인하세요. - -### 신규 스팬(span) 수동 생성 - -코드 블록에 프로그래밍 방식으로 스팬(span)을 생성합니다. 이렇게 생성한 스팬(span)은 다른 트레이싱 메커니즘과 자동 통합됩니다. 즉, 트레이싱이 이미 시작된 경우, 수동 스팬(span)은 호출자를 부모 스팬(span)으로 설정합니다. 이와 비슷하게, 래핑한 코드 블록에서 호출한 트레이스 메서드는 수동 스팬(span)을 부모로 설정합니다. - -```ruby -# Sinatra 엔드포인트 예시. -# 요청, 데이터베이스 트레이싱 및 -# 렌더링 단계를 Datadog 트레이싱함. -get '/posts' do - Datadog::Tracing.trace('web.request', service: '', resource: 'GET /posts') do |span| - # 활성 레코드 호출 트레이싱 - Datadog::Tracing.trace('posts.fetch') do - @posts = Posts.order(created_at: :desc).limit(10) - end - - # APM 태그 추가 - span.set_tag('http.method', request.request_method) - span.set_tag('posts.count', @posts.length) - - # 템플릿 렌더링 트레이싱 - Datadog::Tracing.trace('template.render') do - erb :index - end - end -end -``` - -### 트레이스 후처리 - -일부 애플리케이션의 경우 Datadog에 전송하기 전에 트레이스를 변경 또는 필터링해야 할 수도 있습니다. 처리 파이프라인을 사용하면 이러한 작업을 정의하는 *프로세서*를 생성할 수 있습니다. - -#### 필터링 - -블록이 트루이면 다음과 같이 `Datadog::Tracing::Pipeline::SpanFilter` 프로세서를 활용하여 스팬(span)을 제거할 수 있습니다: - -```ruby -Datadog::Tracing.before_flush( - # 특정 리소스와 매치되는 스팬을 제거합니다. - Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.resource =~ /PingController/ }, - # 로컬 호스트로 트래픽되는 스팬을 제거합니다. - Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.get_tag('host') == 'localhost' } -) -``` - -#### 처리 - -`Datadog::Tracing::Pipeline::SpanProcessor` 프로세서를 사용하여 다음과 같이 스팬(span)을 수정할 수도 있습니다: - -```ruby -Datadog::Tracing.before_flush( - # 리소스 필드에서 매칭되는 텍스트 제거 - Datadog::Tracing::Pipeline::SpanProcessor.new { |span| span.resource.gsub!(/password=.*/, '') } -) -``` - -#### 커스텀 프로세서 - -프로세서는 `trace`을 인수(`Datadog::Span`의 `Array`)로 받는 `#call`에 응답하는 어떤 오브젝트든 될 수 있습니다. - -예를 들어, 다음과 같은 짧은 블록 구문을 사용합니다: - -```ruby -Datadog::Tracing.before_flush do |trace| - # 처리 로직... - trace -end -``` - -다음 예제는 복잡한 사후 처리 로직을 실행하는 프로세서를 구현합니다: - -```ruby -Datadog::Tracing.before_flush do |trace| - trace.spans.each do |span| - originalPrice = span.get_tag('order.price')) - discount = span.get_tag('order.discount')) - - # 기타 태그 계산으로 태그 설정 - if (originalPrice != nil && discount != nil) - span.set_tag('order.value', originalPrice - discount) - end - end - trace -end -``` - -커스텀 프로세서 클래스: - -```ruby -class MyCustomProcessor - def call(trace) - # 처리 로직... - trace - end -end - -Datadog::Tracing.before_flush(MyCustomProcessor.new) -``` - -두 경우 모두 프로세서 메서드는 `trace` 오브젝트를 *반드시* 반환해야 하며, 해당 반환값은 파이프라인의 다음 프로세서에 전달됩니다. - - -## 트레이스 클라이언트 및 에이전트 설정 - -B3 헤더를 사용하여 컨텍스트를 전파할 용도로 트레이싱 클라이언트와 Datadog 에이전트를 모두 추가 설정할 수 있습니다. 아울러, 서비스 상태 점검과 같이 계산 메트릭에 포함하고 싶지 않은 트레이스가 있다면, Datadog으로 트레이스 전송 시 특정 리소스를 제외할 수도 있습니다. - -### 헤더를 추출 및 삽입하여 컨텍스트 전파 - -헤더를 삽입 및 추출하여 분산 트레이스 컨텍스트 전파를 설정할 수 있습니다. 자세한 내용은 확인하려면 [트레이스 컨텍스트 전파][6]를 참조하세요. - - -### 리소스 필터링 - -서비스 상태 점검과 같이 Datadog에 트레이스를 전송하는 신서틱 트레픽을 제거할 목적으로 리소스 이름별로 트레이스를 제외할 수 있습니다. 해당 설정과 기타 보안 및 미세 조정 설정은 [보안][7] 페이지에서 확인하세요. - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ko/tracing/glossary/#span-tags -[2]: /ko/tracing/glossary/#spans -[3]: /ko/tracing/setup/ruby/#environment-and-tags -[4]: /ko/tracing/compatibility_requirements/ruby/ -[5]: /ko/tracing/trace_collection/dd_libraries/ruby/#manual-instrumentation -[6]: /ko/tracing/trace_collection/trace_context_propagation/ruby/ -[7]: /ko/tracing/security \ No newline at end of file