新しく作成した
datadog-agent SCC に、
datadog-agent サービスアカウントを追加することを忘れないでください。それには、
system:serviceaccount::
を
users
セクションに追加する必要があります。
@@ -187,6 +201,20 @@ runAsUser:
type: RunAsAny
```
+### ログ収集
+
+Datadog Agent のログ収集は、他の Kubernetes クラスターとほぼ同様に OpenShift で設定されます。Datadog Operator と Helm Chart は、`/var/log/pods` ディレクトリにマウントされ、Datadog Agent のポッドがそれぞれのホスト上にあるポッドおよびコンテナのログを監視するために使用します。ただし、Datadog Operator を使用する場合は、Agent にこれらのログファイルを読み取る権限を付与するために、追加の SELinux オプションを適用する必要があります。
+
+一般的な情報については [Kubernetes ログ収集][9]を参照し、構成例については[ディストリビューション][3]ページを参照してください。
+
+### APM
+
+Kubernetes では、アプリケーションポッドから Datadog Agent ポッドにデータを送信するための主なオプションとして、Unix ドメインソケット (UDS)、HostIP:HostPort オプション (TCP/IP)、Kubernetes Service の 3 つがあります。Datadog Operator と Helm Chart は、最もリソース効率が高い UDS オプションをデフォルトで使用します。ただし、このオプションは、Agent ポッドとアプリケーションポッドの両方で昇格した SCC および SELinux オプションが必要となるため、OpenShift ではうまく動作しません。
+
+Datadog では、この問題を回避し、Admission Controller がこの構成を注入しないようにするため、UDS オプションを明示的に無効にすることを推奨しています。
+
+一般的な情報については [Kubernetes APM - トレース収集][10]を参照し、構成例については[ディストリビューション][3]ページを参照してください。
+
### 検証
[kubernetes_apiserver][1] を参照
@@ -211,13 +239,13 @@ OpenShift チェックには、サービスのチェック機能は含まれま
[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example
-[2]: https://docs.datadoghq.com/ja/agent/kubernetes/
-[3]: https://github.com/DataDog/datadog-operator/
-[4]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html
-[5]: https://docs.datadoghq.com/ja/agent/kubernetes/log/?tab=daemonset
-[6]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/
-[7]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions
-[8]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml
-[9]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept
-[10]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml
-[11]: https://docs.datadoghq.com/ja/help/
+[2]: https://docs.datadoghq.com/ja/containers/kubernetes/installation
+[3]: https://docs.datadoghq.com/ja/containers/kubernetes/distributions/?tab=datadogoperator#Openshift
+[4]: https://github.com/DataDog/datadog-operator/
+[5]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html
+[6]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept
+[7]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml
+[8]: https://docs.datadoghq.com/ja/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions
+[9]: https://docs.datadoghq.com/ja/agent/kubernetes/log/?tab=daemonset
+[10]: https://docs.datadoghq.com/ja/containers/kubernetes/apm
+[11]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/oracle_cloud_infrastructure.md b/content/ja/integrations/oracle_cloud_infrastructure.md
index 827c53c75177d..b5334d6eedae8 100644
--- a/content/ja/integrations/oracle_cloud_infrastructure.md
+++ b/content/ja/integrations/oracle_cloud_infrastructure.md
@@ -3,7 +3,7 @@ app_id: oracle-cloud-infrastructure
app_uuid: c2b4d38f-dd23-4ca2-8bc4-b70360868e8c
assets:
dashboards:
- OCI-Overview-Beta: assets/dashboards/oci-overview-beta-dashboard.json
+ Oracle-Cloud-Infrastructure-Overview-Dashboard: assets/dashboards/oracle-cloud-infrastructure-overview-dashboard.json
integration:
auto_install: false
events:
@@ -27,7 +27,7 @@ categories:
- ログの収集
- ネットワーク
- oracle
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -39,8 +39,7 @@ is_public: true
manifest_version: 2.0.0
name: oracle_cloud_infrastructure
public_title: Oracle Cloud Infrastructure
-short_description: OCI delivers high-performance computing and migrations. The OCI
- metrics integration is in private beta.
+short_description: OCI は高性能コンピューティングとマイグレーションを提供します。OCI メトリクスインテグレーションは非公開ベータ版です。
supported_os: []
tile:
changelog: CHANGELOG.md
@@ -51,8 +50,7 @@ tile:
- Category::Oracle
- Offering::Integration
configuration: README.md#Setup
- description: OCI delivers high-performance computing and migrations. The OCI metrics
- integration is in private beta.
+ description: OCI は高性能コンピューティングとマイグレーションを提供します。OCI メトリクスインテグレーションは非公開ベータ版です。
media: []
overview: README.md#Overview
support: README.md#Support
@@ -64,10 +62,215 @@ tile:
Oracle Cloud Infrastructure (OCI) は、エンタープライズ規模の企業で使用されるInfrastructure-as-a-Service (IaaS) および Platform-as-a-Service (PaaS) です。ホスティング、ストレージ、ネットワーキング、データベースなどのマネージドサービスの完全なスイートを備えています。
-Datadog インテグレーションにより、OCI ユーザーはすべてのログを Datadog に直接ストリーミングでき、そこで無期限に保存し、トラブルシューティングのために分析し、セキュリティとコンプライアンスの姿勢を監視できます。
+Datadog の OCI インテグレーションを使用して、ログとメトリクスを Datadog に転送し、ダッシュボードの作成、トラブルシューティングの支援、セキュリティおよびコンプライアンス状況の監視に活用できます。
## セットアップ
+### メトリクスの収集
+
+OCI メトリクスを Datadog に転送するには
+ - Oracle Resource Manager スタックを使用して、テナンシーのホームリージョンで [Datadog 認証ユーザー、グループ、および必要なポリシーを作成](#create-a-policy-stack)します。このスタックは、
+ * Datadog 認証ユーザーが OCI リソースからデータを読み取ることを可能にします。
+ * メトリクスの転送を可能にします。
+ - Datadog インテグレーションタイルで[テナンシー情報を入力](#enter-tenancy-info)します。
+ - Oracle Resource Manager スタックを使用して、メトリクスを転送したいすべてのテナンシーリージョンで[必要な OCI インフラストラクチャーを作成](#create-a-metric-forwarding-stack)します。
+
+### OCI スタックとテナンシー情報を作成する
+
+**注**: これらの手順を完了するには、OCI ユーザーアカウントに **Cloud Administrator** ロールが必要です。
+
+このインテグレーションは、OCI の[コネクタハブ][1]、[関数アプリ][2]、およびセキュアなネットワークインフラストラクチャーを使用して、OCI メトリクスを Datadog に転送します。
+
+{{< img src="/integrations/oracle_cloud_infrastructure/OCI_metrics_integration_diagram.png" alt="このページで言及されている OCI リソースとデータフローを示す図" >}}
+
+最も簡単なセットアップのために、Datadog は以下の ORM スタックを使用して、必要なすべての OCI リソースを作成することを推奨します。あるいは、既存の OCI ネットワークインフラストラクチャーや、[メトリクス転送スタックを作成する](#create-a-metric-forwarding-stack)で概要を説明する要件を満たす関数アプリを使用することもできます。
+
+**注**: リソースマネージャースタックの Terraform 状態ファイルへのアクセス権を管理する必要があります。詳細については、Securing Resource Manager ページの [Terraform 状態ファイルのセクション][3]を参照してください。
+
+#### ポリシースタックを作成する
+
+{{< img src="/integrations/oracle_cloud_infrastructure/OCI_auth_workflow_diagram.png" alt="インテグレーション認証に使用される OCI リソースとワークフローの図" >}}
+
+ORM ポリシースタックは、テナンシーの**ホームリージョン**に作成する必要があります。このポリシースタックは次を作成します。
+ * コネクタハブへのアクセスを有効にするための `resource.type = 'serviceconnectors'` を持つ動的グループ。
+ * テナンシーリソースを読み取るために Datadog が使用する **DatadogAuthUser** というユーザー。
+ * 作成されたユーザーがポリシーアクセスのために追加されるグループ。
+ * ルートコンパートメントにおける、コネクタハブがメトリクスを読み取り、関数を呼び出すことを許可するポリシー。さらに、作成されたユーザーグループにテナンシーリソースの読み取りアクセスを付与します。ポリシーに以下のステートメントが追加されます。
+
+```text
+Allow dynamic-group
to read metrics in tenancy
+Allow dynamic-group to use fn-function in tenancy
+Allow dynamic-group to use fn-invocation in tenancy
+Allow group / to read all-resources in tenancy
+```
+
+スタックを作成するには、ユーザーアカウントが[動的グループとポリシーを作成][4]できる必要があります。
+
+1. Datadog OCI インテグレーションタイルで **Create a stack** ボタンをクリックします。
+2. Oracle 利用規約に同意します。
+3. **Working directory** のドロップダウンで、`datadog-oci-orm/policy-setup` を選択します。
+4. カスタム Terraform プロバイダーを使用するオプションは**未選択**のままにします。
+5. `datadog-metrics-policy-setup` のようなわかりやすい名前を提供し、それをデプロイするコンパートメントを選択します。
+6. **Next** をクリックします。
+7. 作成される動的グループ、ユーザーグループ、およびポリシーの名前を指定するか、提供されたデフォルトの名前を使用します。
+8. スタックを実行するユーザーのドメイン名を提供します。デフォルトのドメイン名は `Default` です。
+9. テナンシーの**ホームリージョン**が選択されていることを確認します。
+10. **Next** をクリックします。
+11. **Create** をクリックします。
+
+**注**:
+* スタックを実行するユーザーが `Default` 以外の IAM ドメインに属している場合、認証ユーザー、動的グループ、およびユーザーグループがそのドメイン内にのみ作成されるように、そのドメイン名を指定してください。
+* ユーザーとグループが **Default** ドメインに作成されていない場合、そのドメインがテナンシーのすべてのサブスクライブされたリージョンにレプリケートされていることを確認してください。詳細については、[アイデンティティドメインを複数のリージョンにレプリケートする][5]を参照してください。
+
+#### テナンシー情報を入力
+
+1. 監視したいテナンシーの OCID とホームリージョンを [Datadog OCI インテグレーションタイル][6]に入力します。
+ - この情報は[テナンシー詳細ページ][7]で見つけることができます。
+ - OCI の [Regions and Availability Domains ページ][8]から **Region Identifier** の値を使用して、ホームリージョンを入力します。
+
+2. 前のスタックを実行した後に作成された `DatadogAuthUser` の **OCID** 値をコピーし、それを [Datadog OCI インテグレーションタイル][6]のユーザー OCID フィールドに貼り付けてください。
+
+3. OCI コンソールに戻り、次の手順で **API キー**を生成します。
+ a. 作成された `DatadogAuthUser` に戻ります。
+ b. 画面の左下の **Resources** の下にある **API keys** をクリックします。
+ c. **Add API key** をクリックします。
+ d. **Download private key** をクリックします。
+ e. **Add** をクリックします。
+ f. **Configuration file preview** のポップアップが表示されますが、特に操作は必要ありません。ポップアップを閉じてください。
+
+{{< img src="/integrations/oracle_cloud_infrastructure/add_api_key.png" alt="OCI コンソールの Add API Key ページ" >}}
+
+4. **Fingerprint** の値をコピーし、その値を [Datadog OCI インテグレーションタイル][6]の **Fingerprint** フィールドに貼り付けてください。
+5. 次の手順で**プライベートキー**の値をコピーします。
+ a. ダウンロードしたプライベートキー `.pem` ファイルをテキストエディタで開くか、`cat` のようなターミナルコマンドを使用してファイルの内容を表示します。
+ b. `-----BEGIN PRIVATE KEY-----` と `-----END PRIVATE KEY-----` を含む全内容をコピーします。
+6. プライベートキーの値を Datadog OCI インテグレーションタイルの **Private Key** フィールドに貼り付けてください。
+
+
+#### メトリクス転送スタックを作成する
+
+このスタックで作成されたすべてのリソースは、指定されたコンパートメントにデプロイされます。このスタックを実行するユーザーが、そのコンパートメントでリソースを作成するアクセス権を持っていることを確認してください。
+
+1. OCI コンソールの[スタックの作成][9]に移動します。
+2. Oracle 利用規約に同意します。
+3. **Working directory** のドロップダウンで、`datadog-oci-orm/metrics-setup` を選択します。
+4. カスタム Terraform プロバイダーを使用するオプションは**未選択**のままにします。
+5. スタックに名前を付け、それをデプロイするコンパートメントを選択します。
+6. **Next** をクリックします。
+7. **Tenancy** の値は、そのままにしておいてください。これらは現在のリージョンとテナント、および以前に選択したコンパートメントによって指定されます。
+8. **Datadog API Key** フィールドにあなたの [Datadog API キー][10]を入力します。
+9. **Datadog Environment Endpoint** フィールドで、あなたの [Datadog サイト][11]に対応するエンドポイントを選択します。
+
+| Datadog サイト | エンドポイント |
+| ------------- | -------------------------------------- |
+| US1 | ocimetrics-intake.datadoghq.com |
+| US3 | ocimetrics-intake.us3.datadoghq.com |
+| US5 | ocimetrics-intake.us5.datadoghq.com |
+| EU1 | ocimetrics-intake.datadoghq.eu |
+| AP1 | ocimetrics-intake.ap1.datadoghq.com |
+
+_注:_ OCI インテグレーションは US1-FED サイトではサポートされていません。
+
+{{< tabs >}}
+{{% tab "ORM を使用して VCN を作成する (推奨)" %}}
+10. **Network options** セクションで、`Create VCN` がチェックされたままにします。
+ a. **vcnCompartment** フィールドで、あなたのコンパートメントを選択します。
+{{% /tab %}}
+
+{{% tab "既存の VCN を使用する" %}}
+既存の VCN を使用する場合、サブネットの OCID をスタックに提供する必要があります。VCN が次を満たしていることを確認してください。
+ - NAT ゲートウェイを通じて HTTP の外向きコールを行うことが許可されている。
+ - サービスゲートウェイを使用して OCI コンテナレジストリからイメージを取得できる。
+ - NAT ゲートウェイとサービスゲートウェイを許可するルートテーブルルールを持っている。
+ - HTTP リクエストを送信するセキュリティルールを持っている。
+
+10. **Network options** セクションで、`Create VCN` オプションのチェックを外し、あなたの VCN 情報を入力します。
+ a. **vcnCompartment** フィールドで、あなたのコンパートメントを選択します。
+ b. **existingVcn** セクションで、あなたの既存の VCN を選択します。
+ c. **Function Subnet OCID** セクションで、使用するサブネットの OCID を入力します。
+{{% /tab %}}
+{{< /tabs >}}
+
+{{< tabs >}}
+{{% tab "ORM を使用して関数アプリケーションを作成する (推奨)" %}}
+ORM スタックは、テナンシー内のリージョンに関数コンテナリポジトリを作成し、関数で使用するために Docker イメージがそこに送信されます。
+
+11. **Function settings** セクションで以下の手順を完了します。
+ a. **Function Application shape** フィールドで、値を `GENERIC_ARM` のままにします。
+ b. OCI Docker レジストリのユーザー名とパスワードを入力します。
+ - **OCI Docker registry user name** フィールドに、あなたの OCI ユーザー名を入力します。
+ - **OCI Docker registry password** フィールドに、あなたの OCI ユーザーの認証トークンを入力します。詳細については、[認証トークンの取得][1]を参照してください。
+
+ _注:_ Docker レジストリのログインが正しいかどうかを確認するには、[Oracle Cloud Infrastructure Registry へのログイン][2]を参照してください。
+
+
+
+
+[1]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm
+[2]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm
+{{% /tab %}}
+
+{{% tab "既存の関数アプリケーションを使用する" %}}
+既存の関数アプリケーションを使用する場合、イメージはすでに存在しており、完全なイメージパスを提供する必要があります。以下は完全なイメージパスの例です。
+
+```text
+.ocir.io//datadog-functions/datadog-function-metrics:latest
+```
+
+- `` には、OCI の[リージョンと可用性ドメインのページ][1]のテーブルから **Region Key** の値を使用します。例えば、`US-EAST` のリージョンキーは `IAD` です。
+- `` には、[テナンシー詳細ページ][2]の **Object storage namespace** の値を使用します。
+
+11. **Function settings** セクションで以下の手順を完了します。
+ a. **Function Application shape** フィールドで、値を `GENERIC_ARM` のままにします。
+ b. **Function Image Path** フィールドに、完全なイメージパスを入力します。
+
+[1]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm
+[2]: https://cloud.oracle.com/tenancy
+{{% /tab %}}
+{{< /tabs >}}
+
+12. **Service Connector hub batch size** を `5000` に設定します。
+13. **Next** をクリックします。
+14. **Create** をクリックします。
+15. [Datadog OCI インテグレーションタイル][6]に戻り、**Create configuration** をクリックします。
+
+**注**: デフォルトでは、ルートコンパートメントのみが選択され、Datadog OCI インテグレーションでサポートされているすべてのメトリクスネームスペースが有効になっています (コネクタハブあたり最大 50 のネームスペースがサポートされます)。
+
+16. 任意で、コンパートメントを追加したり、有効なメトリクスネームスペースのリストを編集するには、新しく作成した [Connector Hub][12] の **Edit** をクリックします。
+ - コンパートメントを追加するには、**+ Another compartment** をクリックします。
+ - **Configure source** セクションで、**Namespaces** ドロップダウンからネームスペースを追加または削除します。
+
+#### 検証
+
+Datadog の [OCI インテグレーション概要ダッシュボード][13]または [Metrics Explorer ページ][14]で `oci.*` メトリクスを表示します。
+
+OCI 関数メトリクス (oci.faas
ネームスペース) とコンテナインスタンスメトリクス (oci_computecontainerinstance
ネームスペース) はベータ版です。
+
+### メトリクスネームスペース
+
+| インテグレーション | メトリクスネームスペース |
+| ----------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------- |
+| [Autonomous Database][15] | [oci_autonomous_database][16] |
+| ブロックストレージ | [oci_blockstore][17] |
+| [コンピュート][18] | [oci_computeagent][19]、[rdma_infrastructure_health][20]、[gpu_infrastructure_health][21]、[oci_compute_infrastructure_health][22] |
+| コンテナインスタンス (ベータ) | [oci_computecontainerinstance][23] |
+| [データベース][24] | [oci_database][25]、[oci_database_cluster][26] |
+| ダイナミックルーティングゲートウェイ | [oci_dynamic_routing_gateway][27] |
+| FastConnect | [oci_fastconnect][28] |
+| ファイルストレージ | [oci_filestorage][29] |
+| 関数 (ベータ) | [oci_faas][30] |
+| HeatWave MySQL | [oci_mysql_database][31] |
+| Kubernetes エンジン | [oci_oke][32] |
+| [ロードバランサー][33] | [oci_lbaas][34]、[oci_nlb][35] |
+| [NAT ゲートウェイ][36] | [oci_nat_gateway][37] |
+| オブジェクトストレージ | [oci_objectstorage][38] |
+| キュー | [oci_queue][39] |
+| サービスコネクタハブ | [oci_service_connector_hub][40] |
+| サービスゲートウェイ | [oci_service_gateway][41] |
+| [VCN][42] | [oci_vcn][43] |
+| VPN | [oci_vpn][44] |
+| Web Application Firewall | [oci_waf][45] |
+
### ログ収集
次のいずれかのプロセスに従って、Oracle Cloud Infrastructure から Datadog にログを送信します。
@@ -116,18 +319,12 @@ OCI ログの詳細については、[リソースのログを有効にする][1
OCI オブジェクトストレージの詳細については、[Oracle のサービスコネクタのブログ記事][6]を参照してください。
-## トラブルシューティング
-
-ご不明な点は、[Datadog のサポートチーム][7]までお問い合わせください。
-
-
-[1]: https://docs.cloud.oracle.com/en-us/iaas/Content/Logging/Concepts/service_logs.htm#enabling_logging
-[2]: https://docs.cloud.oracle.com/en-us/iaas/Content/Functions/Concepts/functionsoverview.htm
+[1]: https://docs.oracle.com/iaas/Content/Logging/Task/enabling_logging.htm
+[2]: https://docs.cloud.oracle.com/iaas/Content/Functions/Concepts/functionsoverview.htm
[3]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/func.py
[4]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/func.yaml
[5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/requirements.txt
[6]: https://blogs.oracle.com/cloud-infrastructure/oracle-cloud-infrastructure-service-connector-hub-now-generally-available
-[7]: https://docs.datadoghq.com/ja/help/
{{% /tab %}}
{{% tab "オブジェクトストア" %}}
@@ -190,14 +387,85 @@ OCI オブジェクトストレージの詳細については、[データをオ
OCI オブジェクトストレージの詳細については、[イベント入門][7]を参照してください。
-
-
-[1]: https://docs.cloud.oracle.com/en-us/iaas/Content/Logging/Concepts/service_logs.htm#enabling_logging
-[2]: https://docs.cloud.oracle.com/en-us/iaas/Content/GSG/Tasks/addingbuckets.htm
-[3]: https://docs.cloud.oracle.com/en-us/iaas/Content/Functions/Concepts/functionsoverview.htm
+[1]: https://docs.oracle.com/iaas/Content/Logging/Task/enabling_logging.htm
+[2]: https://docs.cloud.oracle.com/iaas/Content/GSG/Tasks/addingbuckets.htm
+[3]: https://docs.cloud.oracle.com/iaas/Content/Functions/Concepts/functionsoverview.htm
[4]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/func.py
[5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/func.yaml
[6]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/requirements.txt
-[7]: https://docs.cloud.oracle.com/en-us/iaas/Content/Events/Concepts/eventsgetstarted.htm
+[7]: https://docs.cloud.oracle.com/iaas/Content/Events/Concepts/eventsgetstarted.htm
{{% /tab %}}
{{< /tabs >}}
+
+## 収集データ
+
+### メトリクス
+{{< get-metrics-from-git "oracle_cloud_infrastructure" >}}
+
+
+### サービスチェック
+
+OCI インテグレーションには、サービスのチェック機能は含まれません。
+
+### イベント
+
+OCI インテグレーションには、イベントは含まれません。
+
+## トラブルシューティング
+
+ご不明な点は、[Datadog のサポートチーム][46]までお問い合わせください。
+
+## その他の参考資料
+
+お役に立つドキュメント、リンクや記事:
+
+- [Datadog で Oracle Cloud Infrastructure を監視する][47]
+
+
+[1]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm
+[2]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications
+[3]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state
+[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html
+[5]: https://docs.oracle.com/iaas/Content/Identity/domains/to-manage-regions-for-domains.htm
+[6]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure
+[7]: https://cloud.oracle.com/tenancy
+[8]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm
+[9]: https://cloud.oracle.com/resourcemanager/stacks/create?zipUrl=https://github.com/Datadog/oracle-cloud-integration/releases/latest/download/datadog-oci-orm.zip
+[10]: https://app.datadoghq.com/organization-settings/api-keys
+[11]: https://docs.datadoghq.com/ja/getting_started/site/
+[12]: https://cloud.oracle.com/connector-hub/service-connectors
+[13]: https://app.datadoghq.com/dash/integration/31405/oracle-cloud-oci-overview
+[14]: https://app.datadoghq.com/metric/explorer
+[15]: https://app.datadoghq.com/integrations/oci-autonomous-database
+[16]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html
+[17]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm
+[18]: https://app.datadoghq.com/integrations/oci-compute
+[19]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl
+[20]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network
+[21]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute
+[22]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm
+[23]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm
+[24]: https://app.datadoghq.com/integrations/oci-database
+[25]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F
+[26]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489
+[27]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm
+[28]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm
+[29]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm
+[30]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm
+[31]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html
+[32]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm
+[33]: https://app.datadoghq.com/integrations/oci-load-balancer
+[34]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm
+[35]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm
+[36]: https://app.datadoghq.com/integrations/oci-nat-gateway
+[37]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm
+[38]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm
+[39]: https://docs.oracle.com/iaas/Content/queue/metrics.htm
+[40]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm
+[41]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm
+[42]: https://app.datadoghq.com/integrations/oci-vcn
+[43]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm
+[44]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm
+[45]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm
+[46]: https://docs.datadoghq.com/ja/help/
+[47]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/
\ No newline at end of file
diff --git a/content/ja/integrations/windows_registry.md b/content/ja/integrations/windows_registry.md
index 0d5a17f19b572..fc5603520116f 100644
--- a/content/ja/integrations/windows_registry.md
+++ b/content/ja/integrations/windows_registry.md
@@ -18,7 +18,8 @@ author:
support_email: help@datadoghq.com
categories:
- OS & システム
-custom_kind: integration
+- windows
+custom_kind: インテグレーション
dependencies:
- https://github.com/DataDog/integrations-core/blob/master/windows_registry/README.md
display_on_public_website: true
@@ -39,6 +40,7 @@ tile:
classifier_tags:
- Supported OS::Windows
- Category::OS & System
+ - カテゴリー::Windows
- Offering::Integration
configuration: README.md#Setup
description: Windows ホストでレジストリキーの変更を監視します。
@@ -115,4 +117,4 @@ Windows レジストリインテグレーションには、サービスのチェ
[6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#restart-the-agent
[7]: https://docs.datadoghq.com/ja/agent/basic_agent_usage/windows/?tab=gui#agent-status-and-information
[8]: https://docs.datadoghq.com/ja/account_management/billing/log_management/
-[9]: https://docs.datadoghq.com/ja/help/
+[9]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/winkmem.md b/content/ja/integrations/winkmem.md
index d81f13788c779..9fbba5e48a751 100644
--- a/content/ja/integrations/winkmem.md
+++ b/content/ja/integrations/winkmem.md
@@ -22,7 +22,8 @@ author:
support_email: help@datadoghq.com
categories:
- OS & システム
-custom_kind: integration
+- windows
+custom_kind: インテグレーション
dependencies:
- https://github.com/DataDog/integrations-core/blob/master/winkmem/README.md
display_on_public_website: true
@@ -43,6 +44,7 @@ tile:
classifier_tags:
- Supported OS::Windows
- Category::OS & System
+ - カテゴリー::Windows
- Offering::Integration
configuration: README.md#Setup
description: Windows カーネルのメモリ割り当てを監視します。
@@ -100,4 +102,4 @@ Windows Kernel Memory インテグレーションには、サービスのチェ
[3]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/winkmem.d/conf.yaml.example
[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent
[5]: https://github.com/DataDog/integrations-core/blob/master/winkmem/metadata.csv
-[6]: https://docs.datadoghq.com/ja/help/
+[6]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/logs/explorer/facets.md b/content/ja/logs/explorer/facets.md
index edd1dab8a3322..c45f545b778d5 100644
--- a/content/ja/logs/explorer/facets.md
+++ b/content/ja/logs/explorer/facets.md
@@ -1,7 +1,7 @@
---
algolia:
tags:
- - log facets
+ - ログファセット
aliases:
- /ja/logs/facets
description: ログファセットとファセットパネル
@@ -33,7 +33,7 @@ title: ログファセット
ファセットを使用すると、[ログモニター][4]のログ、[ダッシュボード][5]のログウィジェット、[ノートブック][6]を操作することもできます。
-**Note**: You do not need facets to support [log processing][7], [livetail search][8], [log explorer search][9], [metric generation][10] from logs, [archive][11] forwarding, or [rehydration][12]. You also do not need facets for routing logs through to [Pipelines][13] and [Indexes][14] with filters, or excluding or sampling logs from indexes with [exclusion filters][15].
+**注**: [ログ処理][7]、[ライブテイル検索][8]、[ログエクスプローラー検索][9]、ログからの[メトリクス生成][10]、[アーカイブ][11]転送、または[リハイドレーション][12]をサポートするためのファセットは必要ありません。また、フィルターを使用して[パイプライン][13]や[インデックス][14]にログをルーティングする場合や、[除外フィルター][15]を使用してインデックスからログを除外またはサンプリングする場合にもファセットは必要ありません。
これらすべてのコンテキストで、オートコンプリート機能は既存のファセットに依存しますが、入力ログに一致する入力はすべて機能します。
@@ -99,16 +99,16 @@ title: ログファセット
### ファセットを非表示にする
ログを使用するすべてのチームのあらゆるユースケースに対処する必要があるため、組織が持つファセットは膨大になるものです。しかし、特定のトラブルシューティングのコンテキストで必要となるのは、こうしたファセットの一部のみであることが大半でしょう。トラブルシューティングセッションで最も関連性の高いファセットのみを保持するために、必要のないファセットを定期的に非表示にします。
-
-{{< img src="logs/explorer/facet/hide_facet.png" alt="ファセットを非表示にする" style="width:30%;">}}
+1. [Logs Explorer][30] で、非表示にしたいファセットを見つけます。
+1. ファセットの隣にある歯車アイコンをクリックします。
+1. **Hide Facet** を選択します。
必要に応じて、ファセットは非表示にしてもファセット検索に表示されます([ファセットのフィルター](#filter-facets)セクションを参照)。そこから非表示のファセットを再表示します。
-{{< img src="logs/explorer/facet/unhide_facet.png" style="width:50%;" alt="ファセットを再表示" style="width:30%;">}}
非表示のファセットは、検索バーのオートコンプリートと、ログエクスプローラーの分析のドロップダウン(メジャー、グループ化など)からも非表示になります。ただし、ファセットは非表示にしても検索クエリでは有効です(たとえば、ログエクスプローラーのリンクをコピーして貼り付けた場合)。
-非表示のファセットはログエクスプローラー以外には影響を与えません(例: Live Tail、モニター、ダッシュボードのウィジェットの定義)。
+非表示のファセットはログエクスプローラー以外には影響を与えません (例: Live Tail、モニター、ダッシュボードのウィジェットの定義)。
#### 非表示のファセットとチームメイト
@@ -262,4 +262,5 @@ _エイリアス設定された_ファセットを_標準_ファセットにエ
[26]: /ja/logs/log_configuration/attributes_naming_convention
[27]: /ja/logs/indexes/#indexes
[28]: /ja/logs/log_configuration/rehydrating
-[29]: /ja/logs/log_configuration/parsing/?tab=matchers#nested-json
\ No newline at end of file
+[29]: /ja/logs/log_configuration/parsing/?tab=matchers#nested-json
+[30]: https://app.datadoghq.com/logs
\ No newline at end of file
diff --git a/content/ja/logs/guide/control-sensitive-logs-data.md b/content/ja/logs/guide/control-sensitive-logs-data.md
index aaec1fe1d7c99..8300ffb92e901 100644
--- a/content/ja/logs/guide/control-sensitive-logs-data.md
+++ b/content/ja/logs/guide/control-sensitive-logs-data.md
@@ -94,9 +94,9 @@ title: 機密ログデータの管理
この手順により、機密データを含むログ (すでに送信されたログと流入し続ける可能性のあるログの両方) を Datadog (Explorer、Dashboard、Livetail) でクエリできないようにします。
-[データアクセスコンフィギュレーションページ][17]と機密性の高いアウトラインクエリを使用して、組織内の全員に適用される[制限][18]を定義します。例えば、上記のクエリは、`version:x.y.z source:python status:debug` です。
+[データアクセス構成ページ][17]を使用して、組織内の全員に適用される[制限][18]を定義する際、機密性の高いアウトラインクエリを活用してください。例えば、`version:x.y.z source:python status:debug` のクエリを使用できます。また、`@timestamp` 属性を使用して特定の期間を指定して制限することも可能です。例えば、`@timestamp:[1731597125165 TO 1731597125200]` とします。
-**注:** 機密性の高いアウトラインクエリの**否定**を使用すると、一致するログ以外は表示されなくなります。
+**注:** 機密性の高いアウトラインクエリで **NOT** を使用する場合、クエリに一致するログへのアクセスは制限され、クエリに一致しないログのみがユーザーに表示されるようになります。
{{< img src="logs/guide/sensitive/sensitive_data_access.png" alt="機密データアクセス" style="width:80%;" >}}
diff --git a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md
index bcba7533ddfd1..ed4fca80465c3 100644
--- a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md
+++ b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md
@@ -156,7 +156,7 @@ gnutls-cli intake.logs.datadoghq.com:10516
これはテストメッセージです
```
-ポート 10516 を開くことを選択できない場合は、`DD_LOGS_CONFIG_USE_HTTP` 環境変数を `true` に設定して、Datadog Agent が HTTPS 経由でログを送信するよう構成することができます。
+ポート 10516 を開くことを選択できない場合は、`DD_LOGS_CONFIG_FORCE_USE_HTTP` 環境変数を `true` に設定して、Datadog Agent が HTTPS 経由でログを送信するよう構成することができます。
#### コンテナに JSON ロギングドライバーが使用されていない
@@ -213,4 +213,4 @@ logs_config:
[1]: /ja/help/
[2]: /ja/integrations/journald/#setup
[3]: /ja/agent/docker/?tab=standard#mounting-conf-d
-[4]: https://docs.docker.com/config/containers/logging/journald/
+[4]: https://docs.docker.com/config/containers/logging/journald/
\ No newline at end of file
diff --git a/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md b/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md
index 9f8e017084f0e..15a594f7462cf 100644
--- a/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md
+++ b/content/ja/logs/guide/ease-troubleshooting-with-cross-product-correlation.md
@@ -24,7 +24,7 @@ title: クロスプロダクト相関で容易にトラブルシューティン
このガイドでは、フルスタックデータを相関させる方法を説明します。ユースケースによっては、以下のいくつかのステップは省略することができます。他のステップに依存しているステップは、明示されています。
1. [サーバー側ログとトレースの相関付け](#correlate-server-side-logs-with-traces)
- * [Correlate application logs](#correlate-application-logs)
+ * [アプリケーションログの相関付け](#correlate-application-logs)
* [プロキシログの相関付け](#correlate-proxy-logs)
* [データベースログの相関付け](#correlate-database-logs)
2. [フロントエンドプロダクトの相関付け](#correlate-frontend-products)
@@ -72,7 +72,7 @@ title: クロスプロダクト相関で容易にトラブルシューティン
##### ログのトレース ID の挿入
-トレース ID は、`opentelemetry_trace_id` 変数として保存されます。NGINX 構成ファイル (`/etc/nginx/nginx.conf`) の HTTP セクションに以下の構成ブロックを追加して、NGINX のログ形式を更新します。
+トレース ID は、`opentelemetry_trace_id` という変数に保存されます。NGINX コンフィギュレーションファイル (`/etc/nginx/nginx.conf`) の HTTP セクションに以下の構成ブロックを追加して、NGINX のログフォーマットを更新します。
```conf
http {
@@ -98,7 +98,7 @@ http {
_trace_id %{notSpace:dd.trace_id:nullIf("-")}
```
-3. Add a [trace ID remapper][7] on `dd.trace_id` attribute.
+3. `dd.trace_id` 属性で [トレース ID リマッパー][7]を追加します。
### データベースログの相関付け
@@ -157,7 +157,7 @@ PostgreSQL パイプラインのクローン作成とカスタマイズ:
以下に、遅延しているトレースからのクエリ遅延の実行プランの例を示します。
-{{< img src="logs/guide/ease-troubleshooting-with-cross-product-correlation/slow-query-root-cause.png" alt="Slow query logs correlation" style="width:100%;" >}}
+{{< img src="logs/guide/ease-troubleshooting-with-cross-product-correlation/slow-query-root-cause.png" alt="クエリ遅延ログの相関" style="width:100%;" >}}
## フロントエンドプロダクトの相関付け
diff --git a/content/ja/logs/guide/forwarder.md b/content/ja/logs/guide/forwarder.md
index b050308a59d77..9c8c0b26b3416 100644
--- a/content/ja/logs/guide/forwarder.md
+++ b/content/ja/logs/guide/forwarder.md
@@ -153,8 +153,8 @@ aws lambda invoke --function-name --payload '{"retry":"true"}' o
### 古いバージョンを 3.106.0 以降にアップグレードする
-Starting version 3.106.0 Lambda function has been updated to add a prefix to cache filenames stored in the S3 bucket configured in `DD_S3_BUCKET_NAME`. This allows to use the same bucket to store cache files from several functions.
-Additionally, starting this version, the forwarder will attach custom S3 bucket tags by default to all logs exported to S3. For example, if a service is configured to send logs to a destiantion S3 bucket, the forwarder will add the bucket's tags to the logs while pulling and forwarding the logs.
+バージョン 3.106.0 から、Lambda 関数は `DD_S3_BUCKET_NAME` で構成された S3 バケットに保存されるキャッシュファイル名にプレフィックスを追加するよう更新されました。これにより、複数の関数が同じバケットにキャッシュファイルを保存できるようになります。
+さらに、このバージョンから、フォワーダーは S3 にエクスポートされるすべてのログにデフォルトでカスタム S3 バケットタグを付与します。たとえば、サービスが宛先の S3 バケットにログを送信するよう構成されている場合、フォワーダーはログを取得・転送する際にそのバケットのタグをログに追加します。
### 古いバージョンを 3.99.0 以降にアップグレードする
@@ -437,7 +437,7 @@ Datadog は、最低でも 10 個の予約済み同時実行を使用するこ
: Forwarder が GetResources API 呼び出しを使用して Step Functions タグをフェッチし、それらをログとトレースに適用できるようにします (Step Functions のトレースが有効な場合)。true に設定すると、アクセス許可 `tag:GetResources` が Lambda 実行 IAM ロールに自動的に追加されます。
`DdStepFunctionTraceEnabled`
-: Set to true to enable tracing for all Step Functions.
+: すべての Step Functions のトレースを有効にするには、true に設定します。
`SourceZipUrl`
: 実行内容を理解できない場合は、変更しないでください。関数のソースコードのデフォルトの場所を上書きします。
@@ -558,12 +558,11 @@ CloudFormation Stack は、次の IAM ロールを作成します。
"Resource": "*"
},
{
- "Action": ["s3:PutObject", "s3:DeleteObject"],
- "Resource": "",
- "Effect": "Allow"
- },
- {
- "Action": ["s3:ListBucket"],
+ "Action": [
+ "s3:ListBucket",
+ "s3:PutObject",
+ "s3:DeleteObject"
+ ],
"Resource": "",
"Effect": "Allow"
}
diff --git a/content/ja/logs/guide/how-to-set-up-only-logs.md b/content/ja/logs/guide/how-to-set-up-only-logs.md
index c46b1d653fba7..bb47ee30058b8 100644
--- a/content/ja/logs/guide/how-to-set-up-only-logs.md
+++ b/content/ja/logs/guide/how-to-set-up-only-logs.md
@@ -1,10 +1,19 @@
---
aliases:
- /ja/logs/faq/how-to-set-up-only-logs
+further_reading:
+- link: /containers/docker/log/?tab=containerinstallation
+ tag: ドキュメント
+ text: Docker ログ収集
+- link: /containers/kubernetes/log/
+ tag: ドキュメント
+ text: Kubernetes ログ収集
title: Datadog Agent をログ収集のみに使用
---
-To disable payloads, you must be running Agent v6.4+. This disables metric data submission (including Custom Metrics) so that hosts stop showing up in Datadog. Follow these steps:
+Infrastructure Monitoring は APM を使用するための前提条件です。APM のお客様である場合、メトリクス収集を無効にしないでください。重要なテレメトリーおよびメトリクス収集情報を失う可能性があります。
+
+ペイロードを無効にするには、Agent v6.4 以降を実行している必要があります。これにより、メトリクスデータの送信 (カスタムメトリクスを含む) が無効になり、ホストが Datadog に表示されなくなります。以下の手順に従ってください。
{{< tabs >}}
{{% tab "Host " %}}
@@ -29,7 +38,13 @@ To disable payloads, you must be running Agent v6.4+. This disables metric data
{{% /tab %}}
{{% tab "Docker" %}}
-Docker コンテナ化された Agent を使用している場合は、`DD_ENABLE_PAYLOADS_EVENTS`、`DD_ENABLE_PAYLOADS_SERIES`、`DD_ENABLE_PAYLOADS_SERVICE_CHECKS`、`DD_ENABLE_PAYLOADS_SKETCHES` の環境変数を `false` に設定し、Agent のコンフィギュレーションを以下のようにします。
+Docker コンテナ化 Agent を使用している場合、以下の環境変数を `false` に設定してください。
+- `DD_ENABLE_PAYLOADS_EVENTS`
+- `DD_ENABLE_PAYLOADS_SERIES`
+- `DD_ENABLE_PAYLOADS_SERVICE_CHECKS`
+- `DD_ENABLE_PAYLOADS_SKETCHES`
+
+以下は、Docker 実行コマンドにこれらの設定を含める例です。
```shell
docker run -d --name datadog-agent \
@@ -53,22 +68,31 @@ docker run -d --name datadog-agent \
{{% /tab %}}
{{% tab "Kubernetes" %}}
-Agent を Kubernetes にデプロイしている場合は、`DD_ENABLE_PAYLOADS_EVENTS`、`DD_ENABLE_PAYLOADS_SERIES`、`DD_ENABLE_PAYLOADS_SERVICE_CHECKS`、`DD_ENABLE_PAYLOADS_SKETCHES` の環境変数を `false` に設定し、Agent のコンフィギュレーションを以下のようにします。
+Kubernetes に Agent をデプロイする場合、Agent 構成に加えて Helm チャートに以下の変更を加えてください。
```yaml
## ログのみ送信
- datadog:
- [...]
- env:
- - name: DD_ENABLE_PAYLOADS_EVENTS
- value: "false"
- - name: DD_ENABLE_PAYLOADS_SERIES
- value: "false"
- - name: DD_ENABLE_PAYLOADS_SERVICE_CHECKS
- value: "false"
- - name: DD_ENABLE_PAYLOADS_SKETCHES
- value: "false"
+clusterAgent:
+ enabled: false
+datadog:
+[...]
+ processAgent:
+ enabled: false
+[...]
+ env:
+ - name: DD_ENABLE_PAYLOADS_EVENTS
+ value: "false"
+ - name: DD_ENABLE_PAYLOADS_SERIES
+ value: "false"
+ - name: DD_ENABLE_PAYLOADS_SERVICE_CHECKS
+ value: "false"
+ - name: DD_ENABLE_PAYLOADS_SKETCHES
+ value: "false"
```
{{% /tab %}}
-{{< /tabs >}}
\ No newline at end of file
+{{< /tabs >}}
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/ja/logs/log_configuration/archives.md b/content/ja/logs/log_configuration/archives.md
index f54631e3163ec..c8f36a95f336a 100644
--- a/content/ja/logs/log_configuration/archives.md
+++ b/content/ja/logs/log_configuration/archives.md
@@ -37,27 +37,26 @@ Datadog アカウントを構成して、独自のクラウドストレージシ
環境から直接ストレージに最適化されたアーカイブにログをルーティングしたい場合は、[Observability Pipelines でログをアーカイブする][4]方法を参照してください。
-## アーカイブの構成
+## ログアーカイブを構成します
-### インテグレーションのセットアップ
+### インテグレーションを設定します
{{< tabs >}}
{{% tab "AWS S3" %}}
{{< site-region region="gov" >}}
-AWS Role Delegation は、Datadog for Government site でサポートされていません。アクセスキーを使用する必要があります。
+ロール委任を使用した S3 アーカイブの設定は現在限定的に利用可能です。Datadog for Government アカウントでこの機能をリクエストするには、Datadog サポートにお問い合わせください。
{{< /site-region >}}
まだ構成されていない場合は、S3 バケットを保持する AWS アカウントの [AWS インテグレーション][1]をセットアップします。
-
-* 一般的なケースでは、これには、Datadog が AWS S3 との統合に使用できるロールの作成が含まれます。
-* 特に AWS GovCloud または China アカウントの場合は、ロール委任の代わりにアクセスキーを使用します。
+ * 一般的なケースでは、これには、Datadog が AWS S3 との統合に使用できるロールの作成が含まれます。
+ * 特に AWS China アカウントの場合は、ロール委任の代わりにアクセスキーを使用します。
[1]: /ja/integrations/amazon_web_services/?tab=automaticcloudformation#setup
{{% /tab %}}
{{% tab "Azure Storage" %}}
-まだ設定していない場合は、新しいストレージアカウントを保持するサブスクリプション内で [Azure インテグレーション][1]をセットアップします。これには、[Datadog がインテグレーションに使用できるアプリ登録の作成][2]も含まれます。
+新しいストレージアカウントのあるサブスクリプション内で [Azure インテグレーション][1]をセットアップしていない場合、セットアップします。これには、[Datadog が統合に使用できるアプリ登録の作成][2]も含まれます。
**注:** Azure ChinaCloud、GermanyCloud、GovCloud へのアーカイブはサポートされていません。
@@ -83,11 +82,11 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{< tabs >}}
{{% tab "AWS S3" %}}
-[AWS コンソール][1]に移動し、アーカイブを送信するための [S3 バケットを作成][2]します。
+[AWS コンソール][1]にアクセスし、アーカイブを転送する [S3 バケットを作成][2]します。
**注:**
-- バケットを一般公開で読み取り可能にしないでください。
+- バケットを公開読み取り可能にしないでください。
- [US1、US3、US5 サイト][3]については、地域間データ転送料とクラウドストレージコストへの影響について、[AWS Pricing][4] を参照してください。地域間のデータ転送料を管理するために、ストレージバケットを `us-east-1` に作成することを検討してください。
[1]: https://s3.console.aws.amazon.com/s3
@@ -98,7 +97,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{% tab "Azure Storage" %}}
-* [Azure ポータル][1]に移動し、アーカイブを送信するための[ストレージアカウントを作成][2]します。ストレージアカウントの名前を指定し、標準パフォーマンスまたは **Block blob** プレミアムアカウントタイプのいずれかを選択し、**hot** または **cool** アクセス層を選択します。
+* [Azure ポータル][1]にアクセスし、アーカイブを転送する[ストレージアカウントを作成][2]します。標準パフォーマンスまたは **Block blobs** プレミアムアカウントタイプを選択し、**hot** または **cool** アクセス層を選択します。
* そのストレージアカウントに **container** サービスを作成します。Datadog アーカイブページに追加する必要があるため、コンテナ名をメモしてください。
**注:** まれに最後のデータを書き換える必要があるため、[不変性ポリシー][3]を設定しないでください (通常はタイムアウト)。
@@ -110,7 +109,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{% tab "Google Cloud Storage" %}}
-[Google Cloud アカウント][1]に移動し、アーカイブを送信するための [GCS バケットを作成][2]します。「**Choose how to control access to objects**」で、「**Set object-level and bucket-level permissions**」を選択します。
+[Google Cloud アカウント][1]にアクセスし、アーカイブを転送するための [GCS バケットを作成][2]します。**Choose how to control access to objects** セクションで、**Set object-level and bucket-level permissions** を選択してください。
**注:** まれに最後のデータを書き換える必要があるため、[保持ポリシー][3]を追加しないでください (通常はタイムアウト)。
@@ -120,7 +119,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{% /tab %}}
{{< /tabs >}}
-### 権限を設定
+### 権限を設定する
[`logs_write_archive` 権限][5]のある Datadog ユーザーだけがログアーカイブ構成を作成、変更、または削除できます。
@@ -154,8 +153,8 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
]
}
```
- * `GetObject` および `ListBucket` 権限により、[アーカイブからのリハイドレート][2]が可能になります。
- * アーカイブのアップロードには、`PutObject` 権限で十分です。
+ * `GetObject` および `ListBucket` の権限を設定すると、[アーカイブからのリハイドレート][2]が可能になります。
+ * アーカイブをアップロードするには、`PutObject` 権限で十分です。
* `s3:PutObject` と `s3:GetObject` アクションのリソース値は `/*` で終わっていることを確認してください。これらの権限はバケット内のオブジェクトに適用されるからです。
2. バケット名を編集します。
@@ -173,7 +172,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{% /tab %}}
{{% tab "Azure Storage" %}}
-1. Datadog アプリに、ストレージアカウントへ書き込み、ここからリハイドレートするための権限を与えます。
+1. Datadog アプリに、ストレージアカウントへの書き込みおよびリハイドレートを行うための権限を付与します。
2. [ストレージアカウントのページ][1]でストレージアカウントを選択し、**Access Control (IAM)** で **Add -> Add Role Assignment** を選択します。
3. Role に **Storage Blob Data Contributor** を入力し、Azure と統合するために作成した Datadog アプリを選択して、保存します。
@@ -183,7 +182,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
{{% /tab %}}
{{% tab "Google Cloud Storage" %}}
-1. Datadog Google Cloud サービスアカウントに、バケットへアーカイブを書き込むための権限を与えます。
+1. Datadog Google Cloud サービスアカウントに、アーカイブをバケットに書き込むための権限を付与します。
2. [Google Cloud IAM Admin ページ][1]から Datadog の Google Cloud サービスアカウントのプリンシパルを選択し、**Edit principal** を選択します。
3. **ADD ANOTHER ROLE** をクリックし、**Storage Object Admin** ロールを選択し、保存します。
@@ -201,6 +200,7 @@ GCS ストレージバケットを持つプロジェクト用の [Google Cloud
* [`logs_write_archive` 権限][5]のある Datadog ユーザーだけがこの手順と次の手順を完了させることができます。
* Azure Blob Storage へのログのアーカイブには、App Registration が必要です。[Azure インテグレーションページ][7]の手順を参照し、ドキュメントページの右側にある「サイト」を「US」に設定してください。アーカイブ目的で作成された App Registration は、"Storage Blob Data Contributor" ロールのみが必要です。ストレージバケットが Datadog Resource を通じて監視されているサブスクリプションにある場合、App Registration が冗長である旨の警告が表示されます。この警告は無視することができます。
* バケットでネットワークアクセスを特定の IP に制限している場合は、{{< region-param key="ip_ranges_url" link="true" text="IP 範囲リスト">}}から Webhook の IP を許可リストに追加してください。
+* **US1-FED サイト**の場合、Datadog を構成して、ログを Datadog GovCloud 環境外の宛先に送信することができます。Datadog は、Datadog GovCloud 環境を離れたログに対して一切の責任を負いません。また、これらのログが GovCloud 環境を離れた後に適用される FedRAMP、DoD 影響レベル、ITAR、輸出コンプライアンス、データ居住地、またはそれに類する規制に関する義務や要件についても、Datadog は一切の責任を負いません。
{{< tabs >}}
{{% tab "AWS S3" %}}
@@ -269,12 +269,12 @@ S3 バケットに適した AWS アカウントとロールの組み合わせを
{{< img src="logs/archives/max_scan_size.png" alt="アーカイブの最大スキャンサイズを設定する" style="width:75%;">}}
{{< site-region region="us3" >}}
-#### ファイアウォールのルール
+#### ファイアウォールルール
{{< tabs >}}
-{{% tab "Azure Storage" %}}
+{{% tab "Azure ストレージ" %}}
-ファイアウォールのルールはサポートされていません。
+ファイアウォールルールはサポートされていません。
{{% /tab %}}
{{< /tabs >}}
@@ -398,7 +398,7 @@ S3 バケットが SSE-S3 で暗号化されていることを確認するには
### 検証
-Datadog アカウントでアーカイブ設定が正常に構成されたら、処理パイプラインは Datadog に取り込まれたすべてのログを豊かにする作業を開始します。その後アーカイブに転送されます。
+Datadog アカウントでアーカイブ設定が正常に構成された時点から、処理パイプラインは Datadog に取り込まれたすべてのログを加工し始めます。その後アーカイブに転送されます。
ただし、アーカイブの構成を作成または更新した後、次のアーカイブのアップロードが試行されるまでに数分かかることがあります。アーカイブがアップロードされる頻度は、さまざまです。アーカイブが Datadog アカウントから正常にアップロードされていることを確認するために、**15 分後にストレージバケットを再確認**してください。
@@ -427,7 +427,7 @@ Datadog がストレージバケットに転送するログアーカイブは、
このディレクトリ構造により、過去のログアーカイブを日付に基づいてクエリする処理が簡略化されます。
-ZIP 圧縮された JSON ファイル内の各イベントの内容は、以下のようにフォーマットされています。
+圧縮 JSON ファイル内の各イベントは、以下の形式で内容が表されます。
```json
{
@@ -464,4 +464,4 @@ ZIP 圧縮された JSON ファイル内の各イベントの内容は、以下
[12]: /ja/account_management/rbac/permissions#logs_read_index_data
[13]: /ja/account_management/rbac/permissions#logs_read_data
[14]: /ja/logs/explorer/live_tail/
-[15]: /ja/service_management/events/explorer/
+[15]: /ja/service_management/events/explorer/
\ No newline at end of file
diff --git a/content/ja/logs/log_configuration/attributes_naming_convention.md b/content/ja/logs/log_configuration/attributes_naming_convention.md
index 2926444c39a8a..086297cd4fdcb 100644
--- a/content/ja/logs/log_configuration/attributes_naming_convention.md
+++ b/content/ja/logs/log_configuration/attributes_naming_convention.md
@@ -58,56 +58,34 @@ title: 属性とエイリアス設定
ログのインテグレーションは標準属性の[デフォルトセット][9]に依存します。
-リストはオーガニゼーションの管理者が作成できます。
-
-- [ログエクスプローラー][1]から、既存の属性を標準属性に**格上げ**できます。
-- 標準属性の[コンフィギュレーションページ][3]から、新しい標準属性を**作成**します。
-
-{{< img src="logs/processing/attribute_naming_convention/standard_attribute_config.png" alt="標準属性" style="width:60%;">}}
-
-標準属性テーブルには、[定義済み標準属性セット](#default-standard-attribute-list)が付属しています。このリストに独自の属性を追加したり、既存の標準属性を編集または削除することができます。
-
-{{< img src="logs/processing/attribute_naming_convention/edit_standard_attributes.png" alt="標準属性を編集" style="width:80%;">}}
-
-標準属性は以下によって定義されます。
-
-- `Path`: 標準属性として**格上げされる**属性のパス。JSON で定義されます (例: `network.client.ip`) 。
-- `Type`: (`string`, `integer`, `double`, `boolean`): 属性の型。再マップリストの要素をキャストするために使用されます。
-- `Aliasing list`: **エイリアス設定**対象となる属性のカンマ区切りリスト。
-- `Description`: 属性のわかりやすい説明。
-
-新しい標準属性を追加したり、既存の標準属性を編集する際は、標準属性パネルが表示されます。
-
-{{< img src="logs/processing/attribute_naming_convention/define_standard_attribute.png" alt="標準属性を定義" style="width:80%;">}}
+標準属性テーブルには、[定義済み標準属性](#default-standard-attribute-list)のセットが付属しています。このリストに独自の属性を追加したり、既存の標準属性を編集または削除することができます。
+
+### 新しい標準属性を作成する
+**管理ユーザー**は標準属性リストを管理できます。
+1. 標準属性の[構成ページ][3]に移動します。
+1. **New Standard Attribute** をクリックします。
+1. 標準属性を定義します。
+ - `Path`: JSON で確認できる標準属性のパス (例: network.client.ip)。
+ - `Type`: (`string`, `integer`, `double`, `boolean`): 属性の型。再マップリストの要素をキャストするために使用されます。
+ - `Description`: 属性に関する人間が読める説明。
+ - (オプション)`Remapping list`: 標準属性に再マッピングすべき準拠していない属性のカンマ区切りのリスト。
### デフォルトの標準属性リスト
[ログ管理のデフォルトの標準属性][9]の完全なリストをご覧ください。リストは機能ドメイン別に分かれています。
-- [ネットワーク/通信][10]
- - ネットワーク通信で使用されるデータに関連する属性です。すべてのフィールドとメトリクスに `network` というプレフィックスが付けられています。
-- [位置情報][11]
- - ネットワーク通信で使用される IP アドレスの位置情報に関連する属性です。すべてのフィールドに `network.client.geoip` または `network.destination.geoip` というプレフィックスが付けられています。
-- [HTTP リクエスト][12]
- - HTTP リクエストおよびアクセスで一般に使用されるデータに関連する属性です。すべての属性に `http` というプレフィックスが付けられています。
- - これらの属性に依存する代表的なインテグレーションには、[Apache][4]、Rails、[AWS CloudFront][13]、Web アプリケーションサーバーなどがあります。
- - URL の詳細に関する属性には、`http.url_details` というプレフィックスが付きます。これらの属性は、HTTP URL のパースされた各部に関する詳細を提供します。[URL パーサー][14]によって生成されます。
-- [ソースコード][15]
- - カスタムアプリケーションのロガーを使用してログまたはエラーを生成する際に使用されるデータに関係する属性です。すべての属性に `logger` または `error` というプレフィックスが付けられています。
- - これらの属性に依存する代表的なインテグレーションには、Java、Node.js、.NET、Golang、Python などがあります。
-- [データベース][16]
- - これらの属性に依存する代表的なインテグレーションには、[Cassandra][17]、[MySQL][18]、[RDS][19]、[Elasticsearch][20] などがあります。
-- [パフォーマンス][21]
- - パフォーマンスメトリクスに関係する属性です。Datadog ではこの属性を[トレース検索][23]のデフォルトの[メジャー][1]として表示および使用するため、この属性に関するログ内で処理時間を[再マッピング][22]することを推奨しています。
-- [ユーザー関連の属性][24]
- - すべての属性とメジャーに `usr` というプレフィックスが付きます。
-- [Syslog とログシッパー][25]
- - 以下は、syslog またはログシッパーエージェントによって追加されるデータに関連する属性です。すべてのフィールドとメトリクスに `syslog` というプレフィックスが付きます。
- - これらに依存するインテグレーションには、[Rsyslog][26]、[NxLog][27]、[Syslog-ng][28]、[Fluentd][29]、[Logstash][30] などがあります。
-- [DNS][31]
- - すべての属性とメジャーに `dns` というプレフィックスが付きます。
-- [イベント][32]
- - すべての属性に `evt` というプレフィックスが付きます。
+| 標準属性 | 説明 |
+|----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| [ネットワーク/通信][10] | ネットワーク通信で使用されるデータに関連する属性です。すべてのフィールドとメトリクスに `network` というプレフィックスが付けられています。 |
+| [位置情報][11] | ネットワーク通信で使用される IP アドレスの位置情報に関連する属性です。すべてのフィールドに `network.client.geoip` または `network.destination.geoip` というプレフィックスが付けられています。 |
+| [HTTP リクエスト][12] | これらの属性は、HTTP リクエストやアクセスで一般的に使用されるデータに関連しています。すべての属性には `http` という接頭辞が付いています。これらの属性に依存する代表的なインテグレーションには、[Apache][4]、Rails、[AWS CloudFront][13]、Web アプリケーションサーバーなどがあります。URL 詳細属性には `http.url_details` という接頭辞が付いています。これらの属性は、HTTP URL のパースされた部分の詳細を提供します。これらは [URL パーサー][14]によって生成されます。 |
+| [ソースコード][15] | これらの属性は、カスタムアプリケーションのロガーを使用してログやエラーが生成された際に使用されるデータに関連しています。すべての属性には、`logger` または `error` のいずれかが接頭辞として付きます。これらの属性に依存する代表的なインテグレーションには、Java、Node.js、.NET、Golang、Python などがあります。 |
+| [データベース][16] | これらの属性に依存する代表的なインテグレーションには、[Cassandra][17]、[MySQL][18]、[RDS][19]、[Elasticsearch][20] などがあります。 |
+| [パフォーマンス][21] | パフォーマンスメトリクスに関係する属性です。Datadog ではこの属性を[トレース検索][23]のデフォルトの[メジャー][1]として表示および使用するため、この属性に関するログ内で処理時間を[再マッピング][22]することを推奨しています。 |
+| [ユーザー関連の属性][24] | すべての属性とメジャーに `usr` というプレフィックスが付きます。 |
+| [Syslog とログシッパー][25] | これらの属性は、syslog またはログ転送エージェントによって追加されたデータに関連しています。すべてのフィールドとメトリクスには `syslog` が接頭辞として付きます。これらの属性に依存するインテグレーションには、[Rsyslog][26]、[NxLog][27]、[Syslog-ng][28]、[Fluentd][29]、[Logstash][30] などがあります。 |
+| [DNS][31] | すべての属性とメジャーに `dns` というプレフィックスが付きます。 |
+| [イベント][32] | すべての属性に `evt` というプレフィックスが付きます。 |
## エイリアス設定
diff --git a/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md b/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md
index df2dda579b2d1..7413188ee9431 100644
--- a/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md
+++ b/content/ja/metrics/custom_metrics/dogstatsd_metrics_submission.md
@@ -1014,7 +1014,7 @@ DogStatsD は Datadog にメトリクスを送信する前に、``
| `GAUGE` | 補正なし。受信した値はそのまま残ります。 |
| `SET` | 補正なし。受信した値はそのまま残ります。 |
| `HISTOGRAM` | `histogram.count` 統計は COUNT メトリクスであり、上記の補正を受け取ります。他の統計は GAUGE メトリクスなので、「補正」は行われません。 |
-| `DISTRIBUTION` | Values received are counted (`1/`) times. It's reasonable to assume that for one datapoint received, `1/` were actually sampled with the same value. |
+| `DISTRIBUTION` | 受け取った値は (`1/`) 倍として計上されます。受信したデータポイント 1 つに対し、`1/` 個が同じ値で実際にサンプリングされたと考えるのは理にかなっています。 |
#### コード例
diff --git a/content/ja/metrics/distributions.md b/content/ja/metrics/distributions.md
index d8fc3ac653b7a..f7f9ed45872a4 100644
--- a/content/ja/metrics/distributions.md
+++ b/content/ja/metrics/distributions.md
@@ -37,9 +37,7 @@ title: ディストリビューション
* **タグ付けのカスタマイズ**: この機能を使用すると、ホストレベルの詳細度を必要としない場合にカスタムメトリクスのタグ付けスキームを制御することができます (チェックアウトサービスの毎秒トランザクションなど)。
-実装の詳細については、[開発ツールのセクション][1]を参照してください。
-
-**注:** ディストリビューションは新しいメトリクスタイプであるため、Datadog への送信時に新しいメトリクス名の下でインスツルメンテーションを行う必要があります。
+**注:** ディストリビューションメトリクスデータは他のタイプとは異なる方法で保存されるため、`distribution` に使用するメトリクス名は他のメトリクスタイプには使用しないでください。
## 高度なクエリ機能の有効化
@@ -65,11 +63,18 @@ title: ディストリビューション
{{< img src="metrics/distributions/percentile_monitor.jpg" alt="モニターのアラート条件にドロップダウンで設定できるパーセンタイルしきい値" style="width:80%;">}}
-### しきい値クエリ
+### 複数のメトリクスの一括構成
+
+個々のメトリクスを個別に構成するのではなく、複数のメトリクスに対するパーセンタイル集計を一括で有効または無効にすることができます。
-
-しきい値クエリは公開ベータ版です。
-
+1. [メトリクスサマリーページ][4]に移動し、**Configure Metrics** ドロップダウンをクリックします。
+1. **Enable percentiles** を選択します。
+1. そのネームスペースに一致するすべてのメトリクスを選択するには、メトリクスのネームスペースプレフィックスを指定します。
+1. (オプション) ネームスペース内のすべてのメトリクスに対するパーセンタイルを無効にするには、**Percentile aggregations** トグルをクリックします。
+
+{{< img src="metrics/summary/percentile_aggregations_toggle.png" alt="パーセンタイル集計を管理するためのトグル" style="width:100%;" >}}
+
+### しきい値クエリ
DDSketch によって計算されたディストリビューションメトリクスのグローバルで正確なパーセンタイルを有効にすると、しきい値クエリが解放されます。ここでは、生のディストリビューションメトリクス値が数値のしきい値を超えるか下回る場合にその数を数えることができます。この機能を利用して、異常な数値のしきい値と比較したエラーや違反の回数をダッシュボードでカウントすることができます。また、しきい値クエリを使用して、「過去 30 日間に 95% のリクエストが 10 秒以内に完了した」というような SLO を定義することも可能です。
@@ -123,4 +128,5 @@ https://app.datadoghq.com/event/stream?tags_execution=and&per_page=30&query=tags
[1]: /ja/metrics/types/
[2]: https://www.datadoghq.com/blog/engineering/computing-accurate-percentiles-with-ddsketch/
-[3]: https://app.datadoghq.com/event/explorer
\ No newline at end of file
+[3]: https://app.datadoghq.com/event/explorer
+[4]: https://app.datadoghq.com/metric/summary
\ No newline at end of file
diff --git a/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md b/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md
index f9cbbaf69e9d4..2e082d9fefb5e 100644
--- a/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md
+++ b/content/ja/monitors/guide/how-to-set-up-rbac-for-monitors.md
@@ -121,21 +121,15 @@ curl --location --request POST 'https://api.datadoghq.com/api/v1/monitor' \
{{% /tab %}}
{{< /tabs >}}
-## ロックされたロールから制限されたロールへのモニターの移行
+## 制限されたロール
-Datadog がモニターの編集を特定のロールに制限できる機能をリリースする以前は、モニターをロックすることができました。ロックされたモニターを編集できるのは、作成者と [Datadog Admin Role][2] を持つユーザーだけです。
-
-{{< img src="/monitors/guide/monitor_rbac_locked.jpg" alt="RBAC ロックされたモニター" style="width:70%;">}}
-
-ロックされたモニターは非推奨であり、もはやサポートされません。代わりに、どのユーザーがモニターを編集できるかを柔軟に定義するロール制限オプションを使用してください。
-
-以下のセクションでは、モニターの管理方法に応じて、ロック機構から制限されたロールに移行する方法について説明します。
+Datadog では、ロール制限オプションにより、特定のロールに対してモニターの編集を制限することができます。これにより、モニターの編集を許可するユーザーを柔軟に定義することができます。
### API
-上記のロックメカニズムに対応する `locked` パラメーターはもはやサポートされません。これは、API や Terraform を通じて管理されるモニターの定義を更新し、`locked` の使用を中止し、`restricted_roles` (新しいロール制限オプションに添付されたパラメーター) を使用する必要があることを意味します。
+API または Terraform で管理されているモニターの定義を更新するには、`restricted_roles` パラメーターを使用します。また、[制限ポリシー][4]エンドポイントを使用して、モニターに対するアクセス制御ルールを定義し、一連の関係 (エディターやビューアーなど) を一連の許可されたプリンシパル (ロール、チーム、ユーザーなど) にマッピングすることもできます。制限ポリシーは、モニター上で誰がどのようなアクションを実行する権限を持つかを決定します。
-モニターの定義を更新する方法については、[モニター API エンドポイントの編集][3]および[モニター API オプション][4]を参照してください。
+詳細については、[モニターの編集 API エンドポイント][3]および[制限ポリシー API][4] を参照してください。
### UI
@@ -144,69 +138,6 @@ UI から作成されるすべての新しいモニターは `restricted_roles`
{{< img src="/monitors/guide/monitor_rbac_non_restricted.jpg" alt="RBAC 非制限モニター" >}}
-Datadog は、モニターが保存されるたびに、既存のモニター定義を古いロックされたメカニズムから新しいロール制限のメカニズムに更新します。
-
-以下は、ロック機構を使用しているモニターを保存する必要がある場合の手順です。
-
-#### 作成者または Datadog Admin Role を持つユーザーが編集したロックされたモニター (`locked:true`)
-
-あなたは、[Datadog Admin Role][2] を持つユーザー、またはモニターの作成者です。ロックされたモニターを編集すると、次の警告が表示されます。
-
-```
-This monitor is using the locked attribute: only its creator and admins can edit it. locked is deprecated in favor of restricted_roles. On save, the monitor will be automatically updated to use a restricted_roles attribute set to all roles with Admin permissions.
-If there is no specific change you want to apply to this monitor's permissions, click Save. If you want to update this monitor's permissions, read this doc.
-```
-(このモニターは locked 属性を使用しています。作成者と管理者のみが編集できます。locked は廃止され、restricted_roles に代わりました。保存すると、モニターは自動的に更新され、Admin 権限を持つすべてのロールに設定された restricted_roles 属性を使用するようになります。
-このモニターの権限に適用したい特定の変更がない場合、Save をクリックします。このモニターの権限を更新する場合は、このドキュメントをお読みください。)
-
-保存すると、モニターの定義が Admin 権限を持つすべてのロールに更新されます。
-この警告は、モニターに加える変更に応じて、さまざまな方法で対処することができます。
-
-**1. モニターの権限を一切変更したくない場合**
-
-モニターを保存します。Datadog は、ロック機構から制限されたロールにモニターを自動的に移行します。しきい値の更新やメッセージなど、モニターに行った他の更新も同時に保存されます。
-
-何も変更せずに **Save** をクリックすると、モニターの更新も実行されます。
-
-**2. すべてのユーザーがこのモニターを編集できるようにしたい場合**
-
-モニターを保存すると、Datadog が制限されたロールに移行させます。編集ページを再度開きます。**Restrict editing of this monitor to** ドロップダウンメニューで、すべてのロールを削除します。**Save** を再びクリックします。
-
-**3. モニターを一部のロールに制限したいが、Admin 権限を持つすべてのロールに制限されたくない場合**
-
-**Restrict editing of this monitor to** ドロップダウンメニューで、このモニターを修正できるロールを選択します。モニターを保存します。モニターは選択したロールにのみ制限されます。
-
-#### 非作成者または Datadog Admin Role を持たないユーザーが編集したロックされたモニター (`locked:true`)
-
-あなたは、[Datadog Admin Role][2] を持たないユーザーであり、またモニターの作成者ではありません。ロックされたモニターを編集すると、次の警告が表示されます。
-
-```
-This monitor is locked: only its creator and admins can edit it. Read more here.
-```
-(このモニターはロックされています。作成者と管理者のみが編集可能です。詳しくはこちらをご覧ください。)
-
-このモニターはロックされています。[Datadog Admin Role][2] を持つユーザーまたはモニターの作成者に連絡し、モニターのロール制限にあなたのロールの 1 つを追加するよう依頼してください。管理者は、[ロックされたモニター](#locked-monitors-lockedtrue-edited by-creator-or-user-with-datadog-admin-role)について上記のステップ 2 または 3 を実行する必要があります。
-
-**注:** 警告とオプションの間に見られる不一致は予期されるものです。警告は、locked パラメーターを使用しているモニターの現在の状態を反映しています。[Datadog Admin Role][2] を持つユーザーまたはモニターの作成者が編集して保存すると、オプションは、モニターの更新後となるロール制限オプションを反映します。モニターが保存されると、警告は消え、適切な制限されたロールがドロップダウンに入力されます。
-
-#### Non locked monitors (`locked:false`, `locked:null`, undefined `locked`)
-
-ロックされていないモニターを編集すると、次のオプションが表示されます。
-
-{{< img src="/monitors/guide/monitor_rbac_non_restricted.jpg" alt="RBAC 非制限モニター" >}}
-
-このオプションは、モニターに加える変更に応じて、さまざまな方法で処理することができます。
-
-**1. モニターの権限を一切変更したくない場合**
-
-モニターを保存します。Datadog は、ロック機構から制限されたロールにモニターを自動的に移行します。しきい値の更新やメッセージなど、モニターに行った他の更新も同時に保存されます。
-
-何も変更せずに **Save** をクリックすると、モニターの更新も実行されます。
-
-**2. モニターを一部のロールに制限したい場合**
-
-**Restrict editing of this monitor to** ドロップダウンメニューで、このモニターを修正できるロールを選択します。モニターを保存します。モニターは選択したロールに制限されます。
-
## 参考資料
{{< partial name="whats-next/whats-next.html" >}}
@@ -214,4 +145,4 @@ This monitor is locked: only its creator and admins can edit it. Read more here.
[1]: /ja/account_management/rbac/
[2]: /ja/account_management/rbac/?tab=datadogapplication#datadog-default-roles
[3]: /ja/api/latest/monitors/#edit-a-monitor
-[4]: /ja/monitors/guide/monitor_api_options/#permissions-options
\ No newline at end of file
+[4]: /ja/api/latest/restriction-policies/
\ No newline at end of file
diff --git a/content/ja/real_user_monitoring/browser/collecting_browser_errors.md b/content/ja/real_user_monitoring/browser/collecting_browser_errors.md
index 0f5e21d15ac04..7f25412f5af0f 100644
--- a/content/ja/real_user_monitoring/browser/collecting_browser_errors.md
+++ b/content/ja/real_user_monitoring/browser/collecting_browser_errors.md
@@ -1,38 +1,34 @@
---
+aliases:
+- /ja/error_tracking/standalone_frontend/collecting_browser_errors
further_reading:
-- link: /real_user_monitoring/error_tracking/
- tag: Documentation
- text: エラー追跡
-- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/
- tag: ブログ
- text: リアルユーザーの監視
-- link: /real_user_monitoring/explorer/
- tag: Documentation
- text: Datadog でビューを検索する
-- link: /real_user_monitoring/explorer/visualize/
- tag: Documentation
- text: イベントへの視覚化の適用
-- link: /real_user_monitoring/platform/dashboards/
- tag: Documentation
- text: RUM ダッシュボード
+- link: /error_tracking/explorer/
+ text: Datadog 内でエラーを探索する
+ タグ: ドキュメント
+- link: /error_tracking/monitors/
+ text: 影響の大きい問題について積極的にアラートを発信する
+ タグ: ドキュメント
+- link: /real_user_monitoring
+ text: パフォーマンスとユーザーへの影響を測定する
+ タグ: ドキュメント
title: ブラウザエラーの収集
---
## 概要
-Front-end errors are collected with with Browser SDK. The error message and stack trace are included when available.
+フロントエンドのエラーは Browser SDK で収集されます。エラーメッセージとスタックトレースが利用できる場合は含まれます。
## エラーソース
フロントエンドのエラーは、いくつかの異なるソースから発生します。
- **agent**: SDK の実行から
- **console**: `console.error()` API コールから
-- **custom**: Sent with the [`addError` API](#collect-errors-manually)
+- **custom**: [`addError` API](#collect-errors-manually) を使用して送信される
- **report**: `ReportingObserver` API から
- **source**: ソースコードの未処理の例外または未処理の約束拒否から
## エラー属性
-For information about the default attributes for all event types, see [Data Collected][1]. For information about configuring for sampling or global context see [Modifying Data and Context][2].
+すべてのイベントタイプのデフォルト属性に関する詳細は、[収集されるデータ][1]をご覧ください。サンプリングまたはグローバルコンテキストの構成に関する情報は、[データとコンテキストの変更][2]をご覧ください。
| 属性 | タイプ | 説明 |
|-----------------|--------|-------------------------------------------------------------------|
@@ -51,7 +47,7 @@ For information about the default attributes for all event types, see [Data Coll
## エラーを手動で収集する
-Monitor handled exceptions, handled promise rejections, and other errors not tracked automatically by the Browser SDK with the `addError()` API:
+処理済みの例外、処理済みのプロミス拒否、および Browser SDK で自動的に追跡されないその他のエラーを、`addError()` API を使用して監視します。
{{< code-block lang="javascript" >}}
addError(
@@ -60,7 +56,7 @@ addError(
);
{{< /code-block >}}
-**Note**: [Error Tracking][4] processes errors that are sent with the source set to `custom`, `source` or `report`, and contain a stack trace. Errors sent with any other source (such as `console`) or sent from browser extensions are not processed by Error Tracking.
+**注**: [Error Tracking][4] は、ソースを `custom`、`source` または `report` に設定し、スタックトレースを含むエラーを処理します。その他のソース (`console` など) で送られたか、ブラウザ拡張機能で送られたエラーは、エラー追跡では処理されません。
{{< tabs >}}
{{% tab "NPM" %}}
@@ -142,7 +138,7 @@ try {
{{% /tab %}}
{{< /tabs >}}
-### React error boundaries instrumentation
+### React エラー境界のインスツルメンテーション
React [エラー境界][5]をインスツルメンテーションして、RUM ブラウザ SDK の `addError()` API を使用して React のレンダリングエラーを監視できます。
diff --git a/content/ja/serverless/libraries_integrations/cli.md b/content/ja/serverless/libraries_integrations/cli.md
index 00c6c8eb4e96a..10c07d43e9124 100644
--- a/content/ja/serverless/libraries_integrations/cli.md
+++ b/content/ja/serverless/libraries_integrations/cli.md
@@ -62,7 +62,7 @@ datadog-ci lambda uninstrument --functions-regex -r us-eas
datadog-ci lambda uninstrument -f -f -r us-east-1 --dry-run
```
-See the configuration section for additional settings.
+コンフィギュレーションセクションでその設定を確認します。
## 構成
@@ -113,7 +113,7 @@ See the configuration section for additional settings.
| `--no-source-code-integration` | | Datadog ソースコードインテグレーションを無効にします。 | |
| `--upload-git-metadata` | `-u` | ソースコードインテグレーションの一部として、Git メタデータのアップロードを有効にするかどうか。Git メタデータのアップロードは、Datadog Github インテグレーションをインストールしていない場合のみ必要です。 | `true` |
| `--no-upload-git-metadata` | | ソースコードインテグレーションの一部として、Git メタデータのアップロードを無効にします。Datadog Github インテグレーションをインストールしている場合、このフラグを使用すると、Git メタデータのアップロードが不要になります。 | |
-| `--apm-flush-deadline` | | タイムアウトが発生する前にスパンを送信するタイミングをミリ秒単位で決定するために使用されます。AWS Lambda の呼び出しの残り時間が設定された値よりも小さい場合、トレーサーは、現在のアクティブなスパンとすべての終了したスパンの送信を試みます。Node.js と Python でサポートされています。デフォルトは `100` ミリ秒です。 | |
+| `--apm-flush-deadline` | | タイムアウトが発生する前にスパンを送信するタイミングをミリ秒単位で決定するために使用されます。AWS Lambda の呼び出しの残り時間が設定された値よりも小さい場合、トレーサーは、現在のアクティブなスパンとすべての終了したスパンの送信を試みます。NodeJS と Python でサポートされています。デフォルトは `100` ミリ秒です。 | |
#### `uninstrument`
diff --git a/content/ja/serverless/libraries_integrations/extension.md b/content/ja/serverless/libraries_integrations/extension.md
index 8162761f60e63..ca682d7e06371 100644
--- a/content/ja/serverless/libraries_integrations/extension.md
+++ b/content/ja/serverless/libraries_integrations/extension.md
@@ -45,7 +45,7 @@ Datadog サイトから遠く離れた地域にデプロイされた Lambda 関
## 寄稿
-If you find an issue with this package and have a fix, please feel free to open a pull request following the [procedures](https://github.com/DataDog/datadog-agent/blob/main/docs/public/guidelines/contributing.md).
+このパッケージに問題が見つかり、修正方法が分かる場合は、[手順](https://github.com/DataDog/datadog-agent/blob/main/docs/public/guidelines/contributing.md)に従ってプルリクエストを開いてください。
## テスト
diff --git a/content/ja/synthetics/api_tests/dns_tests.md b/content/ja/synthetics/api_tests/dns_tests.md
index bcacd44f04762..5985a59f57788 100644
--- a/content/ja/synthetics/api_tests/dns_tests.md
+++ b/content/ja/synthetics/api_tests/dns_tests.md
@@ -44,7 +44,7 @@ DNS テストは、ネットワークの外部または内部からのテスト
1. テストでクエリする**ドメイン**を指定します (例: `www.example.com`)。
2. 使用する **DNS サーバー** を指定します(任意)。ドメイン名または IP アドレスを使用できます。指定されていない場合、DNS テストは `8.8.8.8` を使用して解決を実行し、 `1.1.1.1` と内部 AWS DNS サーバーにフォールバックします。
-3. Specify your DNS Server **Port** (optional). If not specified, the DNS Server port defaults to 53.
+3. DNS サーバーの **ポート** を指定します(任意)。指定されていない場合、DNS サーバーのポートはデフォルトで 53 になります。
4. テストがタイムアウトするまでの時間を秒単位で指定します (オプション)。
5. DNS テストに**名前**を付けます。
6. DNS テストに `env` **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。
@@ -63,7 +63,7 @@ DNS テストは、ネットワークの外部または内部からのテスト
| 以下の利用可能なすべてのレコード | タイプ A、タイプ AAAA、タイプ CNAME、タイプ MX、タイプ NS、タイプ TXT | `is`、`contains`、
`matches`、`does not match` | _文字列_
_[正規表現][4]_ |
| at least one record | タイプ A、タイプ AAAA、タイプ CNAME、タイプ MX、タイプ NS、タイプ TXT | `is`、`contains`、
`matches`、`does not match` | _文字列_
_[正規表現][4]_ |
-**Note**: SOA records are not available for testing using Synthetic tests.
+**注**: SOA レコードは Synthetic テストではテストできません。
**New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。
diff --git a/content/ja/synthetics/api_tests/errors.md b/content/ja/synthetics/api_tests/errors.md
index 8f3124532e752..cf1edc24cd672 100644
--- a/content/ja/synthetics/api_tests/errors.md
+++ b/content/ja/synthetics/api_tests/errors.md
@@ -48,6 +48,6 @@ SSL エラーは、API テストの実行時に発生する可能性のあるエ
| `UNABLE_TO_DECRYPT_CERT_SIGNATURE` | 証明書の署名を復号化できません。 |
| `UNABLE_TO_DECRYPT_CRL_SIGNATURE` | CRL 署名を復号化できません。(実際の署名の値を判断できません。) |
| `UNABLE_TO_GET_CRL` | 証明書の失効リスト (CRL) が見つかりません。 |
-| `UNABLE_TO_GET_ISSUER_CERT` | Unable to find the certificate for one of the certificate authorities (CAs) in the signing hierarchy, and that CA is not trusted by the local application. For example, this error may be thrown when the self-signed root CA, but not the intermediate CA, is missing from the list of trusted certificates. |
-| `UNABLE_TO_GET_ISSUER_CERT_LOCALLY` | The issuer certificate of a locally found certificate is not found. This usually means that the list of trusted certificates is not complete. For example, this error may be thrown when the self-signed root CA and intermediate CA are both missing from the list of trusted certificates. |
+| `UNABLE_TO_GET_ISSUER_CERT` | 署名階層内の認証局 (CA) の証明書が見つからず、その CA がローカル アプリケーションによって信頼されていません。例えば、自己署名のルート CA が信頼された証明書リストに存在せず、中間 CA も存在しない場合、このエラーが発生することがあります。 |
+| `UNABLE_TO_GET_ISSUER_CERT_LOCALLY` | ローカルで検出された証明書の発行者証明書が見つかりません。これは通常、信頼された証明書リストが完全ではないことを意味します。例えば、自己署名のルート CA と中間 CA が両方とも信頼された証明書リストに存在しない場合に、このエラーが発生することがあります。 |
| `UNABLE_TO_VERIFY_LEAF_SIGNATURE` | 証明書チェーンに 1 つの (自己署名ではない) 証明書しか含まれておらず、発行者を信頼できないため、署名を確認できません。 |
\ No newline at end of file
diff --git a/content/ja/synthetics/api_tests/grpc_tests.md b/content/ja/synthetics/api_tests/grpc_tests.md
index d1e1ffb78327c..8a2b1ab785fa5 100644
--- a/content/ja/synthetics/api_tests/grpc_tests.md
+++ b/content/ja/synthetics/api_tests/grpc_tests.md
@@ -34,9 +34,9 @@ title: GRPC テスト
gRPC テストは、gRPC サービスやサーバーをプロアクティブに監視することができます。2 つのタイプから選択することができます。
Behavior Checks
-: アプリケーションの API エンドポイントに gRPC リクエストを送信し、全体的な応答時間、ヘッダー、本文のコンテンツなど、定義された条件と応答を検証します。
+: アプリケーションの API エンドポイントに gRPC リクエストを送信して、応答時間、ヘッダー、本文の内容など、応答や定義された条件を検証します。
-Health Checks
+Health Checks
: gRPC ヘルスチェックは、gRPC サービスの健全性を報告するための標準的なものです。gRPC サーバーとサービスが応答し、実行され、リモートプロシージャコール (RPC) を処理できるかを判断します。
gRPC ヘルスチェックを実装することで、Datadog に `.proto` ファイルを提供しなくても、gRPC ヘルスチェックテストを実行することができるようになります。詳細については、gRPC コミュニティで共有されている[ヘルスチェックの例 `.proto` ファイル][1]を参照してください。
gRPC テストは、ネットワークの外部または内部からのテストの実行の好みに応じて、[管理ロケーション](#select-locations)と[プライベートロケーション][2]の両方から実行することができます。gRPC テストは、スケジュール、オンデマンド、または [CI/CD パイプライン][3]内で直接実行することができます。
@@ -48,23 +48,23 @@ gRPC テストは、ネットワークの外部または内部からのテスト
### リクエストを定義する
1. テストを実行する **Host** と **Port** を指定します。デフォルトの gRPC ポートは `50051` です。
-2. unary コールを行う場合は **Behavior Check** を、ヘルスチェックを行う場合は **Health Check** を選択します。
+2. **Behavior Check** を選択して単一呼び出しを実行するか、**Health Check** を選択してヘルスチェックを実行します。
{{< tabs >}}
{{% tab "動作チェック" %}}
- 動作チェックでは、**Server Reflection** を指定するか、gRPC サーバーを定義するための [**Proto File** をアップロード][101]します。メソッドを選択し、リクエストメッセージを含めます。Datadog は、ストリーミングメソッドをサポートしていません。
+ 動作チェックを実行するには、gRPC サーバーを定義する **Server Reflection** を指定するか、[**Proto File** をアップロード][101]してください。メソッドを選択し、リクエストメッセージを入力してください。Datadog はストリーミングメソッドには対応していません。
- {{< img src="synthetics/api_tests/grpc_behavior_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}}
+{{< img src="synthetics/api_tests/grpc_behavior_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}}
[101]: https://grpc.io/docs/what-is-grpc/introduction/#working-with-protocol-buffers
- {{% /tab %}}
- {{% tab "ヘルスチェック" %}}
+{{% /tab %}}
+{{% tab "ヘルスチェック" %}}
- ヘルスチェックの場合は、サービス名を入力します。gRPC サーバーでヘルスチェックを送信する場合は、このフィールドを空白のままにします。
+ヘルスチェックの場合は、サービスの名前を入力してください。 gRPC サーバーでヘルスチェックを送信する場合は、このフィールドを空白のままにしてください。
- {{< img src="synthetics/api_tests/grpc_health_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}}
+{{< img src="synthetics/api_tests/grpc_health_check_test.png" alt="gRPC リクエストを定義する" style="width:90%;" >}}
{{% /tab %}}
{{< /tabs >}}
@@ -85,7 +85,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト
* **Client certificate**: クライアント証明書 (`.crt`) と `PEM` 形式の関連する秘密キー (`.key`) をアップロードして、mTLS を介して認証します。
-
+
`openssl` ライブラリを使用して、証明書を変換することができます。例えば、`PKCS12` 形式の証明書を `PEM` 形式の秘密キーや証明書に変換することができます。
@@ -106,7 +106,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト
### アサーションを定義する
-アサーションは、期待されるテストの結果を定義します。**Send** をクリックすると、取得したレスポンスに基づいて `response time` に関するアサーションが追加されます。モニターするテストには、少なくとも 1 つのアサーションを定義する必要があります。
+アサーションは、期待されるテスト結果が何であるかを定義します。**Send** をクリックすると、取得したレスポンスに基づいて `response time` に関するアサーションが追加されます。モニターするテストには、少なくとも 1 つのアサーションを定義する必要があります。
{{< tabs >}}
{{% tab "動作チェック" %}}
@@ -114,8 +114,8 @@ gRPC テストは、ネットワークの外部または内部からのテスト
| タイプ | 演算子 | 値の型 |
|---|---|---|
| response time | `is less than` | 整数 (ms) |
-| gRPC レスポンス | `contains`、`does not contain`、`is`、`is not`、
`matches`、`does not match`、
[`jsonpath`][4]、[`xpath`][2] | _文字列_
_[正規表現][3]_ |
-| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | _整数 (ms)_
_[正規表現][3]_ |
+| gRPC レスポンス | `contains`、`does not contain`、`is`、`is not`、
`matches`、`does not match`、
[`jsonpath`][1]、[`xpath`][2] | _文字列_
_[正規表現][3]_ |
+| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | _整数 (ミリ秒)_
_[正規表現][3]_ |
**New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。
@@ -132,7 +132,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト
|---|---|---|
| response time | `is less than` | 整数 (ms) |
| ヘルスチェックのステータス | `is`、`is not` | 整数 (ms) |
-| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | 整数 (ms) |
+| gRPC メタデータ | `is`、`is not`、`contains`、`does not contain`、`matches regex`、`does not match regex`、`does not exist` | 整数 (ms) |
**New Assertion** をクリックするか、応答プレビューを直接クリックすることで、API テストごとに最大 20 個のアサーションを作成できます。
@@ -149,7 +149,7 @@ gRPC テストは、ネットワークの外部または内部からのテスト
gRPC テストを実行する**ロケーション**を選択します。gRPC テストは、ネットワークの外部または内部のどちらからテストを実行するかの好みによって、管理ロケーションと[プライベートロケーション][2]の両方から実行できます。
-{{% managed-locations %}}
+{{% managed-locations %}}
### テストの頻度を指定する
@@ -229,4 +229,4 @@ gRPC テストの URL、高度なオプション、アサーションで、[**Se
[11]: /ja/synthetics/api_tests/errors/#ssl-errors
[12]: /ja/account_management/rbac/
[13]: /ja/account_management/rbac#custom-roles
-[14]: /ja/account_management/rbac/#create-a-custom-role
+[14]: /ja/account_management/rbac/#create-a-custom-role
\ No newline at end of file
diff --git a/content/ja/synthetics/api_tests/http_tests.md b/content/ja/synthetics/api_tests/http_tests.md
index 0a1db322621e8..303fc0a57d319 100644
--- a/content/ja/synthetics/api_tests/http_tests.md
+++ b/content/ja/synthetics/api_tests/http_tests.md
@@ -47,7 +47,7 @@ HTTP テストは、ネットワークの外部または内部からのテスト
1. **HTTP Method** を選択し、クエリする **URL** を指定します。使用可能なメソッドは、`GET`、`POST`、`PATCH`、`PUT`、`HEAD`、`DELETE`、`OPTIONS` です。`http` と `https` の両方の URL がサポートされています。
-
+
2. HTTP テストに**名前**を付けます。
@@ -61,8 +61,8 @@ HTTP テストは、ネットワークの外部または内部からのテスト
{{< tabs >}}
- {{% tab "Request Options" %}}
- * **HTTP version**: Select `HTTP/1.1 only`, `HTTP/2 only`, or `HTTP/2 fallback to HTTP/1.1`.
+ {{% tab "リクエストオプション" %}}
+ * **HTTP バージョン**: `HTTP/1.1 のみ`、`HTTP/2 のみ`、または `HTTP/2 から HTTP/1.1 へのフォールバック` を選択してください。
* **Follow redirects**: 選択すると、リクエストを実行するときに HTTP テストで最大 10 個のリダイレクトをフォローします。
* **Ignore server certificate error**: 選択すると、SSL 証明書の検証時にエラーが発生した場合でも、HTTP テストが接続を続行します。
* **Timeout**: テストがタイムアウトするまでの時間を秒単位で指定します。
@@ -83,8 +83,8 @@ HTTP テストは、ネットワークの外部または内部からのテスト
* **HTTP Basic Auth**: HTTP 基本認証資格情報を追加します。
* **Digest Auth**: ダイジェスト認証の資格情報を追加します。
* **NTLM**: NTLM 認証の資格情報を追加します。NTLMv2 と NTLMv1 の両方をサポートします。
- * **AWS Signature v4**: Enter your Access Key ID and Secret Access Key. Datadog generates the signature for your request. This option uses the basic implementation of SigV4. Specific signatures such as Amazon S3 are not supported out-of-the box.
- For "Single Chunk" transfer requests to Amazon S3 buckets, add `x-amz-content-sha256` containing the sha256-encoded body of the request as a header (for an empty body: `x-amz-content-sha256: e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855`).
+ * **AWS Signature v4**: Access Key ID と Secret Access Key を入力します。Datadog は、リクエストの署名を生成します。このオプションは、SigV4 の基本的な実装を使用します。Amazon S3 などの特定の署名はそのままではサポートされていません。
+ Amazon S3 バケットへの "Single Chunk" 転送リクエストの場合、リクエストの本文を sha256 エンコードした値を含む `x-amz-content-sha256` ヘッダーを追加します (本文が空の場合は、`x-amz-content-sha256: e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855` を使用します)。
* **OAuth 2.0**: クライアント資格情報またはリソース所有者のパスワードのどちらかを付与するかを選択し、アクセストークンの URL を入力します。選択内容に応じて、クライアント ID とシークレット、またはユーザー名とパスワードを入力します。ドロップダウンメニューから、API トークンを基本認証ヘッダーとして送信するか、クライアント資格情報を本文に送信するかを選択します。オプションで、オーディエンス、リソース、スコープなどの追加情報を提供できます (**Resource Owner Password** を選択した場合は、クライアント ID とシークレットも提供します)。
{{% /tab %}}
@@ -121,9 +121,9 @@ HTTP テストは、ネットワークの外部または内部からのテスト
{{% tab "Javascript" %}}
- Define variables for your HTTP API tests with JavaScript:
+JavaScript を使用して HTTP API テスト用の変数を定義します。
- {{< img src="synthetics/api_tests/http_javascript.png" alt="Define HTTP API test with Javascript" style="width:90%;" >}}
+{{< img src="synthetics/api_tests/http_javascript.png" alt="JavaScript を使用して HTTP API テストを定義する" style="width:90%;" >}}
{{% /tab %}}
@@ -168,6 +168,18 @@ HTTP テストは次の頻度で実行できます。
{{% synthetics-alerting-monitoring %}}
+## ワンクリック
+
+API テストの作成は、[API カタログ][17]と既存の API テストからエンドポイントを提案し、テストフォームに関連するオプションを自動入力します。Datadog の既存データソースを使用してください (APM トレース、API カタログエンドポイントの発見、およびユーザーが作成した既存の同様の Synthetic テストなど)。
+
+Synthetic Monitoring の API テスト **URL** 入力に入力を開始すると、エンドポイントの提案や類似テストを取得できます。
+
+{{< img src="synthetics/api_tests/api-one-click.png" alt="既存の API テストの GET 検索を表示する HTTP API テスト" style="width:90%;" >}}
+
+次に、提案を選択してテスト構成 (リクエストオプションとヘッダー、認証、変数) を自動入力します。
+
+{{< img src="synthetics/api_tests/api-test-monitor-search.png" alt="選択" style="width:90%;" >}}
+
{{% synthetics-variables %}}
### 変数を使用する
@@ -244,4 +256,5 @@ HTTP テストの URL、高度なオプション、アサーションで、[**Se
[13]: /ja/account_management/rbac/
[14]: /ja/account_management/rbac#custom-roles
[15]: /ja/account_management/rbac/#create-a-custom-role
-[16]: /ja/synthetics/api_tests/errors/#http-errors
\ No newline at end of file
+[16]: /ja/synthetics/api_tests/errors/#http-errors
+[17]: /ja/api_catalog
\ No newline at end of file
diff --git a/content/ko/account_management/billing/rum_units.md b/content/ko/account_management/billing/rum_units.md
deleted file mode 100644
index 31234c69f685a..0000000000000
--- a/content/ko/account_management/billing/rum_units.md
+++ /dev/null
@@ -1,16 +0,0 @@
----
-beta: true
-title: RUM 빌링 정보
----
-
-
-본 페이지에서 논의하는 기능은 비공개 베타 버전입니다. 고객 성공 매니저에게 문의하여 더 자세히 알아보실 수 있습니다.
-
-
-**세션**은 웹 애플리케이션 상에서 진행되는 사용자 여정입니다. 15분 동안 활동이 없을 때, 또는 활동이 지속된 지 4시간이 지났을 때 세션이 만료됩니다.
-
-**모바일 RUM 세션(Mobile RUM Session)**: Datadog는 사용자의 모바일 애플리케이션(안드로이드(Android), iOS, 리액트 네이티브(React Native)) 최종 사용자가 방문한 화면 전체를 수집합니다. 또한, 모바일 에러 및 충돌, 리소스 로딩(XHR, 이미지, CSS 파일, JS 스크립트 등)을 비롯하여 중요한 텔레메트리(원격 계측) 데이터도 수집합니다. 이 모든 것은 모바일 RUM 세션에 포함됩니다.
-
-**RUM 라이트 세션(RUM Lite Session)**: Datadog는 사용자의 브라우저 애플리케이션에서 최종 사용자가 방문한 페이지 전체를 수집합니다. 프론트엔트 에러, 성능 메트릭 등의 중요한 텔레메트리 데이터 역시 수집합니다. 이 모든 것은 RUM 라이트 세션에 포함됩니다.
-
-**RUM 리플레이 세션(RUM Replay Session)**: Datadog는 사용자의 브라우저 애플리케이션에서 최종 사용자가 방문한 페이지 전체를 수집합니다. 프론트엔트 에러, 성능 메트릭 등의 중요한 텔레메트리 데이터 역시 수집합니다. 이 모든 것은 RUM 라이트 세션에 포함됩니다. 또, 최종 사용자 활동의 재연을 수집할 수 있으며 사용자 경험을 영화처럼 볼 수도 있습니다. 이 모든 것이 RUM 리플레이 세션에 포함됩니다.
\ No newline at end of file
diff --git a/content/ko/tracing/trace_explorer/trace_queries.md b/content/ko/tracing/trace_explorer/trace_queries.md
index c517cd7033a59..5273227fa3854 100644
--- a/content/ko/tracing/trace_explorer/trace_queries.md
+++ b/content/ko/tracing/trace_explorer/trace_queries.md
@@ -12,7 +12,6 @@ further_reading:
- link: /tracing/trace_explorer/query_syntax/
tag: 설명서
text: 스팬(span) 쿼리 구문
-is_beta: true
title: 트레이스 쿼리
---
diff --git a/data/partials/platforms.ja.yaml b/data/partials/platforms.ja.yaml
index 19c8122193cda..d43ffb90a0883 100644
--- a/data/partials/platforms.ja.yaml
+++ b/data/partials/platforms.ja.yaml
@@ -114,6 +114,7 @@ platforms:
link: agent/kubernetes/
name: Kubernetes
- category: macOS
+ image: platform_macos.png
link: agent/basic_agent_usage/osx/
name: osx
- category: Linux
diff --git a/data/partials/platforms.ko.yaml b/data/partials/platforms.ko.yaml
index 4953e5bf01f80..ca7fcd6186500 100644
--- a/data/partials/platforms.ko.yaml
+++ b/data/partials/platforms.ko.yaml
@@ -114,6 +114,7 @@ platforms:
link: agent/kubernetes/
name: 쿠버네티스(Kubernetes)
- category: macOS
+ image: platform_macos.png
link: agent/basic_agent_usage/osx/
name: osx
- category: Linux
diff --git a/i18n/ja.json b/i18n/ja.json
index 96a2cf7534961..8b5f3021c0c5b 100644
--- a/i18n/ja.json
+++ b/i18n/ja.json
@@ -292,4 +292,4 @@
"available_for": {
"other": "次で利用可能"
}
-}
+}
\ No newline at end of file