diff --git a/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.en-gb.md b/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.en-gb.md index 595c185189f..408bda02477 100644 --- a/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.en-gb.md +++ b/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.en-gb.md @@ -1,403 +1,227 @@ --- -title: NSX - FAQ -excerpt: Frequently asked questions on NSX -updated: 2024-03-20 +title: "NSX - FAQ" +excerpt: "Find frequently asked questions about the most common scenarios concerning the use of NSX within the Hosted Private Cloud ecosystem" +updated: 2024-11-05 --- ## Objective -**Find below the frequently asked questions about NSX.** - -## FAQ - - - -### What are the different assistance packs? What are the differences between the packs? - -All packs are based on days (1 day = 8 hours); 1 day, 2 days or more. - -The first approach is the same for all packs with a discovery phase but the duration of the pack will depend on the complexity of the environment and the customer maturity. - -This would be discussed with the PS team during a first assessment call. - - - -### How can I protect my virtual machines exposed on the internet directly, with a Public IP? - -You can create virtual machines in the ovh-t0-public segment, and then secure your flows with the NSX Distributed Firewall. - - - -### What is the deadline for the NSX-T migration? What is NSX-V End of Life date? - -NSX-V End of Life is planned for the 16th of January 2024, the migration has to be performed before this date. - - - -### What is the last date on which you can request migration support? - -NSX-V End of Life is planned for January 16th of 2024, so the sooner you take action, the more time to perform your migration. - - - -### What happens if we have not migrated before the 16th of January 2023? - -OVhcloud will not cut the service but won't be able to guarantee any SLA. Customers will have to sign a document committing to leave NSX-V at a certain given date by OVHcloud. - -VMware has decided the NSX-V End of Life in January 2024. Discussions are still on-going with them regarding the NSX-V extension of support, OVHcloud will communicate as soon as possible an official statement. - - - -### Is it possible to do BGP? - -It is not possible to do Public BGP. - -Though it is possible to do BGP in the vRack, a documentation will be available soon to detail this workaround. - - - -### Is NSX-T compatible with BGP over IPSEC? - -Currently, the BGP over IPEC feature is only available from a T0 (version before 4.1.1 release). - -This operation requires specific rights at T0 to create the tunnel. - -If you have a specific use case, you can open a ticket so we can support you in this configuration. - - - -### What are the change on the AS? - -Before the 4.1.1 version, there is one AS number per environmen coming from the T0. - -Opening a ticket with the Support, you can request a modification on the AS number. - -With the 4.1.1 version, you will be able to set up different AS on the VRF and not have necessarily the AS number from the T0. - - - -### Can we put a virtual firewall in front of the T0 in the same PCC? - -Today it is not possible. The T0 already has a gateway firewall feature so we recommend to configure the firewall with the T0. - - - -### Can you explain the difference between T0 and T1? - -In the VMware conception, a T1 is always attached to a T0. - -Flows go through the T0 to go to the external network. - -All the elements that have to stay insinde the Vsphere platform are routed by the T1. - - - -### How can I add another Tier-0 Gateway? - -It is currently not possible to add a new working tier-0 Gateway. - - - -### The "Edit" button in NSX for Tier-0 is disabled, how do I configure the public gateway? - -It is not possible by default. The Tier-0 gateways are each hosted in a different host, HA (High Availability) is enabled and a VIP is configured between the 2 EDGES in order to maintain service continuity. The HA part is already preconfigured by OVHCloud. - - - -### Can I configure an active-active Tier-0 Gateway in order to have a double bandwidth (10+10=20Gb/s guarantee and 25+25Gb/s "theoretical")? - -No, it is not possible by default, the configuration is managed by OVHcloud and is done in active/passive mode with a VIP (10 Gbp/s guaranteed bandwidth). - - - -### Is it possible to connect to the Tier-0 from the command line to perform debugging or packet capture? - -No, this is not possible for Tier-0. - - - -### What is the maximum number of interfaces (connected segments) on a Tier-1 Gateway? - -This information can be found in NSX > Inventory > Capacity. - -Regarding the Edges, we refer to the Gateways and the Tier-0 and Tier-1. Tier-0 is already deployed and uses 3 public IPs to route between the active/backup Gateways and uses the concept of a VIP that is in front of the 2 internal public IPs. This is used for failover and redundancy. - -NSX and NSX-v are different and at the moment you cannot break the current Tier-0 configuration and deploy others. - - - -### Is it possible to connect to the Tier-1 from the command line to perform debugging or packet capture? - -No, this is not possible for Tier-1. Different tools are available in NSX to address these needs. - - - -### How can I add more Public IPs? - -As indicated in [this guide](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps#displaying-the-ha-vip-virtual-ip-address), at the moment it is not possible to create new virtual IP addresses, but this feature should be available soon. - - - -### Can IP address blocks be used/distributed between two VMware DCs in the same PCC? - -IP address blocks are PCC-dependent, not vDC-dependent. Therefore it is possible to use the same IP address block between multiple virtual data centres (without any changes). - - - -### Do we need to update the clusters in order to use NSX-T in a Vsphere 7.0.3 environment? - -In this case you don't have to update the clusters. - - - -### How do we manage the IPs during the migration? - -You will find into [the migration guide](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/service-migration-vdc/), how to move your existing IP from your NSX-V platform and route them to the IP attached to the T0 part. - -When a NSX-T vDC is delivered, we deploy and configure a new IP Block for NSX T0 (VIP + NSX EDGES). You will be able to re-use the IP attached to the NSX-V DC and point them to the new vDC. - - - -### For the vDC migration, the data store has to go global, is a roll back possible on this configuration? - -The global data store is managed at the manager or API level. - -This allows you to globalise your data store which will be visible from your new vDC. It allows you to do a compute Vmotion and not a storage Vmotion of the VMs. - -In this case a roll back is not possible, you would have to order a new data store and apply on it a Vmotion to free the global one. - - - -### What is the customer impact of the NSX 4.1.1 migration? - -There is normally no downtime, a maintenance task will be initiated, including a move of the edges with a Vmotion. - -From your user side, there is no specific task to plan. - - - -### Will you provide trainings and documentation to improve NSX-T skills? - -- [Getting Started with NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) -- [VMware on OVHcloud](products/hosted-private-cloud-hosted-private-cloud-powered-by-vmware) - - - - -### If we have anticipated the NSX-T migration and chose a PfSense tier solution, do we still have to request a new vDC creation without NSX-T? Can we do it on the existing vDC? - -In this case you don't have to order a new vDC but make sure you deactivate all your NSX-V features so OVHcloud can disable the component. - - - -### Is the Internet output configurable? In other words, can I deploy the interface? - -It is not possible to manage the Internet output in NSX as the Edge is managed by OVHcloud, but you can configure the network on your VM (vSPHERE). - - - -### Can the IP migration be done IP per IP or by block? - -The IP migration is performed by block, you will change the next stop of the IP block, the global block is transitioned to the NSX part. - - - -### Will this migration cut the service and if yes, how long? - -This will depend on the used services. For example, if you are using IPSEC tunnels and public IPs, you will have to move your workloads and reconfigure the IP block you had on your NSX-V insfrastructure to your NSX-T one. - -During this IP move, a short service cut can happen. Depending on your network topology, you can have a continuity via the vRack service of the flows among the different workloads carried by an exposition of the NSX-V edges. You move the different machines to the second DC and through the vRack the flow keep rising to your previous NSX-V edges. - -The downtime will thus depend on your environment's complexity. - - - -### What will be the bandwidth of the edge node's cards, knowing T0 will be mutualised? - -This will depend on the activated services (LB/NAT/Firewall, etc.) - - - -### Does vRack work with NSX-T ? - -Yes, vRack works with NSX-T. - -You can access it from port groups in vSphere or vLAN segments inside NSX. - - - -### Will the compute cluster have access to vRack? Or will the vRack be connected only to edge node? - -The NSX cluster is fully compatible with vRack. You can add the NSX service in your PCC vRack. Find more information about vRack on [this page](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/vrack_and_hosted_private_cloud). - - - -### Can I configure High Availability (HA)? - -No, NSX Edges are configured by OVHcloud following VMware best practices regarding HA. - - - -### Can we have multiple edge clusters? - -Today, 1 single NSX-T Edge cluster is necessary. - - - -### We currently have 300 edges and about 5000 simultaneous RDP, will the average configuration "4 vcpu / 8 Go RAM / 200 Go" manage the flows? - -The sizing will depend on the services you activate or consume on your edges (firewalling or loadbalancing). - -Today the size M edge node might not fit for you. The 4.1.1 release will grant you new features like "edge nodes scale up", allowing you to raise to L or XL profiles. - -All this will depend on your use cases and the metrics you have on your platform. - - - -### If we don't want to have a VRF to split the T0, what would be the solution besides training or buying a new PCC? - -It is possible not to use the VRF and use the T1. - -You can use a T1, hosting the workloads behind it. In this case the T1 is used as a "mini" VRF but the flows will be mixed inside the T0. - -The advantage of doing a VRF in T0 is to maintain the partitioning of the routing table of the elements going to the external network of the vSphere platform. - - - -### Can I use the OVHcloud API to configure and use NSX? - -Yes, it is possible to do so. - - - -### What about Zerto in the migration phase? - -There are no complexities in this part, you can follow step by step the documentation OVHcloud provides. - - - -### What about my Veeam and Zerto options? Are they still compatible with NSX? - -Yes but you will have to reconfigure them after vDC migration. - - - -### Is it possible to have on our PCC NSX-V and NSX-T at the same time to perform tests? - -It is possible if you order a new vDC to get NSX-T. - -Please note that ordering the new vDC will automatically initiate the refund mechanism for the coming month. - - - -### How long will the migration take? - -This will mainly depend on the discovery/assessment phase of the NSX-V insfrastructure and the design phase on the NSX-T side. - -The migration itself is short, it is a re-confirmation of the VMware stack. - -It is possible to create an extended network, a VPN between the two environments, vxLAN for NSX-V and segments with NSX-T, allowing to move VMs from a vDC to another and then to perform the migrations steps. This will ease the service cut during the transition. - -You can also include Terraform into your NSX-T design in order to push your Terraform configuration directly into the environment your just ordered. - - - -### Can we use "migration coordinator" for the migration between NSX-V and NSX-T? - -This tool requires very strong administration rights on the environment, our Professional Services team can execute and duplicate the confirmation. In this tool, it is important to notice that many elements are not supported (options, existing rules in NSX-V). - -The reproduction phase would require lots of adaptation from your part so it is not a recommended tool in the migration. - - - -### Why is NSX management via Terraform done via a separate `https://nsxt` endpoint? - -The NSX API is dedicated and not linked to the vSphere API. That's why we created a dedicated endpoint to reach it. - - - -### Is it possible to communicate an NSX edge between 2 PCC? - -Yes, it's possible. - - - -### Do you take NSX configuration backups, including for the customer manual configuration? - -Yes, OVHcloud is performing some backups, you can see them into your NSX-T control plane. - -This backup is not aimed to allow you to do a roll back in case of wrong configuration from your end but exist in case of corruption of the different NSX-T controllers. - - - -### Is it possible to have the delivery of an NSX-T vDC in a 2016 PCC or are there delivery issues? - -Yes, it is possible, there are no current constraints. - - - -### What is the ETA for the NSX 4.1.1 release? - -ETA is planned for the end of October 2023. - - - -### Are there additional limitations in a SecNumCloud context? - -There are no additional limitations compared to a non-SNC environment. - - - -### Is a SecNumCloud migration the same as a non SNC migration? - -Yes both migrations are the same. - - - -### Is there any backup outside SecNumCloud? - -There is no difference between SNC and non-SNC regarding the backup. - - - -### Why is there a pricing modification for NSX-T and its 4.1.1 version? - -The price increase on the NSX offers is based on: - - - The raise in our costs based on the inflation on all our services in 2022 and 2023. - - The NSX-T licensing costs. - - The costs linked to the NSX management insfrastructure. - -Waiting for the availability of the NSX 4.1.1 version, physical ressources dedicated the to NSX Edge VM hosting have been assumed by OVHcloud and have not been charged to you. - -In consequence, the transition to the 4.1.1 version won't have any pricing impact. - - - -### Will the commitments dates and initial pricess be be maintained after the migration? - -Commitment and conditions won't be automatically maintened. - -Please get in contact with your preferred OVHcloud contact in order to set up new commercial conditions. - - - -### During the migration phase, we will have to pay twice for our platform for one month, and then get reimbursed next month? - -OVHcloud will refund 1 month of hosts and NSX management fees on the next invoice following the order of your new vDC (1 month considered as 30 days). - - - -### Is there an additional cost to use Advanced LB (with WAF) and a distributed IPS/IDS? - -The basic version of ALB is already included in the NSX-T licence version, without additional cost. - -IPS/IDS is planned to be released in the future without precise ETA for now, with additional cost. - -## Go further - -[Getting started with NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) - -If you need training or technical assistance to implement our solutions, contact your sales representative or click on [this link](https://www.ovhcloud.com/en-gb/professional-services/) to get a quote and ask our Professional Services experts for a custom analysis of your project. - -Join our community of users on . \ No newline at end of file +**Find below frequently asked questions and answers to your NSX usage**. + +## Frequently asked questions - FAQ + +> [!faq] +> What are the differences between support packs +> > All packs are based on a day/hour count, e.g.: 1 day = 8 hours, 2 days = 16 hours (sometimes more). +> > The first approach is the same for all packs with a discovery phase, but the duration of the pack will depend on the complexity of the environment and the maturity of your current managed offer. +> > This issue will be explored with the [Professional Services](/links/professional-services) team in a first evaluation call. +> > +> How can I protect my virtual machines directly exposed on the internet with a Public IP? +> > You can position the external interface of your virtual machines in an `ovh-t0-public` segment and then secure your flows with the NSX Distributed Firewall. +> > +> What is the end-of-life date for NSX-V? +> > VMware has decided to initiate the end of life (EOL) of NSX-V since January 2022. OVHcloud has been granted an extension of support until 31st July 2024. +> > +> What is the end-of-support date for NSX-T migration requests? +> > NSX-V’s end of life occurred on July 31, 2024. Since this date, the migration can no longer be carried out. +> > +> What is the maximum date on which to request migration support? +> > This migration is no longer possible. However, you can [contact support](https://help.ovhcloud.com/csm?id=csm_get_help) or your technical account manager (TAM) if you need more information about your current options. +> > +> What happens if we haven’t migrated? +> > OVHcloud does not delete the service, but we cannot guarantee the same level of service commitment (SLA). A document must therefore be signed in the form of a contractual clause setting out the liability on NSX-V's end of life since July 31, 2024 in the event of any problems. +> > +> Is it possible to do Border Gateway Protocol (BGP)? +> > It is impossible to do public BGP (peer with OVHcloud internet routers). +> > However, it is possible to do (private) BGP with a vRack via a Tier-0 gateway or a VRF level 0 gateway, or in an IPsec tunnel via a Tier-0 only. +> > +> Is NSX-T BGP compatible across IPSEC? +> > Currently, BGP over IPSEC functionality is only available from a Tier-0 gateway (version earlier than 4.1.1). It is not possible to complete a VPN tunnel on a VRF level 0 gateway. +> > This operation requires specific rights with the Tier-0 gateway to create the tunnel. +> > If you have a specific use case, you can [open a ticket](https://help.ovhcloud.com/csm?id=csm_get_help) so that we can assist you in this configuration. +> > +> What is the change regarding the BGP autonomous system (AS)? +> > It is possible to position different AS numbers according to Tier-0 gateways or VRF level 0 gateways. +> > +> Can we put a virtual firewall in front of the Tier-0 in the same managed vSphere? +> > You can completely disconnect the public interfaces of the T0 and interconnect them via a private network or a security appliance exposed live on the internet. +> > +> What is the difference between a Tier-0 gateway and a Tier-1? +> > In VMware design, a Tier-1 is always attached to a Tier-0. +> > Flows pass through a Tier-0 to go to the external network. +> > All elements that need to remain inside (locally) the managed Vsphere platform are routed by the Tier-1. +> > +> How can I add another Tier-0 Gateway? +> > It is currently not possible to add a new functional Tier-0 Gateway. +> > Depending on your needs, you can create a virtual Tier-0 instance called VRF. This VRF will not be able to be connected on the internet. +> > +> The "Edit" button in NSX for a Tier-0 is disabled, how can I configure the public Gateway? +> > This is not possible by default. The Tier-0 Gateways are each hosted on a different host, HA (High Availability) is activated and a virtual IP (VIP) is configured between the 2 EDGES to maintain service continuity. The HA section is already preconfigured by OVHcloud. +> > This is no longer the case in version `4.1.1`. +> > +> Can I configure an active-active Tier-0 Gateway to have double bandwidth ("guaranteed" 10+10=20Gb/s and "theoretical" 25+25=50Gb/s)? +> > No, this is not possible by default. The configuration is managed by OVHcloud and is active/passive with a VIP (10 Gbps guaranteed bandwidth). +> > +> Is it possible to connect to the Tier-0 in the command line to perform diagnostics or packet capture? +> > No, it is impossible for the Tier-0. +> > +> What is the maximum number of interfaces (connected segments) on a Tier-1 Gateway? +> > This information can be found in the NSX-T `NSX > Inventory > Capacity`{.action} interface. To see how to log in to the NSX-T web interface, please refer to the following guide: [Enable NSX-T in a VMware on OVHcloud Hosted Private Cloud](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx_add_user_rights). +> > +> > For Edges, we refer to Gateways and Tier-0 and Tier-1. The Tier-0 is already deployed and uses 3 public IPs to route between active/standby Gateways and uses the concept of a VIP that is upstream of the 2 internal public IPs. This device is used for failover and redundancy. +> > NSX and NSX-v are different, and at this time you cannot interrupt the current Tier-0 configuration and deploy more. +> > +> Is it possible to connect to Tier-1 at the command line to perform diagnostics or packet capture? +> > No, it is impossible for the Tier-1. Different tools are available in NSX to meet these needs. +> > +> How do I add public IPs? +> > Additional public IPs can be added via "next hop" routing, specifying the managed VMware vSphere environment (pcc) as a resource, and the public virtual IP (VIP) of the T0 as the `next hop`. +> > +> Can IP address blocks be used/distributed between two VMware DCs in the same managed vSphere? +> > IP address blocks are dependent on the VMware vSphere managed environment (pcc) and not on the vDC. It is therefore possible to use the same IP address block between several virtual datacentres (without any modification). +> > A block of public IPs routed on the virtual IP (VIP) of your T0 cannot be used in another VMnetwork vDC. The subnet defined on the T0 interface can be used on other vDCs of the same vSphere managed via the NSX `ovh-t0-public` segment. +> > +> Do we need to update the clusters in order to use NSX-T in a Vsphere `7.0.3` environment? +> > In this case, you do not need to update the clusters. +> > +> How are IPs managed during the migration? +> > You can find out how to move your existing IP from your NSX-V platform, and route it to the IP attached to the T0 section in the [migration guide](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/service-migration-vdc). +> > When an NSX-T vDC is delivered, we deploy and configure a new IP block for NSX T0 (VIP + NSX EDGES). You can reuse the IP attached to the NSX-V DC and point it to the new vDC. +> > +> For vDC migration, you need to switch the DS to global. Can we rollback this configuration? +> > The global datastore is managed via the OVHcloud Control Panel or API. +> > This allows you to globalize your datastore, which will be visible from your new vDC. It allows you to make a vMotion "Compute" and not a vMotion "Storage" of the virtual machines. +> > In this case, you cannot restore your data. You will need to order a new datastore and apply a vMotion to free it up globally. +> > +> What is the impact of migrating to NSX-T `4.1.1`? +> > There is normally no downtime, a maintenance task will be initiated, including a move of the Edges with a vMotion. +> > No specific tasks need to be scheduled on your managed environments. +> > +> Will you provide training and documentation to improve NSX-T skills? +> > +> > - [Getting started with NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) +> > - [VMware on OVHcloud](/products/hosted-private-cloud-hosted-private-cloud-powered-by-vmware) +> > +> If an NSX-V migration has been planned to a third-party pfSense solution, should we restart with a request to create a new vDC without NSX-V? Can it be done on the existing vDC? +> > In this case, you do not need to order a new vDC, but make sure to disable all your NSX-V features so that OVHcloud can disable the component. +> > +> Can I configure Internet output? In other words, is it possible to deploy the interface? +> > It is not possible to manage internet output in NSX as Edge is managed by OVHcloud, but you can configure the network on your VM (managed vSphere). +> +> Can IP migration be done IP by IP or IP block? +> > IP migration is done by block, you change the *next stop* of the IP block, the global block is transitioned to the NSX part. +> > +> Does this migration interrupt the service? If so, how long? +> > This will depend on the services you use. For example, if you use IPSEC tunnels and public IPs, you will need to move your workloads and reconfigure the IP block you had on your NSX-V infrastructure to your NSX-T infrastructure. +> > When moving an IP, a short service outage may occur. Depending on your network topology, you can have continuity via the vRack service of the flows between the different workloads supported by an exposure of the NSX-V fronts, you move the different machines to the second DC and through the vRack the flow continues to go back to your previous NSX-V fronts. +> > Downtime depends on the complexity of your environment. +> > +> How much bandwidth will the edge-node cards have, knowing that the T0 will be shared? +> > This will depend on which services are enabled (LoadBalancer/NAT/Firewall, etc.) +> > +> Does the vRack work with NSX-T? +> > Yes, the vRack works with NSX-T. +> > You can access it from groups of ports in vSphere or VLAN segments using NSX. +> > +> Will the VM cluster have access to the OVHcloud vRack? Or will the vRack be connected to the edge nodes? +> > The NSX cluster is compatible with an OVHcloud vRack. You can add the NSX service in the vRack of your managed VMware vSphere (pcc). Find more information on [this page](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/vrack_and_hosted_private_cloud). +> > +> Can I configure High Availability (HA)? +> > No, the NSX Edge routers are configured by OVHcloud following the official VMware high availability (HA) private infrastructure management best practices. +> > +> Is it possible to have multiple edge clusters? +> > Today, only 1 Edge NSX-T cluster is required. +> > +> Currently, we have 300 edges and around 5000 simultaneous RDPs. Will the average configuration "4 vcpu / 8 GB RAM / 200 GB" hold for flows? +> > Sizing will depend on the services you enable or consume on your edges (firewall or load balancing). +> > Today, the Medium size edge node may not be suitable for you, the `4.1.1` version will grant you new features such as “Edge nodes scale up”, allowing you to switch to L or XL profiles. +> > It all depends on your use cases and the metrics you have on your platform. +> > +> If we don’t want a VRF to split the T0, what would be the solution other than training or buying a new managed vSphere? +> > It is possible not to use VRF and to use T1. +> > You can use a T1, which hosts the workloads that support it. In this case, the T1 is used as a "mini" VRF but the flows will be mixed inside the T0. +> > The advantage of doing a VRF in T0 is maintaining the partitioning of the routing table of the elements going to the external network of your managed VMware vSphere platform. +> > +> Can I use the OVHcloud API to configure and use NSX? +> > Yes, it is possible to do this. Here is an example of an API v1 call that you can use within the **/dedicatedcloud** universe: +> > +> > > [!api] +> > > +> > > @api {v1} /dedicatedCloud PUT /dedicatedCloud/{serviceName}/datacenter/{datacenterId}/cluster/{clusterId}/nsxt +> > > +> > +> > > **Settings**: +> > > +> > > - `clusterId`: ID of the managed vSphere cluster (example: 2010). +> > > - `datacenterId`: ID of the managed vSphere datastore (example: 1254) +> > > - `serviceName` : Name of the managed vSphere (example: pcc-XXX-XXX-XXX). +> > > +> How do I migrate with Zerto solutions? +> > Simply follow the steps in the documentation provided by OVHcloud: +> > +> > - [Use Zerto between OVHcloud and a third-party platform](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/zerto_virtual_replication_as_a_service) +> > - [Use Zerto Virtual Replication between two OVHcloud datacentres](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/zerto_vm_replica_deletion) +> > +> What do I do with my Veeam backup and Zerto replication options? Are they still compatible with NSX? +> > Yes, but you will need to reconfigure them after migrating your virtual datacentre (vDC). +> > +> Is it possible to combine our NSX-V and NSX-T managed vSphere during the transition phase? +> > You can get NSX-T if you order a new vDC. +> > Please note that ordering the new vDC will automatically trigger the refund mechanism for the coming month. +> > +> How long will the migration take? +> > This will depend primarily on the NSX-V infrastructure discovery/assessment phase and the NSX-T side design phase. +> > The migration itself is short, it is a reconfirmation of the VMware stack. +> > It is possible to create a wide area network, a VPN between the two environments, vxLAN for NSX-V and segments with NSX-T, allowing to move VMs from one vDC to another and then perform the migration steps. This will limit service downtime during the transition. +> > You can also include Terraform in your NSX-T design to push your Terraform configuration directly into the environment you just ordered. +> > +> Can we use "migration coordinator" for migration between nsx-v and nsx? +> > This tool requires very strong administrative rights on the environment. The Professional Services team can validate the execution and the duplication. In this tool, it is important to note that many elements are not supported (options, existing rules in NSX-V). +> > The reproduction phase would require a lot of adaptations on your part, so it is not a recommended tool in the migration. +> > +> Why is NSX management through Terraform done via a separate `https://nsxt` endpoint? +> > The NSX API is independent and not linked to the vSphere API. This is why we have created a dedicated endpoint to reach it. +> > +> Is it possible to connect an NSX Edge router between 2 managed VMware vSphere environments? +> > Yes, it is possible. +> > +> Do you carry out backups of the NSX configurations, including manual client configuration? +> > Yes, OVHcloud performs backups. You can find them in your NSX-T control panel. +> > This backup is not intended for restoration when it is improperly handled, but for support in the event of corruption of the various NSX-T controllers. +> > +> Is it possible to have the delivery of a vDC NSX-T in a VMware vSphere managed of the year 2016, will there be problems during the delivery? +> > Yes, it is possible, there are no constraints currently. +> > +> Are there any additional limitations in a SecNumCloud context? +> > There are no additional limitations compared to an unqualified SecNumCloud environment. +> > +> In a SecNumCloud context, is the migration going the same way? +> > Yes, both migrations are identical. +> > +> Is there a backup outside of SecNumCloud? +> > There is no difference between backups in SecNumCloud and non-SecNumCloud qualified environments. +> > +> Why is there a price change for NSX-T and its version `4.1.1`? +> > The price increase for NSX solutions is based on: +> > +> > - inflation-based cost increases for all of our services in 2022 and 2023. +> > - NSX-T license fees. +> > - Costs related to the NSX management infrastructure. +> > +> Will the dates and initial price of managed environments be retained during a migration for the duration of the engagement? +> > The commitment and conditions will not be automatically maintained. +> > We invite you to contact your preferred contact at OVHcloud in order to set up new commercial conditions. +> > +> During the migration phase, will we have to pay twice for our platform for one month, and then be reimbursed the following month? +> > OVHcloud will refund 1 month of NSX hosting and management fees on your next bill after ordering your new virtual datacentre (vDC) (1 month = 30 days). +> > +> Is there an additional cost to using the Advanced Load Balancer (with WAF) and a distributed IPS/IDS? +> > Yes, the basic version of the load balancer application with firewall (ALB + WAF) is not included in the NSX-T license. We will offer it as an additional option. + +## Go further + +[Getting started with NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps). + +If you require training or technical support to implement our solutions, please contact your sales representative or click [this link](/links/professional-services) to get a quote and request a custom analysis of your project from our Professional Services team experts. + +Join our [community of users](/links/community). \ No newline at end of file diff --git a/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.fr-fr.md b/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.fr-fr.md index 48ea4a5430e..a9ef87b1d45 100644 --- a/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.fr-fr.md +++ b/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-11-faq/guide.fr-fr.md @@ -1,402 +1,227 @@ --- -title: NSX - FAQ -excerpt: Retrouvez les questions les plus fréquentes concernant NSX -updated: 2024-03-20 +title: "NSX - FAQ" +excerpt: "Retrouvez une foire aux questions des scénarios les plus fréquents concernant l'utilisation de NSX au sein de l'écosystème Hosted Private Cloud" +updated: 2024-11-05 --- ## Objectif -**Retrouvez ci-dessous les questions les plus fréquentes concernant NSX.** - -## FAQ - - - -### Quels sont les différents packs d’assistance ? Quelles sont les différences entre les packs ? - -Tous les packs sont basés sur des jours (1 jour = 8 heures). 1 jour, 2 jours ou plus... - -La première approche est la même pour tous les packs avec une phase de découverte, mais la durée du pack dépendra de la complexité de l'environnement et de la maturité du client. - -Cette question sera étudiée avec l'équipe PS lors d'un premier appel d'évaluation. - - - -### Comment puis-je protéger mes machines virtuelles directement exposées sur Internet avec une IP Publique ? - -Vous pouvez positionner des machines virtuelles dans le segment ovh-t0-public et ensuite sécuriser vos flux avec le Distributed Firewall de NSX. - - - -### Quelle est la date limite pour la migration de NSX-T? Quelle est la date de fin de vie de NSX-V ? - -La fin de vie de NSX-V est prévue pour le 16 janvier 2024, la migration doit être effectuée avant cette date. - - - -### Quelle est la date maximale à laquelle faire la demande d'accompagnement de migration ? - -La fin de vie de NSX-V est prévue pour le 16 janvier 2024, vous pouvez le faire dès à présent pour vous laisser le temps d'effectuer votre migration. - - - -### Que se passe-t-il si nous n’avons pas migré avant le 16 janvier 2023 ? - -OVHcloud ne supprime pas le service, mais ne peut pas garantir de SLA. Le client devra signer un document par lequel OVHcloud s’engage à quitter NSX-V à une date déterminée. - -VMware a décidé d'initier la fin de vie de NSX-V à partir de janvier 2024, des discussions sont toujours en cours avec VMware pour prolonger le support de NSX-V, OVHcloud communiquera à ce sujet dès que possible, dans l'attente d'une déclaration officielle de VMware. - - - -### Est-il possible de faire du BGP ? - -Il est impossible de faire du BGP public. - -Il est toutefois possible de faire du BGP dans le vRack, une documentation sera disponible prochainement pour détailler cette solution. - - - -### Est-ce que NSX-T est compatible BGP à travers IPSEC ? - -Actuellement, la fonctionnalité BGP sur IPEC n'est disponible qu'à partir d'un T0 (version antérieure à la version 4.1.1). - -Cette opération nécessite des droits spécifiques à T0 pour créer le tunnel. - -Si vous avez un cas d'utilisation spécifique, vous pouvez ouvrir un ticket afin que nous puissions vous accompagner dans cette configuration. - - - -### Quel est le changement concernant l'AS ? - -Avant la version 4.1.1, il y a un numéro d'AS par environnement provenant du T0. - -En ouvrant un ticket auprès du Support, vous pouvez demander une modification sur le numéro AS. - -Avec la version 4.1.1, vous pourrez mettre en place un AS différent sur le VRF et ne pas avoir nécessairement le numéro AS du T0. - - - -### Peut-on mettre un pare-feu virtuel devant le T0 dans le même PCC ? - -Aujourd'hui, ce n'est pas possible. Le T0 dispose déjà d'une fonctionnalité de pare-feu de passerelle, nous vous recommandons de configurer le pare-feu avec le T0. - - - -### Quelle est la différence entre T0 et T1? - -Dans la conception VMware, un T1 est toujours attaché à un T0. - -Les flux passent par le T0 pour aller au réseau externe. - -Tous les éléments devant rester à l'intérieur de la plateforme Vsphere sont routés par le T1. - - - -### Comment puis-je ajouter une autre Tier-0 Gateway ? - -Il est actuellement impossible d'ajouter une nouvelle Tier-0 Gateway fonctionnelle. - - - -### Le bouton "Edit" dans NSX pour Tier-0 est désactivé, comment puis-je configurer la Gateway publique ? - -C'est impossible par défaut. Les Tier-0 Gateways sont hébergées chacune sur un host différent, HA (High Availability) est activée et un VIP est configuré entre les 2 EDGES afin de maintenir la continuité de service. La partie HA est déjà préconfigurée par OVHCloud. - - - -### Puis-je configurer une Tier-0 Gateway active-active afin d’avoir une double bande passante (garantie 10+10=20Gb/s et "théorique" 25+25Gb/s) ? - -Non, c'est impossible par défaut, la configuration est gérée par OVHcloud et se fait en mode actif/passif avec un VIP (10 Gbp/s de bande passante garantie). - - - -### Est-il possible de se connecter au Tier-0 en ligne de commande pour effectuer un diagnostic ou de la capture de paquets ? - -Non, c'est impossible pour le Tier-0. - - - -### Quel est le nombre maximum d'interfaces (segments connectés) sur une Tier-1 Gateway ? - -Cette information se trouve dans NSX > Inventory > Capacity. - -Concernant les Edges, nous nous référons aux Gateways et aux Tier-0 et Tier-1. Le Tier-0 est déjà déployé et utilise 3 IPs publiques pour faire le routage entre les Gateways actives/de secours et utilise le concept d’un VIP qui est en amont des 2 IPs publiques internes. Ce dispositif est utilisé pour le failover et la redondance. - -NSX et NSX-v sont différents et pour le moment vous ne pouvez pas interrompre la configuration Tier-0 actuelle et en déployer d’autres. - - - -### Est-il possible de se connecter au Tier-1 en ligne de commande pour effectuer un diagnostic ou de la capture de paquets ? - -Non, c'est impossible pour le Tier-1. Différents outils sont disponibles dans NSX pour répondre à ces besoins. - - - -### Comment puis-je ajouter des IP publiques ? - -Comme indiqué dans [ce guide](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps#display-the-ha-vip-virtual-ip-address), il n'est actuellement pas possible de créer de nouvelles adresses IP virtuelles, mais cette fonctionnalité devrait être disponible prochainement. - - - -### Est-ce que les blocs d’adresses IP peuvent être utilisés/distribués entre deux DC VMware dans un même PCC ? - -Les blocs d'adresses IP sont dépendants du PCC et non du vDC. Il est donc possible d'utiliser le même bloc d'adresses IP entre plusieurs datacentres virtuels (sans aucune modification). - - - -### Doit-on mettre à jour les clusters afin de pouvoir utiliser NSX-T dans un environnement Vsphère 7.0.3 ? - -Dans ce cas, il n'est pas nécessaire de mettre à jour les clusters. - - - -### Comment sont gérés les IP lors de la migration? - -Vous trouverez dans le [guide de migration](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/service-migration-vdc), comment déplacer votre IP existante depuis votre plateforme NSX-V et les router vers l'IP attachée à la partie T0. - -Lorsqu’un vDC NSX-T est livré, nous déployons et configurons un nouveau bloc IP pour NSX T0 ( VIP + NSX EDGES). Vous pourrez réutiliser l'IP attachée au DC NSX-V et les faire pointer vers le nouveau vDC. - - - -### Pour la migration vDC, il faut passer le DS en global. Un retour arrière est-il possible sur cette configuration ? - -Le datastore global est géré au niveau du manager ou de l’API. - -Cela vous permet de globaliser votre datastore qui sera visible depuis votre nouveau vDC. Il vous permet de faire un compute vmotion et non un stockage vmotion des VM. - -Dans ce cas, une restauration n'est pas possible, il vous faudra commander un nouveau datastore et y appliquer une vmotion pour libérer le global. - - - -### Quel est l’impact client de la migration vers NSX 4.1.1 ? - -Il n'y a normalement pas de temps d'arrêt, une tâche de maintenance sera initiée, y compris un déplacement des bords avec un Vmotion. - -Du côté de l'utilisateur, il n'y a pas de tâche spécifique à planifier. - - - -### Allez-vous fournir des formations et de la documentation pour améliorer les compétences NSX-T ? - -- [Getting Started with NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) -- [VMware on OVHcloud](products/hosted-private-cloud-hosted-private-cloud-powered-by-vmware) - - - -### Si une migration NSX-V a été planifiée vers une solution tiers PFSense. Doit-on repartir sur la demande de création d'un nouveau VDC sans NSX-V ? Peut-on le faire sur le vDC existant ? - -Dans ce cas, vous n'avez pas besoin de commander un nouveau DC, mais assurez-vous de désactiver toutes vos fonctionnalités NSX-V afin qu'OVHcloud puisse désactiver le composant. - - - -### Est-ce que l'output Internet est configurable ? En d’autres termes, est-il possible de déployer l’interface ? - -Il n'est pas possible de gérer l'output Internet dans NSX car Edge est géré par OVHcloud, mais vous pouvez configurer le réseau sur votre VM (vSPHERE). - - - -### La migration des IP peut-elle se faire IP par IP ou par bloc IP ? - -La migration d'IP est effectuée par bloc, vous changez l'étape suivante du bloc d'IP, le bloc global est transitionné vers la partie NSX. - - - -### Cette migration interrompt-elle le service ? Si oui, combien de temps ? - -Cela dépendra des services utilisés. Par exemple, si vous utilisez des tunnels IPSEC et des IP publiques, vous devrez déplacer vos charges de travail et reconfigurer le bloc IP que vous aviez sur votre infrastructure NSX-V vers votre infrastructure NSX-T. - -Lors de ce déplacement d'IP, une coupure de service de courte durée peut se produire. En fonction de votre topologie réseau, vous pouvez avoir une continuité via le service vrack des flux entre les différentes charges de travail portées par une exposition des fronts NSX-V, vous déplacez les différentes machines vers le second DC et à travers le vrack le flux continu à remonter vers vos fronts NSX-V précédents . - -Le temps d'arrêt dépend donc de la complexité de votre environnement. - - - -### Quel sera le débit des cartes des edge-node, sachant que le T0 sera mutualisé ? - -Cela dépendra des services activés (LoadBalancer/NAT/Firewall...) - - - -### Est-ce que le vRack fonctionne avec les NSX-T ? - -Oui, le vRack fonctionne avec NSX-T. - -Vous avez la possibilité d'y accéder à partir de groupes de ports dans vSphere ou de segments de VLAN grâce à NSX. - - - -### Le cluster de VMs aura-t-il accès au vRack ? Ou le vRack sera-t-il uniquement connecté au Edge Node ? - -Le cluster NSX est totalement compatible avec le vRack. Vous pouvez ajouter le service NSX dans votre vRack PCC. Retrouvez plus d'informations à propos du vRack sur [cette page](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/vrack_and_hosted_private_cloud). - - - -### Puis-je configurer High Availability (HA) ? - -Non, les NSX Edges sont configurées par OVHcloud suivant les bonnes pratiques VMware en matière de HA. - - - -### Peut ont avoir plusieur edge cluster ? - -Aujourd'hui, 1 seul cluster NSX-T Edge est nécessaire. - - - -### Actuellement nous avons 300 edges et environ 5000 rdp simultanés. La configuration "moyenne 4 vcpu / 8 Go RAM / 200 Go" va-t-elle tenir pour les flux ? - -Le dimensionnement dépendra des services que vous activerez ou consommerez sur vos edges (firewall ou load balancing...). - -Aujourd'hui, le nœud edge de taille M peut ne pas vous convenir, la version 4.1.1 vous accordera de nouvelles fonctionnalités comme « Edge nodes scale up », vous permettant de passer aux profils L ou XL. - -Tout dépend de vos cas d’usage et des métriques dont vous disposez sur votre plateforme. - - - -### Si nous ne voulons pas d’un VRF pour fractionner le T0, quelle serait la solution en dehors de la formation ou de l’achat d’un nouveau PCC ? - -Il est possible de ne pas utiliser le VRF et d'utiliser le T1. - -Vous pouvez utiliser un T1, hébergeant les charges de travail qui le sous-tendent. Dans ce cas, le T1 est utilisé comme un « mini » VRF mais les flux seront mélangés à l'intérieur du T0. - -L'avantage de faire un VRF en T0 est de maintenir le partitionnement de la table de routage des éléments allant vers le réseau externe de la plateforme vSphere. - - - -### Puis-je utiliser l’API OVHcloud pour configurer et utiliser NSX ? - -Oui, il est possible de le faire. - - - -### Comment se passe la migration avec Zerto ? - -Suivez simplement les étapes de la documentation fournie par OVHcloud. - - - -### Que faire de mes options Veeam et Zerto ? Sont-elles toujours compatibles avec NSX ? - -Oui, mais il faudra les reconfigurer après la migration vDC. - - - -### Est-il possible de faire cohabiter notre pcc nsxv et nsx-t durant la phase de transition ? - -Il est possible d'obtenir NSX-T si vous commandez un nouveau vDC . - -Veuillez noter que la commande du nouveau vDC déclenchera automatiquement le mécanisme de remboursement pour le mois à venir. - - - -### Combien de temps durera la migration ? - -Cela dépendra principalement de la phase de découverte/évaluation de l’infrastructure NSX-V et de la phase de conception côté NSX-T. - -La migration elle-même est courte, il s'agit d'une reconfirmation de la stack VMware. - -Il est possible de créer un réseau étendu, un VPN entre les deux environnements, vxLAN pour NSX-V et des segments avec NSX-T, permettant de déplacer des VM d'un vDC à un autre et d'effectuer ensuite les étapes de migration. La coupure de service sera ainsi limitée lors de la transition. - -Vous pouvez également inclure Terraform dans votre conception NSX-T afin de pousser votre configuration Terraform directement dans l'environnement que vous venez de commander. - - - -### Pouvons-nous utiliser "migration coordinator" pour la migration entre nsx-v et nsx ? - -Cet outil nécessite des droits d'administration très forts sur l'environnement, l'équipe Professional Services peut valider l'exécution et la duplication. Dans cet outil, il est important de noter que de nombreux éléments ne sont pas pris en charge (options, règles existantes dans NSX-V). - -La phase de reproduction nécessiterait beaucoup d'adaptation de votre part, ce n'est donc pas un outil recommandé dans la migration. - - - -### Pourquoi la gestion de NSX via Terraform est-elle réalisée via un endpoint `https://nsxt` distinct ? - -L’API NSX est indépendante et non liée à l’API vSphere. C'est pourquoi nous avons créé un endpoint dédié pour l'atteindre. - - - -### Est-il possible de faire communiquer un NSX Edge entre 2 PCC ? - -Oui, c'est possible. - - - -### Réalisez-vous des backups des configs NSX, y compris le paramétrage manuel du client ? - -Oui, OVHcloud réalise des sauvegardes, vous pouvez les retrouver dans votre control panel NSX-T. - -Cette sauvegarde n'est pas destinée à la restauration lors d'une mauvaise manipulation, mais de support en cas de corruption des différents contrôleurs NSX-T. - - - -### Est-il possible d'avoir la livraison d'un vDC NSX-T dans un PCC 2016, existe-t-il des problèmes de livraison ? - -Oui, c'est possible, il n'y a pas de contraintes actuellement. - - - -### Avez-vous une date d'ETA pour la 4.1.1? - -L'ETA est prévue pour la fin octobre 2023. - - - -### Des limitations supplémentaires sont-elles présentes dans un contexte SecNumCloud ? - -Il n’y a pas de limitations supplémentaires par rapport à un environnement non-SNC. - - - -### Dans un contexte SecNumCloud, la migration se déroule-t-elle de la même façon ? - -Oui, les deux migrations sont identiques. - - - -### Existe-t-il une sauvegarde en dehors de SecNumCloud ? - -Il n'existe pas de différence entre les sauvegardes SNC et non SNC. - - - -### Pourquoi y a-t-il une modification tarifaire pour NSX-T et sa version 4.1.1 ? - -La hausse des tarifs des offres NSX est basée sur : - - - la hausse de nos coûts basée sur l’inflation de l’ensemble de nos services en 2022 et 2023 - - Les frais de licence NSX-T - - Les coûts liés à l’infrastructure de gestion NSX - -Dans l’attente de la disponibilité de la version NSX 4.1.1, les ressources physiques dédiées à l’hébergement de VM NSX Edge ont été reprises par OVHcloud et ne vous ont pas été facturées. - -Par conséquent, la transition vers la version 4.1.1 n'aura aucune incidence sur les prix. - - - -### Est-ce que les dates d'engagements et le prix initial sur les PCC sont conservés lors d'une migration pour la durée de l'engagement ? - -L’engagement et les conditions ne seront pas automatiquement maintenus. - -Nous vous invitons à prendre contact avec votre interlocuteur privilégié chez OVHcloud afin de mettre en place de nouvelles conditions commerciales. - - - -### Pendant la phase de migration, devra-t-on payer en double notre plateforme pendant un mois et ensuite se faire rembourser le mois suivant ? - -OVHcloud vous remboursera 1 mois de frais d’hébergement et de gestion NSX sur la prochaine facture après la commande de votre nouveau vDC (1 mois = 30 jours). - - - -### Y a-t-il un coût supplémentaire à l'utilisation du LoadBalancer Advanced (avec WAF) et d'un IPS/IDS distribué ? - -La version de base d'ALB est déjà incluse dans la version licence NSX-T, sans coût supplémentaire. - -IPS/IDS n'est, pour le moment, pas disponible. +**Retrouvez ci-dessous une foire aux questions pour répondre aux utilisations de NSX**. + +## Foire aux questions - FAQ + +> [!faq] +> Quels sont les différences entre les packs d’assistance +> > Tous les packs sont basés sur un décompte jours/heures, par exemple : 1 jour = 8 heures, 2 jours = 16 heures (parfois plus). +> > La première approche est la même pour tous les packs avec une phase de découverte, mais la durée du pack dépendra de la complexité de l'environnement et de la maturité de votre offre managée actuelle. +> > Cette question sera étudiée avec les équipes [Professional Services](/links/professional-services) lors d'un premier appel d'évaluation. +> > +> Comment puis-je protéger mes machines virtuelles directement exposées sur Internet avec une IP Publique ? +> > Vous pouvez positionner l'interface externe de vos machines virtuelles dans un segment `ovh-t0-public` et ensuite sécuriser vos flux avec le Distributed Firewall de NSX. +> > +> Quelle est la date de fin de vie de NSX-V ? +> > VMware a décidé d'initier la fin de vie (EOL) de NSX-V depuis janvier 2022. OVHcloud a obtenu une extension de support jusqu'au 31 juillet 2024. +> > +> Quelle est la date fin de support pour les demandes de migration vers NSX-T ? +> > La fin de vie de NSX-V a eu lieu le 31 juillet 2024. Cette date étant passée, la migration ne peut plus être effectuée. +> > +> Quelle est la date maximale à laquelle faire la demande d'accompagnement de migration ? +> > Il n'est plus possible d'effectuer cette migration à ce jour. Cependant, vous pouvez [contacter le support](https://help.ovhcloud.com/csm?id=csm_get_help) ou votre technical account manager (TAM) si vous avez besoin de plus d'informations sur vos possibilités à ce jour. +> > +> Que se passe-t-il si nous n’avons pas migré ? +> > OVHcloud ne supprime pas le service, mais nous ne pouvons pas garantir le même niveau d'engagement de service (SLA). Un document doit donc être signé sous forme de clause contractuelle fixant la responsabilité sur la fin de vie de NSX-V depuis le 31 juillet 2024 en cas de problème. +> > +> Est-il possible de faire du Border Gateway Protocol (BGP) ? +> > Il est impossible de faire du BGP public (peer avec les routeurs internet OVHcloud). +> > Il est toutefois possible de faire du BGP (privé) avec un vRack via une passerelle Tier-0 ou une passerelle VRF de niveau 0, ou dans un tunnel IPsec via une Tier-0 uniquement. +> > +> Est-ce que NSX-T est compatible BGP à travers IPSEC ? +> > Actuellement, la fonctionnalité BGP over IPSEC n'est disponible qu'à partir d'une passerelle Tier-0 (version antérieure à la version 4.1.1). Il n'est pas possible de terminer un tunnel VPN sur une passerelle VRF de niveau 0. +> > Cette opération nécessite des droits spécifiques avec la passerelle Tier-0 pour créer le tunnel. +> > Si vous avez un cas d'utilisation spécifique, vous pouvez [ouvrir un ticket](https://help.ovhcloud.com/csm?id=csm_get_help) afin que nous puissions vous accompagner dans cette configuration. +> > +> Quel est le changement concernant le système autonome BGP (AS) ? +> > Il est possible de positionner des AS numbers différents selon les passerelles Tier-0 ou les passerelles VRF de niveau 0. +> > +> Peut-on mettre un pare-feu virtuel devant le Tier-0 dans le même vSphere managé ? +> > Vous pouvez tout à fait déconnecter les interfaces publiques de la T0 et interconnecter celles-ci via un réseau privé ou une appliance de sécurité exposée en direct sur internet. +> > +> Quelle est la différence entre une passerelle Tier-0 et une Tier-1 ? +> > Dans la conception VMware, une Tier-1 est toujours attachée à une Tier-0. +> > Les flux passent par une Tier-0 pour aller au réseau externe. +> > Tous les éléments devant rester à l'intérieur (en local) de la plateforme Vsphere managée sont routés par la Tier-1. +> > +> Comment puis-je ajouter une autre Tier-0 Gateway ? +> > Il est actuellement impossible d'ajouter une nouvelle Tier-0 Gateway fonctionnelle. +> > Selon les besoins, il est possible de créer une instance virtuelle de Tier-0 appelée VRF. Cette VRF ne pourra pas être connectée sur internet. +> > +> Le bouton "Edit" dans NSX pour une Tier-0 est désactivé, comment puis-je configurer la Gateway publique ? +> > C'est impossible par défaut. Les Tier-0 Gateways sont hébergées chacune sur un host différent, HA (High Availability) est activée et une IP virtuelle (VIP) est configuré entre les 2 EDGES afin de maintenir la continuité de service. La partie HA est déjà préconfigurée par OVHcloud. +> > Ce n'est plus le cas dans la version `4.1.1`. +> > +> Puis-je configurer une Tier-0 Gateway active-active afin d’avoir une double bande passante ("garantie" 10+10=20Gb/s et "théorique" 25+25=50Gb/s) ? +> > Non, c'est impossible par défaut, la configuration est gérée par OVHcloud et se fait en mode actif/passif avec un VIP (10 Gbp/s de bande passante garantie). +> > +> Est-il possible de se connecter au Tier-0 en ligne de commande pour effectuer un diagnostic ou de la capture de paquets ? +> > Non, c'est impossible pour la Tier-0. +> > +> Quel est le nombre maximum d'interfaces (segments connectés) sur une Tier-1 Gateway ? +> > Cette information se trouve dans l'interface NSX-T `NSX > Inventory > Capacity`{.action}. Pour voir comment vous connecter à l'interface web NSX-T, consultez le guide suivant : [Activer NSX-T dans un Hosted Private Cloud VMware on OVHcloud](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx_add_user_rights). +> > +> > Concernant les Edges, nous nous référons aux Gateways et aux Tier-0 et Tier-1. Le Tier-0 est déjà déployé et utilise 3 IPs publiques pour faire le routage entre les Gateways actives/de secours et utilise le concept d’un VIP qui est en amont des 2 IPs publiques internes. Ce dispositif est utilisé pour le failover et la redondance. +> > NSX et NSX-v sont différents et, pour le moment, vous ne pouvez pas interrompre la configuration Tier-0 actuelle et en déployer d’autres. +> > +> Est-il possible de se connecter au Tier-1 en ligne de commande pour effectuer un diagnostic ou de la capture de paquets ? +> > Non, c'est impossible pour la Tier-1. Différents outils sont disponibles dans NSX pour répondre à ces besoins. +> > +> Comment puis-je ajouter des IP publiques ? +> > L'ajout d'IP publiques supplémentaires peut se faire via le routage "next hop" en spécifiant comme ressource l'environnement VMware vSphere managé (pcc) et en `next hop` l'IP virtuelle (VIP) publique de la T0. +> > +> Est-ce que les blocs d’adresses IP peuvent être utilisés/distribués entre deux DC VMware dans un même vSphere managé ? +> > Les blocs d'adresses IP sont dépendants de l'environnement VMware vSphere managé (pcc) et non du vDC. Il est donc possible d'utiliser le même bloc d'adresses IP entre plusieurs datacentres virtuels (sans aucune modification). +> > Un bloc d'IP publiques routé sur l'IP virtuelle (VIP) de votre T0 ne pourra être utilisé dans un autre `VMnetwork` vDC. Le subnet défini sur l'interface de la T0 est utilisable sur les autres vDC du même vSphere managé via le segment NSX `ovh-t0-public`. +> > +> Doit-on mettre à jour les clusters afin de pouvoir utiliser NSX-T dans un environnement Vsphère `7.0.3` ? +> > Dans ce cas, il n'est pas nécessaire de mettre à jour les clusters. +> > +> Comment sont gérés les IP lors de la migration ? +> > Vous trouverez, dans le [guide de migration](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/service-migration-vdc), comment déplacer votre IP existante depuis votre plateforme NSX-V et la router vers l'IP attachée à la partie T0. +> > Lorsqu’un vDC NSX-T est livré, nous déployons et configurons un nouveau bloc IP pour NSX T0 (VIP + NSX EDGES). Vous pourrez réutiliser l'IP attachée au DC NSX-V et la faire pointer vers le nouveau vDC. +> > +> Pour la migration vDC, il faut passer le DS en global. Un retour arrière est-il possible sur cette configuration ? +> > Le datastore global est géré au niveau de l'espace client ou de l’API OVHcloud. +> > Cela vous permet de globaliser votre datastore qui sera visible depuis votre nouveau vDC. Il vous permet de faire un `Compute` vMotion et non un `Storage` vMotion des machines virtuelles. +> > Dans ce cas, une restauration n'est pas possible, il vous faudra commander un nouveau datastore et y appliquer un vMotion pour le libérer globalement. +> > +> Quel est l’impact de la migration vers NSX-T `4.1.1` ? +> > Il n'y a normalement pas de temps d'arrêt, une tâche de maintenance sera initiée, y compris un déplacement des Edges avec un vMotion. +> > Aucune tâche spécifique est à planifier sur vos environnements managés. +> > +> Allez-vous fournir des formations et de la documentation pour améliorer les compétences NSX-T ? +> > +> > - [Premiers pas avec NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) +> > - [VMware on OVHcloud](/products/hosted-private-cloud-hosted-private-cloud-powered-by-vmware) +> > +> Si une migration NSX-V a été planifiée vers une solution tierce pfSense, doit-on repartir sur une demande de création d'un nouveau vDC sans NSX-V ? Peut-on le faire sur le vDC existant ? +> > Dans ce cas, vous n'avez pas besoin de commander un nouveau vDC, mais assurez-vous de désactiver toutes vos fonctionnalités NSX-V afin que OVHcloud puisse désactiver le composant. +> > +> Est-ce que l'output Internet est configurable ? En d’autres termes, est-il possible de déployer l’interface ? +> > Il n'est pas possible de gérer l'output Internet dans NSX car Edge est géré par OVHcloud, mais vous pouvez configurer le réseau sur votre VM (vSphere managé). +> +> La migration des IP peut-elle se faire IP par IP ou par bloc IP ? +> > La migration d'IP est effectuée par bloc, vous changez le *next stop* du bloc IP, le bloc global est transitionné vers la partie NSX. +> > +> Cette migration interrompt-elle le service ? Si oui, combien de temps ? +> > Cela dépendra des services utilisés. Par exemple, si vous utilisez des tunnels IPSEC et des IP publiques, vous devrez déplacer vos workloads et reconfigurer le bloc IP que vous aviez sur votre infrastructure NSX-V vers votre infrastructure NSX-T. +> > Lors de ce déplacement d'IP, une coupure de service de courte durée peut se produire. En fonction de votre topologie réseau, vous pouvez avoir une continuité via le service vRack des flux entre les différents workloads portés par une exposition des fronts NSX-V, vous déplacez les différentes machines vers le second DC et à travers le vRack le flux continue à remonter vers vos fronts NSX-V précédents. +> > Le temps d'arrêt dépend donc de la complexité de votre environnement. +> > +> Quel sera le débit des cartes des edge-nodes, sachant que le T0 sera mutualisé ? +> > Cela dépendra des services activés (LoadBalancer/NAT/Firewall, etc.) +> > +> Est-ce que le vRack fonctionne avec les NSX-T ? +> > Oui, le vRack fonctionne avec NSX-T. +> > Vous avez la possibilité d'y accéder à partir de groupes de ports dans vSphere ou de segments de VLAN grâce à NSX. +> > +> Le cluster de machines virtuelles aura-t-il accès au vRack OVHcloud ? Ou est-ce que le vRack sera connecté aux edge nodes ? +> > Le cluster NSX est bien compatible avec un vRack OVHcloud. Vous pouvez ajouter le service NSX dans le vRack de votre VMware vSphere managé (pcc). Retrouvez plus d'informations sur [cette page](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/vrack_and_hosted_private_cloud). +> > +> Puis-je configurer High Availability (HA) ? +> > Non, les routeurs NSX Edges sont configurés par OVHcloud suivant les bonnes pratiques VMware officielles de gestion d'infrastructure privée en matière de haute disponibilité (HA). +> > +> Est-il possible d'avoir plusieurs edge clusters ? +> > Aujourd'hui, 1 seul cluster NSX-T Edge est nécessaire. +> > +> Actuellement, nous avons 300 edges et environ 5000 RDP simultanés. La configuration moyenne "4 vcpu / 8 Go RAM / 200 Go" va-t-elle tenir pour les flux ? +> > Le dimensionnement dépendra des services que vous activerez ou consommerez sur vos edges (firewall ou load balancing...). +> > Aujourd'hui, le nœud edge de taille Medium peut ne pas vous convenir, la version `4.1.1` vous accordera de nouvelles fonctionnalités comme « Edge nodes scale up », vous permettant de passer aux profils L ou XL. +> > Tout dépend de vos cas d’usage et des métriques dont vous disposez sur votre plateforme. +> > +> Si nous ne voulons pas d’un VRF pour fractionner la T0, quelle serait la solution en dehors de la formation ou de l’achat d’un nouveau vSphere managé ? +> > Il est possible de ne pas utiliser le VRF et d'utiliser la T1. +> > Vous pouvez utiliser une T1, hébergeant les workloads qui la sous-tendent. Dans ce cas, la T1 est utilisée comme un « mini » VRF mais les flux seront mélangés à l'intérieur du T0. +> > L'avantage de faire un VRF en T0 est de maintenir le partitionnement de la table de routage des éléments allant vers le réseau externe de votre plateforme VMware vSphere managée. +> > +> Puis-je utiliser l’API OVHcloud pour configurer et utiliser NSX ? +> > Oui, il est possible de le faire, voici un exemple des appels API v1 que vous pouvez utiliser au sein de l'univers **/dedicatedcloud** : +> > +> > > [!api] +> > > +> > > @api {v1} /dedicatedCloud PUT /dedicatedCloud/{serviceName}/datacenter/{datacenterId}/cluster/{clusterId}/nsxt +> > > +> > +> > > **Paramètres** : +> > > +> > > - `clusterId` : ID du cluster vSphere managé (exemple : 2010). +> > > - `datacenterId` : ID du datastore vSphere managé (exemple : 1254) +> > > - `serviceName` : Nom du vSphere managé (exemple : pcc-XXX-XXX-XXX). +> > > +> Comment se passe la migration avec les solutions Zerto ? +> > Suivez simplement les étapes de la documentation fournie par OVHcloud : +> > +> > - [Utiliser Zerto entre OVHcloud et une plateforme tierce](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/zerto_virtual_replication_as_a_service) +> > - [Utiliser Zerto Virtual Replication entre deux datacenters OVHcloud](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/zerto_vm_replica_deletion) +> > +> Que faire de mes options de sauvegarde Veeam et de replication Zerto ? Sont-elles toujours compatibles avec NSX ? +> > Oui, mais il faudra les reconfigurer après la migration de votre centre de données virtuelle (vDC). +> > +> Est-il possible de faire cohabiter notre vSphere managé NSX-V et NSX-T durant la phase de transition ? +> > Il est possible d'obtenir NSX-T si vous commandez un nouveau vDC. +> > Veuillez noter que la commande du nouveau vDC déclenchera automatiquement le mécanisme de remboursement pour le mois à venir. +> > +> Combien de temps durera la migration ? +> > Cela dépendra principalement de la phase de découverte/évaluation de l’infrastructure NSX-V et de la phase de conception côté NSX-T. +> > La migration elle-même est courte, il s'agit d'une reconfirmation de la stack VMware. +> > Il est possible de créer un réseau étendu, un VPN entre les deux environnements, vxLAN pour NSX-V et des segments avec NSX-T, permettant de déplacer des VM d'un vDC à un autre et d'effectuer ensuite les étapes de migration. La coupure de service sera ainsi limitée lors de la transition. +> > Vous pouvez également inclure Terraform dans votre conception NSX-T afin de pousser votre configuration Terraform directement dans l'environnement que vous venez de commander. +> > +> Pouvons-nous utiliser "migration coordinator" pour la migration entre nsx-v et nsx ? +> > Cet outil nécessite des droits d'administration très forts sur l'environnement, l'équipe Professional Services peut valider l'exécution et la duplication. Dans cet outil, il est important de noter que de nombreux éléments ne sont pas pris en charge (options, règles existantes dans NSX-V). +> > La phase de reproduction nécessiterait beaucoup d'adaptations de votre part, ce n'est donc pas un outil recommandé dans la migration. +> > +> Pourquoi la gestion de NSX via Terraform est-elle réalisée via un endpoint `https://nsxt` distinct ? +> > L’API NSX est indépendante et non liée à l’API vSphere. C'est pourquoi nous avons créé un endpoint dédié pour l'atteindre. +> > +> Est-il possible de faire communiquer un routeur NSX Edge entre 2 environnements VMware vSphere managé ? +> > Oui, c'est possible. +> > +> Réalisez-vous des backups des configs NSX, y compris le paramétrage manuel du client ? +> > Oui, OVHcloud réalise des sauvegardes, vous pouvez les retrouver dans votre control panel NSX-T. +> > Cette sauvegarde n'est pas destinée à la restauration lors d'une mauvaise manipulation, mais de support en cas de corruption des différents contrôleurs NSX-T. +> > +> Est-il possible d'avoir la livraison d'un vDC NSX-T dans un VMware vSphere managé d'année 2016, existera-t-il des problèmes lors de la livraison ? +> > Oui, c'est possible, il n'y a pas de contraintes actuellement. +> > +> Des limitations supplémentaires sont-elles présentes dans un contexte SecNumCloud ? +> > Il n’y a pas de limitations supplémentaires par rapport à un environnement non qualifié SecNumCloud. +> > +> Dans un contexte SecNumCloud, la migration se déroule-t-elle de la même façon ? +> > Oui, les deux migrations sont identiques. +> > +> Existe-t-il une sauvegarde en dehors de SecNumCloud ? +> > Il n'existe pas de différence entre les sauvegardes dans les environnements qualifiés SecNumCloud et non SecNumCloud. +> > +> Pourquoi y a-t-il une modification tarifaire pour NSX-T et sa version `4.1.1` ? +> > La hausse des tarifs des offres NSX est basée sur : +> > +> > - la hausse de nos coûts basée sur l’inflation de l’ensemble de nos services en 2022 et 2023. +> > - Les frais de licence NSX-T. +> > - Les coûts liés à l’infrastructure de gestion NSX. +> > +> Est-ce que les dates et le prix initial des environnements managés sont conservés lors d'une migration pour toute la durée de l'engagement ? +> > L’engagement et les conditions ne seront pas automatiquement maintenus. +> > Nous vous invitons à prendre contact avec votre interlocuteur privilégié chez OVHcloud afin de mettre en place de nouvelles conditions commerciales. +> > +> Pendant la phase de migration, devra-t-on payer en double notre plateforme durant un mois et ensuite se faire rembourser le mois suivant ? +> > OVHcloud vous remboursera 1 mois de frais d’hébergement et de gestion NSX sur votre prochaine facture après la commande de votre nouveau centre de données virtuelle (vDC) (1 mois = 30 jours). +> > +> Y a-t-il un coût supplémentaire à l'utilisation du Load Balancer Advanced (avec WAF) et d'un IPS/IDS distribué ? +> > Oui, la version de base de load balancer applicatif avec firewall (ALB + WAF) n'est pas incluse dans la licence NSX-T. Nous la proposerons sous forme d'option supplémentaire. ## Aller plus loin -[Premiers pas avec NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps) +[Premiers pas avec NSX](/pages/hosted_private_cloud/hosted_private_cloud_powered_by_vmware/nsx-01-first-steps). -Si vous avez besoin d'une formation ou d'une assistance technique pour la mise en oeuvre de nos solutions, contactez votre commercial ou cliquez sur [ce lien](https://www.ovhcloud.com/fr/professional-services/) pour obtenir un devis et demander une analyse personnalisée de votre projet à nos experts de l’équipe Professional Services. +Si vous avez besoin d'une formation ou d'une assistance technique pour la mise en oeuvre de nos solutions, contactez votre commercial ou cliquez sur [ce lien](/links/professional-services) pour obtenir un devis et demander une analyse personnalisée de votre projet à nos experts de l’équipe Professional Services. -Échangez avec notre communauté d'utilisateurs sur . \ No newline at end of file +Échangez avec notre [communauté d'utilisateurs](/links/community). \ No newline at end of file