El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
Este documento explica cómo implementar una implementación multisitio de Cisco Nexus 9000 VXLAN mediante un modelo de borde compartido utilizando la versión 11.2 de DCNM.
DC1 y DC2 son dos ubicaciones de Data Center que ejecutan vxlan;
Los gateways de frontera DC1 y DC2 tienen conexiones físicas a los bordes compartidos;
Los bordes compartidos tienen la conectividad externa(por ejemplo; Internet); de modo que las conexiones de la lista VRF se terminan en los bordes compartidos y los bordes compartidos inyectan una ruta predeterminada a los Gateways de borde en cada sitio
Los bordes compartidos se configuran en vPC(Se trata de un requisito cuando el fabric se implementa mediante DCNM)
Los gateways de borde se configuran en modo de difusión
Nexus 9ks con 9.3(2)
DCNM ejecutando la versión 11.2
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. If your network is live, make sure that you understand the potential impact of any command.
1) Teniendo en cuenta que este documento se basa en dos Data Centers que utilizan la función vxlan multisite, se deben crear dos estructuras sencillas
2) Crear otro fabric sencillo para el borde compartido
3) Crear MSD y mover DC1 y DC2
4) Creación de fabric externo
5) Crear superposición y superposición multisitio (para Oriente/Occidente)
6) Crear adjuntos de extensión VRF en bordes compartidos
# Las interfaces de fabric (que son interfaces de columna/hoja) se pueden "sin numerar" o punto a punto; Si se utiliza sin numerar, las direcciones IP requeridas son menores (ya que la dirección IP es la del loopback sin numerar)
# AGM es utilizado por los hosts en el fabric como la dirección MAC de gateway predeterminada; Esto será igual en todos los switches de hoja que son las puertas de enlace predeterminadas
# El modo de replicación seleccionado aquí puede ser multicast o IR-Ingress Replication; IR replicará cualquier tráfico BUM entrante dentro de una vlan vxlan de manera unicast a otros VTEP que también se denomina replicación de cabecera mientras que el modo de multidifusión enviará el tráfico BUM con una dirección IP de destino externa como la del grupo de multidifusión definido para cada red hasta la columna y Spines hará la replicación multicast basada en la dirección IP de destino exterior OIL a otros VTEP.
# Multicast Group subnet-> Obligatorio para replicar el tráfico BUM (como solicitud ARP de un host)
# Si se requiere que TRM esté habilitado, active la casilla de verificación contra la misma y proporcione la dirección MDT para los VRF TRM.
# El ID del sitio mencionado aquí se rellena automáticamente en esta versión de DCNM que se deriva del ASN definido debajo de la ficha "General".
# Rellene/modifique otros campos que sean relevantes
# Intervalo VXLAN VNI de Capa 2 -> Estos son los VNID que se mapearán posteriormente a Vlan(lo mostrará más abajo)
# VXLAN VNI Range de Capa 3-> Estos son los VNID de Capa 3 que también se mapearán posteriormente a VNI de Capa 3 a Vn-Segmento
# Esta sección muestra la lista completa de modos de fabric, ASN y replicación para cada uno de los fabric.
Haga clic en DC1 en el diagrama anterior y eso daría la opción de agregar switches.
# Dado que se trata de una implementación Greenfield, tenga en cuenta que la opción "conservar configuración" está seleccionada como "NO"; que eliminará todas las configuraciones de los cuadros mientras realiza la importación y también recargará los switches
# Seleccione el "Start discovery" para que DCNM comience a descubrir los switches en función de las direcciones IP proporcionadas en la columna "seed IP".
# Seleccione los switches pertinentes y, a continuación, haga clic en "Importar al fabric".
# Una vez realizada la importación, la topología en el fabric builder puede ser similar a la siguiente;
# Los switches se pueden mover haciendo clic en un switch y alineándolo con la ubicación correcta dentro del diagrama
# Seleccione la sección "Guardar diseño" después de reorganizar los switches en el orden en que se necesita el diseño
# Right (N.º derecho) Haga clic en cada uno de los switches y establezca la función adecuada; Aquí, DC1-BGW1 y DC1-BGW2 son las puertas de enlace de frontera
# DC1-SPINE-> Se establecerá en role-Spine, DC1-VTEP-> se establecerá en role-Leaf
# DCNM ahora enumerará los switches y también tendrá la vista previa de las configuraciones que DCNM va a enviar a todos los switches.
# Una vez que se haya realizado correctamente, el estado reflejará y también los switches se mostrarán en verde
# Seleccione DC1 Fabric (del menú desplegable superior derecha), Control > VRF
# Lo siguiente es crear VRF
# 11.2 La versión de DCNM está rellenando automáticamente el ID de VRF; Si es Diferente, escriba el que necesita y seleccione el botón "Crear VRF"
# Aquí, el VNID de capa 3 utilizado es 1001445
# Proporcione el ID de red (que es el VNID correspondiente de VLAN de Capa 2)
# Proporcione el VRF del que el SVI debe formar parte; De forma predeterminada, DCNM 11.2 rellena el nombre VRF en el creado anteriormente; Cambie según sea necesario
# El ID de VLAN será VLan de Capa 2 que se mapea a este VNID particular
# IPv4 Gateway-> Esta es la dirección IP de la gateway de difusión que se configurará en la SVI y será la misma para todos los VTEP del fabric.
# Una vez rellenados los campos, haga clic en "Crear red".
# Cree cualquier otra red que deba formar parte de este fabric;
# El estado estará en "NA" si NO se implementa en los switches. Dado que se trata de un sitio múltiple que incluye los gateways de frontera, la implementación de redes/VRF se analizará más a fondo.
# Los VRF también se crean como lo fueron para los fabrics DC1 y DC2
# Las redes no son necesarias en un borde compartido porque el borde compartido no tendrá ninguna VLAN/VNID de Capa 2; Los bordes compartidos no son una terminación de túnel para cualquier tráfico Este/Oeste de DC1 a DC2; Sólo los gateways de frontera desempeñarían un papel en términos de encapsulación/desencapsulación de vxlan para el tráfico DC1 Este/Oeste<>DC2
Vaya a Fabric Builder y cree un nuevo Fabric y utilice la plantilla -> MSD_Fabric_11_1
# Tenga en cuenta que el método de implementación de IFC superpuesta de varios sitios debe ser "centralizado_en_servidor_de_ruta"; Aquí, los bordes compartidos se consideran servidores de ruta, por lo que esta opción se utiliza desde la lista desplegable.
# Dentro de la "Lista de Servidor de Ruta Multisitio"; A continuación, descubra las direcciones IP de bucle invertido de Loopback0 (que es el loopback de routing) en el borde compartido y llénalo
# ASN es el que se encuentra en el borde compartido(consulte el diagrama de la parte superior de este documento para obtener más detalles); A los efectos de este documento, ambos bordes compartidos se configuran en el mismo ASN; Rellenar en consecuencia
# Una vez rellenados todos los campos, haga clic en el botón "guardar" y se creará un nuevo fabric con la plantilla-> MSD
# Lo siguiente es mover los fabrics DC1 y DC2 a este MSD
# Después de mover el fabric, se ve como abajo
# Una vez hecho esto, haga clic en el botón "Save&Deploy" (Guardar y implementar), que llevará las configuraciones necesarias en lo que respecta a los Gateways de borde a varios sitios.
# Cree un entramado externo y añada el router externo como se muestra a continuación;
# Asigne un nombre al fabric y utilice la plantilla-> "External_Fabric_11_1";
# Proporcione el ASN
# Al final, los distintos tejidos serán como los que se muestran a continuación
# Los bordes compartidos ejecutan el evpn eBGP l2vpn con los Gateways de Borde y las conexiones VRF-LITE hacia el router externo
# Antes de formar eBGP l2vpn evpn con los loopbacks, se debe asegurarse de que los loopbacks sean accesibles a través de algún método; En este ejemplo, estamos utilizando eBGP IPv4 AF de BGW a los bordes compartidos y luego anunciamos los loopbacks para formar más la vecindad del evpn l2vpn.
# Una vez seleccionado el fabric MSD, cambie a la "vista tabular"
# Seleccione "Inter-Fabric" y utilice "Multisite_UNDERLAY"
# Estamos aquí tratando de formar un Vecindario BGP IPv4 con el router de borde compartido; Seleccione los switches e interfaces en consecuencia.
# Tenga en cuenta que si CDP está detectando al vecino de DC1-BGW1 a SB1, sólo es necesario proporcionar las direcciones IP aquí en esta sección y eso configurará de manera efectiva las direcciones IP en las interfaces relevantes después de realizar "guardar e implementar"
# Una vez que se selecciona Guardar e implementar, las líneas de configuración necesarias se propagan para DC1-BGW1; El mismo paso tendrá que llevarse a cabo después de seleccionar también el fabric de "borde compartido".
# Desde CLI, se puede verificar lo mismo con el siguiente comando;
DC1-BGW1# show ip bgp sum BGP summary information for VRF default, address family IPv4 Unicast BGP router identifier 10.10.10.1, local AS number 65000 BGP table version is 11, IPv4 Unicast config peers 1, capable peers 1 2 network entries and 2 paths using 480 bytes of memory BGP attribute entries [1/164], BGP AS path entries [0/0] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.4.10.2 4 65001 6 7 11 0 0 00:00:52 0
# Tenga en cuenta que también se debe realizar el "save&Deploy" en el fabric DC1 (seleccione el desplegable para DC1 y luego realice lo mismo) de modo que el direccionamiento IP relevante, las configuraciones BGP se propaguen a los switches en DC1(que son los Gateways de borde);
# Además, la capa subyacente multisitio debe crearse desde DC1-BGW, DC2-BGW hasta los bordes compartidos; por lo tanto, también hay que hacer lo mismo con los pasos anteriores.
# Al final, los bordes compartidos tendrán vecindad AF IPv4 eBGP con todos los BGW en DC1 y DC2 como se muestra a continuación;
SHARED-BORDER1# sh ip bgp sum BGP summary information for VRF default, address family IPv4 Unicast BGP router identifier 10.10.100.1, local AS number 65001 BGP table version is 38, IPv4 Unicast config peers 4, capable peers 4 18 network entries and 20 paths using 4560 bytes of memory BGP attribute entries [2/328], BGP AS path entries [2/12] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.4.10.1 4 65000 1715 1708 38 0 0 1d03h 5 10.4.10.6 4 65000 1461 1458 38 0 0 1d00h 5 10.4.10.18 4 65002 1459 1457 38 0 0 1d00h 5 10.4.10.22 4 65002 1459 1457 38 0 0 1d00h 5 SHARED-BORDER2# sh ip bgp sum BGP summary information for VRF default, address family IPv4 Unicast BGP router identifier 10.10.100.2, local AS number 65001 BGP table version is 26, IPv4 Unicast config peers 4, capable peers 4 18 network entries and 20 paths using 4560 bytes of memory BGP attribute entries [2/328], BGP AS path entries [2/12] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.4.10.10 4 65000 1459 1458 26 0 0 1d00h 5 10.4.10.14 4 65000 1461 1458 26 0 0 1d00h 5 10.4.10.26 4 65002 1459 1457 26 0 0 1d00h 5 10.4.10.30 4 65002 1459 1457 26 0 0 1d00h 5
# Anteriormente es el requisito previo previo para construir la vecindad l2vpn evpn de BGW a los bordes compartidos(Tenga en cuenta que no es obligatorio utilizar BGP; cualquier otro mecanismo para intercambiar prefijos de loopback lo haría); Al final, el requisito básico es que todos los loopbacks (de fronteras compartidas, BGW) deben ser accesibles desde todos los BGW.
# Tenga en cuenta también que es necesario establecer una vecindad AF IPv4 de iBGP entre las fronteras compartidas; A partir de hoy, DCNM no tiene la opción de construir un iBGP entre los bordes compartidos usando una plantilla/desplegable; Para ello, se debe realizar una configuración de forma libre que se muestra a continuación;
# Busque las direcciones IP configuradas en la SVI de Respaldo de los bordes compartidos; Como se muestra arriba, la forma libre se agrega en el switch Shared-border1 y el vecino iBGP especificado es el de Shared-border2(10.100.100.2)
# Tenga en cuenta que mientras proporciona las configuraciones dentro de la forma libre en DCNM, proporcione el espaciado correcto después de cada comando (deje el número par de espacios; es decir, después del router bgp 65001, proporcione dos espacios y luego el comando neighbor <>, etc)
# Asegúrese también de realizar una redistribución directa para las rutas directas (rutas de loopback) en BGP o en algún otro formulario para anunciar los loopbacks; en el ejemplo anterior, se crea un route-map direct para que coincida con todas las rutas directas y luego se redistribuye direct dentro del BGP AF IPv4
# Una vez que la configuración se "guarda e implementa" desde DCNM, la vecindad iBGP se forma como se muestra a continuación;
SHARED-BORDER1# sh ip bgp sum BGP summary information for VRF default, address family IPv4 Unicast BGP router identifier 10.10.100.1, local AS number 65001 BGP table version is 57, IPv4 Unicast config peers 5, capable peers 5 18 network entries and 38 paths using 6720 bytes of memory BGP attribute entries [4/656], BGP AS path entries [2/12] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.4.10.1 4 65000 1745 1739 57 0 0 1d04h 5 10.4.10.6 4 65000 1491 1489 57 0 0 1d00h 5 10.4.10.18 4 65002 1490 1487 57 0 0 1d00h 5 10.4.10.22 4 65002 1490 1487 57 0 0 1d00h 5 10.100.100.2 4 65001 14 6 57 0 0 00:00:16 18 # iBGP neighborship from shared border1 to shared border2
# Con el paso anterior, la base multisitio está completamente configurada.
# El siguiente paso es crear la superposición de varios sitios;
# Tenga en cuenta que aquí los bordes compartidos son también los servidores de ruta
# Seleccione el MSD y, a continuación, vaya a la "vista tabular" donde se puede crear un nuevo enlace; A partir de ahí, se debe crear un nuevo link de superposición multisitio y las direcciones IP relevantes tendrán que proporcionar el ASN correcto como se muestra a continuación; Este paso debe hacerse para todos los vecinos evpn l2vpn (que es de cada BGW a cada borde compartido)
# Arriba es un ejemplo; Realice lo mismo para todos los otros links superpuestos multisitio y, al final, la CLI será similar a la siguiente;
SHARED-BORDER1# sh bgp l2vpn evpn summary BGP summary information for VRF default, address family L2VPN EVPN BGP router identifier 10.10.100.1, local AS number 65001 BGP table version is 8, L2VPN EVPN config peers 4, capable peers 4 1 network entries and 1 paths using 240 bytes of memory BGP attribute entries [1/164], BGP AS path entries [0/0] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.10.10.1 4 65000 21 19 8 0 0 00:13:52 0 10.10.10.2 4 65000 22 20 8 0 0 00:14:14 0 10.10.20.1 4 65002 21 19 8 0 0 00:13:56 0 10.10.20.2 4 65002 21 19 8 0 0 00:13:39 0 SHARED-BORDER2# sh bgp l2vpn evpn summary BGP summary information for VRF default, address family L2VPN EVPN BGP router identifier 10.10.100.2, local AS number 65001 BGP table version is 8, L2VPN EVPN config peers 4, capable peers 4 1 network entries and 1 paths using 240 bytes of memory BGP attribute entries [1/164], BGP AS path entries [0/0] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 10.10.10.1 4 65000 22 20 8 0 0 00:14:11 0 10.10.10.2 4 65000 21 19 8 0 0 00:13:42 0 10.10.20.1 4 65002 21 19 8 0 0 00:13:45 0 10.10.20.2 4 65002 22 20 8 0 0 00:14:15 0
# A medida que hemos terminado la superposición y la superposición multisitio, el siguiente paso es implementar las redes/VRF en todos los dispositivos;
# Comenzando con los VRF en los Fabric-> DC1, DC2 y bordes compartidos.
# Una vez seleccionada la vista VRF, haga clic en "continuar"; Esto mostrará los dispositivos en la topología
# Dado que el VRF debe implementarse en varios switches (incluidos los Gateways de borde y la hoja), seleccione la casilla de verificación en el extremo derecho y, a continuación, seleccione los switches que tienen la misma función al mismo tiempo; por ejemplo: DC1-BGW1 y DC1-BGW2 se pueden seleccionar al mismo tiempo y, a continuación, guardar ambos switches; Después de esto, seleccione los switches de hoja que sean aplicables(aquí sería DC1-VTEP)
# Como se ha visto anteriormente, cuando se selecciona la opción "Implementar", todos los switches que se seleccionaron anteriormente iniciarán la implementación y finalmente se volverán verdes si la implementación se realizó correctamente.
# Tendrán que realizarse los mismos pasos para implementar las redes;
# Si se crean varias redes, tenga en cuenta navegar a las fichas siguientes para seleccionar las redes antes de implementar
# El estado pasará ahora a "IMPLEMENTADO" desde "NA" y la CLI del switch que aparece a continuación se puede utilizar para verificar las implementaciones
DC1-VTEP# sh nve vni Codes: CP - Control Plane DP - Data Plane UC - Unconfigured SA - Suppress ARP SU - Suppress Unknown Unicast Xconn - Crossconnect MS-IR - Multisite Ingress Replication Interface VNI Multicast-group State Mode Type [BD/VRF] Flags --------- -------- ----------------- ----- ---- ------------------ ----- nve1 100144 239.1.1.144 Up CP L2 [144] # Network1 which is VLan 144 mapped to VNID 100144 nve1 100145 239.1.1.145 Up CP L2 [145] # Network2 Which is Vlan 145 mapped to VNID 100145 nve1 1001445 239.100.100.100 Up CP L3 [tenant-1] # VRF- tenant1 which is mapped to VNID 1001445
DC1-BGW1# sh nve vni Codes: CP - Control Plane DP - Data Plane UC - Unconfigured SA - Suppress ARP SU - Suppress Unknown Unicast Xconn - Crossconnect MS-IR - Multisite Ingress Replication Interface VNI Multicast-group State Mode Type [BD/VRF] Flags --------- -------- ----------------- ----- ---- ------------------ ----- nve1 100144 239.1.1.144 Up CP L2 [144] MS-IR nve1 100145 239.1.1.145 Up CP L2 [145] MS-IR nve1 1001445 239.100.100.100 Up CP L3 [tenant-1]
# Arriba también es de BGW; en resumen, todos los switches que hemos seleccionado anteriormente en el paso se implementarán con las redes y el VRF
# También se deben realizar los mismos pasos para el Fabric DC2, borde compartido. Tenga en cuenta que los bordes compartidos NO necesitan redes ni VNID de capa 2; sólo se requiere el VRF L3.
# En esta topología, los puertos Eth1/2 y Eth1/1 de DC1-VTEP y DC2-VTEP respectivamente están conectados a los hosts; de modo que se mueven como puertos troncales en la GUI de DCNM como se muestra a continuación
# Seleccione la interfaz relevante y cambie las "vlan permitidas" de ninguna a "todas" (o sólo las vlan que necesitan ser permitidas)
# Debido a que los switches de borde compartidos son los servidores de ruta, se requiere realizar algunos cambios en términos de los vecindarios BGP l2vpn evpn
# El tráfico BUM entre sitios se replica usando Unicast; Significa, cualquier tráfico BUM en Vlan 144(eg) después de que llegue en los BGW; dependiendo de qué BGW es el reenviador designado (DF), DF realizará una replicación de unidifusión en el sitio remoto; Esta replicación se logra después de que el BGW recibe una ruta de tipo 3 del BGW remoto; Aquí, los BGW están formando l2vpn evpn peering solamente con los bordes compartidos; y los bordes compartidos no deben tener ningún VNID de capa 2 (si se crea, se producirá una retención en negro del tráfico este/oeste). Dado que faltan VNID de capa 2 y que los BGWs originan el tipo de ruta 3 por VNID, los bordes compartidos no honrarán la actualización de BGP que viene de los BGWs; Para corregir esto, utilice el comando "keep route-target all" en el elevpn AF l2vpn
# Otro punto es asegurarse de que los bordes compartidos no cambien el siguiente salto (BGP de forma predeterminada cambia el siguiente salto para los vecinos eBGP); Aquí, el túnel entre sitios para el tráfico de unidifusión del sitio 1 al 2 y viceversa debe ser de BGW al BGW (de dc1 a dc2 y viceversa); Para lograr esto, se debe crear un route-map y aplicarlo para cada vecino de EVPN l2VPN desde el borde compartido a cada BGW
# Para los dos puntos anteriores, se debe utilizar una forma libre en los bordes compartidos como los siguientes
route-map direct route-map unchanged set ip next-hop unchanged router bgp 65001 address-family ipv4 unicast redistribute direct route-map direct address-family l2vpn evpn retain route-target all neighbor 10.100.100.2 remote-as 65001 address-family ipv4 unicast next-hop-self neighbor 10.10.10.1 address-family l2vpn evpn route-map unchanged out neighbor 10.10.10.2 address-family l2vpn evpn route-map unchanged out neighbor 10.10.20.1 address-family l2vpn evpn route-map unchanged out neighbor 10.10.20.2 address-family l2vpn evpn route-map unchanged out
# para el tráfico Norte/Sur de los hosts conectados dentro de los switches de hoja, los BGW utilizan la IP SRC exterior de la dirección IP de Loopback1 de NVE; Los bordes compartidos sólo de forma predeterminada formarán el NVE Peering con la dirección Ip de loopback multisitio de los BGW; así, si un paquete vxlan llega al borde compartido con una dirección IP SRC externa del Loopback BGW1, el paquete se descartará debido a la pérdida SRCTEP; Para evitar esto, se debe crear un loopback en el arrendatario-VRF en cada switch BGW y luego anunciar al BGP para que los bordes compartidos reciban esta actualización y luego formen el Peering NVE con la dirección IP de Loopback1 BGW ;
# Inicialmente, el Peering de NVE será similar al de abajo en los bordes compartidos
SHARED-BORDER1# sh nve pee Interface Peer-IP State LearnType Uptime Router-Mac --------- -------------------------------------- ----- --------- -------- ----------------- nve1 10.222.222.1 Up CP 01:20:09 0200.0ade.de01 # Multisite Loopback 100 IP address of DC1-BGWs nve1 10.222.222.2 Up CP 01:17:43 0200.0ade.de02 # Multisite Loopback 100 IP address of DC2-BGWs
# Como se muestra arriba, el loopback2 se crea a partir de DCNM y se configura en el VRF del arrendatario 1 y se le da la etiqueta 12345 ya que ésta es la etiqueta que el route-map utiliza para hacer coincidir el loopback mientras hace el anuncio.
DC1-BGW1# sh run vrf tenant-1 !Command: show running-config vrf tenant-1 !Running configuration last done at: Tue Dec 10 17:21:29 2019 !Time: Tue Dec 10 17:24:53 2019 version 9.3(2) Bios:version 07.66 interface Vlan1445 vrf member tenant-1 interface loopback2 vrf member tenant-1 vrf context tenant-1 vni 1001445 ip pim rp-address 10.49.3.100 group-list 224.0.0.0/4 ip pim ssm range 232.0.0.0/8 rd auto address-family ipv4 unicast route-target both auto route-target both auto mvpn route-target both auto evpn address-family ipv6 unicast route-target both auto route-target both auto evpn router bgp 65000 vrf tenant-1 address-family ipv4 unicast advertise l2vpn evpn redistribute direct route-map fabric-rmap-redist-subnet maximum-paths ibgp 2 address-family ipv6 unicast advertise l2vpn evpn redistribute direct route-map fabric-rmap-redist-subnet maximum-paths ibgp 2 DC1-BGW1# sh route-map fabric-rmap-redist-subnet route-map fabric-rmap-redist-subnet, permit, sequence 10 Match clauses: tag: 12345 Set clauses:
# Después de este paso, los pares NVE mostrarán para todas las direcciones Ip Loopback1 junto con la dirección IP de loopback multisitio.
SHARED-BORDER1# sh nve pee Interface Peer-IP State LearnType Uptime Router-Mac --------- -------------------------------------- ----- --------- -------- ----------------- nve1 192.168.20.1 Up CP 00:00:01 b08b.cfdc.2fd7 nve1 10.222.222.1 Up CP 01:27:44 0200.0ade.de01 nve1 192.168.10.2 Up CP 00:01:00 e00e.daa2.f7d9 nve1 10.222.222.2 Up CP 01:25:19 0200.0ade.de02 nve1 192.168.10.3 Up CP 00:01:43 6cb2.aeee.0187 nve1 192.168.20.3 Up CP 00:00:28 005d.7307.8767
# En esta etapa, el tráfico Este/Oeste debe reenviarse correctamente
# Habrá situaciones en las que los hosts fuera del fabric tendrán que comunicarse con los hosts dentro del fabric. En este ejemplo, las fronteras compartidas permiten lo mismo;
# Cualquier host que viva en DC1 o DC2 podrá comunicarse con hosts externos a través de los switches de borde compartidos.
# Para ello, los bordes compartidos terminan el VRF Lite; Aquí en este ejemplo, eBGP se ejecuta desde los bordes compartidos a los routers externos como se muestra en el diagrama al principio.
# Para configurar esto desde DCNM, es necesario agregar adjuntos de extensión vrf. A continuación se indican las medidas que se han de adoptar para lograr lo mismo.
# Seleccione el ámbito del Fabric Builder para "borde compartido" y cambie a la vista tabular
# Seleccione los enlaces y agregue un enlace "Inter-Fabric" como se muestra a continuación
# Se debe seleccionar un subtipo VRF LITE en el menú desplegable
# El fabric de origen son bordes compartidos y el fabric de destino es externo, ya que será un VRF LITE de SB a externo
# Seleccione las interfaces relevantes que van hacia el router externo
# Proporcione la dirección IP y la máscara y la dirección IP vecina
# ASN se rellenará automáticamente.
# Una vez hecho esto, haga clic en el botón Save (Guardar)
# Realice lo mismo para los bordes compartidos y para todas las conexiones de capa 3 externas que se encuentran en VRFLITE
# Vaya a la sección VRF de borde compartido
# El VRF estará en estado de implementación; Seleccione la casilla de verificación de la derecha para que se puedan seleccionar varios switches
# Seleccione los bordes compartidos y se abrirá la ventana "Conexión VRF EXtension".
# En "extender", cambie de "Ninguno" a "VRFLITE"
# Haga lo mismo para ambos bordes compartidos
# Una vez hecho esto, "Detalles de la extensión" completará las interfaces LITE VRF que se dieron previamente en el paso a) anterior.
# DOT1Q ID se rellena automáticamente en 2
# Otros campos también se rellenan automáticamente
# Si la vecindad de IPv6 debe establecerse a través de VRFLITE, el paso a) debe hacerse para IPv6
# Ahora haga clic en Save (Guardar)
# Por último, realice la implementación en la parte superior derecha de la página web.
# Una implementación exitosa dará como resultado que las configuraciones se trasladen a los bordes compartidos, lo que incluye establecer direcciones IP en esas subinterfaces y establecer Vecindades BGP IPv4 con los routers externos
# Tenga en cuenta que las configuraciones de router externo (configuración de direcciones IP en subinterfaces y sentencias de Vecindad BGP) se realizan manualmente por CLI en este caso.
# Las verificaciones de CLI se pueden realizar mediante los siguientes comandos en ambos bordes compartidos;
SHARED-BORDER1# sh ip bgp sum vr tenant-1 BGP summary information for VRF tenant-1, address family IPv4 Unicast BGP router identifier 172.16.22.1, local AS number 65001 BGP table version is 18, IPv4 Unicast config peers 1, capable peers 1 9 network entries and 11 paths using 1320 bytes of memory BGP attribute entries [9/1476], BGP AS path entries [3/18] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 172.16.22.2 4 65100 20 20 18 0 0 00:07:59 1 SHARED-BORDER2# sh ip bgp sum vr tenant-1 BGP summary information for VRF tenant-1, address family IPv4 Unicast BGP router identifier 172.16.222.1, local AS number 65001 BGP table version is 20, IPv4 Unicast config peers 1, capable peers 1 9 network entries and 11 paths using 1320 bytes of memory BGP attribute entries [9/1476], BGP AS path entries [3/18] BGP community entries [0/0], BGP clusterlist entries [0/0] Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd 172.16.222.2 4 65100 21 21 20 0 0 00:08:02 1
# Con todas las configuraciones anteriores, también se establecerá la disponibilidad Norte/Sur como se muestra a continuación(pings del router externo a los hosts en el fabric)
EXT_RTR# ping 172.16.144.1 # 172.16.144.1 is Host in DC1 Fabric PING 172.16.144.1 (172.16.144.1): 56 data bytes 64 bytes from 172.16.144.1: icmp_seq=0 ttl=251 time=0.95 ms 64 bytes from 172.16.144.1: icmp_seq=1 ttl=251 time=0.605 ms 64 bytes from 172.16.144.1: icmp_seq=2 ttl=251 time=0.598 ms 64 bytes from 172.16.144.1: icmp_seq=3 ttl=251 time=0.568 ms 64 bytes from 172.16.144.1: icmp_seq=4 ttl=251 time=0.66 ms ^[[A^[[A --- 172.16.144.1 ping statistics --- 5 packets transmitted, 5 packets received, 0.00% packet loss round-trip min/avg/max = 0.568/0.676/0.95 ms
EXT_RTR# ping 172.16.144.2 # 172.16.144.2 is Host in DC2 Fabric PING 172.16.144.2 (172.16.144.2): 56 data bytes 64 bytes from 172.16.144.2: icmp_seq=0 ttl=251 time=1.043 ms 64 bytes from 172.16.144.2: icmp_seq=1 ttl=251 time=6.125 ms 64 bytes from 172.16.144.2: icmp_seq=2 ttl=251 time=0.716 ms 64 bytes from 172.16.144.2: icmp_seq=3 ttl=251 time=3.45 ms 64 bytes from 172.16.144.2: icmp_seq=4 ttl=251 time=1.785 ms --- 172.16.144.2 ping statistics --- 5 packets transmitted, 5 packets received, 0.00% packet loss round-trip min/avg/max = 0.716/2.623/6.125 ms
# Los traceroutes también apuntan a los dispositivos correctos en la trayectoria del paquete
EXT_RTR# traceroute 172.16.144.1 traceroute to 172.16.144.1 (172.16.144.1), 30 hops max, 40 byte packets 1 SHARED-BORDER1 (172.16.22.1) 0.914 ms 0.805 ms 0.685 ms 2 DC1-BGW2 (172.17.10.2) 1.155 ms DC1-BGW1 (172.17.10.1) 1.06 ms 0.9 ms 3 ANYCAST-VLAN144-IP (172.16.144.254) (AS 65000) 0.874 ms 0.712 ms 0.776 ms 4 DC1-HOST (172.16.144.1) (AS 65000) 0.605 ms 0.578 ms 0.468 ms
EXT_RTR# traceroute 172.16.144.2 traceroute to 172.16.144.2 (172.16.144.2), 30 hops max, 40 byte packets 1 SHARED-BORDER2 (172.16.222.1) 1.137 ms 0.68 ms 0.66 ms 2 DC2-BGW2 (172.17.20.2) 1.196 ms DC2-BGW1 (172.17.20.1) 1.193 ms 0.903 ms 3 ANYCAST-VLAN144-IP (172.16.144.254) (AS 65000) 1.186 ms 0.988 ms 0.966 ms 4 172.16.144.2 (172.16.144.2) (AS 65000) 0.774 ms 0.563 ms 0.583 ms EXT_RTR#