PDF Ccna2 v5-201-400
PDF Ccna2 v5-201-400
PDF Ccna2 v5-201-400
Las VLAN se utilizan para segmentar redes conmutadas. Un profesional de redes puede configurar
switches de capa 2, tales como los de la serie Catalyst 2960, con más de 4000 VLAN. Sin
embargo, los switches de capa 2 tienen una funcionalidad muy limitada en cuanto a IPv4 e IPv6, y
no pueden realizar las funciones de routing de los routers. Mientras que los switches de capa 2
adquieren cada vez una mayor funcionalidad de IP, como la capacidad de realizar routing estático,
no admiten routing dinámico. La gran cantidad de VLAN posibles en estos switches hace que el
routing estático sea insuficiente.
Una VLAN es un dominio de difusión, por lo que las computadoras en VLAN separadas no pueden
comunicarse sin la intervención de un dispositivo de routing. Se puede usar cualquier dispositivo
que admita routing de capa 3, como un router o un switch multicapa, para lograr la funcionalidad de
routing necesaria. Independientemente del dispositivo empleado, el proceso de reenvío del tráfico
de la red de una VLAN a otra mediante routing se conoce como “routing entre VLAN”.
Históricamente, la primera solución para el routing entre VLAN se valía de routers con varias
interfaces físicas. Era necesario conectar cada interfaz a una red separada y configurarla para una
subred diferente.
En este enfoque antiguo, el routing entre VLAN se realiza mediante la conexión de diferentes
interfaces físicas del router a diferentes puertos físicos de switch. Los puertos de switch
conectados al router se colocan en modo de acceso, y cada interfaz física se asigna a una VLAN
diferente. Cada interfaz del router puede entonces aceptar el tráfico desde la VLAN asociada a la
interfaz del switch que se encuentra conectada y el tráfico puede enrutarse a otras VLAN
conectadas a otras interfaces.
Nota: la topología utiliza enlaces paralelos para establecer los enlaces troncales entre los switches
a fin de obtener agregación de enlaces y redundancia. Sin embargo, los enlaces redundantes
hacen que la topología sea más compleja y pueden introducir problemas de conectividad si no se
administran de la manera adecuada. Deben implementarse protocolos y técnicas, tales como árbol
de expansión y EtherChannel, para administrar los enlaces redundantes. Estas técnicas exceden el
ámbito de este capítulo.
Haga clic en el botón Reproducir de la ilustración para ver una animación del routing entre VLAN
antiguo.
1. La PC1 en la VLAN 10 se comunica con la PC3 en la VLAN 30 a través del router R1.
3. El router R1 tiene una interfaz separada configurada para cada una de las VLAN.
4. La PC1 envía el tráfico de unidifusión destinado a la PC3 al switch S2 en la VLAN 10, desde el
cual luego se reenvía por la interfaz troncal al switch S1.
6. El router enruta el tráfico de unidifusión a través de la interfaz G0/1, que está conectada a la
VLAN 30.
8. El switch S1 luego reenvía el tráfico de unidifusión al switch S2 a través del enlace troncal activo,
tras lo cual el switch S2 puede reenviar el tráfico de unidifusión a la PC3 en la VLAN 30.
En este ejemplo el router se configuró con dos interfaces físicas separadas para interactuar con las
distintas VLAN y realizar el enrutamiento.
Nota: este método de routing entre VLAN no es eficaz y, por lo general, ya no se implementa en
las redes conmutadas. Se muestra en este curso solo con fines explicativos.
A diferencia del routing entre VLAN antiguo, que requiere varias interfaces físicas, tanto en el
router como en el switch, las implementaciones más comunes y actuales de routing entre VLAN no
tienen esos requisitos. En cambio, algunos softwares de router permiten configurar una interfaz del
router como enlace troncal, lo que significa que solo es necesaria una interfaz física en el router y
en el switch para enrutar paquetes entre varias VLAN.
“Router-on-a-stick” es un tipo de configuración de router en la cual una única interfaz física enruta
el tráfico entre varias VLAN en una red. Como puede verse en la ilustración, el router está
conectado al switch S1 mediante una única conexión de red física (un enlace troncal).
La interfaz del router se configura para funcionar como enlace troncal y se conecta a un puerto del
switch configurado en modo de enlace troncal. Para realizar el routing entre VLAN, el router acepta
en la interfaz troncal el tráfico con etiquetas de VLAN proveniente del switch adyacente y luego lo
enruta en forma interna entre las VLAN, mediante subinterfaces. El router reenvía el tráfico
enrutado con etiquetas de VLAN para la VLAN de destino a través de la misma interfaz física
utilizada para recibir el tráfico.
Las subinterfaces son interfaces virtuales basadas en software, asociadas con una única interfaz
física. Las subinterfaces se configuran en software en un router, y cada subinterfaz se configura de
manera independiente con una dirección IP y una asignación de VLAN. Las subinterfaces se
configuran para subredes diferentes que corresponden a su asignación de VLAN para facilitar el
routing lógico. Después de que se toma una decisión de routing según la VLAN de destino, las
tramas de datos reciben etiquetas de VLAN y se envían de vuelta por la interfaz física.
Haga clic en el botón Reproducir de la ilustración para ver una animación de la forma en que un
router-on-a-stick desempeña su función de routing.
1. La PC1 en la VLAN 10 se comunica con la PC3 en la VLAN 30 a través del router R1 mediante
una única interfaz física del router.
4. El switch S1 reenvía el tráfico etiquetado por la otra interfaz troncal en el puerto F0/5 a la interfaz
en el router R1.
6. El tráfico de unidifusión se etiqueta con la VLAN 30 mientras se envía por la interfaz del router al
switch S1.
7. El switch S1 reenvía el tráfico unicast etiquetado por el otro enlace troncal al switch S2.
Nota: el método de routing entre VLAN de router-on-a-stick no es escalable más allá de las
50 VLAN.
Los switches multicapa pueden realizar funciones de capa 2 y de capa 3, lo que remplaza la
necesidad de utilizar routers dedicados para realizar tareas de routing básico en una red. Los
switches multicapa admiten routing dinámico y routing entre VLAN.
Haga clic en el botón Reproducir de la ilustración para ver una animación de la forma en que se
realiza el routing entre VLAN basado en switch.
1. La PC1 en la VLAN 10 se comunica con la PC3 en la VLAN 30 a través del switch S1 mediante
las interfaces VLAN configuradas para cada VLAN.
6. El switch S1 luego vuelve a etiquetar el tráfico de unidifusión con la VLAN 30 y lo reenvía por el
enlace troncal al switch S2.
Para habilitar un switch multicapa para que realice funciones de routing, debe tener routing IP
habilitado.
El switching de multicapa es más escalable que cualquier otra implementación de routing entre
VLAN. Esto se debe a que los routers tienen una cantidad limitada de puertos disponibles para
conectarse a las redes. Además, en el caso de las interfaces que se configuran como una línea
troncal, se puede admitir una cantidad limitada de tráfico en la línea al mismo tiempo.
Con un switch multicapa, el tráfico se enruta internamente al dispositivo de switch, lo que significa
que los paquetes no se filtran por una única línea troncal para obtener nueva información de
etiquetado de VLAN. Sin embargo, un switch multicapa no reemplaza totalmente la funcionalidad
de un router. Los routers admiten una cantidad considerable de características adicionales, como
la capacidad de implementar mayores controles de seguridad. En cambio, un switch multicapa se
puede pensar como un dispositivo de capa 2 actualizado para tener algunas capacidades de
routing.
Nota: en este curso, la configuración de routing entre VLAN en un switch se restringe a configurar
rutas estáticas en un switch 2960, que es la única funcionalidad de routing admitida en los switches
2960. Los switches 2960 admiten hasta 16 rutas estáticas (entre las que se incluyen las rutas
configuradas por el usuario y la ruta predeterminada) y todas las rutas conectadas directamente y
las rutas predeterminadas para la interfaz de administración. Los switches 2960 pueden tener una
dirección IP asignada a cada interfaz virtual de switch (SVI). En cuanto a switches multicapa
relativamente económicos con todas las características, los switches de la serie Cisco Catalyst
3560 admiten los protocolos de routing EIGRP, OSPF y BGP.
El routing entre VLAN antiguo requiere que los routers tengan varias interfaces físicas. El router
realiza el enrutamiento al conectar cada una de sus interfaces físicas a una VLAN única. Además,
cada interfaz se configura con una dirección IP para la subred asociada con la VLAN específica a
la cual está conectada. Al configurar las direcciones IP en las interfaces físicas, los dispositivos de
red conectados a cada una de las VLAN pueden comunicarse con el router mediante la interfaz
física conectada a la misma VLAN. En esta configuración los dispositivos de red pueden utilizar el
router como un gateway para acceder a los dispositivos conectados a las otras VLAN.
Una vez que el dispositivo de origen determina que el paquete debe viajar a través de la interfaz
del router local en la VLAN conectada, envía una solicitud de ARP para determinar la dirección
MAC de la interfaz del router local. Una vez que el router envía su respuesta de ARP al dispositivo
de origen, este puede utilizar la dirección MAC para finalizar el entramado del paquete antes de
enviarlo a la red como tráfico de unidifusión.
Dado que la trama de Ethernet tiene la dirección MAC de destino de la interfaz del router, el switch
sabe exactamente a qué puerto del switch reenviar el tráfico de unidifusión para llegar a la interfaz
del router de dicha VLAN. Cuando la trama llega al router, el router elimina la información de la
dirección MAC de origen y destino para examinar la dirección IP de destino del paquete. El router
compara la dirección de destino con las entradas en la tabla de enrutamiento para determinar
dónde es necesario reenviar los datos para alcanzar el destino final. Si el router determina que la
red de destino es una red conectada en forma local, como sería el caso del routing entre VLAN,
envía una solicitud de ARP por la interfaz conectada físicamente a la VLAN de destino. El
dispositivo de destino responde al router con la dirección MAC, la cual luego utiliza el router para
entramar el paquete. El router envía el tráfico unicast al switch, que lo reenvía por el puerto donde
se encuentra conectado el dispositivo de destino.
Haga clic en el botón Reproducir de la ilustración para ver cómo se realiza el routing entre VLAN
antiguo.
Aunque existen muchos pasos en el proceso de routing entre VLAN, cuando dos dispositivos en
diferentes VLAN se comunican a través de un router, el proceso completo tiene lugar en una
fracción de segundo.
Para configurar el routing entre VLAN antiguo, comience con la configuración del switch.
Como se muestra en la ilustración, el router R1 está conectado a los puertos del switch F0/4 y
F0/5, que se configuraron para las VLAN 10 y 30 respectivamente.
Utilice el comando vlan id_vlan del modo de configuración global para crear las VLAN. En este
ejemplo las VLAN 10 y 30 se crearon en el switch S1.
Una vez que se crean las VLAN, los puertos de switch se asignan a las VLAN adecuadas. El
comando switchport access vlan id_vlan se ejecuta desde el modo de configuración de interfaz
en el switch para cada interfaz a la cual se conecta el router.
Finalmente, para proteger la configuración y no perderla después de una recarga del switch, se
ejecuta el comando copy running-config startup-configpara guardar una copia de seguridad de
la configuración en ejecución en la configuración de inicio.
A continuación, se puede configurar el router para que realice routing entre VLAN.
Las interfaces del router se configuran de manera similar a las interfaces de VLAN en los switches.
Para configurar una interfaz específica, pase al modo de configuración de interfaz desde el modo
de configuración global.
Como se muestra en la figura 1, cada interfaz se configura con una dirección IP mediante el
comando ip addressdirección_ip máscara_subred en el modo de configuración de interfaz.
El proceso se repite para todas las interfaces del router. Es necesario asignar cada interfaz del
router a una subred única para que se produzca el routing. En este ejemplo, la otra interfaz del
router, G0/1, se configuró para utilizar la dirección IP 172.17.30.1, que se encuentra en una subred
diferente que la interfaz G0/0.
Una vez que se asignan las direcciones IP a las interfaces físicas y que las interfaces se habilitan,
el router es capaz de llevar a cabo routing entre VLAN.
En la figura 2, hay dos rutas visibles en la tabla de routing. Una ruta es la subred 172.17.10.0, que
está conectada a la interfaz local G0/0. La otra ruta es la subred 172.17.30.0, que está conectada a
la interfaz local G0/1. El router utiliza la tabla de enrutamiento para determinar dónde enviar el
tráfico que recibe. Por ejemplo: si el router recibe un paquete en la interfaz G0/0 destinado a la
subred 172.17.30.0, el router identificará que debe enviar el paquete por la interfaz G0/1 para que
llegue a los hosts en la subred 172.17.30.0.
Observe la letra C a la izquierda de cada una de las entradas de ruta para las VLAN. Esta letra
indica que la ruta es local para una interfaz conectada, que también está identificada en la entrada
de ruta. Según el resultado de este ejemplo, si el tráfico estuviera destinado a la subred
172.17.30.0, el router debería reenviar el tráfico por la interfaz G0/1.
El routing entre VLAN antiguo con interfaces físicas tiene una limitación importante. Los routers
tienen una cantidad limitada de interfaces físicas para conectarse a diferentes VLAN. A medida que
aumenta la cantidad de VLAN en una red, el hecho de tener una interfaz física del router por VLAN
agota rápidamente la capacidad de interfaces físicas de un router. Una alternativa en redes más
grandes es utilizar subinterfaces y enlaces troncales de VLAN. Los enlaces troncales de VLAN
permiten que una única interfaz física del router enrute el tráfico de varias VLAN. Esta técnica se
denomina “router-on-a-stick” y utiliza subinterfaces virtuales en el router para superar las
limitaciones de interfaces físicas del hardware.
Las subinterfaces son interfaces virtuales basadas en software asignadas a interfaces físicas.
Cada subinterfaz se configura de forma independiente con su propia dirección IP y máscara de
subred. Esto permite que una única interfaz física forme parte de varias redes lógicas de manera
simultánea.
Al configurar el enrutamiento inter VLAN mediante el modelo router-on-a-stick, la interfaz física del
router debe estar conectada al enlace troncal en el switch adyacente. En el router, se crean
subinterfaces para cada VLAN única en la red. A cada subinterfaz se le asigna una dirección IP
específica para su subred/VLAN y también se configura para etiquetar las tramas para esa VLAN.
De esa manera, el router puede mantener separado el tráfico de cada subinterfaz a medida que
atraviesa el enlace troncal hacia el switch.
En la figura, PC1 desea comunicarse con PC3. La PC1 se encuentra en la VLAN 10, y la PC3, en
la VLAN 30. Para que la PC1 se comunique con la PC3, la PC1 necesita enrutar sus datos a través
del router R1, por medio de subinterfaces.
Haga clic en el botón Reproducir que se muestra en la figura para ver cómo se utilizan las
subinterfaces para enrutar entre las VLAN. Cuando se detenga la animación, lea el texto a la
izquierda de la topología. Haga clic en Reproducir nuevamente para seguir viendo la animación.
El uso de los enlaces troncales y las subinterfaces disminuye la cantidad de puertos de switch y de
router que se utilizan. Esto no sólo permite un ahorro de dinero sino también reduce la complejidad
de la configuración. Como consecuencia, el enfoque de la subinterfaz del router puede ampliarse
hasta un número mucho más alto de VLAN que una configuración con una interfaz física por
diseño de VLAN.
Para habilitar el routing entre VLAN utilizando el método router-on-a stick, comience por habilitar el
enlace troncal en el puerto del switch que está conectado al router.
Debido a que el puerto del switch F0/5 está configurado como puerto de enlace troncal, no necesita
asignarse a ninguna VLAN. Para configurar el puerto del switch F0/5 como un puerto de enlace
troncal, ejecute el comando switchport mode trunken el modo de configuración de la interfaz para
el puerto F0/5.
Nota: el router no admite el protocolo de enlace troncal dinámico (DTP), que es utilizado por los
switches, por lo que no pueden usarse los siguientes comandos:switchport mode dynamic
auto oswitchport mode dynamic desirable.
Ahora se puede configurar el router para que realice routing entre VLAN.
Antes de asignar una dirección IP a una subinterfaz, es necesario configurar la subinterfaz para
que funcione en una VLAN específica mediante el comandoencapsulation dot1q VLAN_id. En
este ejemplo, la subinterfaz G0/0.10 se asignó a la VLAN 10.
Nota: hay una opción de palabra clavenative que se puede agregar a este comando para
establecer la VLAN nativa IEEE 802.1Q. En este ejemplo, la opción de palabra clave native se
excluyó para dejar el valor predeterminado de VLAN nativa a la VLAN 1.
Este proceso se repite para todas las subinterfaces del router necesarias para el enrutamiento
entre las VLAN configuradas en la red. Es necesario asignar una dirección IP a cada subinterfaz
del router en una subred única para que se produzca el routing. En este ejemplo, se configuró la
otra subinterfaz del router (G0/0.30) con la dirección IP 172.17.30.1, que está en una subred
diferente que la subinterfaz G0/0.10.
Los routers Cisco están configurados de manera predeterminada para enrutar el tráfico entre
subinterfaces locales. Por lo tanto, no es necesario que esté habilitado el enrutamiento.
En la figura 1, el comando show vlans muestra información sobre las subinterfaces VLAN del IOS
de Cisco. El resultado muestra las dos subinterfaces VLAN, GigabitEthernet0/0.10 y
GigabitEthernet0/0.30.
A continuación, examine la tabla de routing con el comando show ip route(figura 2). En el ejemplo,
las rutas definidas en la tabla de routing indican que están asociadas a subinterfaces específicas,
en lugar de interfaces físicas separadas. Hay dos rutas en la tabla de routing: una ruta va a la
subred 172.17.10.0, que está conectada a la subinterfaz local G0/0.10; la otra ruta va a la subred
172.17.30.0, que está conectada a la subinterfaz local G0/0.30. El router utiliza la tabla de
enrutamiento para determinar dónde enviar el tráfico que recibe. Por ejemplo, si el router recibe un
paquete en la subinterfaz G0/0.10 destinado a la subred 172.17.30.0, identificará que debe enviar
el paquete por la subinterfaz G0/0.30 para que llegue a los hosts en la subred 172.17.30.0.
Después de configurar el router y el switch para llevar a cabo routing entre VLAN, el siguiente paso
es verificar la conectividad de host a host. El acceso a los dispositivos en las VLAN remotas puede
probarse con el comando ping.
En el ejemplo que se muestra en la ilustración, se inician los comandos ping ytracert desde la PC1
hasta la dirección de destino de la PC3.
Prueba de ping
El comando ping envía una solicitud de eco ICMP a la dirección de destino. Cuando un host recibe
una solicitud de eco del ICMP, éste responde con una respuesta de eco del ICMP para confirmar
que recibió dicha solicitud. El comando ping calcula el tiempo transcurrido, para lo cual utiliza la
diferencia de tiempo entre el momento en que se envió la solicitud de eco y el momento en que se
recibió la respuesta de eco. El tiempo transcurrido se utiliza para determinar la latencia de la
conexión. Al recibir una respuesta con éxito, confirma que existe una ruta entre el dispositivo
emisor y el dispositivo receptor.
Prueba de tracert
Tracert es una utilidad práctica usada para confirmar la ruta enrutada tomada entre dos
dispositivos. En los sistemas UNIX, la utilidad se especifica como traceroute. Tracert también
utiliza el ICMP para determinar la ruta tomada, pero utiliza las solicitudes de eco del ICMP con
valores de tiempo de vida específicos definidos en la trama.
El valor de tiempo de vida determina con exactitud la cantidad de saltos del router que el eco del
ICMP puede alcanzar. La primera solicitud de eco del ICMP se envía con un valor de tiempo de
vida configurado para expirar en el primer router en la ruta hacia el dispositivo de destino.
Cuando se excede el tiempo de espera de la solicitud de eco ICMP en la primera ruta, se reenvía
un mensaje ICMP desde el router hasta el dispositivo de origen. El dispositivo registra la respuesta
desde el router y procede a enviar otra solicitud de eco del ICMP, pero esta vez con un valor de
tiempo de vida mayor. Esto permite a la solicitud de eco del ICMP atravesar el primer router y llegar
al segundo dispositivo en la ruta hacia el destino final. El proceso se repite de manera recursiva
hasta que, finalmente, se envía la solicitud de eco ICMP hacia el dispositivo de destino final. Una
vez que la utilidad tracert termina de ejecutarse, se muestra una lista de las interfaces de entrada
del router alcanzadas por la solicitud de eco ICMP en camino al destino.
En el ejemplo, la utilidad ping pudo enviar una solicitud de eco ICMP a la dirección IP de la PC3.
Además, la utilidad tracertconfirma que el camino a la PC3 es a través de la dirección IP de la
subinterfaz 172.17.10.1 del router R1.
Hay varias configuraciones de switch incorrectas comunes que puede producirse al configurar el
routing entre varias VLAN.
Al utilizar el modelo de routing antiguo para routing entre VLAN, asegúrese de que los puertos del
switch que se conectan a las interfaces del router estén configurados en las VLAN correctas. Si un
puerto de switch no está configurado para la VLAN adecuada, los dispositivos configurados en esa
VLAN no se pueden conectar a la interfaz del router, por lo que dichos dispositivos no pueden
enviar datos a las demás VLAN.
Como se puede ver en la topología de la figura 1, la PC1 y la interfaz G0/0 del router R1 están
configuradas en la misma subred lógica, como lo indica su asignación de dirección IP. Sin
embargo, el puerto de switch F0/4 que se conecta a la interfaz G0/0 del router R1 no está
configurado y permanece en la VLAN predeterminada. Dado que el router R1 está en una VLAN
diferente que PC1, no pueden comunicarse.
Para corregir este problema, ejecute el comando switchport access vlan 10 en el modo de
configuración de interfaz para el puerto de switch F0/4 en el switch S1. Cuando el puerto del switch
se configura para la VLAN correcta, la PC1 puede comunicarse con la interfaz G0/0 del router R1,
que le permite acceder a las otras VLAN conectadas al router R1.
Para corregir este problema, emita el comando switchport mode trunk en el modo de
configuración de interfaz para el puerto del switch F0/5 en el switch S1. Esto convierte a la interfaz
en un puerto de enlace troncal, lo que permite que se establezca un enlace troncal entre el R1 y el
S1. Una vez que el enlace troncal se establece correctamente, los dispositivos conectados a cada
una de las VLAN pueden comunicarse con la subinterfaz asignada a su VLAN, lo que permite el
routing entre VLAN.
En la topología de la figura 3 se muestra que el enlace troncal entre el S1 y S2 está inactivo. Dado
que no hay una conexión o ruta redundante entre los dispositivos, ninguno de los dispositivos
conectados al S2 puede llegar al router R1. Como resultado, ninguno de los dispositivos
conectados al S2 puede realizar enrutamiento a otras VLAN a través del R1.
Para reducir el riesgo de una falla en el enlace entre switches que interrumpa el routing entre
VLAN, se deben tener en cuenta enlaces redundantes y rutas alternativas en el diseño de red.
Cuando sospeche que hay un problema con una configuración del switch, utilice los distintos
comandos de verificación para examinar la configuración e identificar el problema.
Al habilitar el routing entre VLAN en un router, uno de los errores de configuración más comunes
es conectar la interfaz física del router al puerto de switch incorrecto. Esto ubica la interfaz del
router en la VLAN incorrecta y evita que alcance otros dispositivos dentro de la misma subred.
Como se muestra en la ilustración, la interfaz G0/0 del router R1 está conectada al puerto F0/9 del
switch S1. El puerto de switch F0/9 está configurado para la VLAN predeterminada, no para la
VLAN 10. Esto evita que la PC1 pueda comunicarse con la interfaz del router. Por lo tanto, no
puede realizar enrutamiento hacia la VLAN 30.
Para corregir este problema, conecte físicamente la interfaz G0/0 del router R1 al puerto F0/4 del
switch S1. Esto ubica la interfaz del router en la VLAN correcta y permite el routing entre VLAN.
Alternativamente, cambie la asignación de VLAN del puerto de switch F0/9 a la VLAN 10. Esto
también permite que la PC1 se comunique con la interfaz G0/0 del router R1.
El uso de los comandos show interfaces y show running-configpuede ser útil para la resolución
de problemas de este tipo, tal como se muestra en la ilustración.
El comando show interfaces genera muchos resultados, lo que a veces dificulta encontrar el
problema, tal como se muestra en la figura 2. Sin embargo, en la sección superior resaltada
muestra que la subinterfaz G0/0.10 en el router R1 utiliza la VLAN 100.
Para corregir este problema, configure la subinterfaz G0/0.10 para que esté en la VLAN correcta
mediante el comandoencapsulation dot1q 10 en el modo de configuración de subinterfaz. Una
vez asignada la subinterfaz a la VLAN correcta, los dispositivos en esa VLAN pueden acceder a
ella, y el router puede realizar routing entre VLAN.
Con la correcta verificación, los problemas de configuración del router se resuelven rápidamente, lo
que permite que el routing entre VLAN funcione de forma adecuada.
Las VLAN corresponden a subredes únicas en la red. Para que el routing entre VLAN funcione, es
necesario conectar un router a todas las VLAN, ya sea por medio de interfaces físicas separadas o
subinterfaces. A cada interfaz o subinterfaz se le debe asignar una dirección IP que corresponda a
la subred a la cual está conectada. Esto permite que los dispositivos en la VLAN se comuniquen
con la interfaz del router y habilita el routing del tráfico a otras VLAN conectadas al router.
En la figura 2, la PC1 se configuró con la dirección IP incorrecta para la subred asociada con
la VLAN 10. Esto evita que la PC1 pueda comunicarse con el router R1 en la VLAN 10. Para
corregir este problema, asigne la dirección IP correcta a PC1. Según el tipo de computadora
que utilice, los detalles de configuración pueden ser diferentes.
A cada interfaz o subinterfaz se le debe asignar una dirección IP que corresponda a la subred a la
cual está conectada. Un error común es configurar incorrectamente una dirección IP para una
subinterfaz. En la figura 1, se muestra el resultado del comando show running-config. El área
resaltada muestra que la subinterfaz G0/0.10 en el router R1 tiene la dirección IP 172.17.20.1. La
VLAN para esta subinterfaz debería admitir tráfico de la VLAN 10. La dirección IP se configuró de
manera incorrecta. El comando show ip interface resulta útil en esta configuración. La segunda
área resaltada muestra la dirección IP incorrecta.
Algunas veces, el problema es que el dispositivo de usuario final, como una computadora personal,
está mal configurado. En la figura 2, se muestra la configuración IP para la PC1 que aparece en
pantalla. La dirección IP es 172.17.20.21, con la máscara de subred 255.255.255.0. Sin embargo,
en esta situación la PC1 debería estar en la VLAN 10, con la dirección 172.17.10.21 y la máscara
de subred 255.255.255.0.
Nota: si bien la configuración de las ID de subinterfaz de manera que coincidan con el número de
VLAN facilita la administración de la configuración entre VLAN, no es un requisito. Al trabajar en la
resolución de problemas de direccionamiento, asegúrese de que la subinterfaz esté configurada
con la dirección correcta para esa VLAN.
Todos los switches multicapa Catalyst admiten los siguientes tipos de interfaces de capa 3:
Puerto enrutado: una interfaz puramente de capa 3 similar a la interfaz física de un router IOS de
Cisco.
Interfaz virtual del switch (SVI): una interfaz VLAN virtual para routing entre VLAN. En otras
palabras, las SVI son las interfaces VLAN enrutadas de manera virtual.
Los switches de alto rendimiento, como el Catalyst 6500 y el Catalyst 4500, realizan casi todas las
funciones que incluyen a las capas 3 y superiores del modelo OSI con switching basado en
hardware y en Cisco Express Forwarding.
Todos los switches Cisco Catalyst de capa 3 admiten protocolos de routing, pero varios modelos de
switches Catalyst requieren un software mejorado para admitir características específicas de
protocolos de routing. Los switches de la serie Catalyst 2960 que ejecutan IOS versión 12.2(55) o
posterior admiten routing estático.
Los switches Catalyst utilizan diversas configuraciones predeterminadas para las interfaces. Todos
los miembros de las familias de switches Catalyst 3560 y 4500 utilizan interfaces de capa 2 de
manera predeterminada, mientras que los miembros de la familia de switches Catalyst 6500 que
ejecutan el IOS de Cisco utilizan interfaces de capa 3 de forma predeterminada. Las
configuraciones de interfaz predeterminadas no aparecen en la configuración de inicio o en
ejecución. Según la familia de switches Catalyst que se utilice, es posible que los
comandos switchport o no switchport del modo de configuración de interfaz estén presentes en
los archivos de configuración en ejecución o de configuración de inicio.
En los comienzos de las redes conmutadas, el switching era rápido (a menudo, tenía la velocidad
del hardware, es decir que la velocidad era equivalente al tiempo físico que tomaba recibir las
tramas y reenviarlas a otros puertos) y el routing era lento (debía procesarse mediante software).
Esto hizo que los diseñadores de redes ampliaran la porción conmutada de la red al máximo
posible. El acceso, la distribución y las capas de núcleo solían configurarse para comunicarse en la
capa 2, pero esta topología generaba problemas de bucles. Para resolver estos problemas, se
utilizaron tecnologías de árbol de expansión a fin de prevenir los bucles sin necesidad de renunciar
a la flexibilidad y la redundancia de las conexiones entre switches.
Sin embargo, a medida que las tecnologías de redes evolucionaron, el routing se volvió más rápido
y económico. Hoy en día, el routing se puede llevar a cabo a la velocidad del hardware. Una
consecuencia de esta evolución es que el routing se puede transferir a las capas de núcleo y de
distribución sin afectar el rendimiento de la red.
Muchos usuarios están en VLAN separadas, y cada VLAN suele ser una subred distinta. Por lo
tanto, resulta lógico configurar los switches de distribución como gateways de capa 3 para los
usuarios de la VLAN de cada switch de acceso. Esto significa que cada switch de distribución debe
tener direcciones IP que coincidan con la VLAN de cada switch de acceso.
Los puertos de capa 3 (enrutados) se suelen implementar entre la capa de distribución y la capa de
núcleo.
La arquitectura de red representada no depende del árbol de expansión, porque no existen bucles
físicos en la porción de capa 2 de la topología.
Una SVI es una interfaz virtual configurada en un switch multicapa, como se muestra en la
ilustración. Se puede crear una SVI para cualquier VLAN que exista en el switch. Una SVI se
considera virtual porque no hay un puerto físico dedicado a la interfaz. Puede realizar las mismas
funciones para la VLAN que una interfaz del router y puede configurarse de manera similar a una
interfaz tal (es decir, dirección IP, ACL de entrada y de salida, etcétera). La SVI para la VLAN
proporciona procesamiento de capa 3 para los paquetes que provienen de todos los puertos de
switch asociados a dicha VLAN o que se dirigen a ella.
De manera predeterminada, se crea una SVI para la VLAN predeterminada (VLAN 10) a fin de
permitir la administración remota del switch. Las SVI adicionales deben crearse de forma explícita.
Las SVI se crean la primera vez que se ingresa al modo de configuración de interfaz de VLAN para
una SVI de VLAN en particular, por ejemplo, cuando se introduce el comandointerface vlan 10. El
número de VLAN utilizado se corresponde con la etiqueta VLAN asociada con las tramas de datos
en un enlace troncal encapsulado 802.1Q o bien con la ID de VLAN (VID) configurada para un
puerto de acceso. Al crear una SVI como gateway para la VLAN 10, nombre “VLAN 10” a la interfaz
SVI. Configure y asigne una dirección IP a cada SVI de VLAN.
Al crear una SVI, asegúrese de que esa VLAN en particular esté presente en la base de datos de
VLAN. En la ilustración, el switch debe tener presentes las VLAN 10 y VLAN 20 en la base de
datos de VLAN, de lo contrario, la interfaz SVI permanece desactivada.
Para proporcionar un gateway a una VLAN a fin de poder enrutar el tráfico dentro o fuera de
esa VLAN.
A continuación, se detallan algunas de las ventajas de las SVI (la única desventaja es que los
switches multicapa son más costosos):
Es mucho más veloz que router-on-a-stick, porque todo el switching y el routing se realizan
por hardware.
No se limita a un solo enlace. Se pueden utilizar EtherChannels de capa 2 entre los switches
para obtener más ancho de banda.
La latencia es mucho menor, porque no hace falta que salga del switch.
Un puerto enrutado es un puerto físico que funciona de manera similar a una interfaz en un router.
A diferencia de los puertos de acceso, los puertos enrutados no se asocian a una VLAN
determinada. Los puertos enrutados se comportan como una interfaz del router normal. Además,
debido a la eliminación de la funcionalidad de capa 2, los protocolos de capa 2 (tales como STP),
no funcionan en interfaces enrutadas. Sin embargo, algunos protocolos, como LACP y
EtherChannel, funcionan en la capa 3.
A diferencia de los routers IOS de Cisco, los puertos enrutados en un switch IOS de Cisco no
admiten subinterfaces.
Los puertos enrutados se utilizan para enlaces punto a punto. Las conexiones de routers WAN y
dispositivos de seguridad son ejemplos del uso de puertos enrutados. En una red conmutada, los
puertos enrutados se suelen configurar entre los switches de las capas de núcleo y de distribución.
En la ilustración, se muestra un ejemplo de puertos enrutados en una red conmutada de campus.
Para configurar los puertos enrutados, utilice el comando no switchport del modo de configuración
de interfaz en los puertos adecuados. Por ejemplo, la configuración predeterminada de las
interfaces en los switches Catalyst 3560 es de interfaces de capa 2, por lo que se deben configurar
de forma manual como puertos enrutados. Además, asigne una dirección IP y otros parámetros de
capa 3, según sea necesario. Después de asignar la dirección IP, verifique que el routing IP esté
habilitado de manera global y que los protocolos de routing aplicables estén configurados.
Los switches multicapa puede tener tanto una SVI como puertos enrutados en un mismo
switch.
Los switches multicapa reenvían el tráfico de capa 2 o capa 3 mediante hardware, lo que
contribuye a un routing más veloz.
Un switch Catalyst 2960 puede funcionar como un dispositivo de capa 3 y realizar enrutamiento
entre VLAN y una cantidad limitada de rutas estáticas.
Switch Database Manager (SDM) de Cisco proporciona varias plantillas para el switch 2960. Las
plantillas pueden habilitarse para admitir funciones específicas según el modo en que se utilice el
switch en la red. Por ejemplo, la plantilla lanbase-routing de SDM se puede habilitar para permitir
que el switch realice enrutamiento entre VLAN y admita el routing estático.
La plantilla SDM se puede cambiar en el modo de configuración global con el comando sdm
prefer.
Nota: en las figuras 2, 4, 6 y 7, el comando do se utiliza para ejecutar comandos de los modos
EXEC del usuario o EXEC privilegiado desde otros modos de configuración del router.
En la figura 2, las opciones de plantillas SDM se muestran con el comando sdm prefer? La
plantilla SDM cambia a lanbase-routing. El switch se debe volver a cargar para que la nueva
plantilla tenga efecto.
En la figura 3, la plantilla lanbase-routing está activa en el S1. Con esa plantilla, se admite el
routing estático para un máximo de 750 rutas estáticas.
En la figura 4, la interfaz F0/6 en el S1 está asignada a la VLAN 2. Las SVI para las VLAN 1 y 2
también se configuraron con las direcciones IP 192.168.1.1/24 y 192.168.2.1/24, respectivamente.
El routing IP se habilita con el comando ip routing del modo de configuración global.
Nota: el comando ip routing se habilita de manera automática en los routers Cisco. Sin embargo,
el comando correspondiente para IPv6, ipv6 unicast-routing, está deshabilitado de manera
predeterminada en los routers y los switches Cisco.
En la figura 5, el router R1 tiene dos redes IPv4 configuradas: la interfaz G0/1 tiene la dirección IP
192.168.1.10/24, y la interfaz loopback Lo0 tiene la dirección IP 209.165.200.225/27. Se muestra el
resultado del comando show ip route.
En la figura 7, se muestra una ruta estática a la red remota 192.168.2.0/24 (VLAN 2) configurada
en el R1. Se muestra el resultado del comando show ip route.
Los problemas comunes al routing entre VLAN antiguo y con router-on-a-stick también se
manifiestan en el contexto de switching de capa 3. Para resolver problemas de switching de
capa 3, se debe revisar la corrección de los siguientes elementos:
VLAN: las VLAN deben estar definidas en todos los switches. Las VLAN deben estar
habilitadas en los puertos de enlace troncal. Los puertos deben estar en las VLAN correctas.
SVI: la SVI debe tener la dirección IP o la máscara de subred correcta. La SVI debe estar
activada. La SVI debe coincidir con el número de VLAN.
Routing: el routing debe estar habilitado. Cada interfaz o red debe estar agregada al
protocolo de routing.
Hosts: los hosts deben tener la dirección IP o la máscara de subred correcta. Los hosts
deben contar con un gateway predeterminado asociado con una SVI o un puerto enrutado.
5.6 Resumen
El routing entre VLAN antiguo dependía de que un puerto de router físico estuviera disponible para
cada VLAN configurada. Esto fue reemplazado por la topología de router-on-a-stick, que depende
de un router externo con subinterfaces de enlace troncal a un switch de capa 2. Con la opción de
router-on-a-stick, se deben configurar en cada subinterfaz lógica el direccionamiento IP y la
información de VLAN adecuados, y se debe configurar una encapsulación de enlace troncal que
coincida con la interfaz troncal del switch.
También existe la opción de multicapa entre VLAN mediante switching de capa 3. El switching de
capa 3 incluye SVI y puertos enrutados. El switching de capa 3 se suele configurar en las capas de
distribución y de núcleo del modelo de diseño jerárquico. El switching de capa 3 con SVI es una
forma de routing entre VLAN. Un puerto enrutado es un puerto físico que funciona de manera
similar a una interfaz en un router. A diferencia de los puertos de acceso, los puertos enrutados no
se asocian a una VLAN determinada.
Los switches Catalyst 2960 se pueden utilizar para routing multicapa entre VLAN. Estos switches
admiten routing estático, pero no son compatibles con protocolos de routing dinámico. Para
habilitar el routing IP en los switches 2960, son necesarias plantillas SDM.
La resolución de problemas de routing entre VLAN con un router o con un switch de capa 3 es
similar. Los errores comunes suelen estar relacionados con las configuraciones de VLAN, enlace
troncal, la interfaz de capa 3 y las direcciones IP.
6 Enrutamiento estático
6.1 Introducción
El enrutamiento es fundamental para cualquier red de datos, ya que transfiere información a través
de una internetwork de origen a destino. Los routers son dispositivos que se encargan de transferir
paquetes de una red a la siguiente.
Los routers descubren redes remotas de manera dinámica, mediante protocolos de routing, de
manera manual, o por medio de rutas estáticas. En muchos casos, los routers utilizan una
combinación de protocolos de routing dinámico y rutas estáticas. Este capítulo trata sobre el
enrutamiento estático.
Las rutas estáticas son muy comunes y no requieren la misma cantidad de procesamiento y
sobrecarga que los protocolos de routing dinámico.
En este capítulo, se utilizarán topologías de ejemplo para configurar las rutas estáticas IPv4 e IPv6
y para presentar técnicas de resolución de problemas. A lo largo del proceso, se analizarán varios
comandos importantes de IOS y los resultados que generan. Se incluirá una introducción a la tabla
de routing con redes conectadas directamente y rutas estáticas.
En este capítulo, también se compara el routing con clase con los métodos de routing sin clase
ampliamente implementados. Abarcará el routing entre dominios sin clase (CIDR) y los métodos de
máscara de subred de longitud variable (VLSM). El CIDR y los VLSM ayudaron a conservar el
espacio de direcciones IPv4 mediante el uso de la división en subredes y técnicas de
sumarización.
Manualmente: las redes remotas se introducen de forma manual en la tabla de rutas por
medio de rutas estáticas.
Un administrador de red puede configurar una ruta estática de forma manual para alcanzar una red
específica. A diferencia de un protocolo de routing dinámico, las rutas estáticas no se actualizan
automáticamente, y se deben volver a configurar de forma manual cada vez que cambia la
topología de la red. Una ruta estática no cambia hasta que el administrador la vuelve a configurar
en forma manual.
El routing estático proporciona algunas ventajas en comparación con el routing dinámico, por
ejemplo:
Las rutas estáticas consumen menos ancho de banda que los protocolos de routing dinámico.
No se utiliza ningún ciclo de CPU para calcular y comunicar las rutas.
La ruta que usa una ruta estática para enviar datos es conocida.
No se adapta bien a las redes en crecimiento; el mantenimiento se torna cada vez más
complicado.
En la ilustración, se comparan las características del routing dinámico y el routing estático. Observe
que las ventajas de un método son las desventajas del otro.
Las rutas estáticas son útiles para redes más pequeñas con solo una ruta hacia una red externa.
También proporcionan seguridad en una red más grande para ciertos tipos de tráfico o enlaces a
otras redes que necesitan más control. Es importante comprender que el routing estático y el
routing dinámico no son mutuamente excluyentes. En cambio, la mayoría de las redes utilizan una
combinación de protocolos de routing dinámico y rutas estáticas. Esto puede ocasionar que el
router tenga varias rutas a una red de destino a través de rutas estáticas y rutas descubiertas
dinámicamente. Sin embargo, la distancia administrativa (AD) a una ruta estática es 1. Por lo tanto,
una ruta estática tendrá prioridad sobre todas las rutas descubiertas dinámicamente.
Proporciona routing hacia las redes de rutas internas y desde estas. Una red de rutas internas
es aquella a la cual se accede a través un de una única ruta y cuyo router tiene solo un
vecino.
Utiliza una única ruta predeterminada para representar una ruta hacia cualquier red que no
tenga una coincidencia más específica con otra ruta en la tabla de routing. Las rutas
predeterminadas se utilizan para enviar tráfico a cualquier destino que esté más allá del
próximo router ascendente.
En este ejemplo, se puede configurar una ruta estática en el R2 para alcanzar la LAN del R1.
Además, como el R1 tiene solo una forma de enviar tráfico no local, se puede configurar una ruta
estática predeterminada en el R1 para señalar al R2 como el siguiente salto para todas las otras
redes.
Como se muestra en la ilustración, las rutas estáticas suelen usarse con más frecuencia para
conectarse a una red específica o para proporcionar un gateway de último recurso para una red de
rutas internas. También pueden utilizarse para lo siguiente:
Reducir el número de rutas anunciadas mediante el resumen de varias redes contiguas como
una sola ruta estática.
Crear una ruta de respaldo en caso de que falle un enlace de la ruta principal.
IPv4 e IPv6 admiten la configuración de rutas estáticas. Las rutas estáticas son útiles para
conectarse a una red remota específica.
En la ilustración, se muestra que el R2 se puede configurar con una ruta estática para alcanzar la
red de rutas internas 172.16.3.0/24.
Nota: en el ejemplo, se resalta una red de rutas internas, pero, de hecho, una ruta estática se
puede utilizar para conectarse a cualquier red.
Una ruta estática predeterminada es aquella que coincide con todos los paquetes. Una ruta
predeterminada identifica la dirección IP del gateway al cual el router envía todos los paquetes IP
para los que no tiene una ruta descubierta o estática. Una ruta estática predeterminada es
simplemente una ruta estática con 0.0.0.0/0 como dirección IPv4 de destino. Al configurar una ruta
estática predeterminada, se crea un gateway de último recurso.
Nota: todas las rutas que identifican un destino específico con una máscara de subred más grande
tienen prioridad sobre la ruta predeterminada.
Cuando ninguna otra ruta de la tabla de routing coincide con la dirección IP destino del
paquete. En otras palabras, cuando no existe una coincidencia más específica. Se utilizan
comúnmente cuando se conecta un router periférico de una compañía a la red ISP.
Cuando un router tiene otro router único al que está conectado. Esta condición se conoce
como router de conexión única.
Consulte la ilustración para ver una situación de ejemplo de implementación de routing estático
predeterminado.
Para reducir el número de entradas en la tabla de routing, se pueden resumir varias rutas estáticas
en una única ruta estática si se presentan las siguientes condiciones:
Las redes de destino son contiguas y se pueden resumir en una única dirección de red.
Todas las rutas estáticas utilizan la misma interfaz de salida o la dirección IP del siguiente
salto.
En la ilustración, el R1 requiere cuatro rutas estáticas separadas para alcanzar las redes
172.20.0.0/16 a 172.23.0.0/16. En cambio, una ruta estática resumida puede configurarse y aún
proporcionar conectividad a esas redes.
Otro tipo de ruta estática es una ruta estática flotante. Las rutas estáticas flotantes son rutas
estáticas que se utilizan para proporcionar una ruta de respaldo a una ruta estática o dinámica
principal, en el caso de una falla del enlace. La ruta estática flotante se utiliza únicamente cuando
la ruta principal no está disponible.
Para lograrlo, la ruta estática flotante se configura con una distancia administrativa mayor que la
ruta principal. Recuerde que la distancia administrativa representa la confiabilidad de una ruta. Si
existen varias rutas al destino, el router elegirá la que tenga una menor distancia administrativa.
Por ejemplo, suponga que un administrador desea crear una ruta estática flotante como respaldo
de una ruta descubierta por EIGRP. La ruta estática flotante se debe configurar con una distancia
administrativa mayor que el EIGRP. El EIGRP tiene una distancia administrativa de 90. Si la ruta
estática flotante se configura con una distancia administrativa de 95, se prefiere la ruta dinámica
descubierta por el EIGRP a la ruta estática flotante. Si se pierde la ruta descubierta por el EIGRP,
en su lugar se utiliza la ruta estática flotante.
Las rutas estáticas se configuran con el comando ip route de configuración global. La sintaxis del
comando es la siguiente:
dirección-ip : dirección IP del router de conexión que se va a utilizar para reenviar el paquete
a la red de destino remota. Se la suele denominar “siguiente salto”.
El parámetro distancia se utiliza para crear una ruta estática flotante al establecer una distancia
administrativa mayor que la de una ruta descubierta de forma dinámica.
Nota: los parámetros restantes no son relevantes en este capítulo o para estudios de CCNA.
En este ejemplo, las figuras 1 a 3 muestran las tablas de routing de los routers R1, R2 y R3.
Observe que cada router tiene entradas solo para redes conectadas directamente y sus
direcciones locales asociadas. Ninguno de los routers tiene conocimiento de las redes que están
fuera de las interfaces conectadas directamente.
172.16.1.0/24: LAN en el R2
192.168.2.0/24: LAN en el R3
El siguiente salto se puede identificar mediante una dirección IP, una interfaz de salida, o ambas.
El modo en que se especifica el destino genera uno de los siguientes tres tipos de ruta:
Ruta del siguiente salto: solo se especifica la dirección IP del siguiente salto.
Ruta estática conectada directamente: solo se especifica la interfaz de salida del router.
En una ruta estática de siguiente salto, solo se especifica la dirección IP del siguiente salto. La
interfaz de salida se deriva del siguiente salto. Por ejemplo, en la figura 1, se configuran tres rutas
estáticas de siguiente salto en el R1 con la dirección IP del siguiente salto, el R2.
1. Busca una coincidencia en la tabla de routing y encuentra que debe reenviar paquetes a la
dirección IPv4 172.16.2.2 del siguiente salto, tal como lo indica la etiqueta 1 en la ilustración. Todas
las rutas que hacen referencia solo a la dirección IPv4 del siguiente salto y que no hacen referencia
a una interfaz de salida deben resolver la dirección IPv4 del siguiente salto con otra ruta de la tabla
de routing que tenga una interfaz de salida.
2. En esta instancia, el R1 debe determinar cómo alcanzar la dirección 172.16.2.2. Por lo tanto,
busca por segunda vez si existe una coincidencia para 172.16.2.2. En este caso, la dirección IPv4
hace coincidir la ruta de la red conectada directamente 172.16.2.0/24 con la interfaz de salida
Serial 0/0/0, tal como lo indica la etiqueta 2 en la ilustración. Esta búsqueda le comunica al proceso
de la tabla de routing que este paquete se reenvía fuera de esa interfaz.
En realidad, se requieren dos procesos de búsqueda en la tabla de routing para reenviar cualquier
paquete a la red 192.168.2.0/24. Cuando el router realiza varias búsquedas en la tabla de routing
antes de reenviar un paquete, lleva a cabo un proceso que se conoce como “búsqueda recursiva”.
Debido a que las búsquedas recursivas consumen recursos del router, deben evitarse siempre que
sea posible.
Una ruta estática recursiva es válida (es decir, es candidata para agregarse a la tabla de routing)
solo cuando el siguiente salto especificado resuelve a una interfaz de salida válida, ya sea de
forma directa o indirecta.
Nota: CEF proporciona búsquedas optimizadas para el reenvío de paquetes eficaz mediante dos
estructuras de datos principales almacenadas en el plano de datos: una base de información de
reenvío (FIB), que es una copia de la tabla de routing y la tabla de adyacencia que incluye
información de direccionamiento de la capa 2. La información combinada en estas dos tablas
trabaja en conjunto de manera que no sea necesario realizar una búsqueda recursiva para
encontrar direcciones IP del siguiente salto. Es decir, una ruta estática que utiliza una IP del
siguiente salto solo requiere una única búsqueda cuando CEF está habilitado en el router.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar y verificar las rutas estáticas del
siguiente salto en el R2 y el R3.
Al configurar una ruta estática, otra opción es utilizar la interfaz de salida para especificar la
dirección del siguiente salto. En versiones anteriores de IOS, antes de CEF, este método se utiliza
para evitar el problema de búsquedas recursivas.
Observe que la tabla de routing se ve diferente para la ruta configurada con una interfaz de salida
que para la ruta configurada con una entrada recursiva.
La configuración de una ruta estática conectada directamente con una interfaz de salida permite
que la tabla de routing resuelva esta interfaz en una única búsqueda, no en dos. Aunque la entrada
de la tabla de routing indica “conectado directamente”, la distancia administrativa de la ruta estática
sigue siendo 1. Solo una interfaz conectada directamente puede tener una distancia administrativa
de 0.
Nota: para las interfaces punto a punto, puede utilizar rutas estáticas que señalan a la interfaz de
salida o a la dirección del siguiente salto. Para interfaces multipunto o de difusión, es más
conveniente utilizar rutas estáticas que señalen a una dirección del siguiente salto.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar y verificar las rutas estáticas
conectadas directamente en el R2 y el R3.
Aunque son comunes las rutas estáticas que utilizan solo una interfaz de salida en redes punto a
punto, el uso del mecanismo de reenvío CEF predeterminado hace que esta práctica sea
innecesaria.
Una ruta estática completamente especificada tiene determinadas tanto la interfaz de salida como
la dirección IP del siguiente salto. Este es otro tipo de ruta estática que se utiliza en versiones más
antiguas de IOS, antes de CEF. Esta forma de ruta estática se utiliza cuando la interfaz de salida
es una interfaz de accesos múltiples y se debe identificar explícitamente el siguiente salto. El
siguiente salto debe estar conectado directamente a la interfaz de salida especificada.
Sin embargo, esto puede causar resultados incongruentes o inesperados. La diferencia entre una
red Ethernet de accesos múltiples y una red serial punto a punto es que esta última solo tiene un
dispositivo más en esa red, el router que se encuentra en el otro extremo del enlace. Con las redes
Ethernet, es posible que existan muchos dispositivos diferentes que comparten la misma red de
accesos múltiples, incluyendo hosts y hasta routers múltiples. La designación de la interfaz de
salida Ethernet en la ruta estática por sí sola no provee al router información suficiente para
determinar qué dispositivo es el dispositivo del siguiente salto.
El R1 sabe que el paquete se debe encapsular en una trama de Ethernet y que se debe enviar
desde la interfaz GigabitEthernet 0/1. Sin embargo, el R1 no conoce la dirección IPv4 del siguiente
salto; por lo tanto, no puede determinar la dirección MAC de destino para la trama de Ethernet.
Según la topología y las configuraciones de otros routers, esta ruta estática puede funcionar o no.
Cuando la interfaz de salida sea una red Ethernet, se recomienda utilizar una ruta estática
completamente especificada que incluya la interfaz de salida y la dirección del siguiente salto.
Nota: si se utiliza CEF, ya no se necesita una ruta estática completamente especificada. Debe
utilizarse una ruta estática con una dirección del siguiente salto.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar y verificar las rutas estáticas
completamente especificadas en el R2 y el R3.
Además de los comandos ping ytraceroute, otros comandos útiles para verificar las rutas estáticas
son los siguientes:
show ip route
En la figura 1, se muestra un ejemplo del resultado que genera el comando show ip route static.
En el ejemplo, el resultado se filtra con la barra vertical y el parámetro begin. El resultado refleja el
uso de rutas estáticas con la dirección del siguiente salto.
En la figura 2, se muestra un ejemplo del resultado del comando show ip route 192.168.2.1.
Utilice el verificador de sintaxis de la figura 4 para verificar la configuración del routing del R2.
Utilice el verificador de sintaxis de la figura 5 para verificar la configuración del routing del R3.
Una ruta predeterminada es una ruta estática que coincide con todos los paquetes. En lugar de
almacenar todas las rutas para todas las redes en la tabla de routing, un router puede almacenar
una única ruta predeterminada que represente cualquier red que no esté en la tabla de routing.
Los routers suelen utilizar rutas predeterminadas configuradas de forma local, o bien, descubiertas
por otro router, mediante un protocolo de routing dinámico. Una ruta predeterminada se utiliza
cuando ninguna otra ruta de la tabla de routing coincide con la dirección IP de destino del paquete.
Es decir, si no existe una coincidencia más específica, entonces se utiliza la ruta predeterminada
como el gateway de último recurso.
Como se muestra en la ilustración, la sintaxis del comando para una ruta estática predeterminada
es similar a la sintaxis del comando de cualquier otra ruta estática, con la excepción de que la
dirección de red es 0.0.0.0 y la máscara de subred es0.0.0.0. La sintaxis del comando básico de
una ruta estática predeterminada es la siguiente:
Nota: una ruta estática predeterminada IPv4 suele llamarse “ruta de cuádruple cero”.
El R1 puede configurarse con tres rutas estáticas para alcanzar todas las redes remotas en la
topología de ejemplo. Sin embargo, el R1 es un router de rutas internas, ya que está conectado
únicamente al R2. Por lo tanto, sería más eficaz configurar una ruta estática predeterminada.
La clave para esta configuración es la máscara /0. Recuerde que la máscara de subred en una
tabla de routing determina cuántos bits deben coincidir entre la dirección IP de destino del paquete
y la ruta en la tabla de routing. Un 1 binario indica que los bits deben coincidir. Un 0 binario indica
que los bits no tienen que coincidir. Una máscara /0 en esta entrada de ruta indica que no se
requiere que ninguno de los bits coincida. La ruta estática predeterminada coincide con todos los
paquetes para los cuales no existe una coincidencia más específica.
Las rutas estáticas para IPv6 se configuran con el comando ipv6 route de configuración global. En
la figura 1, se muestra la versión simplificada de la sintaxis del comando:
La mayoría de los parámetros son idénticos a la versión IPv4 del comando. Las rutas estáticas
IPv6 también se pueden implementar como:
Al igual que con IPv4, estas rutas pueden configurarse como recursivas, conectadas directamente
o completamente especificadas.
El comando de configuración global ipv6 unicast-routing debe configurarse para que habilite al
router para que reenvíe paquetes IPv6. En la figura 2, se muestra la habilitación del routing de
unidifusión IPv6.
Utilice el verificador de sintaxis en las figuras 3 y 4 para habilitar el routing de unidifusión IPv6 en
los routers R2 y R3.
En este ejemplo, las figuras 1 a 3 muestran las tablas de routing de los routers R1, R2 y R3. Cada
router tiene entradas solo para redes conectadas directamente y sus direcciones locales
asociadas. Ninguno de los routers tiene conocimiento de las redes que están fuera de las
interfaces conectadas directamente.
2001:DB8:ACAD:2::/64: LAN en el R2
2001:DB8:ACAD:3::/64: LAN en el R3
El siguiente salto se puede identificar mediante una dirección IPv6, una interfaz de salida, o ambas.
El modo en que se especifica el destino genera uno de los siguientes tres tipos de ruta:
Ruta estática IPv6 de siguiente salto: solo se especifica la dirección IPv6 del siguiente
salto.
Ruta estática IPv6 conectada directamente: solo se especifica la interfaz de salida del
router.
En una ruta estática de siguiente salto, solo se especifica la dirección IPv6 del siguiente salto. La
interfaz de salida se deriva del siguiente salto. Por ejemplo, en la figura 1, se configuran tres rutas
estáticas de siguiente salto en el R1.
Al igual que con IPv4, antes de que un router reenvíe un paquete, el proceso de la tabla de routing
debe resolver la ruta para determinar qué interfaz de salida se utilizará para reenviar el paquete. El
proceso de resolución de la ruta varía en función del tipo de mecanismo de reenvío que utiliza el
router. CEF (Cisco Express Forwarding) es el comportamiento predeterminado en la mayoría de las
plataformas que ejecutan el IOS 12.0 o posterior.
1. Busca una coincidencia en la tabla de routing y encuentra que debe reenviar paquetes a la
dirección IPv6 2001:DB8:ACAD:4::2 del siguiente salto. Todas las rutas que hacen referencia solo
a la dirección IPv6 del siguiente salto y que no hacen referencia a una interfaz de salida deben
resolver la dirección IPv6 del siguiente salto con otra ruta de la tabla de routing que tenga una
interfaz de salida.
Por lo tanto, en realidad, se requieren dos procesos de búsqueda en la tabla de routing para
reenviar cualquier paquete a la red 2001:DB8:ACAD:3::/64. Cuando el router tiene que realizar
múltiples búsquedas en la tabla de enrutamiento antes de reenviar un paquete, éste realiza un
proceso que se conoce como búsqueda recurrente.
Una ruta estática IPv6 recursiva es válida (es decir, es candidata para agregarse a la tabla de
routing) solo cuando el siguiente salto especificado resuelve a una interfaz de salida válida, ya sea
de forma directa o indirecta.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar las rutas estáticas IPv6 de
siguiente salto.
Al configurar una ruta estática en redes punto a punto, una alternativa al uso de la dirección IPv6
de siguiente salto es especificar la interfaz de salida. Esto es una alternativa utilizada en IOS más
antiguos o cada vez que se deshabilita CEF, para evitar el problema de búsquedas recursivas.
La tabla de routing IPv6 para el R1 en la figura 2 muestra que cuando un paquete está destinado a
la red 2001:DB8:ACAD:3::/64, el R1 busca una coincidencia en la tabla de routing y encuentra que
puede reenviar el paquete desde su interfaz serial 0/0/0. No se necesita ninguna otra búsqueda.
Observe que la tabla de routing se ve diferente para la ruta configurada con una interfaz de salida
que para la ruta configurada con una entrada recursiva.
La configuración de una ruta estática conectada directamente con una interfaz de salida permite
que la tabla de routing resuelva esta interfaz en una única búsqueda, no en dos. Recuerde que con
el uso del mecanismo de reenvío CEF, las rutas estáticas con una interfaz de salida se consideran
innecesarias. Se realiza una única búsqueda utilizando una combinación de la FIB y la tabla de
adyacencia almacenadas en el plano de datos.
Utilice el verificador de sintaxis en las figuras 3 y 4 para configurar las rutas estáticas IPv6
conectadas directamente.
Una ruta estática completamente especificada tiene determinadas tanto la interfaz de salida como
la dirección IPv6 del siguiente salto. De modo similar a las rutas estáticas completamente
especificadas que se utilizan con IPv4, esto se usaría si CEF no estuviera habilitado en el router y
la interfaz de salida estuviera en una red multiacceso. Con CEF, una ruta estática que solo utiliza
una dirección IPv6 del siguiente salto sería el método preferido incluso cuando la interfaz de salida
sea una red multiacceso.
A diferencia de IPv4, hay una situación en IPv6 que se da cuando se debe utilizar una ruta estática
completamente especificada. Si la ruta estática IPv6 usa una dirección IPv6 link-local como la
dirección del siguiente salto, debe utilizarse una ruta estática completamente especificada que
incluya la interfaz de salida. En la figura 1, se muestra un ejemplo de una ruta estática IPv6
completamente calificada que utiliza una dirección IPv6 link-local como la dirección del siguiente
salto.
La razón por la cual se debe utilizar una ruta estática completamente especificada es que las
direcciones IPv6 link-local no están incluidas en la tabla de routing IPv6. Las direcciones link-local
solo son exclusivas en una red o un enlace dados. La dirección link-local del siguiente salto puede
ser una dirección válida en varias redes conectadas al router. Por lo tanto, es necesario que la
interfaz de salida se incluya.
En la figura 1, se configura una ruta estática completamente especificada con la dirección link-local
del R2 como dirección del siguiente salto. Observe que el IOS requiere que se especifique una
interfaz de salida.
En la figura 2, se muestra la entrada de la tabla de routing IPv6 para esta ruta. Observe que la
dirección link-local del siguiente salto y la interfaz de salida están incluidas.
Utilice el verificador de sintaxis en la figura 3 para configurar las rutas estáticas IPv6
completamente especificadas en el R2, a fin de que alcancen la LAN del R1 mediante una
dirección link-local.
Además de los comandos ping y traceroute, otros comandos útiles para verificar las rutas
estáticas son los siguientes:
En la figura 1, se muestra un ejemplo del resultado que genera el comando show ipv6 route
static. El resultado refleja el uso de rutas estáticas con las direcciones de unidifusión global del
siguiente salto.
En la figura 2, se muestra un ejemplo del resultado que genera el comando show ip route
2001:DB8:ACAD:3::.
Una ruta predeterminada es una ruta estática que coincide con todos los paquetes. En lugar de
almacenar rutas para todas las redes en Internet, los routers pueden almacenar una única ruta
predeterminada que represente cualquier red que no esté en la tabla de routing.
Los routers suelen utilizar rutas predeterminadas configuradas de forma local, o bien, descubiertas
por otro router, mediante un protocolo de routing dinámico. Se utilizan cuando ninguna otra ruta
coincide con la dirección IP de destino del paquete en la tabla de routing. Es decir, si no existe una
coincidencia más específica, entonces se utiliza la ruta predeterminada como el gateway de último
recurso.
Un router con solo un router vecino ascendente. El router no tiene otros vecinos y, por lo
tanto, se denomina “router de rutas internas”.
Como se muestra en la ilustración, la sintaxis del comando para una ruta estática predeterminada
es similar a la sintaxis del comando de cualquier otra ruta estática, excepto que prefijo-
ipv6/longitud-prefijo es::/0, y coincide con todas las rutas.
El R1 puede configurarse con tres rutas estáticas para alcanzar todas las redes remotas en la
topología. Sin embargo, el R1 es un router de rutas internas, ya que está conectado únicamente al
R2. Por lo tanto, sería más eficaz configurar una ruta estática predeterminada IPv6.
El ejemplo en la ilustración muestra una configuración de una ruta estática predeterminada IPv6 en
el R1.
En la figura 1, el resultado del comandoshow ipv6 route static muestra el contenido de la tabla de
routing.
A diferencia de IPv4, IPv6 no establece en forma explícita que la ruta estática predeterminada IPv6
es el gateway de último recurso.
La clave para esta configuración es la máscara ::/0. Recuerde que la longitud-de-prefijo de ipv6 en
una tabla de routing determina cuántos bits deben coincidir entre la dirección IP de destino del
paquete y la ruta en la tabla de routing. La máscara::/0 indica que no se requiere que ninguno de
los bits coincida. Mientras no exista una coincidencia más específica, la ruta estática
predeterminada IPv6 coincide con todos los paquetes.
Lanzadas en 1981, RFC 790 y RFC 791 describen cómo se asignaron inicialmente las direcciones
de red IPv4 según un sistema de clasificación. En la especificación original de IPv4, los autores
establecieron las clases para proporcionar tres tamaños distintos de redes para organizaciones
grandes, medianas y pequeñas. Por consiguiente, se definieron las direcciones de clase A, B y C
con un formato específico para los bits de orden superior. Los bits de orden superior son los bits
del extremo izquierdo en una dirección de 32 bits.
Direcciones de clase B que comienzan con 10: diseñadas para organizaciones medianas a
grandes. Esta clase incluye todas las direcciones de 128.0.0.0 (10000000) a 191.255.255.255
(10111111).
Direcciones de clase C que comienzan con 110: diseñadas para organizaciones pequeñas
a medianas. Esta clase incluye todas las direcciones de 192.0.0.0 (11000000) a
223.255.255.255 (11011111).
Enlaces:
Como se especifica en RFC 790, cada clase de red tiene asociada una máscara de subred
predeterminada.
Como se muestra en la figura 1, las redes de clase A utilizan el primer octeto para identificar la
porción de red de la dirección. Esto se traduce a una máscara de subred con clase 255.0.0.0.
Debido a que solo se dejaron 7 bits en el primer octeto (recuerde que el primer bit es siempre 0), se
elevó el 2 a la 7.a potencia, o se generaron 128 redes. El número real es de 126 redes, porque hay
dos direcciones reservadas de clase A (es decir, 0.0.0.0/8 y 127.0.0.0/8). Con 24 bits en la porción
de host, cada dirección de clase A tenía capacidad para más de 16 millones de direcciones host
individuales.
Como se muestra en la figura 2, las redes de clase B utilizan los dos primeros octetos para
identificar la porción de red de la dirección de red. Con los primeros dos bits ya establecidos en 1 y
0, quedaban 14 bits en los primeros dos octetos para asignar redes, lo que produjo 16 384
direcciones de red de clase B. Debido a que cada dirección de red de clase B contenía 16 bits en
la porción de host, controlaba 65 534 direcciones. (Recuerde que dos direcciones se reservaron
para las direcciones de red y de difusión).
Como se muestra en la figura 3, las redes de clase C utilizan los dos primeros octetos para
identificar la porción de red de la dirección de red. Con los primeros tres bits establecidos en 1 y 1,
y 0, quedaban 21 bits para asignar redes para más de 2 millones de redes de clase C. Pero cada
red de clase C sólo tenía 8 bits en la porción de host o 254 direcciones host posibles.
Una ventaja de asignar máscaras de subred predeterminadas específicas a cada clase es que
reduce los mensajes de actualización de routing. Los protocolos de routing con clase no incluyen la
información de la máscara de subred en las actualizaciones. El router receptor aplica la máscara
predeterminada según el valor del primer octeto que identifica la clase.
El uso de direcciones IP con clase significaba que la máscara de subred podía determinarse por el
valor del primer octeto, o más precisamente, los primeros tres bits de la dirección. Los protocolos
de routing, como RIPv1, solo necesitan propagar la dirección de red de las rutas conocidas y no
necesitan incluir la máscara de subred en la actualización de routing. Esto se debe a que el router
que recibe la actualización de routing determina la máscara de subred con solo examinar el valor
del primer octeto de la dirección de red o al aplicar su máscara de interfaz de entrada para las
rutas divididas en subredes. La máscara de subred estaba directamente relacionada con la
dirección de red.
El direccionamiento con clase especificado en las RFC 790 y 791 generaba un enorme desperdicio
de espacio de direcciones. En los albores de Internet, se asignó a las organizaciones una dirección
de red con clase completa de clase A, B o C.
La clase A tenía el 50% del espacio de direcciones total. Sin embargo, solo podía asignarse
una dirección de red de clase A a 126 organizaciones. Lo ridículo era que cada una de estas
organizaciones podía proporcionar direcciones para un máximo de 16 millones de hosts. A las
organizaciones muy grandes se les asignaban bloques de direcciones enteros de clase A.
Algunas empresas y organizaciones gubernamentales aún tienen direcciones de clase A. Por
ejemplo, General Electric posee 3.0.0.0/8, Apple Computer, 17.0.0.0/8, y el servicio postal de
los Estados Unidos, 56.0.0.0/8.
La clase B tenía el 25% del espacio de direcciones total. Hasta 16 384 organizaciones podían
tener asignada una dirección de red de clase B, y cada una de estas redes podía admitir
hasta 65 534 hosts. Sólo las organizaciones más grandes y los gobiernos podían llegar a usar
alguna vez las 65 000 direcciones. Al igual que las redes de clase A, muchas direcciones IP
en el espacio de direcciones de clase B se perdían.
La clase C tenía el 12,5% del espacio de direcciones total. Muchas más organizaciones
podían obtener las redes de clase C, pero estaban limitadas en el número total de hosts que
podían conectar. De hecho, en muchos casos, las direcciones de clase C eran a menudo
demasiado pequeñas para la mayoría de las organizaciones medianas.
El resultado general fue que el direccionamiento con clase era un esquema de direccionamiento
que generaba mucho desperdicio. Debía desarrollarse una mejor solución para el direccionamiento
de red. Por este motivo, en 1993, se introdujo el routing entre dominios sin clase (CIDR).
6.4.2 CIDR
Del mismo modo en que Internet crecía a un ritmo exponencial a principios de la década de los
noventa, el tamaño de las tablas de routing que los routers de Internet mantenían también crecía
bajo el direccionamiento IP con clase. Por este motivo, la IETF introdujo el CIDR en la RFC 1517
en 1993.
El CIDR reemplazó las asignaciones de red con clase y las clases de direcciones (A, B, C) se
volvieron obsoletas. Con el CIDR, el valor del primer octeto ya no determina la dirección de red. En
cambio, la porción de red de la dirección la determina la máscara de subred, también conocida
como “prefijo de red” o “longitud de prefijo” (es decir, /8, /19, etc.).
Los ISP ya no están limitados a una máscara de subred de /8, /16 o /24. Ahora pueden asignar
espacio de direcciones de manera más eficaz mediante el uso de cualquier longitud de prefijo que
comience con /8 y valores superiores (es decir, /8, /9, /10, etc.). En la ilustración, se muestra de
qué manera los bloques de direcciones IP se pueden asignar a una red en función de los requisitos
del cliente, que pueden variar de unos pocos hosts a cientos o miles de hosts.
El CIDR también reduce el tamaño de las tablas de routing y administra el espacio de direcciones
IPv4 con mayor eficacia mediante:
Nota: una superred siempre es un resumen de rutas, pero un resumen de rutas no siempre es una
superred.
En la ilustración, observe que el ISP1 tiene cuatro clientes y que cada uno tiene una cantidad
variable de espacio de direcciones IP. El espacio de direcciones de los cuatro clientes puede
resumirse en un anuncio para el ISP2. La ruta 192.168.0.0/20 resumida o agregada incluye todas
las redes que pertenecen a los clientes A, B, C y D. Este tipo de ruta se conoce como “ruta de
superred”. Una superred resume varias direcciones de red con una máscara menor que la máscara
con clase.
Paso 2. Cuente el número de bits coincidentes del extremo izquierdo. Esta es la longitud de prefijo
o máscara de subred de la ruta resumida.
Paso 3. Copie los bits coincidentes y luego agregue los bits 0 al resto de la dirección para
determinar la dirección de red resumida.
La dirección de red sumarizada y la máscara de subred ahora pueden usarse como ruta
sumarizada para este grupo de redes.
Las rutas resumidas pueden configurarse por medio de rutas estáticas y protocolos de routing sin
clase.
La creación de tablas de enrutamiento más pequeñas hace que el proceso de búsqueda en la tabla
de enrutamiento sea más eficaz ya que existen menos rutas para buscar. Si se puede utilizar una
ruta estática en lugar de varias, se reduce el tamaño de la tabla de routing. En muchos casos, se
puede usar una sola ruta estática para representar docenas, cientos o incluso miles de rutas.
Las rutas resumidas CIDR se pueden configurar mediante rutas estáticas. Esto contribuye a reducir
el tamaño de las tablas de routing.
En la figura 2, se proporciona una solución con utilizando la sumarización CIDR. Las seis entradas
de ruta estática se podrían reducir a la entrada 172.16.0.0/13. En el ejemplo, se eliminan las seis
entradas de ruta estática y se las reemplaza con una ruta estática resumida.
Los protocolos de routing con clase no pueden enviar rutas de superred. Esto se debe a que el
router receptor aplica de forma automática la máscara de subred con clase predeterminada a la
dirección de red en la actualización de routing. Si la topología en la ilustración tuviera un protocolo
de routing con clase, entonces el R3 solo instalaría 172.16.0.0/16 en la tabla de routing.
La propagación de las rutas VLSM y de superred requiere un protocolo de routing sin clase, como
RIPv2, OSPF o EIGRP. Los protocolos de routing sin clase anuncian las direcciones de red junto
con las máscaras de subred asociadas. Con un protocolo de routing sin clase, el R2 puede resumir
las redes 172.16.0.0/16, 172.17.0.0/16, 172.18.0.0/16 y 172.19.0.0/16, y anunciar una ruta estática
resumida de superred 172.16.0.0/14 al R3. A continuación, el R3 instala la ruta de superred
172.16.0.0/14 en la tabla de routing.
Nota: cuando una ruta de superred se encuentra en una tabla de routing, por ejemplo, como una
ruta estática, un protocolo de routing con clase no incluye esa ruta en las actualizaciones.
6.4.3 VLSM
Con la máscara de subred de longitud fija (FLSM), se asigna la misma cantidad de direcciones a
cada subred. Si todas las subredes tuvieran los mismos requisitos en cuanto a la cantidad de
hosts, estos bloques de direcciones de tamaño fijo serían suficientes. Sin embargo, esto no es lo
que suele suceder.
Si bien la división en subredes tradicional satisface las necesidades de la LAN más grande y divide
el espacio de direcciones en una cantidad adecuada de subredes, da como resultado un
desperdicio significativo de direcciones sin utilizar.
Por ejemplo, solo se necesitan dos direcciones en cada subred para los tres enlaces WAN. Dado
que cada subred tiene 30 direcciones utilizables, hay 28 direcciones sin utilizar en cada una de
estas subredes. Como se muestra en la figura 3, esto da como resultado 84 direcciones sin utilizar
(28 x 3). Además, de esta forma se limita el crecimiento futuro al reducir el número total de
subredes disponibles. Este uso ineficiente de las direcciones es característico de la división en
subredes tradicional de redes con clase.
En la división en subredes tradicional se aplica la misma máscara de subred a todas las subredes.
Esto significa que cada subred tiene la misma cantidad de direcciones de host disponibles.
Con VLSM, la longitud de la máscara de subred varía según la cantidad de bits que se toman
prestados para una subred específica, de lo cual deriva la parte “variable” de la máscara de subred
de longitud variable. Como se muestra en la figura 2, VLSM permite dividir un espacio de red en
partes desiguales.
VLSM permite el uso de diferentes máscaras para cada subred. Después de que una dirección de
red se divide en subredes, esas subredes también se pueden dividir en subredes. VLSM
simplemente subdivide una subred. Se puede considerar a VLSM como una división en sub-
subredes.
La figura muestra la red 10.0.0.0/8 que se ha dividido en subredes usando la máscara de subred
de /16, lo que produce 256 subredes. Es decir 10.0.0.0/16, 10.1.0.0/16, 10.2.0.0/16, …,
10.255.0.0/16. En la ilustración, se muestran cuatro de estas subredes de /16. Cualquiera de las
subredes /16 pueden subdividirse aún más.
Las direcciones host individuales se asignan a partir de las direcciones de "sub-subredes". Por
ejemplo, la figura muestra la subred 10.1.0.0/16 dividida en subredes de /24. La dirección 10.1.4.10
sería ahora miembro de la subred más específica 10.1.4.0/24.
Otra forma de ver las subredes de VLSM es enumerar cada subred y sus sub-subredes.
En la figura 1, la red 10.0.0.0/8 es el espacio de direcciones inicial y está dividida en subredes con
una máscara /16. El préstamo de 8 bits (que van de /8 a /16) crea 256 subredes que van de
10.0.0.0/16 a 10.255.0.0/16.
En la figura 2, la subred 10.1.0.0/16 se vuelve a dividir en subredes al tomar prestados 8 bits más.
Esto crea 256 subredes con una máscara /24. Esta máscara permite que haya 254 direcciones
host por subred. Las subredes comprendidas entre 10.1.0.0/24 y 10.1.255.0/24 son subredes de la
subred 10.1.0.0/16.
En la figura 3, la subred 10.2.0.0/16 se vuelve a dividir en subredes con una máscara /24, lo que
permite que haya 254 direcciones host por subred. Las subredes comprendidas entre 10.2.0.0/24 y
10.2.255.0/24 son subredes de la subred 10.2.0.0/16.
En la figura 4, la subred 10.3.0.0/16 se vuelve a dividir en subredes con una máscara /28. De esta
manera, crea 4096 subredes y permite que haya 14 direcciones host por subred. Las subredes
comprendidas entre 10.3.0.0/28 y 10.3.255.240/28 son subredes de la subred 10.3.0.0/16.
En la figura 5, la subred 10.4.0.0/16 se vuelve a dividir en subredes con una máscara /20. De esta
manera, crea 16 subredes y permite que haya 4094 direcciones host por subred. Las subredes
comprendidas entre 10.4.0.0/20 y 10.4.240.0/20 son subredes de la subred 10.4.0.0/16. Estas
subredes /20 son lo suficientemente grandes como para dividirse aún más veces y permitir que
haya más redes.
Al utilizar la división en subredes tradicional, los primeros siete bloques de direcciones se asignan
a las LAN y WAN, tal como se muestra en la figura 2. Este esquema da como resultado 8 subredes
con 30 direcciones utilizables cada una (/27). Si bien este esquema funciona para los segmentos
LAN, se desperdician muchas direcciones en los segmentos WAN.
Como se muestra en la figura 3, para utilizar el espacio de direcciones de manera más eficaz, se
crean subredes /30 para los enlaces WAN. A fin de mantener juntos los bloques de direcciones sin
utilizar, la última subred /27 se vuelve a dividir en subredes para crear subredes /30. Las primeras
tres subredes se asignaron a los enlaces WAN que crearon las subredes 192.168.20.224/30,
192.168.20.228/30 y 192.168.20.232/30. Si se diseña el esquema de direccionamiento de esta
manera, quedan tres subredes /27 y cinco subredes /30 sin utilizar.
CIDR omite la restricción de límites con clase y permite la sumarización con máscaras más
pequeñas que las de la máscara con clase predeterminada. Este tipo de sumarización ayuda a
reducir la cantidad de entradas en las actualizaciones de enrutamiento y disminuye la cantidad de
entradas en las tablas de enrutamiento locales. Reduce, además, el uso del ancho de banda para
las actualizaciones de enrutamiento y acelera las búsquedas en las tablas de enrutamiento.
En la ilustración, el R1 requiere una ruta estática resumida para alcanzar las redes en el rango de
172.20.0.0/16 a 172.23.0.0/16.
La sumarización de redes en una única dirección y máscara se puede realizar en tres pasos:
Paso 1. Enumere las redes en formato binario. En la figura 1 se indican las redes 172.20.0.0/16 a
172.23.0.0/16 en formato binario.
Paso 2. Cuente el número de bits coincidentes que se encuentran en el extremo izquierdo para
determinar la máscara de la ruta resumida. En la figura 2, se destacan los 14 bits coincidentes que
se encuentran en el extremo izquierdo. Este es el prefijo, o la máscara de subred, para la ruta
resumida: /14 o 255.252.0.0.
Paso 3. Copie los bits coincidentes y luego agregue los bits 0 para determinar la dirección de red
resumida. En la figura 3, se muestra que los bits coincidentes con ceros al final producen la
dirección de red 172.20.0.0. Las cuatro redes (172.20.0.0/16, 172.21.0.0/16, 172.22.0.0/16 y
172.23.0.0/16) pueden sumarizar en una única dirección de red y prefijo 172.20.0.0/14.
En la figura 4, se muestra el R1 configurado con una ruta estática resumida para alcanzar las redes
172.20.0.0/16 a 172.23.0.0/16.
Las múltiples rutas estáticas se pueden resumir en una sola ruta estática si:
Las redes de destino son contiguas y se pueden resumir en una única dirección de red.
Todas las rutas estáticas utilizan la misma interfaz de salida o la dirección IP del siguiente
salto.
Considere el ejemplo de la figura 1. Todos los routers tienen conectividad mediante rutas estáticas.
En la figura 2, se muestran las entradas de la tabla de routing estático para el R3. Observe que
tiene tres rutas estáticas que pueden resumirse, porque comparten los mismos dos primeros
octetos.
Paso 2. Para encontrar la máscara de subred para la sumarización, comience con el bit del
extremo izquierdo y vaya hacia la derecha. Verá que todos los bits coinciden de forma consecutiva
hasta una columna en la cual los bits no coinciden, la cual identifica el límite del resumen.
Paso 4. Para encontrar la dirección de red para el resumen, copie los 22 bits que coinciden y
agregue a todos los bits 0 al final para obtener 32 bits.
Después de identificar la ruta resumida, reemplace las rutas existentes por esta ruta.
En la figura 4, se muestra cómo se eliminan las tres rutas existentes y, luego, cómo se configura la
nueva ruta estática resumida.
En la figura 5, se confirma que la ruta estática resumida está en la tabla de routing del R3.
Aparte del hecho de que las direcciones IPv6 tienen una longitud de 128 bits y están escritas en
hexadecimales, el resumen de direcciones IPv6 es muy similar al resumen de las direcciones IPv4.
Solo requiere de algunos pasos más debido a las direcciones IPv6 abreviadas y a la conversión
hexadecimal.
Varias rutas estáticas IPv6 se pueden resumir en una única ruta estática IPv6 si:
Las redes de destino son contiguas y se pueden resumir en una única dirección de red.
Todas las rutas estáticas utilizan la misma interfaz de salida o la dirección IPv6 del siguiente
salto.
Consulte la red de la figura 1. Actualmente, el R1 tiene cuatro rutas estáticas IPv6 para alcanzar
las redes 2001:DB8:ACAD:1::/64 a 2001:DB8:ACAD:4::/64.
En la figura 2, se muestran las rutas estáticas IPv6 instaladas en la tabla de routing IPv6.
El resumen de redes IPv6 en un único prefijo IPv6 y una única longitud de prefijo se puede realizar
en siete pasos, tal como se muestra en las figuras 1 a 7:
Paso 1. Enumere las direcciones de red (prefijos) e identifique la parte en la cual las direcciones
difieren.
Paso 4. Cuente el número de bits coincidentes que se encuentran en el extremo izquierdo para
determinar la longitud de prefijo para la ruta resumida.
Paso 5. Copie los bits coincidentes y luego agregue los bits 0 para determinar la dirección de red
resumida (prefijo).
Después de identificar la ruta resumida, reemplace las rutas existentes por esta ruta.
En la figura 1, se muestra cómo se eliminan las cuatro rutas existentes y, luego, cómo se configura
la nueva ruta estática resumida IPv6.
En la figura 2, se confirma que la ruta estática resumida está en la tabla de routing del R1.
Las rutas estáticas flotantes son rutas estáticas que tienen una distancia administrativa mayor que
la de otra ruta estática o la de rutas dinámicas. Son muy útiles para proporcionar un respaldo a un
enlace principal, como se muestra en la ilustración.
De manera predeterminada, las rutas estáticas tienen una distancia administrativa de 1, lo que las
hace preferibles a las rutas descubiertas mediante protocolos de routing dinámico. Por ejemplo, las
distancias administrativas de algunos protocolos de routing dinámico comunes son las siguientes:
EIGRP = 90
IGRP = 100
OSPF = 110
IS-IS = 115
RIP = 120
La distancia administrativa de una ruta estática se puede aumentar para hacer que la ruta sea
menos deseable que la ruta de otra ruta estática o una ruta descubierta mediante un protocolo de
routing dinámico. De esta manera, la ruta estática “flota” y no se utiliza cuando está activa la ruta
con la mejor distancia administrativa. Sin embargo, si se pierde la ruta de preferencia, la ruta
estática flotante puede tomar el control, y se puede enviar el tráfico a través de esta ruta
alternativa.
Una ruta estática flotante se puede utilizar para proporcionar una ruta de respaldo a varias
interfaces o redes en un router. También es independiente de la encapsulación, lo que significa
que puede utilizarse para reenviar paquetes desde cualquier interfaz, sin importar el tipo de
encapsulación.
Es importante tener en cuenta que el tiempo de convergencia afecta una ruta estática flotante. Una
ruta que pierde y restablece una conexión de manera continua puede hacer que la interfaz de
respaldo se active innecesariamente.
Para configurar rutas estáticas IPv4, se utiliza el comando ip route de configuración global y se
especifica una distancia administrativa. Si no se configura ninguna distancia administrativa, se
utiliza el valor predeterminado (1).
El R1 se configura con una ruta estática predeterminada que apunte al R2. Debido a que no está
configurada ninguna distancia administrativa, se utiliza el valor predeterminado (1) para esta ruta
estática. El R1 también está configurado con una ruta estática flotante predeterminada que apunta
al R3 con una distancia administrativa de 5. Este valor es mayor que el valor predeterminado 1, y,
por lo tanto, esta ruta flota y no está presente en la tabla de routing, a menos que la ruta preferida
falle.
¿Qué ocurriría si el R2 falla? Para simular esta falla, se desactivan ambas interfaces seriales del
R2, como se muestra en la figura 2.
Observe en la figura 3 que el R1 genera mensajes de forma automática que indican que la interfaz
serial al R2 está inactiva. Al revisar la tabla de routing, se puede verificar que la ruta
predeterminada ahora apunta al R3 que utiliza la ruta estática flotante predeterminada que se
configuró para el siguiente salto 10.10.10.2.
El resultado en la figura 4 confirma que el tráfico ahora fluye directamente entre el R1 y el R3.
Nota: la configuración de rutas estáticas flotantes IPv6 está fuera del ámbito de este capítulo.
Haga clic en el botón Reproducir de la ilustración para ver una animación en la que la PC1 envía
un paquete a la PC3.
2. R1 no tiene una ruta específica hacia la red de destino, 192.168.2.0/24; por lo tanto, R1 utiliza la
ruta estática predeterminada.
3. R1 encapsula el paquete en una nueva trama. Debido a que el enlace a R2 es un enlace punto a
punto, R1 agrega una dirección de "todos 1 (unos)" para la dirección de destino de Capa 2.
4. La trama se reenvía a través de la interfaz serial 0/0/0. El paquete llega a la interfaz serial 0/0/0
en R2.
5. El R2 desencapsula la trama y busca una ruta hacia el destino. El R2 tiene una ruta estática a
192.168.2.0/24 que sale de la interfaz serial 0/0/1.
7. La trama se reenvía a través de la interfaz serial 0/0/1. El paquete llega a la interfaz serial 0/0/1
en el R3.
8. El R3 desencapsula la trama y busca una ruta hacia el destino. El R3 tiene una ruta conectada a
192.168.2.0/24 que sale de la interfaz serial GigabitEthernet 0/0.
9. El R3 busca la entrada en la tabla ARP para 192.168.2.10 para encontrar la dirección de control
de acceso a los medios (MAC) de capa 2 para la PC3. Si no existe una entrada, el R3 envía una
solicitud de protocolo de resolución de direcciones (ARP) a través de la interfaz GigabitEthernet 0/0
y la PC3 responde con una respuesta de ARP, la cual incluye la dirección MAC de la PC3.
10. El R3 encapsula el paquete en una trama nueva con la dirección MAC de la interfaz
GigabitEthernet 0/0 como dirección de capa 2 de origen y la dirección MAC de la PC3 como
dirección MAC de destino.
11. La trama se reenvía a través la interfaz GigabitEthernet 0/0. El paquete llega a la interfaz de la
tarjeta de interfaz de red (NIC) de la PC3.
Las redes están condicionadas a situaciones que pueden provocar un cambio en su estado con
bastante frecuencia:
Entre los comandos comunes para la resolución de problemas de IOS, se encuentran los
siguientes:
ping
traceroute
show ip route
Encontrar una ruta que falta (o que está mal configurada) es un proceso relativamente sencillo, si
se utilizan las herramientas adecuadas de manera metódica.
En este ejemplo, el usuario en la PC1 informa que no puede acceder a los recursos en la LAN del
R3. Esto puede confirmarse haciendo ping en la interfaz LAN del R3 que utiliza la interfaz LAN del
R1 como origen (consulte la figura 1). Los resultados muestran que no hay conectividad entre
estas LAN.
El siguiente paso es investigar la tabla de routing del R2, porque es el router que muestra un
patrón extraño de reenvío. La tabla de routing en la figura 3 muestra que la red 192.168.2.0/24 está
configurada de manera incorrecta. Se configuró una ruta estática a la red 192.168.2.0/24 con la
dirección del siguiente salto 172.16.2.1. Mediante la dirección del siguiente salto configurada, los
paquetes destinados a la red 192.168.2.0/24 se devuelven al R1. La topología deja en claro que la
red 192.168.2.0/24 está conectada al R3, no al R1. Por lo tanto, la ruta estática a la red
192.168.2.0/24 en el R2 debe utilizar el siguiente salto 192.168.1.1, no 172.16.2.1.
En la figura 5, se verifica si el R1 puede alcanzar la interfaz LAN del R3. Como último paso de
confirmación, el usuario de la PC1 también debe probar la conectividad a la LAN 192.168.2.0/24.
6.7 Resumen
En este capítulo, aprendió cómo pueden utilizarse las rutas estáticas IPv4 e IPv6 para alcanzar
redes remotas. Las redes remotas son redes a las que se puede llegar únicamente mediante el
envío del paquete a otro router. Las rutas estáticas son fáciles de configurar. Sin embargo, en
redes de gran tamaño, esta operación manual puede ser complicada. Las rutas estáticas aún se
utilizan, incluso cuando se implementa un protocolo de routing dinámico.
Las rutas estáticas pueden configurarse con una dirección IP del siguiente salto que generalmente
es la dirección IP del router del siguiente salto. Cuando se utiliza una dirección IP del siguiente
salto, el proceso de la tabla de enrutamiento debe resolver esta dirección para una interfaz de
salida. En enlaces seriales punto a punto, suele ser más eficaz configurar la ruta estática con una
interfaz de salida. En redes de accesos múltiples, como Ethernet, se pueden configurar tanto una
dirección IP del siguiente salto como una interfaz de salida en la ruta estática.
Las rutas estáticas tienen una distancia administrativa predeterminada de 1. Esta distancia
administrativa también se aplica a las rutas estáticas configuradas con una dirección del siguiente
salto y una interfaz de salida.
Solo se introduce una ruta estática en la tabla de routing si la dirección IP del siguiente salto se
puede resolver a través de una interfaz de salida. Ya sea que la ruta estática esté configurada con
una dirección IP del siguiente salto o una interfaz de salida, la ruta estática no se incluye en la tabla
de routing si la interfaz de salida que se utiliza para reenviar ese paquete no se encuentra en esa
tabla.
Con el CIDR, pueden configurarse varias rutas estáticas como única ruta resumida. Esto significa
que habrá menos entradas en la tabla de enrutamiento y que el proceso de búsqueda en la tabla
de enrutamiento será más rápido. El CIDR también administra el espacio de direcciones IPv4 con
más eficacia.
La ruta resumida final es una ruta predeterminada, configurada con una dirección de red 0.0.0.0 y
una máscara de subred 0.0.0.0 para IPv4, y el prefijo/longitud de prefijo ::/0 para IPv6. Si no existe
una coincidencia más específica en la tabla de routing, dicha tabla utiliza la ruta predeterminada
para reenviar el paquete a otro router.
Una ruta estática flotante se puede configurar para respaldar un enlace principal al manipular su
valor administrativo.
7 Routing dinámico
7.1 Introducción
Las redes de datos que usamos en nuestras vidas cotidianas para aprender, jugar y trabajar varían
desde pequeñas redes locales hasta grandes internetworks globales. En el hogar, un usuario
puede tener un router y dos o más computadoras. En el trabajo, una organización probablemente
tenga varios routers y switches para atender las necesidades de comunicación de datos de cientos
o hasta miles de computadoras.
Los routers reenvían paquetes mediante el uso de la información de la tabla de routing. Los routers
pueden descubrir las rutas hacia las redes remotas de dos maneras: de forma estática y de forma
dinámica.
En una red grande con muchas redes y subredes, la configuración y el mantenimiento de rutas
estáticas entre dichas redes conllevan una sobrecarga administrativa y operativa. Esta sobrecarga
administrativa es especialmente tediosa cuando se producen cambios en la red, como un enlace
fuera de servicio o la implementación de una nueva subred. Implementar protocolos de routing
dinámico puede aliviar la carga de las tareas de configuración y de mantenimiento, además de
proporcionar escalabilidad a la red.
En este capítulo, se presentan los protocolos de routing dinámico, se exploran los beneficios de
utilizar esta clase de protocolos, la forma en que se clasifican los distintos protocolos de routing y
las métricas que utilizan los protocolos de routing para determinar la mejor ruta para el tráfico de la
red. Entre otros temas que se analizan en este capítulo, se encuentran las características de los
protocolos de routing dinámico y la forma en que se diferencian los distintos protocolos de routing.
Los profesionales de red deben comprender cuáles son los diferentes protocolos de routing
disponibles a fin de decidir fundadamente cuándo utilizar routing dinámico o estático. También
necesitan saber cuál es el protocolo de routing dinámico más adecuado en un entorno de red
determinado.
Los protocolos de routing dinámico se utilizan en el ámbito de las redes desde finales de la década
de los ochenta. Uno de los primeros protocolos de routing fue el protocolo de información de
routing (RIP). Si bien el protocolo RIP versión 1 (RIPv1) se lanzó en 1988, ya en 1969 se utilizaban
algunos de los algoritmos básicos en dicho protocolo en la Advanced Research Projects Agency
Network (ARPANET).
A medida que las redes evolucionaron y se volvieron más complejas, surgieron nuevos protocolos
de routing. El protocolo de routing RIP se actualizó a RIPv2 a fin de admitir el crecimiento del
entorno de red. Sin embargo, la versión más nueva de RIP aún no es escalable a las
implementaciones de red más extensas de la actualidad. Con el objetivo de satisfacer las
necesidades de las redes más grandes, se desarrollaron dos protocolos de routing: el protocolo
OSPF (Open Shortest Path First) e Intermediate System-to-Intermediate System (IS-IS). Cisco
desarrolló el protocolo de routing de gateway interior (IGRP) e IGRP mejorado (EIGRP), que
también tiene buena escalabilidad en implementaciones de redes más grandes.
RIP es el más simple de los protocolos de routing dinámico y, en esta sección, se utiliza para
proporcionar un nivel básico de comprensión sobre los protocolos de routing.
Poder encontrar un mejor camino nuevo si la ruta actual deja de estar disponible
Los componentes principales de los protocolos de routing dinámico incluyen los siguientes:
Estructuras de datos: por lo general, los protocolos de routing utilizan tablas o bases de
datos para sus operaciones. Esta información se guarda en la RAM.
Mensajes del protocolo de routing:los protocolos de routing usan varios tipos de mensajes
para descubrir routers vecinos, intercambiar información de routing y realizar otras tareas
para descubrir la red y conservar información precisa acerca de ella.
Algoritmo: un algoritmo es una lista finita de pasos que se usan para llevar a cabo una tarea.
Los protocolos de enrutamiento usan algoritmos para facilitar información de enrutamiento y
para determinar el mejor camino.
En la ilustración, se destacan las estructuras de datos, los mensajes del protocolo de routing y el
algoritmo de routing que utiliza EIGRP.
Los protocolos de routing permiten a los routers compartir información en forma dinámica sobre
redes remotas y agregar esa información automáticamente a sus propias tablas de routing.
Consulte la animación en la ilustración.
Los protocolos de routing determinan la mejor ruta hacia cada red y, a continuación, esa ruta se
agrega a la tabla de routing. Uno de los beneficios principales de los protocolos de routing
dinámico es que los routers intercambian información de routing cuando se produce un cambio en
la topología. Este intercambio permite a los routers obtener automáticamente información sobre
nuevas redes y también encontrar rutas alternativas cuando se produce una falla de enlace en la
red actual.
Antes de identificar los beneficios de los protocolos de routing dinámico, considere los motivos por
los que los profesionales de red utilizan el routing estático. El routing dinámico definitivamente tiene
varias ventajas sobre el routing estático, sin embargo, el routing estático todavía se utiliza en redes
hoy en día. De hecho, las redes generalmente usan una combinación de enrutamiento estático y
dinámico.
Realiza routing desde y hacia una red de rutas internas, que es una red con una sola ruta
predeterminada hacia fuera y sin conocimiento de redes remotas.
Permite acceder a una única ruta predeterminada (la cual se utiliza para representar una ruta
hacia cualquier red que no tiene una coincidencia más específica con otra ruta en la tabla de
routing).
En la tabla de la ilustración, se destacan las ventajas y las desventajas del routing estático. El
routing estático es fácil de implementar en redes pequeñas. Las rutas estáticas permanecen sin
alteraciones, lo que hace que sea relativamente fácil llevar a cabo la resolución de problemas. Las
rutas estáticas no envían mensajes de actualización y, por lo tanto, ocasionan muy poca
sobrecarga.
Imagine tener que mantener las configuraciones de routing estático para los siete routers en
figura 1.
¿Qué sucedería si la empresa creciera y ahora tuviera cuatro regiones y 28 routers para
administrar, como se muestra en la figura 2? ¿Qué sucede cuando un enlace deja de funcionar?
¿Cómo se asegura de que las rutas redundantes estén disponibles?
El routing dinámico es la mejor opción para redes grandes como la que se muestra.
En la tabla de la ilustración, se destacan las ventajas y las desventajas del routing dinámico. Los
protocolos de routing dinámico funcionan bien en cualquier tipo de red conformada por varios
routers. Son escalables y determinan automáticamente las mejores rutas si se produce un cambio
en la topología. Si bien existen otros aspectos para tener en cuenta respecto de la configuración de
los protocolos de routing dinámico, son más simples de configurar en redes grandes.
El routing dinámico presenta desventajas. Esta clase de routing requiere conocer comandos
adicionales. Además, es menos seguro que el routing estático, porque las interfaces identificadas
por el protocolo de routing envían actualizaciones de routing fuera de la red. Las rutas tomadas
pueden variar entre paquetes. El algoritmo de routing utiliza CPU, RAM y ancho de banda de
enlace adicionales.
Observe la forma en que el routing dinámico aborda las desventajas del routing estático.
Todos los protocolos de routing están diseñados para descubrir redes remotas y adaptarse
rápidamente cuando ocurre un cambio en la topología. El método que usa un protocolo de
enrutamiento para lograr su propósito depende del algoritmo que use y de las características
operativas de ese protocolo.
3. Los routers intercambian información de enrutamiento para obtener información sobre redes
remotas.
Todos los protocolos de routing siguen los mismos patrones de funcionamiento. Para ayudar a
ilustrar esto, considere la siguiente situación en la que los tres routers ejecutan RIPv2.
Haga clic en Reproducir en la ilustración para ver una animación de la detección inicial de las redes
conectadas para cada router.
Observe la forma en que los routers avanzan a través del proceso de arranque y luego detectan las
redes conectadas directamente y las máscaras de subred. Esta información se agrega a sus tablas
de routing de la siguiente manera:
El R2 agrega la red 10.2.0.0 disponible a través de la interfaz Serial 0/0/0, y 10.3.0.0 está
disponible a través de la interfaz Serial 0/0/1.
El R3 agrega la red 10.3.0.0 disponible a través de la interfaz Serial 0/0/1, y 10.4.0.0 está
disponible a través de la interfaz FastEthernet 0/0.
Con esta información inicial, los routers proceden a encontrar orígenes de ruta adicionales para
sus tablas de routing.
Después del arranque inicial y del descubrimiento, la tabla de routing se actualiza con todas las
redes conectadas directamente y las interfaces en las que residen dichas redes.
El router envía un paquete de actualización por todas las interfaces habilitadas en el router. La
actualización contiene la información de la tabla de routing, que en este momento consta de todas
las redes conectadas directamente.
Al mismo tiempo, el router también recibe y procesa actualizaciones similares de otros routers
conectados. Una vez recibida la actualización, el router revisa si contiene información de red
nueva, y se agrega a la tabla de routing toda red que no esté incluida en ella aún.
Para ver la configuración de la topología entre tres routers (R1, R2 y R3), consulte la ilustración.
Sobre la base de esta topología, a continuación se muestra una lista de las distintas
actualizaciones que el R1, el R2 y el R3 envían y reciben durante la convergencia inicial.
R1:
Envía una actualización acerca de la red 10.1.0.0 desde la interfaz serial 0/0/0.
Recibe una actualización del R2 acerca de la red 10.3.0.0 e incrementa el conteo de saltos en
1.
R2:
Envía una actualización acerca de la red 10.3.0.0 desde la interfaz serial 0/0/0.
Envía una actualización acerca de la red 10.2.0.0 desde la interfaz serial 0/0/1.
Recibe una actualización del R1 acerca de la red 10.1.0.0 e incrementa el conteo de saltos en
1.
Recibe una actualización del R3 acerca de la red 10.4.0.0 e incrementa el conteo de saltos en
1.
R3:
Envía una actualización acerca de la red 10.4.0.0 desde la interfaz serial 0/0/1.
Recibe una actualización del R2 acerca de la red 10.2.0.0 e incrementa el conteo de saltos en
1.
Haga clic en Reproducir en la ilustración para ver una animación sobre la forma en que el R1, el R2
y el R3 comienzan el intercambio inicial.
Después de esta primera ronda de intercambios de actualizaciones, cada router tiene información
acerca de las redes conectadas de sus vecinos conectados directamente. Sin embargo, ¿observó
que R1 todavía no tiene información acerca de 10.4.0.0 al igual que R3 acerca de 10.1.0.0? La red
convergente no tiene lugar ni se obtiene información completa hasta que se produce otro
intercambio de información de routing.
En este punto, los routers tienen información sobre sus propias redes conectadas directamente y
las de sus vecinos más cercanos. Siguiendo el camino hacia la convergencia, los routers
intercambian la siguiente ronda de actualizaciones periódicas. Cada router verifica las
actualizaciones nuevamente para comprobar si hay información nueva.
Para ver la configuración de la topología entre tres routers (R1, R2 y R3), consulte la ilustración.
Una vez que se completa el descubrimiento inicial, cada router continúa el proceso de
convergencia mediante el envío y la recepción de las siguientes actualizaciones.
R1:
Envía una actualización acerca de la red 10.1.0.0 por la interfaz Serial 0/0/0.
Envía una actualización acerca de las redes 10.2.0.0 y 10.3.0.0 por la interfaz
FastEthernet0/0.
Recibe una actualización del R2 acerca de la red 10.4.0.0 e incrementa el conteo de saltos en
1.
La misma actualización del R2 contiene información acerca de la red 10.3.0.0 con el valor de
métrica 1. No se produce ningún cambio, por lo que la información de routing permanece
igual.
R2:
Envía una actualización acerca de las redes 10.3.0.0 y 10.4.0.0 por la interfaz Serial 0/0/0.
Envía una actualización acerca de las redes 10.1.0.0 y 10.2.0.0 por la interfaz Serial 0/0/1.
Recibe una actualización de R1 acerca de la red 10.1.0.0. No se produce ningún cambio, por
lo que la información de routing permanece igual.
Recibe una actualización de R3 acerca de la red 10.4.0.0. No se produce ningún cambio, por
lo que la información de routing permanece igual.
R3:
Envía una actualización acerca de la red 10.4.0.0 desde la interfaz serial 0/0/1.
Envía una actualización acerca de las redes 10.2.0.0 y 10.3.0.0 por la interfaz
FastEthernet0/0.
Recibe una actualización del R2 acerca de la red 10.1.0.0 e incrementa el conteo de saltos en
1.
La misma actualización del R2 contiene información acerca de la red 10.2.0.0 con el valor de
métrica 1. No se produce ningún cambio, por lo que la información de routing permanece
igual.
Haga clic en Reproducir en la ilustración para ver una animación sobre la forma en que el R1, el R2
y el R3 envían la tabla de routing más reciente a sus vecinos.
Por lo general, los protocolos de routing vector distancia implementan una técnica para evitar los
bucles de routing conocida como “horizonte dividido”. El horizonte dividido evita que la información
se envíe desde la misma interfaz en la que se recibió dicha información. Por ejemplo, el R2 no
envía una actualización que contenga la red 10.1.0.0 por la interfaz Serial 0/0/0, debido a que
obtuvo información acerca de la red 10.1.0.0 a través de la interfaz Serial 0/0/0.
Una vez que los routers dentro de una red realizan la convergencia, el router puede utilizar la
información que se encuentra en la tabla de rutas para determinar la mejor ruta para llegar a un
destino. Los distintos protocolos de routing tienen diferentes maneras de calcular la mejor ruta.
La convergencia de la red se produce cuando todos los routers tienen información completa y
precisa acerca de toda la red, como se muestra en la figura 1. El tiempo de convergencia es el
tiempo que los routers tardan en compartir información, calcular las mejores rutas y actualizar sus
tablas de enrutamiento. Una red no es completamente operativa hasta que la red haya convergido;
por lo tanto, la mayoría de las redes requieren tiempos de convergencia breves.
Como se muestra en la figura 2, los protocolos de routing pueden clasificarse según la velocidad
de convergencia: cuanto más rápida sea la convergencia, mejor será el protocolo de routing.
Generalmente, los protocolos más antiguos, como RIP, tienen una convergencia lenta, mientras
que los protocolos modernos, como EIGRP y OSPF, la realizan más rápidamente.
IGRP (antiguo): IGP, vector distancia, protocolo con clase desarrollado por Cisco (cayó en
desuso a partir del IOS 12.2)
EIGRP: IGP, vector distancia, protocolo sin clase desarrollado por Cisco
Los protocolos de routing con clase, RIPv1 e IGRP, son protocolos antiguos y se utilizan solamente
en redes antiguas. Estos protocolos de routing se convirtieron en los protocolos de routing sin clase
RIPv2 y EIGRP, respectivamente. Los protocolos de routing de estado de enlace son protocolos
sin clase naturalmente.
Un sistema autónomo (AS) es un conjunto de routers bajo una administración común, como una
empresa o una organización. Los AS también se conocen como “dominios de routing”. Los
ejemplos típicos de AS son la red interna de una empresa y la red de un ISP.
Debido a que Internet se basa en el concepto de AS, se requieren dos tipos de protocolos de
routing:
Protocolo de gateway interior (IGP): se utiliza para el routing dentro de un AS. También se
lo denomina “routing interno de AS”. Las empresas, las organizaciones e incluso los
proveedores de servicios utilizan un IGP en sus redes internas. Los IGP incluyen RIP, EIGRP,
OSPF e IS-IS.
Protocolo de gateway exterior (EGP): se utiliza para el routing entre AS. Los proveedores
de servicios y las empresas grandes pueden interconectarse mediante un EGP. El protocolo
de gateway fronterizo (BGP) es el único EGP viable actualmente y es el protocolo de routing
oficial utilizado por Internet.
Nota: dado que BGP es el único EGP disponible, no se suele utilizar el término EGP. En cambio, la
mayoría de los ingenieros simplemente hacen referencia a BGP.
ISP-1: es un AS que utiliza IS-IS como IGP. Se interconecta con otros sistemas autónomos y
proveedores de servicios que utilizan BGP para controlar explícitamente el modo en que se
enruta el tráfico.
ISP-2: es un AS que utiliza OSPF como IGP. Se interconecta con otros sistemas autónomos
y proveedores de servicios que utilizan BGP para controlar explícitamente el modo en que se
enruta el tráfico.
AS-1: se trata de una organización grande que utiliza EIGRP como IGP. Dado que es un
entorno de host múltiples (es decir, se conecta a dos proveedores de servicios distintos),
utiliza BGP para controlar explícitamente la forma en que el tráfico ingresa al AS y sale de él.
AS-2: se trata de una organización mediana y utiliza OSPF como IGP. También es un
entorno de host múltiples, por lo que utiliza BGP para controlar explícitamente la forma en
que el tráfico ingresa al AS y sale de él.
AS-3: se trata de una organización pequeña con routers más antiguos dentro del AS y utiliza
RIP como IGP. Dado que tiene conexión simple (es decir, conecta a solo un proveedor de
servicios), no se requiere BGP. En cambio, se implementa routing estático entre el AS y el
proveedor de servicios.
Nota: BGP excede el ámbito de este curso, motivo por el cual no se lo describe en detalle.
“Vector distancia” significa que las rutas se anuncian proporcionando dos características:
Distancia: identifica la distancia hasta la red de destino. Se basa en una métrica como el
conteo de saltos, el costo, el ancho de banda y el retraso, entre otros.
Por ejemplo, en la ilustración, el R1 tiene información de que la distancia para llegar a la red
172.16.3.0/24 es de un salto y de que el sentido es a través de la interfaz S0/0/0 hacia el R2.
A diferencia de la operación del protocolo de routing vector distancia, un router configurado con un
protocolo de routing de estado de enlace puede crear una “vista completa” o una topología de la
red al reunir información proveniente de todos los demás routers.
Para continuar con nuestra analogía de letreros, el uso de un protocolo de enrutamiento de link-
state es como tener un mapa completo de la topología de la red. Los letreros a lo largo de la ruta
de origen a destino no son necesarios, debido a que todos los routers de estado de enlace usan un
mapa de la red idéntico. Un router de estado de enlace usa la información de estado de enlace
para crear un mapa de la topología y seleccionar la mejor ruta hacia todas las redes de destino en
la topología.
Los routers con RIP habilitado envían actualizaciones periódicas de su información de routing a
sus vecinos. Los protocolos de enrutamiento de link-state no usan actualizaciones periódicas. Una
vez que se produjo la convergencia de la red, la actualización del estado de enlace solo se envía
cuando se produce un cambio en la topología. Por ejemplo, la actualización del estado de enlace
en la animación no se envía hasta que la red 172.16.3.0 se desactiva.
La mayor diferencia entre los protocolos de routing con clase y sin clase es que los protocolos de
routing con clase no envían información de la máscara de subred en sus actualizaciones de
routing. Los protocolos de routing sin clase incluyen información de la máscara de subred en las
actualizaciones de routing.
Los dos protocolos de routing IPv4 originales que se desarrollaron fueron RIPv1 e IGRP, que se
crearon cuando las direcciones de red se asignaban según las clases (es decir, clase A, B o C). En
ese entonces, no era necesario que un protocolo de routing incluyera la máscara de subred en la
actualización de routing, debido a que era posible determinar la máscara de red sobre la base del
primer octeto de la dirección de red.
Nota: solo RIPv1 e IGRP son protocolos con clase. El resto de los protocolos de routing IPv4 e
IPv6 son protocolos sin clase. El direccionamiento con clase nunca fue parte de IPv6.
Los protocolos de routing con clase también generan problemas en las redes no contiguas. Que
una red sea no contigua significa que las subredes de la misma dirección de red principal con clase
están separadas por una dirección de red con clase diferente.
Consulte la topología que se muestra en la figura 1 para ver una ilustración de las limitaciones del
routing con clase. Observe que las LAN del R1 (172.16.1.0/24) y del R3 (172.16.2.0/24) son
subredes de la misma red de clase B (172.16.0.0/16), que están separadas por distintas
direcciones de red con clase (192.168.1.0/30 y 192.168.2.0/30).
El R2 recibe la actualización y la procesa. A continuación, crea una entrada para la red de clase B
172.16.0.0/16 y la agrega en la tabla de routing, como se muestra en la figura 2.
En la figura 3, se muestra que cuando el R3 reenvía una actualización al R2, tampoco incluye
información de la máscara de subred y, por lo tanto, solamente reenvía la dirección de red con
clase 172.16.0.0.
En la figura 4, el R2 recibe y procesa la actualización y agrega otra entrada para la dirección de red
con clase 172.16.0.0/16 a su tabla de routing. Cuando hay dos entradas con métricas idénticas en
la tabla de routing, el router comparte la carga de tráfico por igual entre los dos enlaces. Esto se
conoce como “balanceo de carga”.
Como se muestra en la figura 5, esto tiene un efecto negativo sobre una red no contigua. Observe
el comportamiento irregular de los comandos ping y traceroute.
Los protocolos de routing IPv6 son protocolos sin clase. Por lo general, la distinción entre los
protocolos de routing con clase y sin clase se aplica únicamente a los protocolos de routing IPv4.
Se considera que todos los protocolos de routing IPv6 son protocolos sin clase, dado que incluyen
la duración de prefijo con la dirección IPv6.
En las figuras 1 a 5, se ilustra la forma en que el routing sin clase resuelve los problemas que se
generan con el routing con clase:
Figura 1: en este diseño de red no contigua, se implementó el protocolo sin clase RIPv2 en
los tres routers. Cuando el R1 reenvía una actualización al R2, RIPv2 incluye la información
de la máscara de subred con la actualización 172.16.1.0/24.
Escalabilidad: define cuán grande puede ser una red, según el protocolo de routing
implementado. Cuanto más grande sea la red, más escalable debe ser el protocolo de
enrutamiento.
Con clase o sin clase (uso de VLSM): los protocolos de routing con clase no incluyen la
máscara de subred y no admiten VLSM. Los protocolos de routing sin clase incluyen la
máscara de subred en las actualizaciones. Los protocolos de routing sin clase admiten VLSM
y una mejor sumarización de ruta.
En algunos casos, un protocolo de enrutamiento obtiene información sobre más de una ruta hacia
el mismo destino. Para seleccionar el mejor camino, el protocolo de enrutamiento debe poder
evaluar y diferenciar entre las rutas disponibles. Esto se logra mediante el uso de métricas de
routing.
Una métrica es un valor mensurable que el protocolo de routing asigna a distintas rutas según la
utilidad que tengan. En situaciones donde hay varias rutas hacia la misma red remota, las métricas
de routing se utilizan para determinar el “costo” total de una ruta de origen a destino. Los
protocolos de routing determinan la mejor ruta sobre la base del costo más bajo.
Los diferentes protocolos de enrutamiento pueden usar diferentes métricas. La métrica utilizada por
un protocolo de enrutamiento no es comparable con la métrica utilizada por otro protocolo de
enrutamiento. Dos protocolos de routing distintos pueden elegir diferentes rutas hacia el mismo
destino.
En la animación de la ilustración, se muestra que el protocolo RIP elegiría la ruta con la menor
cantidad de saltos, mientras que el protocolo OSPF elegiría la ruta con el mayor ancho de banda.
Los protocolos de routing vector distancia comparten actualizaciones entre vecinos. Los vecinos
son routers que comparten un enlace y que están configurados para usar el mismo protocolo de
enrutamiento. El router sólo conoce las direcciones de red de sus propias interfaces y las
direcciones de red remota que puede alcanzar a través de sus vecinos. Los routers que utilizan el
enrutamiento vector distancia no tienen información sobre la topología de la red.
Algunos protocolos de routing vector distancia envían actualizaciones periódicas. Por ejemplo, RIP
envía una actualización periódica a todos sus vecinos cada 30 segundos; incluso si no se produce
un cambio en la topología, RIP continúa enviando actualizaciones. Para llegar a todos sus vecinos,
RIPv1 envía actualizaciones a la dirección IPv4 de todos los hosts 255.255.255.255 mediante una
difusión.
Como se muestra en la ilustración, los dos protocolos de routing vector distancia IPv4 modernos
son RIPv2 y EIGRP. RIPv1 e IGRP se incluyen solamente por motivos de precisión histórica.
El algoritmo utilizado para los protocolos de enrutamiento define los siguientes procesos:
El mecanismo para calcular las mejores rutas e instalar rutas en la tabla de routing.
Los diferentes protocolos de enrutamiento utilizan diversos algoritmos para instalar rutas en la tabla
de enrutamiento, enviar actualizaciones a los vecinos y determinar las rutas. Por ejemplo:
IGRP y EIGRP utilizan el algoritmo de actualización por difusión (DUAL) como algoritmo de
routing, desarrollado por el Dr. J. J. Garcia-Luna-Aceves en SRI International.
En 1993, RIPv1 evolucionó a un protocolo de routing sin clase conocido como “RIP versión 2”
(RIPv2). RIPv2 introdujo las siguientes mejoras:
Protocolo de routing sin clase: admite VLSM y CIDR, debido a que incluye la máscara de
subred en las actualizaciones de routing.
Las actualizaciones RIP se encapsulan en un segmento UDP, con los números de puerto de origen
y de destino establecidos en el puerto UDP 520.
En 1997, se lanzó la versión de RIP con IPv6 habilitado. RIPng se basa en RIPv2. Aún tiene una
limitación de 15 saltos, y la distancia administrativa es 120.
El protocolo de routing de gateway interior (IGRP) fue el primer protocolo de routing IPv4 exclusivo
desarrollado por Cisco en 1984. Tenía las siguientes características de diseño:
Se utilizan el ancho de banda, el retraso, la carga y la confiabilidad para crear una métrica
compuesta.
En 1992, el protocolo IGRP se vio reemplazado por IGRP mejorado (EIGRP). Al igual que RIPv2,
EIGRP también introdujo compatibilidad con VLSM y CIDR. Con EIGRP se aumenta la eficiencia,
se reducen las actualizaciones de routing y se admite el intercambio seguro de mensajes.
Mantenimiento de una tabla de topología: se mantienen todas las rutas recibidas de los
vecinos (no sólo las mejores rutas) en una tabla de topología. DUAL puede insertar rutas de
respaldo en la tabla de topología de EIGRP.
Convergencia rápida: en la mayoría de los casos, se trata del IGP más rápido para realizar
la convergencia debido a que mantiene rutas alternativas, lo que permite una convergencia
casi instantánea. Si una ruta principal falla, el router puede utilizar la ruta alternativa
identificada. El cambio a la ruta alternativa es inmediato y no implica interacción con otros
routers.
Si bien el protocolo RIP se utiliza con muy poca frecuencia en las redes modernas, es útil como
base para comprender el routing de red básico. Por este motivo, en esta sección se proporciona
una breve descripción general de la forma en que se configuran los parámetros básicos de RIP y
de la manera en que se verifica RIPv2.
Para deshabilitar y eliminar RIP, utilice el comando de configuración global no router rip. Este
comando detiene el proceso RIP y elimina todas las configuraciones RIP existentes.
En la figura 4, se muestran los diversos comandos RIP que se pueden configurar. En esta sección,
se abordan las palabras clave resaltadas.
Al ingresar en el modo de configuración de router RIP, el router recibe instrucciones para que
ejecute el RIP. Pero el router aún necesita conocer las interfaces locales que deberá utilizar para
comunicarse con otros routers, así como las redes conectadas en forma local que deberá publicar
a dichos routers.
Para habilitar el routing RIP para una red, utilice el comando del modo de configuración del
router network dirección-red. Introduzca la dirección de red con clase para cada red conectada
directamente. Este comando realiza lo siguiente:
Habilita el RIP en todas las interfaces que pertenecen a una red específica. Hace que las
interfaces asociadas ahora envíen y reciban actualizaciones RIP.
En la figura 1, el comando network se utiliza para anunciar las redes conectadas directamente al
R1.
El comando show ip protocols muestra los parámetros del protocolo de routing IPv4 configurados
actualmente en el router. Este resultado que se muestra en la figura 1 confirma la mayoría de los
parámetros de RIP, incluido lo siguiente:
5. El R1 anuncia las redes con clase. Estas son las redes que el R1 incluye en sus actualizaciones
RIP.
6. Los vecinos RIP se indican mediante la inclusión de la dirección IP del siguiente salto, la AD
asociada que el R2 utiliza para las actualizaciones enviadas por ese vecino y el momento en que
dicho vecino recibió la última actualización.
Nota: este comando también resulta muy útil para verificar las operaciones de otros protocolos de
routing (es decir, EIGRP y OSPF).
El comando show ip route muestra las rutas RIP instaladas en la tabla de routing. En la figura 2, el
R1 ahora tiene información acerca de las redes resaltadas.
Utilice el verificador de sintaxis de la figura 3 para verificar las rutas RIP y la configuración de RIP
del R2 y del R3.
De manera predeterminada, cuando hay un proceso de RIP configurado en un router Cisco, este
ejecuta RIPv1, como se muestra en la figura 1. Sin embargo, a pesar de que el router sólo envía
mensajes de RIPv1, puede interpretar los mensajes de RIPv1 y RIPv2. Los routers RIPv1
simplemente ignoran los campos de RIPv2 en la entrada de ruta.
Utilice el comando del modo de configuración del router version 2 para habilitar RIPv2, como se
muestra en la figura 2. Observe la forma en que el comando show ip protocols verifica que el R2
ahora está configurado para enviar y recibir solamente mensajes de versión 2. El proceso de RIP
ahora incluye la máscara de subred en todas las actualizaciones, lo que hace que RIPv2 sea un
protocolo de routing sin clase.
En la figura 3, se verifica que ya no haya rutas RIP en la tabla de routing. Esto se debe a que el R1
ahora está a la escucha de actualizaciones RIPv2 únicamente. El R2 y el R3 todavía envían
actualizaciones RIPv1. Por lo tanto, se debe configurar el comando version 2 en todos los routers
en el dominio de routing.
Como se muestra en la figura 1, RIPv2 resume automáticamente las redes en los límites de red
principales de manera predeterminada, al igual que RIPv1.
De manera predeterminada, las actualizaciones RIP se reenvían por todas las interfaces con RIP
habilitado. Sin embargo, en realidad las actualizaciones RIP solo deben reenviarse por las
interfaces que se conectan a otros routers con RIP habilitado.
Por ejemplo, consulte la topología en la figura 1. RIP envía actualizaciones por su interfaz G0/0,
aunque no existe ningún dispositivo RIP en esa LAN. No hay manera de que el R1 tenga
información acerca de esto y, como resultado, envía una actualización cada 30 segundos. El envío
de actualizaciones innecesarias a una LAN impacta en la red de tres maneras:
Utilice el comando de configuración del router passive-interface para evitar que las
actualizaciones de routing se transmitan a través de una interfaz del router y permitir que esa red
se siga anunciando a otros routers. El comando detiene las actualizaciones de routing a través de
la interfaz especificada. Sin embargo, la red a la que pertenece la interfaz especificada aún se
anuncia en las actualizaciones de routing enviadas a otras interfaces.
No es necesario que el R1, el R2, y el R3 reenvíen actualizaciones RIP por sus interfaces LAN. En
la configuración de la figura 2, se identifica la interfaz G0/0 del R1 como pasiva. El comando show
ip protocols se utiliza para verificar que la interfaz Gigabit Ethernet es pasiva. Observe que ya no
se indica que la interfaz G0/0 envía o recibe actualizaciones de versión 2, sino que se encuentra en
la sección Passive Interface(s) (Interfaces pasivas). Asimismo, observe que la red 192.168.1.0 aún
se encuentra bajo Routing for Networks (Routing para redes), lo cual significa que esta red aún
está incluida como una entrada de ruta en las actualizaciones RIP que se envían al R2.
Utilice el verificador de sintaxis de la figura 3 para configurar la interfaz LAN como interfaz pasiva
en el R2 y en el R3.
Como alternativa, todas las interfaces se pueden convertir en pasivas con el comando passive-
interface default. Las interfaces que no deben ser pasivas se pueden volver a habilitar con el
comando no passive-interface.
Para propagar una ruta predeterminada, el router perimetral debe estar configurado con lo
siguiente:
Una ruta estática predeterminada mediante el comando ip route 0.0.0.0 0.0.0.0 interfaz-
salida ip-siguiente-salto.
Utilice el verificador de sintaxis de la figura 3 para verificar que la ruta predeterminada se haya
propagado al R2 y al R3.
Al igual que su equivalente para IPv4, RIPng no se suele utilizar en las redes modernas, pero
también resulta útil como base para comprender el routing de red básico. Por este motivo, en esta
sección se proporciona una breve descripción general de cómo configurar RIPng básico.
Para habilitar un router IPv6 para que reenvíe paquetes IPv6, se debe configurar el comando ipv6
unicast-routing.
En la figura 1, se habilita el routing de unidifusión IPv6 y se habilitan las interfaces Gigabit Ethernet
0/0 y Serial 0/0/0 para RIPng mediante el nombre de dominio RIP-AS.
El proceso para propagar una ruta predeterminada en RIPng es idéntico al de RIPv2, excepto que
se debe especificar una ruta estática predeterminada IPv6. Por ejemplo, suponga que el R1 tenía
una conexión a Internet de una interfaz Serial 0/0/1 a la dirección IP 2001:DB8:FEED:1::1/64. Para
propagar una ruta predeterminada, el R3 debería configurarse con lo siguiente:
Una ruta estática predeterminada mediante el comando de configuración global ipv6 route
0::/0 2001:DB8:FEED:1::1.
El comando show ipv6 route muestra las rutas instaladas en la tabla de routing, como se muestra
en la figura 2. El resultado confirma que el R1 ahora tiene información acerca las redes RIPng
resaltadas.
Observe que la LAN del R2 se anuncia como a dos saltos de distancia. Esto se debe a que hay
una diferencia en la forma en que RIPv2 y RIPng calculan los conteos de saltos. Con RIPv2 (y
RIPv1), la métrica hasta la LAN del R2 sería un salto. Esto se debe a que la métrica (el conteo de
saltos) que se muestra en la tabla de routing IPv4 es la cantidad de saltos requeridos para llegar a
la red remota (contando el router del siguiente salto como primer salto). En RIPng, el router emisor
se considera a sí mismo a un salto de distancia, por lo tanto, el R2 anuncia su LAN con un valor de
métrica 1. Cuando el R1 recibe la actualización, agrega otro conteo de saltos de 1 a la métrica. Por
lo tanto, el R1 considera que la LAN del R2 está a dos saltos de distancia. De manera similar,
considera que la LAN del R3 está a tres saltos de distancia.
Si se agrega la palabra clave rip al comando, como se muestra en la figura 3, solo se indican las
redes RIPng.
A los protocolos de enrutamiento de link-state también se les conoce como protocolos shortest
path first y se desarrollan en torno al algoritmo shortest path first (SPF) de Edsger Dijkstra. El
algoritmo SPF se analiza más detalladamente en una sección posterior.
Intermediate-System-to-Intermediate-System (IS-IS)
Los protocolos de enrutamiento de link-state son conocidos por presentar una complejidad
bastante mayor que sus vectores distancia equivalentes. Sin embargo, la funcionalidad básica y la
configuración de los protocolos de routing de estado de enlace son igualmente sencillas.
Al igual que RIP y EIGRP, las operaciones básicas de OSPF se pueden configurar mediante los
siguientes comandos:
Todos los protocolos de routing de estado de enlace aplican el algoritmo de Dijkstra para calcular
la mejor ruta. A este algoritmo se le llama comúnmente “algoritmo SPF” (Shortest Path First). Para
determinar el costo total de una ruta, este algoritmo utiliza costos acumulados a lo largo de cada
ruta, de origen a destino.
En la figura, cada ruta se rotula con un valor arbitrario para el costo. El costo de la ruta más corta
para que el R2 envíe paquetes a la LAN conectada al R3 es 27. Cada router determina su propio
costo hacia cada destino en la topología. En otros términos, cada router calcula el algoritmo SPF y
determina el costo desde su propia perspectiva.
Nota: el objetivo central de esta sección es analizar el costo, el cual está determinado por el árbol
SPF. Por este motivo, en los gráficos de esta sección se muestran las conexiones del árbol SPF y
no la topología. Todos los enlaces se representan mediante una línea negra continua.
En la tabla de la figura 1, se muestra la ruta más corta y el costo acumulado para llegar a las redes
de destino identificadas desde la perspectiva del R1.
La ruta más corta no es necesariamente la ruta con la menor cantidad de saltos. Por ejemplo,
observe la ruta hacia la LAN R5. Podría suponerse que el R1 realizaría el envío directamente al R4
en lugar de al R3. Sin embargo, el costo para llegar a R4 directamente (22) es más alto que el
costo para llegar a R4 a través de R3 (17).
Observe la ruta más corta para que cada router llegue a cada una de las LAN, como se muestra en
las figuras 2 a 5.
Por lo tanto, ¿de qué manera exactamente funciona un protocolo de enrutamiento de link-state?
Con los protocolos de enrutamiento de link-state, un enlace es una interfaz en un router. La
información acerca del estado de dichos enlaces se conoce como estados de enlace.
1. Cada router obtiene información acerca de sus propios enlaces y sus propias redes conectadas
directamente. Esto se realiza al detectar que una interfaz se encuentra en el estado activado.
2. Cada router es responsable de reunirse con sus vecinos en redes conectadas directamente. Los
routers de estado de enlace lo hacen mediante el intercambio paquetes de saludo con otros routers
de estado de enlace en redes conectadas directamente.
3. Cada router crea un Paquete de link-state (LSP) que incluye el estado de cada enlace
directamente conectado. Esto se realiza registrando toda la información pertinente acerca de cada
vecino, que incluye el ID de vecino, el tipo de enlace y el ancho de banda.
4. Cada router satura a todos los vecinos con el LSP. Estos vecinos almacenan todos los LSP
recibidos en una base de datos. A continuación, saturan a sus vecinos con los LSP hasta que
todos los routers del área hayan recibido los LSP. Cada router almacena una copia de cada LSP
recibido por parte de sus vecinos en una base de datos local.
5. Cada router utiliza la base de datos para construir un mapa completo de la topología y calcula el
mejor camino hacia cada red de destino. En forma similar a tener un mapa de carretera, el router
tiene ahora un mapa completo de todos los destinos de la topología y las rutas para alcanzarlos. El
algoritmo SPF se utiliza para construir el mapa de la topología y determinar el mejor camino hacia
cada red.
Nota: este proceso es el mismo para OSPF para IPv4 e IPv6. En los ejemplos de esta sección, se
hará referencia a OSPF para IPv4.
El primer paso en el proceso de routing de estado de enlace es que cada router descubra sus
propios enlaces y sus propias redes conectadas directamente. Cuando se configura una interfaz de
router con una dirección IP y una máscara de subred, la interfaz se vuelve parte de esa red.
Consulte la topología en la figura 1. A los fines de este análisis, suponga que el R1 se configuró
previamente y que tenía plena conectividad a todos los vecinos. Sin embargo, se cortó la
alimentación del R1 brevemente y tuvo que reiniciarse.
Como ocurre con los protocolos vector distancia y las rutas estáticas, la interfaz debe configurarse
de manera adecuada con una dirección IPv4 y una máscara de subred, y el enlace debe
encontrarse en estado activo antes de que el protocolo de routing de estado de enlace pueda
obtener información sobre un enlace. Asimismo, como ocurre con los protocolos vector distancia, la
interfaz debe incluirse en una de las instrucciones network de configuración del router para que
pueda participar en el proceso de routing de estado de enlace.
Nota: la implementación de OSPF de Cisco especifica la métrica de routing OSPF como el costo
del enlace sobre la base del ancho de banda de la interfaz de salida. A los fines de este capítulo,
utilizamos valores de costo arbitrarios para simplificar la demostración.
El segundo paso en el proceso de routing de estado de enlace es que cada router asume la
responsabilidad de encontrarse con sus vecinos en redes conectadas directamente.
Los routers con protocolos de enrutamiento de link-state utilizan un protocolo de saludo para
descubrir cualquier vecino en sus enlaces. Un vecino es cualquier otro router habilitado con el
mismo protocolo de enrutamiento de link-state.
Haga clic en Reproducir en la ilustración para ver una animación sobre el proceso de
descubrimiento de vecinos de estado de enlace con paquetes de saludo.
En la animación, el R1 envía paquetes de saludo por sus enlaces (interfaces) para detectar la
presencia de vecinos. R2, R3 y R4 responden al paquete de saludo con sus propios paquetes de
saludo debido a que dichos routers están configurados con el mismo protocolo de enrutamiento de
link-state. No hay vecinos fuera de la interfaz FastEthernet 0/0. Debido a que el R1 no recibe un
saludo en esta interfaz, no continúa con los pasos del proceso de routing de estado de enlace para
el enlace FastEthernet 0/0.
Cuando dos routers de estado de enlace descubren que son vecinos, forman una adyacencia.
Dichos pequeños paquetes de saludo continúan intercambiándose entre dos vecinos adyacentes y
cumplen la función de keepalive para monitorear el estado del vecino. Si un router deja de recibir
paquetes de saludo por parte de un vecino, dicho vecino se considera inalcanzable y se rompe la
adyacencia.
El tercer paso en el proceso de routing de estado de enlace es que cada router cree un paquete de
estado de enlace (LSP) que contiene el estado de cada enlace conectado directamente.
Una vez que un router establece sus adyacencias, puede armar LSP que contienen la información
de estado de enlace de sus enlaces. Una versión simplificada de LSP del R1, que se muestra en la
ilustración, contendría lo siguiente: