Un switch recibe una trama con una dirección MAC de destino que no se encuentra actualmente en la tabla MAC. ¿Qué acción realiza el switch?

Aun para conectar computadores personales individuales (PC) a lnternet, se requiere alguna planificación y la toma de ciertas decisiones.
Comprender la conexión física que debe producirse para que un computador se conecte a Internet.  Reconocer los componentes que comprende el computador.  Instalar y diagnosticar las fallas de las NIC y los módems.  Configurar el conjunto de protocolos necesarios para la conexión a Internet.
Probar la conexión a Internet mediante procedimientos de prueba básicos.  Demostrar una comprensión básica del uso de los navegadores de Web y plug-ins.
  Se realiza una conexión física conectando un tarjeta adaptadora, tal como un módem o una NIC, desde un PC a una red.

La conexión física se utiliza para transferir las señales entre los distintos PC dentro de la red de área local (LAN) y hacia los dispositivos remotos que se encuentran en Internet.
Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen la manera en que se comunican los dispositivos de una red;
  La aplicación que interpreta los datos y muestra la información en un formato comprensible es la última parte de la conexión.
Los navegadores de Web también utilizan aplicaciones plug-in propietarias para mostrar tipos de datos especiales como, por ejemplo, películas o animaciones flash. 
  Esta es simplemente una introducción a Internet y, por la forma en que lo presentamos aquí, puede parecer un proceso sumamente simple.
A medida que exploremos el tema con mayor profundidad, se verá que el envío de datos a través de la Internet es una tarea complicada. 
Como los computadores son importantes elementos básicos de desarrollo de redes, es necesario poder reconocer y nombrar los principales componentes de un PC.
Muchos dispositivos de networking son de por sí computadores para fines especiales, que poseen varios de los mismos componentes que los PC normales.
  Para poder utilizar un computador como un medio confiable para obtener información, por ejemplo para acceder al currículum basado en Web, debe estar en buenas condiciones.
Para mantener un PC en buenas condiciones es necesario realizar de vez en cuando el diagnóstico simple de fallas del hardware y del software del computador.
Transistor: Dispositivo que amplifica una señal o abre y cierra un circuito  Circuito integrado: Dispositivo fabricado con material semiconductor que contiene varios transistores y realiza una tarea específica  Resistencia: Un componente eléctrico que limita o regula el flujo de corriente eléctrica en un circuito electrónico.  Condensador: Componente electrónico que almacena energía bajo la forma de un campo electroestático;
se compone de dos placas de metal conductor separadas por material aislante.  Conector: Parte de un cable que se enchufa a un puerto o interfaz  Diodo electroluminiscente (LED): Dispositivo semiconductor que emite luz cuando la corriente lo atraviesa 
Placa de circuito impreso (PCB, Printed Circuit Board): Una placa que tiene pistas conductoras superpuestas o impresas, en una o ambas caras.
También puede contener capas internas de señal y planos de alimentación eléctrica y tierra.
Microprocesadores, chips, circuitos integrados y otros componentes electrónicos se montan en las PCB.  Unidad de CD-ROM: Unidad de disco compacto con memoria de sólo lectura, que puede leer información de un CD-ROM  Unidad de procesamiento central (CPU): La parte de un computador que controla la operación de todas las otras partes.
Unidad de disquete: Una unidad de disco que lee y escribe información a una pieza circular con un disco plástico cubierto de metal de 3.5 pulgadas.
Unidad de disco duro: Un dispositivo de almacenamiento computacional que usa un conjunto discos rotatorios con cubierta magnética para almacenar datos o programas.
Los discos duros se pueden encontrar en distintas capacidades de almacenamiento.  Microprocesador: Un microprocesador es un procesador que consiste en un chip de silicio diseñado con un propósito especial y físicamente muy pequeño.
El microprocesador utiliza tecnología de circuitos de muy alta integración (VLSI , Very Large-Scale Integration) para integrar memoria , lógica y señales de control en un solo chip.
Un microprocesador contiene una CPU.  Placa madre: La placa de circuito impreso más importante de un computador.
La placa madre contiene el bus, el microprocesador y los circuitos integrados usados para controlar cualquier dispositivo tal como teclado, pantallas de texto y gráficos, puertos seriales y paralelos, joystick e interfaces para el mouse.
Bus: Un conjunto de pistas eléctricas en la placa madre a través del cual se transmiten señales de datos y temporización de una parte del computador a otra.  Memoria de acceso aleatorio (RAM): También conocida como memoria de lectura/escritura;
Si el computador se apaga o se le corta el suministro de energía, todos los datos almacenados en la RAM se pierden.  Memoria de sólo lectura (ROM): Memoria del computador en la cual hay datos que han sido pregrabados.
Una vez que se han escrito datos en un chip ROM, estos no se pueden eliminar y sólo se pueden leer.  Unidad del sistema: La parte principal del PC, que incluye el armazón, el microprocesador, la memoria principal, bus y puertos.
La unidad del sistema no incluye el teclado, monitor, ni ningún otro dispositivo externo conectado al computador.  Ranura de expansión: Un receptáculo en la placa madre donde se puede insertar una placa de circuito impreso para agregar capacidades al computador, La figura muestra las ranuras de expansión PCI (Peripheral Component Interconnect/Interconexión de componentes periféricos) y AGP (Accelerated Graphics Port/Puerto de gráficos acelerado).
PCI es una conexión de alta velocidad para placas tales como NIC, módems internos y tarjetas de video.
El puerto AGP provee una conexión de alta velocidad entre dispositivos gráficos y la memoria del sistema.
La ranura AGP provee una conexión de alta velocidad para gráficos 3-D en sistemas computacionales.  Fuente de alimentación: Componente que suministra energía a un computador 
Backplane: Un backplane es una placa de circuito electrónico que contiene circuitería y sócalós en los cuales se pueden insertar dispositivos electrónicos adicionales en otras placas de circuitos;
en un computador, generalmente sinónimo de o parte de la tarjeta madre.  Tarjeta de interfaz de red (NIC): Placa de expansión insertada en el computador para que se pueda conectar a la red.  Tarjeta de video: Placa que se introduce en un PC para otorgarle capacidades de visualización  Tarjeta de sonido: Placa de expansión que permite que el computador manipule y reproduzca sonidos  Puerto paralelo: Interfaz que puede transferir más de un bit simultáneamente y que se utiliza para conectar dispositivos externos tales como impresoras  Puerto serial: Interfaz que se puede utilizar para la comunicación serial, en la cual sólo se puede transmitir un bit a la vez.  Puerto de ratón: Puerto diseñado para conectar un ratón al PC  Cable de alimentación: Cable utilizado para conectar un dispositivo eléctrico a un tomacorrientes a fin de suministrar energía eléctrica al dispositivo.  Puerto USB: Un conector de Bus Serial Universal (Universal Serial Bus).
Un puerto USB conecta rápida y fácilmente dispositivos tales como un mouse o una impresora  Firewire: Una norma de interfaz de bus serial que ofrece comunicaciones de alta velocidad y servicios de datos isócronos de tiempo real.
En los sistemas computacionales de escritorio, es una tarjeta de circuito impreso que reside en una ranura en la tarjeta madre y provee una interfaz de conexión a los medios de red.
En los sistemas computacionales portátiles, está comúnmente integrado en los sistemas o está disponible como una pequeña tarjeta PCMCIA, del tamaño de una tarjeta de crédito.
La NIC utiliza una Petición de interrupción (IRQ), una dirección de E/S y espacio de memoria superior para funcionar con el sistema operativo.
Un valor IRQ (petición de interrupción) es número asignado por medio del cual donde el computador puede esperar que un dispositivo específico lo interrumpa cuando dicho dispositivo envía al computador señales acerca de su operación.
La señal interrumpe momentáneamente al computador de manera que este pueda decidir que procesamiento realizar a continuación.
Debido a que múltiples señales al computador en la misma línea de interrupción pueden no ser entendidas por el computador, se debe especificar un valor único para cada dispositivo y su camino al computador.
Antes de la existencia de los dispositivos Plug-and-Play (PnP), los usuarios a menudo tenían que configurar manualmente los valores de la IRQ, o estar al tanto de ellas, cuando se añadía un nuevo dispositivo al computador. 
Protocolos: Ethernet, Token Ring o FDDI  Tipos de medios: Cable de par trenzado, cable coaxial, inalámbrico o fibra óptica Tipo de bus de sistema: PCI o ISA 
  Un módem, o modulador-demodulador, es un dispositivo que ofrece al computador conectividad a una línea telefónica.
El módem convierte (modula) los datos de una señal digital en una señal analógica compatible con una línea telefónica estándar.
El módem en el extremo receptor demodula la señal, convirtiéndola nuevamente en una señal digital.
Los módems pueden ser internos o bien, pueden conectarse externamente al computador una interfaz de puerto serie ó USB.
  La instalación de una NIC, que proporciona la interfaz para un host a la red, es necesaria para cada dispositivo de la red.
Los sistemas de escritorio pueden usar un adaptador de red interno llamado NIC, o un adaptador de red externo que se conecta a la red a través del puerto USB. 
Conocimiento acerca de cómo debe configurarse el adaptador, incluyendo los jumpers y el software plug-and-play  Disponibilidad de herramientas de diagnóstico  Capacidad para resolver conflictos de recursos de hardware 
A principios de la década de 1960, se introdujeron los módems para proporcionar conectividad desde las terminales no inteligentes a un computador central Muchas empresas solían alquilar tiempo en sistemas de computación, debido al costo prohibitivo que implicaba tener un sistema en sus propias instalaciones.
La velocidad de conexión era muy lenta, 300 bits por segundo (bps), lo que significaba aproximadamente 30 caracteres por segundo. 
  A medida que los PC se hicieron más accesibles en la década de 1970, aparecieron los Sistemas de tableros de boletín (BBS).
Estos BBS permitieron que los usuarios se conectaran y enviaran o leyeran mensajes en un tablero de discusiones La velocidad de 300 bps era aceptable, ya que superaba la velocidad a la cual la mayoría de las personas pueden leer o escribir.
A principios de la década de 1980 el uso de los tableros de boletín aumentó exponencialmente y la velocidad de 300 bps resultó demasiado lenta para la transferencia de archivos de gran tamaño y de gráficos.
En la década de 1990, los módems funcionaban a 9600 bps y alcanzaron el estándar actual de 56 kbps (56.000 bps) para 1998. 
  Inevitablemente, los servicios de alta velocidad utilizados en el entorno empresarial, tales como la Línea de suscriptor digital (DSL) y el acceso de módem por cable, se trasladaron al mercado del consumidor.
Estos son servicios «de conexión permanente» que ofrecen acceso inmediato y no requieren que se establezca una conexión para cada sesíón.
Esto brinda mayor confiabilidad y flexibilidad y ha permitido que pequeñas oficinas y redes hogareñas puedan disfrutar de la comodidad de la conexión a Internet.
El Protocolo de control de transporte/protocolo Internet (TCP/IP) es un conjunto de protocolos o reglas desarrollados para permitir que los computadores que cooperan entre sí puedan compartir recursos a través de una red.
Para habilitar TCP/IP en la estación de trabajo, ésta debe configurarse utilizando las herramientas del sistema operativo.
Ping es un programa básico que verifica que una dirección IP particular existe y puede aceptar solicitudes.
El nombre se ajustó para coincidir el término usado en la jerga de submarinos para el sonido de un pulso de sonar que retorna desde un objeto sumergido. 
  El comando ping funciona enviando paquetes IP especiales, llamados datagramas de petición de eco ICMP (Internet Control Message Protocol/Protocolo de mensajes de control de Internet) a un destino específico.
La pantalla de respuesta de un ping contiene la proporción de éxito y el tiempo de ida y vuelta del envío hacia llegar a su destino.
El comando ping se utiliza para probar la función de transmisión/recepción de la NIC, la configuración TCP/IP y la conectividad de red.
ping 127.0.0.1: Este es un tipo especial de ping que se conoce como prueba interna de loopback.
  ping direcciónc IP del computador host: Un ping a un PC host verifica la configuración de la dirección TCP/IP para el host local y la conectividad al host.  ping dirección IP de gateway por defecto: Un ping al gateway por defecto verifica si se puede alcanzar el router que conecta la red local a las demás redes.  ping dirección IP de destino remoto: Un ping a un destino remoto verifica la conectividad a un host remoto. 
Inicia el contacto con un servidor de Web Solicita información Recibe información  Muestra los resultados en pantalla
  Un navegador de Web es un software que interpreta el lenguaje de etiquetas por hipertexto (HTML), que es uno de los lenguajes que se utiliza para codificar el contenido de una página Web.
HTML el lenguaje de etiquetas más común, puede mostrar gráficos en pantalla, ejecutar sonidos, películas y otros archivos multimediales.
Los hipervínculos están integrados en una página web y permiten establecer un vínculo rápido con otra ubicación en la misma página web o en una totalmente distinta. 
Algunos sitios Web no admiten el uso de uno o del otro y puede resultar útil tener ambos programas instalados en el computador. 
Primer navegador popular Ocupa menos espacio en disco Pone en pantalla archivos HTML, realiza transferencias de correo electrónico y de archivos y desempeña otras funciones
Sólidamente integrado con otros productos de Microsoft  Ocupa más espacio en disco Pone en pantalla archivos HTML, realiza transferencias de correo electrónico y de archivos y desempeña otras funciones
  También existen algunos tipos de archivos especiales, o propietarios, que no se pueden visualizar con los navegadores de Web estándar.
Para ver estos archivos, el navegador debe configurarse para utilizar aplicaciones denominadas plug-in.
Estas aplicaciones trabajan en conjunto con el navegador para iniciar el programa que se necesita para ver los archivos especiales.
  Además de establecer la configuración del computador para visualizar el currículum de la Academia Cisco, los computadores permiten realizar muchas tareas de gran utilidad.
En el campo empresarial, los empleados usan regularmente un conjunto de aplicaciones de productividad o «de oficina», tal como el Microsoft Office.
Un software de hoja de cálculo contiene tablas compuestas por columnas y filas que se utilizan con frecuencia con fórmulas, para procesar y analizar datos.  Un procesador de texto es una aplicación que se utiliza para crear y modificar documentos de texto.
Los procesadores de texto modernos permiten crear documentos sofisticados, que incluyen gráficos y texto con riqueza de formato.  El software de gestión de bases de datos se utiliza para almacenar, mantener, organizar, seleccionar y filtrar registros.
Un registro es un conjunto de información que se identifica con un tema común como puede ser el nombre del cliente.  El software de presentación se utiliza para diseñar y desarrollar presentaciones destinadas a reuniones, clases o presentaciones de ventas.  Los administradores de información personal incluyen elementos como utilidades de correo electrónico, listas de contacto, una agenda y una lista de tareas a realizar. 
  Las aplicaciones de oficina forman parte en la actualidad de la vida laboral diaria, tal como ocurría con las máquinas de escribir antes de la llegada de los computadores personales.
En esta práctica de laboratorio de diagnóstico de fallas, los problemas se encuentran en el hardware, en el software y en las configuraciones de red.
El objetivo es ubicar y solucionar problemas en un lapso predeterminado de tiempo, lo que con el tiempo permitirá el acceso al currículum.
Esta práctica de laboratorio demostrará lo compleja que puede resultar la configuración incluso del sencillo proceso de acceder a la web.
Esto incluye los procesos y procedimientos relacionados con el diagnóstico de fallas de hardware, software y sistemas de red de un computador.
Los computadores sólo pueden entender y usar datos que están en este formato binario, o sea, de dos estados.
  El Código americano normalizado para el intercambio de información (ASCII) es el código que se usa más a menudo para representar los datos alfanuméricos de un computador.
Cuando los computadores envían estados de ENCENDIDO/APAGADO a través de una red, se usan ondas eléctricas, de luz o de radio para representar los unos y los ceros.
Observe que cada carácter tiene un patrón exclusivo de ocho dígitos binarios asignados para representar al carácter.
  Debido a que los computadores están diseñados para funcionar con los interruptores ENCENDIDO/APAGADO, los dígitos y los números binarios les resultan naturales.
Los seres humanos usan el sistema numérico decimal, que es relativamente simple en comparación con las largas series de unos y ceros que usan los computadores.
  A veces, los números binarios se deben convertir en números Hexadecimales (hex), lo que reduce una larga cadena de dígitos binarios a unos pocos caracteres hexadecimales.
Un número binario 0 puede estar representado por 0 voltios de electricidad (0 = 0 voltios).
  Un número binario 1 puede estar representado por +5 voltios de electricidad (1 = +5 voltios).
Estas ubicaciones de almacenamiento representan un valor o un solo carácter de datos como, por ejemplo, un código ASCII.
De modo que un byte es un concepto importante que se debe entender si uno trabaja con computadores y redes. 
Los sistemas numéricos están compuestos por símbolos y por las normas utilizadas para interpretar estos símbolos.
El sistema numérico de Base 10 usa diez símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9.
Cada posición de columna de un valor, pasando de derecha a izquierda, se multiplica por el número 10, que es el número de base, elevado a una potencia, que es el exponente.
Cuando un número decimal se lee de derecha a izquierda, el primer número o el número que se ubica más a la derecha representa 100 (1), mientras que la segunda posición representa 101 (10 x 1= 10) La tercera posición representa 102 (10 x 10 =100).
La séptima posición a la izquierda representa 106 (10 x 10 x 10 x 10 x 10 x 10 =1.000.000).
2134 = (2×103) + (1×102) + (3×101) + (4×100) 
  Hay un 4 en la posición correspondiente a las unidades, un 3 en la posición de las decenas, un 1 en la posición de las centenas y un 2 en la posición de los miles.
Es importante saber exactamente cómo funciona el sistema decimal, ya que este conocimiento permite entender los otros dos sistemas numéricos, el sistema numérico de Base 2 y el sistema numérico hexadecimal de Base 16.
Los computadores reconocen y procesan datos utilizando el sistema numérico binario, o de Base 2.
El sistema numérico binario usa sólo dos símbolos, 0 y 1, en lugar de los diez símbolos que se utilizan en el sistema numérico decimal.
La posición, o el lugar, que ocupa cada dígito de derecha a izquierda en el sistema numérico binario representa 2, el número de base, elevado a una potencia o exponente, comenzando desde 0.
Estos valores posicionales son, de derecha a izquierda, 20, 21, 22, 23, 24, 25, 26 y 27, o sea, 1, 2, 4, 8, 16, 32, 64 y 128, respectivamente. 
101102 = (1 x 24 = 16) + (0 x 23 = 0) + (1 x 22 = 4) + (1 x 21 = 2) + (0 x 20 = 0) = 22 (16 + 0 + 4 + 2 + 0) 
  Al leer el número binario (101102) de izquierda a derecha, se nota que hay un 1 en la posición del 16, un 0 en la posición del 8, un 1 en la posición del 4, un 1 en la posición del 2 y un 0 en la posición del 1, que sumados dan el número decimal 22.
El proceso intenta descubrir cuáles de los valores de la potencia de 2 se suman para obtener el número decimal que se desea convertir en un número binario.
40 – 32 es igual a 8.  16 no entra en 8, de modo que el cuarto bit desde la izquierda es un 0.
  También se pueden convertir los números binarios en decimales multiplicando los dígitos binarios por el número base del sistema, que es de Base 2, y elevados al exponente de su posición. 
1.2.7 Representación en notación decimal separada por puntos de cuatro octetos de números binarios de 32 bits 
Para facilitar el trabajo con estas direcciones, el número binario de 32 bits se divide en una serie de números decimales.
Haga esta conversión exactamente como se indica en la explicación de conversión de binario a decimal que aparece en la página anterior. 
  Una vez que está escrito, el número binario completo se representa como cuatro grupos de dígitos decimales separados por puntos.
Esto se denomina notación decimal separada por puntos y ofrece una manera compacta y fácil de recordar para referirse a las direcciones de 32 bits.
Al realizar la conversión de binario a decimal separado por puntos, recuerde que cada grupo, que está formado por uno a tres dígitos decimales, representa un grupo de ocho dígitos binarios.
Si el número decimal que se está convirtiendo es menor que 128, será necesario agregar ceros a la izquierda del número binario equivalente hasta que se alcance un total de ocho bits. 
El sistema numérico hexadecimal (hex) se usa frecuentemente cuando se trabaja con computadores porque se puede usar para representar números binarios de manera más legible.
El computador ejecuta cálculos en números binarios, pero hay varios casos en los que el resultado del computador en números binarios se expresa en números hexadecimales para facilitar su lectura.
  La conversión de un número hexadecimal en binario, y de un número binario en hexadecimal, es una tarea común cuando se trabaja con el registro de configuración de los routers de Cisco.
El número binario de 16 bits se puede representar como un número hexadecimal de cuatro dígitos.
La palabra hexadecimal a menudo se abrevia como 0x cuando se utiliza con un valor como el que aparece en el número anterior.
  Al igual que los sistemas binario y decimal, el sistema hexadecimal se basa en el uso de símbolos, potencias y posiciones.
  Observe que todas las combinaciones posibles de cuatro dígitos binarios tienen sólo un símbolo hexadecimal, mientras que en el sistema decimal se utilizan dos.
La razón por la que se utiliza el sistema hexadecimal es que dos dígitos hexadecimales, al contrario de lo que ocurre en el sistema decimal que requiere hasta cuatro dígitos, pueden representar eficientemente cualquier combinación de ocho dígitos binarios.
Al permitir que se usen dos dígitos decimales para representar cuatro bits, el uso de decimales también puede provocar confusiones en la lectura de un valor.
Por ejemplo, el número binario de ocho bits 01110011 sería 115 si se convirtiera en dígitos decimales.
Si se usa 11-5, el número binario sería 10110101, que no es el número que se convirtió originalmente.
  El sistema hexadecimal reduce un número de ocho bits a sólo dos dígitos hexadecimales.
Esto reduce la confusión que se puede generar al leer largas cadenas de números binarios y la cantidad de espacio que exige la escritura de números binarios.
Recuerde que «hexadecimal» a veces se abrevia como 0x, de modo que hexadecimal 5D también puede aparece escrito como «0x5D». 
  Para realizar la conversión de números hexadecimales a binarios, simplemente se expande cada dígito hexadecimal a su equivalente binario de cuatro bits.
Para los fines de los computadores, la diferencia de voltaje se asocia con dos estados, activado (encendido) o desactivado (apagado).
Estos dos estados, a su vez, se asocian como un 1 o un 0, que son los dos dígitos del sistema numérico binario. 
  La lógica booleana es una lógica binaria que permite que se realice una comparación entre dos números y que se genere una elección en base a esos dos números.
Aceptan dos números, que pueden ser 1 ó 0, y generan un resultado basado en la regla de lógica. 
  La operación NOT toma cualquier valor que se le presente, 0 ó 1, y lo invierte.
Esta vez tres combinaciones generan un resultado de 1 y la cuarta genera un resultado de 0. 
  Las dos operaciones de networking que utilizan la lógica booleana son las máscaras wildcard y de subred.
Las direcciones identifican a los dispositivos de la red y permiten que las direcciones se agrupen o sean controladas por otras operaciones de red.
  Cuando se asignan direcciones IP a los computadores, algunos de los bits del lado izquierdo del número IP de 32 bits representan una red.
Los bits restantes en la dirección IP de 32 bits identifican un computador de la red en particular.
La dirección IP de un computador está formada por una parte de red y otra de host que representa a un computador en particular de una red en particular. 
  Para informarle al computador cómo se ha dividido la dirección IP de 32 bits, se usa un segundo número de 32 bits denominado máscara de subred.
Esta máscara es una guía que indica cómo se debe interpretar la dirección IP al identificar cuántos de los bits se utilizan para identificar la red del computador.
Una máscara de subred siempre estará formada por unos hasta que se identifique la dirección de red y luego estará formada por ceros desde ese punto hasta el extremo derecho de la máscara.
  En el primer ejemplo, los primeros ocho bits desde la izquierda representan la parte de red de la dirección y los últimos 24 bits representan la parte de host de la dirección.
En el segundo ejemplo, los primeros 16 bits representan la parte de red de la dirección y los últimos 16 bits representan la parte de host de la dirección. 
  La conversión de la dirección IP 10.34.23.134 en números binarios daría como resultado lo siguiente: 
La ejecución de una operación AND booleana de la dirección IP 10.34.23.134 y la máscara de subred 255.0.0.0 da como resultado la dirección de red de este host: 
  Convirtiendo el resultado a una notación decimal separada por puntos, se obtiene 10.0.0.0 que es la parte de red de la dirección IP cuando se utiliza la máscara 255.0.0.0. 
  La ejecución de una operación AND booleana de la dirección IP 10.34.23.134 y la máscara de subred 255.255.0.0 da como resultado la dirección de red de este host:
  Convirtiendo el resultado a una notación decimal separada por puntos, se obtiene 10.34.0.0 que es la parte de red de la dirección IP cuando se utiliza la máscara 255.255.0.0. 
  La siguiente es una ilustración breve del efecto que tiene la máscara de red sobre una dirección IP.
La conexión física que se debe producir para que un computador se conecte a Internet Los componentes principales de un computador La instalación y el diagnóstico de fallas de las tarjetas de interfaz de red y/o módems Los procedimientos de prueba básicos para probar la conexión a Internet La selección y configuración del navegador de Web El sistema numérico de Base 2  La conversión de números binarios a decimales El sistema numérico hexadecimal La representación binaria de direcciones IP y máscaras de red La representación decimal de direcciones IP y máscaras de red   Módulo 2: Aspectos básicos de networking
Explicar la importancia del ancho de banda en networking.  Explicar lo que es el ancho de banda a partir de una analogía basada en su propia experiencia.  Identificar bps, kbps, Mbps, y Gbps como unidades de ancho de banda.  Explicar la diferencia entre ancho de banda y tasa de transferencia.  Calcular velocidades de transferencia de datos.  Explicar por qué se utilizan modelos divididos en capas para describir la comunicación de datos.  Explicar el desarrollo del modelo de Internetworking de Sistemas Abiertos (OSI).  Detallar las ventajas de un enfoque dividido en capas.  Identificar cada una de las siete capas del modelo OSI.  Identificar las cuatro capas del modelo TCP/IP.  Describir las similitudes y diferencias entre ambos modelos.  Poder relatar brevemente la historia de networking.  Identificar los dispositivos utilizados en networking.  Comprender la función de los protocolos en networking.  Definir LAN, WAN, MAN y SAN.  Explicar las VPN y sus ventajas.  Describir las diferencias entre redes internas y externas.
Por aquel entonces, los microcomputadores no estaban conectados entre sí como sí lo estaban las terminales de computadores mainframe, por lo cual no había una manera eficaz de compartir datos entre varios computadores.
Se tornó evidente que el uso de disquetes para compartir datos no era un método eficaz ni económico para desarrollar la actividad empresarial.
Cómo evitar la duplicación de equipos informáticos y de otros recursos Cómo comunicarse con eficiencia Cómo configurar y administrar una red
  Las empresas se dieron cuenta de que la tecnología de networking podía aumentar la productividad y ahorrar gastos.
Las redes se agrandaron y extendieron casi con la misma rapidez con la que se lanzaban nuevas tecnologías y productos de red.
A principios de la década de 1980 networking se expandíó enormemente, aun cuando en sus inicios su desarrollo fue desorganizado. 
  A mediados de la década de 1980, las tecnologías de red que habían emergido se habían creado con implementaciones de hardware y software distintas.
Cada empresa dedicada a crear hardware y software para redes utilizaba sus propios estándares corporativos.
Esto a menudo obligaba a deshacerse de los equipos de la antigua red al implementar equipos de red nuevos. 
Como los estándares LAN proporcionaban un conjunto abierto de pautas para la creación de hardware y software de red, se podrían compatibilizar los equipos provenientes de diferentes empresas.
  Lo que se necesitaba era una forma de que la información se pudiera transferir rápidamente y con eficiencia, no solamente dentro de una misma empresa sino también de una empresa a otra.
Como las WAN podían conectar redes de usuarios dentro de áreas geográficas extensas, permitieron que las empresas se comunicaran entre sí a través de grandes distancias.
Los procesos de creación y comercialización son mucho más complicados, pero es útil analizar el desarrollo fundamental. 
  En la década de 1940, los computadores eran enormes dispositivos electromecánicos que eran propensos a sufrir fallas.
En 1947, la invención del transistor semiconductor permitíó la creación de computadores más pequeños y confiables.
En la década de 1950 los computadores mainframe, que funcionaban con programas en tarjetas perforadas, comenzaron a ser utilizados habitualmente por las grandes instituciones.
A fines de esta década, se creó el circuito integrado, que combinaba muchos y, en la actualidad, millones de transistores en un pequeño semiconductor.
En la década de 1960, los mainframes con terminales eran comunes, y los circuitos integrados comenzaron a ser utilizados de forma generalizada. 
  Hacia fines de la década de 1960 y durante la década de 1970, se inventaron computadores más pequeños, denominados minicomputadores.
Sin embargo, estos minicomputadores seguían siendo muy voluminosos en comparación con los estándares modernos.
El equipo Mac, de uso sencillo, el PC IBM de arquitectura abierta y la posterior microminiaturización de los circuitos integrados dieron como resultado el uso difundido de los computadores personales en hogares y empresas. 
  A mediados de la década de 1980 los usuarios con computadores autónomos comenzaron a usar módems para conectarse con otros computadores y compartir archivos.
El concepto se expandíó a través del uso de computadores que funcionaban como punto central de comunicación en una conexión de acceso telefónico.
Los usuarios se conectaban a los tableros de boletín, donde depositaban y levantaban mensajes, además de cargar y descargar archivos.
La desventaja de este tipo de sistema era que había poca comunicación directa, y únicamente con quienes conocían el tablero de boletín.
Si cinco personas se conectaban simultáneamente, hacían falta cinco módems conectados a cinco líneas telefónicas diferentes.
A medida que crecía el número de usuarios interesados, el sistema no pudo soportar la demanda.
A partir de la década de 1960 y durante las décadas de 1970, 1980 y 1990, el Departamento de Defensa de Estados Unidos (DoD) desarrolló redes de área amplia (WAN) de gran extensión y alta confiabilidad, para uso militar y científico.
En lugar de poder comunicarse con un solo computador a la vez, se podía acceder a varios computadores mediante la misma conexión.
Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás dispositivos que brindan servicios directamente al usuario.
  Los dispositivos de usuario final que conectan a los usuarios con la red también se conocen con el nombre de hosts.
Los dispositivos host pueden existir sin una red, pero sin la red las capacidades de los hosts se ven sumamente limitadas.
Los dispositivos host están físicamente conectados con los medios de red mediante una tarjeta de interfaz de red (NIC).
Utilizan esta conexión para realizar las tareas de envío de correo electrónico, impresión de documentos, escaneado de imágenes o acceso a bases de datos.
Un NIC es una placa de circuito impreso que se coloca en la ranura de expansión de un bus de la motherboard de un computador, o puede ser un dispositivo periférico.
  No existen símbolos estandarizados para los dispositivos de usuario final en la industria de networking.
  Los dispositivos de red son los que transportan los datos que deben transferirse entre dispositivos de usuario final.
Los dispositivos de red proporcionanel tendido de las conexiones de cable, la concentración de conexiones, la conversión de los formatos de datos y la administración de transferencia de datos.
Algunos ejemplos de dispositivos que ejecutan estas funciones son los repetidores, hubs, puentes, switches y routers.
Los repetidores regeneran señales analógicas o digitales que se distorsionan a causa de pérdidas en la transmisión producidas por la atenuación.
Un repetidor no toma decisiones inteligentes acerca del envío de paquetes como lo hace un router o puente.
  Los puentes convierten los formatos de transmisión de datos de la red además de realizar la administración básica de la transmisión de datos.
Los puentes no sólo conectan las LAN, sino que además verifican los datos para determinar si les corresponde o no cruzar el puente.
  Los switches de grupos de trabajo agregan inteligencia a la administración de transferencia de datos.
No sólo son capaces de determinar si los datos deben permanecer o no en una LAN, sino que pueden transferir los datos únicamente a la conexión que necesita esos datos.
Los routers pueden regenerar señales, concentrar múltiples conexiones, convertir formatos de transmisión de datos, y manejar transferencias de datos.
Una parte de la definición topológica es la topología física, que es la disposición real de los cables o medios.
La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos.
Una topología de bus usa un solo cable backbone que debe terminarse en ambos extremos.
Todos los hosts se conectan directamente a este backbone.  La topología de anillo conecta un host con el siguiente y al último host con el primero.
Esto crea un anillo físico de cable.  La topología en estrella conecta todos los cables con un punto central de concentración.
Una topología en estrella extendida conecta estrellas individuales entre sí mediante la conexión de hubs o switches.
Esta topología puede extender el alcance y la cobertura de la red.  Una topología jerárquica es similar a una estrella extendida.
Pero en lugar de conectar los hubs o switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología.  La topología de malla se implementa para proporcionar la mayor protección posible para evitar una interrupción del servicio.
El uso de una topología de malla en los sistemas de control en red de una planta nuclear sería un ejemplo excelente.
  La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red.
La transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial.
Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir.
  El diagrama en la Figura muestra diferentes topologías conectadas mediante dispositivos de red.
Tiene muchos símbolos, y describe varios conceptos de networking que lleva cierto tiempo aprender.
Los conjuntos de protocolos son colecciones de protocolos que posibilitan la comunicación de red desde un host, a través de la red, hacia otro host.
Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen un aspecto particular de cómo los dispositivos de una red se comunican entre sí.
Los protocolos determinan el formato, la sincronización, la secuenciación y el control de errores en la comunicación de datos.
Sin protocolos, el computador no puede armar o reconstruir el formato original del flujo de bits entrantes desde otro computador.
Cómo se construye la red física Cómo los computadores se conectan a la red Cómo se formatean los datos para su transmisión Cómo se envían los datos Cómo se manejan los errores
  Estas normas de red son creadas y administradas por una serie de diferentes organizaciones y comités.
Computadores Tarjetas de interfaz de red Dispositivos periféricos Medios de networking Dispositivos de networking
    Las LAN permiten a las empresas aplicar tecnología informática para compartir localmente archivos e impresoras de manera eficiente, y posibilitar las comunicaciones internas.
Las WAN interconectan las LAN, que a su vez proporcionan acceso a los computadores o a los servidores de archivos ubicados en otros lugares.
Como las WAN conectan redes de usuarios dentro de un área geográfica extensa, permiten que las empresas se comuniquen entre sí a través de grandes distancias.
Las WAN permiten que los computadores, impresoras y otros dispositivos de una LAN compartan y sean compartidas por redes en sitios distantes.
El software de colaboración brinda acceso a información en tiempo real y recursos que permiten realizar reuniones entre personas separadas por largas distancias, en lugar de hacerlas en persona.
Networking de área amplia también dio lugar a una nueva clase de trabajadores, los empleados a distancia, que no tienen que salir de sus hogares para ir a trabajar. 
Operar entre áreas geográficas extensas y distantes Posibilitar capacidades de comunicación en tiempo real entre usuarios Brindar recursos remotos de tiempo completo, conectados a los servicios locales Brindar servicios de correo electrónico, World Wide Web, transferencia de archivos y comercio electrónico
Módems Red digital de servicios integrados (RDSI) Línea de suscripción digital (DSL – Digital Subscriber Line) Frame Relay Series de portadoras para EE.UU.
Normalmente, se utiliza un proveedor de servicios para conectar dos o más sitios LAN utilizando líneas privadas de comunicación o servicios ópticos.
También se puede crear una MAN usando tecnologías de puente inalámbrico enviando haces de luz a través de áreas públicas.
Una SAN es una red dedicada, de alto rendimiento, que se utiliza para trasladar datos entre servidores y recursos de almacenamiento.
Al tratarse de una red separada y dedicada, evita todo conflicto de tráfico entre clientes y servidores. 
  La tecnología SAN permite conectividad de alta velocidad, de servidor a almacenamiento, almacenamiento a almacenamiento, o servidor a servidor.
Este método usa una infraestructura de red por separado, evitando así cualquier problema asociado con la conectividad de las redes existentes. 
Rendimiento: Las SAN permiten el acceso concurrente de matrices de disco o cinta por dos o más servidores a alta velocidad, proporcionando un mejor rendimiento del sistema.  Disponibilidad: Las SAN tienen una tolerancia incorporada a los desastres, ya que se puede hacer una copia exacta de los datos mediante una SAN hasta una distancia de10 kilómetros (km) o 6,2 millas.  Escalabilidad: Al igual que una LAN/WAN, puede usar una amplia gama de tecnologías.
Esto permite la fácil reubicación de datos de copia de seguridad, operaciones, migración de archivos, y duplicación de datos entre sistemas. 
Con una VPN, un empleado a distancia puede acceder a la red de la sede de la empresa a través de Internet, formando un túnel seguro entre el PC del empleado y un router VPN en la sede. 
La VPN es un servicio que ofrece conectividad segura y confiable en una infraestructura de red pública compartida, como la Internet.
Son la forma más económica de establecer una conexión punto-a-punto entre usuarios remotos y la red de un cliente de la empresa. 
VPN de acceso: Las VPN de acceso brindan acceso remoto a un trabajador móvil y una oficina pequeña/oficina hogareña (SOHO), a la sede de la red interna o externa, mediante una infraestructura compartida.
Las VPN de acceso usan tecnologías analógicas, de acceso telefónico, RDSI, línea de suscripción digital (DSL), IP móvil y de cable para brindar conexiones seguras a usuarios móviles, empleados a distancia y sucursales.  Redes internas VPN: Las redes internas VPN conectan a las oficinas regionales y remotas a la sede de la red interna mediante una infraestructura compartida, utilizando conexiones dedicadas.
Las redes internas VPN difieren de las redes externas VPN, ya que sólo permiten el acceso a empleados de la empresa.  Redes externas VPN: Las redes externas VPN conectan a socios comerciales a la sede de la red mediante una infraestructura compartida, utilizando conexiones dedicadas.
Las redes externas VPN difieren de las redes internas VPN, ya que permiten el acceso a usuarios que no pertenecen a la empresa.
Los servidores de Web de red interna son distintos de los servidores de Web públicos, ya que es necesario que un usuario público cuente con los correspondientes permisos y contraseñas para acceder a la red interna de una organización.
Las redes internas están diseñadas para permitir el acceso por usuarios con privilegios de acceso a la LAN interna de la organización.
La tecnología de navegador se utiliza como interfaz común para acceder a la información, por ejemplo datos financieros o datos basados en texto y gráficos que se guardan en esos servidores. 
  Las redes externas hacen referencia a aplicaciones y servicios basados en la red interna, y utilizan un acceso extendido y seguro a usuarios o empresas externas Este acceso generalmente se logra mediante contraseñas, identificaciones de usuarios, y seguridad a nivel de las aplicaciones.
Por lo tanto, una red externa es la extensión de dos o más estrategias de red interna, con una interacción segura entre empresas participantes y sus respectivas redes internas.
El ancho de banda se define como la cantidad de información que puede fluir a través de una conexión de red en un período dado Es esencial comprender el concepto de ancho de banda al estudiar networking, por las siguientes cuatro razones:
En otras palabras, independientemente del medio que se utilice para construir la red, existen límites para la capacidad de la red para transportar información.
El ancho de banda está limitado por las leyes de la física y por las tecnologías empleadas para colocar la información en los medios.
Por ejemplo, el ancho de banda de un módem convencional está limitado a alrededor de 56 kpbs por las propiedades físicas de los cables telefónicos de par trenzado y por la tecnología de módems.
No obstante, las tecnologías empleadas por DSL utilizan los mismos cables telefónicos de par trenzado, y sin embargo DSL ofrece un ancho de banda mucho mayor que los módems convencionales.
Esto demuestra que a veces es difícil definir los límites impuestos por las mismas leyes de la física.
La fibra óptica posee el potencial físico para proporcionar un ancho de banda prácticamente ilimitado.
Aun así, el ancho de banda de la fibra óptica no se puede aprovechar en su totalidad, en tanto no se desarrollen tecnologías que aprovechen todo su potencial.  El ancho de banda no es gratuito.
Es posible adquirir equipos para una red de área local (LAN) capaz de brindar un ancho de banda casi ilimitado durante un período extendido de tiempo.
Para conexiones de red de área amplia (WAN), casi siempre hace falta comprar el ancho de banda de un proveedor de servicios.
En ambos casos, comprender el significado del ancho de banda, y los cambios en su demanda a través del tiempo, pueden ahorrarle importantes sumas de dinero a un individuo o a una empresa.
Un administrador de red necesita tomar las decisiones correctas con respecto al tipo de equipo y servicios que debe adquirir.  El ancho de banda es un factor clave a la hora de analizar el rendimiento de una red, diseñar nuevas redes y comprender la Internet.
Un profesional de networking debe comprender el fuerte impacto del ancho de banda y la tasa de transferencia en el rendimiento y el diseño de la red.
Estos bits representan enormes cantidades de información que fluyen de ida y de vuelta a través del planeta en segundos, o menos.
En cierto sentido, puede ser correcto afirmar que la Internet es puro ancho de banda.  La demanda de ancho de banda no para de crecer.
No bien se construyen nuevas tecnologías e infraestructuras de red para brindar mayor ancho de banda, se crean nuevas aplicaciones que aprovechan esa mayor capacidad.
La entrega de contenidos de medios enriquecidos a través de la red, incluyendo video y audio fluido, requiere muchísima cantidad de ancho de banda.
Hoy se instalan comúnmente sistemas telefónicos IP en lugar de los tradicionales sistemas de voz, lo que contribuye a una mayor necesidad de ancho de banda.
Un profesional de networking exitoso debe anticiparse a la necesidad de mayor ancho de banda y actuar en función de eso.
El ancho de banda se define como la cantidad de información que puede fluir a través de una red en un período dado.
La idea de que la información fluye, sugiere dos analogías que podrían facilitar la visualización del ancho de banda en una red.
Una red de tuberías trae agua potable a los hogares y las empresas y se lleva las aguas servidas.
Las principales tuberías de agua de una ciudad pueden medir dos metros de diámetro, en tanto que la tubería de un grifo de cocina puede medir apenas dos centímetros.
Muchos expertos en networking dicen que necesitan poner tuberías más grandes si desean agregar capacidad para transportar información. 
Las grandes autopistas con muchos carriles se conectan a caminos más pequeños con menor cantidad de carriles.
Estos caminos llevan a otros aún más pequeños y estrechos, que eventualmente desembocan en las entradas de las casas y las oficinas.
Esto es particularmente verdadero en caminos con menor cantidad de carriles disponibles para la circulación del tráfico.
Eventualmente, a medida que se suma tráfico al sistema de autopistas, hasta aquéllas con varios carriles se congestionan y vuelven más lentas.
Los paquetes de datos son comparables a los automóviles, y el ancho de banda es comparable a la cantidad de carriles en una autopista.
Cuando uno piensa en una red de datos en términos de un sistema de autopistas, es fácil ver cómo las conexiones con ancho de banda reducido pueden provocar congestiones de tráfico en toda la red. 
El ancho de banda es la medición de la cantidad de información, o bits, que puede fluir desde un lugar hacia otro en un período de tiempo determinado, o segundos.
Aunque el ancho de banda se puede describir en bits por segundo, se suelen usar múltiplos de bits por segundo.
En otras palabras, el ancho de banda de una red generalmente se describe en términos de miles de bits por segundo (kbps), millones de bits por segundo (Mbps), miles de millones de bits por segundo (Gbps) y billones de bits por segundo (Tbps).
A pesar de que las expresiones ancho de banda y velocidad a menudo se usan en forma indistinta, no significan exactamente lo mismo.
No obstante, si sólo se utiliza una cantidad pequeña de su capacidad para transportar datos, cada uno de estos tipos de conexión transportará datos a aproximadamente la misma velocidad.
Por ejemplo, una cantidad pequeña de agua fluirá a la misma velocidad por una tubería pequeña y por una tubería grande.
Por lo tanto, suele ser más exacto decir que una conexión T3 posee un mayor ancho de banda que una conexión T1.
Esto es así porque la conexión T3 posee la capacidad para transportar más información en el mismo período de tiempo, y no porque tenga mayor velocidad.
Las señales se transmiten a través de cables de cobre de par trenzado, cables coaxiales, fibras ópticas, y por el aire.
Las diferencias físicas en las formas en que se transmiten las señales son las que generan las limitaciones fundamentales en la capacidad que posee un medio dado para transportar información.
No obstante, el verdadero ancho de banda de una red queda determinado por una combinación de los medios físicos y las tecnologías seleccionadas para señalizar y detectar señales de red. 
  Por ejemplo, la actual comprensión de la física de los cables de cobre de par trenzado no blindados (UTP) establece el límite teórico del ancho de banda en más de un gigabit por segundo (Gbps).
En otras palabras, el ancho de banda real queda determinado por los métodos de señalización, las tarjetas de interfaz de red (NIC) y los demás equipos de red seleccionados.
  La figura muestra algunos tipos comunes de medios de networking y los límites de distancia y ancho de banda al usar la tecnología de networking indicada. 
  La figura resume los servicios WAN comunes y el ancho de banda asociado con cada servicio.
El ancho de banda es la medida de la cantidad de información que puede atravesar la red en un período dado de tiempo.
Una LAN típica se podría construir para brindar 100 Mbps a cada estación de trabajo individual, pero esto no significa que cada usuario pueda realmente mover cien megabits de datos a través de la red por cada segundo de uso.
  La tasa de transferencia se refiere a la medida real del ancho de banda, en un momento dado del día, usando rutas de Internet específicas, y al transmitirse un conjunto específico de datos.
Desafortunadamente, por varios motivos, la tasa de transferencia a menudo es mucho menor que el ancho de banda digital máximo posible del medio utilizado.
Dispositivos de internetworking Tipo de datos que se transfieren Topología de la red Cantidad de usuarios en la red Computador del usuario Computador servidor Estado de la alimentación
  El ancho de banda teórico de una red es una consideración importante en el diseño de la red, porque el ancho de banda de la red jamás será mayor que los límites impuestos por los medios y las tecnologías de networking escogidos.
No obstante, es igual de importante que un diseñador y administrador de redes considere los factores que pueden afectar la tasa de transferencia real.
Al medir la tasa de transferencia regularmente, un administrador de red estará al tanto de los cambios en el rendimiento de la red y los cambios en las necesidades de los usuarios de la red.
A menudo se convoca a los diseñadores y administradores de red para tomar decisiones con respecto al ancho de banda.
Una decisión podría ser sobre la necesidad de incrementar el tamaño de la conexión WAN para agregar una nueva base de datos.
Otra decisión podría ser si el ancho de banda del actual backbone de la LAN alcanza para un programa de capacitación con video fluido.
Las respuestas a este tipo de problemas no siempre son fáciles de hallar, pero se puede comenzar con un cálculo sencillo de transferencia de datos. 
  Aplicando la fórmula tiempo de transferencia = tamaño del archivo / ancho de banda (T=Tm/AB), un administrador de red puede estimar varios de los importantes componentes del rendimiento de una red.
Si se conoce el tamaño típico de un archivo para una aplicación dada, al dividir el tamaño del archivo por el ancho de banda de la red, se obtiene una estimación del tiempo más rápido en el cual se puede transferir el archivo.
El resultado no es más que un estimado, porque el tamaño del archivo no incluye el gasto agregado por el encapsulamiento.  Es probable que el resultado sea el tiempo de transferencia en el mejor de los casos, ya que el ancho de banda disponible casi nunca está en el máximo teórico para el tipo de red.
Se puede obtener un estimado más preciso sustituyendo el ancho de banda por la tasa de transferencia en la ecuación. 
  Aunque el cálculo de transferencia de datos es muy sencillo, es importante asegurarse de usar las mismas unidades a lo largo de toda la ecuación.
En otras palabras, si el ancho de banda se mide en megabits por segundo (Mbps), el tamaño del archivo debe expresarse en megabits (Mb), y no en megabytes (MB).
Como el tamaño de los archivos se suele expresar en megabytes, es posible que sea necesario multiplicar la cantidad de megabytes por ocho para convertirla a megabits. 
  ¿Llevaría menos tiempo enviar el contenido de un disquete (1,44 MB) lleno de datos a través de una línea RSDI, o enviar el contenido de un disco duro de 10 GB lleno de datos a través de una línea OC-48?
Hasta hace poco, las transmisiones de radio, televisión y teléfono se enviaban por aire y por cables utilizando ondas electromagnéticas.
Estas ondas se denominan analógicas porque poseen la misma forma que las ondas de luz y sonido producidas por los transmisores.
A medida que las ondas de luz y sonido cambian de tamaño y forma, la señal eléctrica que transporta la transmisión cambia proporcionalmente.
  El ancho de banda analógico se mide en función de la cantidad de espectro magnético ocupada por cada señal.
Por lo general, se usan múltiplos de esta unidad de medida básica para anchos de banda analógicos, al igual que para los anchos de banda digitales.
Estas unidades se utilizan para describir las frecuencias de los teléfonos inalámbricos, que generalmente operan a 900 MHz o a 2,4 GHz.
También son las unidades que se usan para describir las frecuencias de las redes inalámbricas 802.11a y 802.11b, que operan a 5GHz y 2,4 GHz.
  Aunque las señales analógicas pueden transportar una amplia gama de información, presentan algunas desventajas significativas en comparación con las transmisiones digitales.
La señal de video analógico que requiere una amplia margen de frecuencia para la transmisión, no puede ser comprimida en una banda más pequeña.
  En la señalización digital, toda la información se envía como bits, independientemente del tipo de información del cual se trate.
Voz, video y datos se convierten todos en corrientes de bits al ser preparados para su transmisión a través de medios digitales.
Este tipo de transmisión confiere al ancho de banda digital una importante ventaja sobre el ancho de banda analógico.
Es posible enviar cantidades ilimitadas de información a través de un canal digital con el ancho de banda más pequeño o más bajo.
Independientemente de lo que la información digital demore en llegar a su destino y reensamblarse, puede ser vista, oída, leída o procesada en su forma original.
  Es importante comprender las diferencias y similitudes entre el ancho de banda digital y analógico.
No obstante, como este curso trata principalmente el networking digital, la expresión ‘ancho de banda’ se referirá al ancho de banda digital.
La figura muestra un conjunto de preguntas relacionadas con flujo, que se define como el movimiento de objetos físicos o lógicos, a través de un sistema Estas preguntas muestran cómo el concepto de capas ayuda a describir los detalles del proceso de flujo.
Este proceso puede referirse a cualquier tipo de flujo, desde el flujo del tráfico en un sistema de autopistas, al flujo de datos a través de una red.
La figura muestra varios ejemplos de flujo, y formas en las que se puede desglosar el proceso de flujo en detalles o en capas.
  La conversación entre dos personas es un buen ejemplo para aplicar un enfoque en capas para analizar el flujo de información.
Por ejemplo, una persona podría decidir si hablar, cantar o gritar, y qué idioma usar.
  El mismo método de división en capas explica cómo una red informática distribuye la información desde el origen al destino.
Cuando los computadores envían información a través de una red, todas las comunicaciones se generan en un origen y luego viajan a un destino.
A medida que los datos atraviesan las capas, cada capa agrega información que posibilita una comunicación eficaz con su correspondiente capa en el otro computador. 
No obstante, se puede usar cada modelo para ayudar a describir y brindar detalles sobre el flujo de información desde un origen a un destino.
Para que los paquetes de datos puedan viajar desde el origen hasta su destino a través de una red, es importante que todos los dispositivos de la red hablen el mismo lenguaje o protocolo.
Por ejemplo, al pilotar un avión, los pilotos obedecen reglas muy específicas para poder comunicarse con otros aviones y con el control de tráfico aéreo. 
  Un protocolo de comunicaciones de datos es un conjunto de normas, o un acuerdo, que determina el formato y la transmisión de datos. 
El protocolo en una capa realiza un conjunto determinado de operaciones sobre los datos al prepararlos para ser enviados a través de la red.
Los datos luego pasan a la siguiente capa, donde otro protocolo realiza otro conjunto diferente de operaciones. 
  Una vez que el paquete llega a su destino, los protocolos deshacen la construcción del paquete que se armó en el extremo de origen.
Los protocolos para cada capa en el destino devuelven la información a su forma original, para que la aplicación pueda leer los datos correctamente.
A principios de la década de 1980 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes.
A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red. 
  Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión.
De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información.
El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias.
«Propietario» significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología.
Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.
  Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional de Normalización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes.
En base a esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.
  El modelo de referencia de Interconexión de Sistemas Abiertos (OSI) lanzado en 1984 fue el modelo de red descriptivo creado por ISO.
Proporciónó a los fabricantes un conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red producidos por las empresas a nivel mundial.
Aunque existen otros modelos, la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia de OSI.
Se considera la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red.
El modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red.
El modelo de referencia OSI explica de qué manera los paquetes de datos viajan a través de varias capas a otro dispositivo de una red, aun cuando el remitente y el destinatario poseen diferentes tipos de medios de red.
  En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica.
Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos por diferentes fabricantes.Z Permite a los distintos tipos de hardware y software de red comunicarse entre sí.
Evita que los cambios en una capa afecten las otras capas.  Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje.
Para que los datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en el origen debe comunicarse con su capa par en el lugar destino.
Durante este proceso, los protocolos de cada capa intercambian información, denominada unidades de datos de protocolo (PDU).
Cada capa de comunicación en el computador origen se comunica con un PDU específico de capa, y con su capa par en el computador destino, como lo ilustra la figura .
Para brindar este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior en su campo de datos, luego le puede agregar cualquier encabezado e información final que la capa necesite para ejecutar su función.
Posteriormente, a medida que los datos se desplazan hacia abajo a través de las capas del modelo OSI, se agregan encabezados e información final adicionales.
  La capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al subsistema de internetwork.
Este encabezado contiene la información necesaria para completar la transferencia, como, por ejemplo, las direcciones lógicas origen y destino. 
El encabezado de trama contiene la información (por ejemplo, las direcciones físicas) que se requiere para completar las funciones de enlace de datos.
La capa de enlace de datos suministra un servicio a la capa de red encapsulando la información de la capa de red en una trama.
La capa física codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su transmisión a través del medio (generalmente un cable) en la Capa 1.
(DoD) creó el modelo de referencia TCP/IP porque necesitaba diseñar una red que pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear.
En un mundo conectado por diferentes tipos de medios de comunicación, como alambres de cobre, microondas, fibras ópticas y enlaces satelitales, el DoD quería que la transmisión de paquetes se realizara cada vez que se iniciaba y bajo cualquier circunstancia.
  A diferencia de las tecnologías de networking propietarias mencionadas anteriormente, el TCP/IP se desarrolló como un estándar abierto.
  Aunque algunas de las capas del modelo TCP/IP tienen el mismo nombre que las capas del modelo OSI, las capas de ambos modelos no se corresponden de manera exacta.
  Los diseñadores de TCP/IP sintieron que la capa de aplicación debía incluir los detalles de las capas de sesíón y presentación OSI.
  La capa de transporte se encarga de los aspectos de calidad del servicio con respecto a la confiabilidad, el control de flujo y la corrección de errores.
Uno de sus protocolos, el protocolo para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo. 
Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos.
Significa que segmentos de la Capa 4 viajan de un lado a otro entre dos hosts para comprobar que la conexión exista lógicamente para un determinado período. 
Esta capa guarda relación con todos los componentes, tanto físicos como lógicos, necesarios para lograr un enlace físico.
Incluye los detalles de tecnología de networking, y todos los detalles de las capas física y de enlace de datos del modelo OSI. 
  La figura ilustra algunos de los protocolos comunes especificados por las capas del modelo de referencia TCP/IP.
Protocolo de Transferencia de Archivos (FTP) Protocolo de Transferencia de Hipertexto (HTTP) Protocolo simple de transferencia de correo (SMTP) Sistema de denominación de dominios (DNS) Protocolo Trivial de Transferencia de Archivos (TFTP)
  La capa de acceso de red se refiere a cualquier tecnología en particular utilizada en una red específica. 
  Independientemente de los servicios de aplicación de red que se brinden y del protocolo de transferencia que se utilice, existe un solo protocolo de Internet, IP.
IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del mundo pueda comunicarse en cualquier momento. 
Ambos se dividen en capas.  Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos.  Ambos tienen capas de transporte y de red similares.  Ambos modelos deben ser conocidos por los profesionales de networking.
Esto significa que los paquetes individuales pueden usar rutas diferentes para llegar al mismo destino.
TCP/IP combina las funciones de la capa de presentación y de sesíón en la capa de aplicación.  TCP/IP combina la capa de enlace de datos y la capa física del modelo OSI en la capa de acceso de red.  TCP/IP parece ser más simple porque tiene menos capas.  Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos.
En comparación, por lo general las redes no se desarrollan a partir del protocolo OSI, aunque el modelo OSI se usa como guía. 
  Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha desarrollado la Internet, este currículum utiliza el modelo OSI por los siguientes motivos: 
  Los profesionales de networking tienen distintas opiniones con respecto al modelo que se debe usar.
TCP como un protocolo de Capa 4 OSI  IP como un protocolo de Capa 3 OSI  Ethernet como una tecnología de Capa 2 y Capa 1
Si un computador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento. 
  El encapsulamiento rodea los datos con la información de protocolo necesaria antes de que se una al tránsito de la red.
Por lo tanto, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información. 
  Para ver cómo se produce el encapsulamiento, examine la forma en que los datos viajan a través de las capas como lo ilustra la figura .
Una vez que se envían los datos desde el origen, viajan a través de la capa de aplicación y recorren todas las demás capas en sentido descendente.
El empaquetamiento y el flujo de los datos que se intercambian experimentan cambios a medida que las capas realizan sus funciones para los usuarios finales.
Como lo muestra la figura , las redes deben realizar los siguientes cinco pasos de conversión a fin de encapsular los datos: 
Cuando un usuario envía un mensaje de correo electrónico, sus caracteres alfanuméricos se convierten en datos que pueden recorrer la internetwork.  Empaquetar los datos para ser transportados de extremo a extremo.
Al utilizar segmentos, la función de transporte asegura que los hosts de mensaje en ambos extremos del sistema de correo electrónico se puedan comunicar de forma confiable.  Agregar la dirección de red IP al encabezado.
Los datos se colocan en un paquete o datagrama que contiene un encabezado de paquete con las direcciones lógicas de origen y de destino.
Estas direcciones ayudan a los dispositivos de red a enviar los paquetes a través de la red por una ruta seleccionada.  Agregar el encabezado y la información final de la capa de enlace de datos.
La trama le permite conectarse al próximo dispositivo de red conectado directamente en el enlace.
Cada dispositivo en la ruta de red seleccionada requiere el entramado para poder conectarse al siguiente dispositivo.  Realizar la conversión a bits para su transmisión.
Una función de temporización permite que los dispositivos distingan estos bits a medida que se trasladan por el medio.
Por ejemplo, el mensaje de correo electrónico se puede originar en una LAN, atravesar el backbone de una universidad y salir por un enlace WAN hasta llegar a su destino en otra LAN remota.
Comprender que el ancho de banda es esencial en el estudio de networking El ancho de banda es finito, cuesta dinero, y su demanda aumenta a diario El empleo de analogías como el flujo de agua y de tráfico puede ayudar a entender el ancho de banda El ancho de banda se mide en bits por segundo, bps, kbps, Mbps o Gbps Las limitaciones del ancho de banda incluyen el tipo de medios utilizados, las tecnologías LAN y WAN, y el equipo de red La tasa de transferencia se refiere a la medida real del ancho de banda, que se ve afectada por factores que incluyen la cantidad de usuarios de red, los dispositivos de red, el tipo de datos, el computador del usuario y el servidor Se puede usar la fórmula T=Tm/AB (tiempo de transferencia = tamaño del archivo /ancho de banda) para calcular el tiempo de transmisión de datos Comparación entre el ancho de banda analógico y digital Un enfoque dividido en capas resulta efectivo para analizar problemas La comunicación de red se describe mediante modelos divididos en capas  Los modelos OSI y TCP/IP son los dos modelos más importantes de comunicación de red La Organización Internacional de Normalización desarrolló el modelo OSI para resolver los problemas de incompatibilidad entre redes
 Las siete capas de OSI son aplicación, presentación, sesíón, transporte, red, enlace de datos y física
Las cuatro capas de TCP/IP son aplicación, transporte, Internet y acceso a red La capa de aplicación de TCP/IP es equivalente a las capas de aplicación, presentación y sesíón de OSI Las LAN y las WAN se desarrollaron en respuesta a necesidades informáticas comerciales y gubernamentales  Los dispositivos fundamentales de networking son los hubs, puentes, switches y routers  Las disposiciones topológicas físicas incluyen las de bus, de anillo, en estrella, en estrella extendida, jerárquica y de malla Una WAN consiste en una o más LAN que abarcan un área geográfica común.
Una SAN brinda un mejor rendimiento del sistema, es escalable y tiene incorporada tolerancia al desastre Una VPN es una red privada construida dentro de una estructura de red pública Los tres principales tipos de VPN son acceso, red interna, y red externa  Las redes internas están diseñadas para estar disponibles para usuarios con privilegios de acceso a la red interna de la organización.
Las redes externas están diseñadas para distribuir aplicaciones y servicios basados en la red interna, utilizando un acceso extendido y seguro a usuarios o empresas externas.
Hay varios tipos de cable de cobre disponibles en el mercado, y cada uno presenta ventajas y desventajas.
Debido a que el cobre transporta información utilizando corriente eléctrica, es importante comprender algunos principios básicos de la electricidad a la hora de planear e instalar una red. 
  La fibra óptica es el medio utilizado con mayor frecuencia en las transmisiones de punto a punto de mayor distancia y alto ancho de banda que requieren los backbones de LAN y las WAN.
En los medios ópticos, se utiliza la luz para transmitir datos a través de una delgada fibra de vidrio o de plástico.
Las señales eléctricas hacen que el transmisor de fibra óptica genere señales luminosas que son enviadas por la fibra.
El host receptor recibe las señales luminosas y las convierte en señales eléctricas en el extremo opuesto de la fibra.
  La conectividad física permitíó un aumento en la productividad permitiendo que se compartan impresoras, servidores y software.
Los sistemas tradicionales de red requieren que las estaciones de trabajo permanezcan estacionarias permitiendo movimientos sólo dentro del alcance de los medios y del área de la oficina. 
  La introducción de la tecnología inalámbrica elimina estas limitaciones y otorga portabilidad real al mundo de la computación.
En la actualidad, la tecnología inalámbrica no ofrece las transferencias a alta velocidad, la seguridad o la confiabilidad de tiempo de actividad que brindan las redes que usan cables.
  A menudo, los administradores tienen en cuenta las comunicaciones inalámbricas al instalar una nueva red o al actualizar una red existente.
Una red inalámbrica puede empezar a funcionar sólo unos pocos minutos después de encender las estaciones de trabajo.
Se proporciona la conectividad a Internet a través de una conexión con cable, router, cablemódem o módem DSL y un punto de acceso inalámbrico que sirve de hub para los nodos inalámbricos.
En el entorno residencial o de una pequeña oficina, es posible combinar estos dispositivos en una sola unidad. 
Discutir las propiedades eléctricas de la materia.  Definir voltaje, resistencia, impedancia, corriente y circuitos.  Describir las especificaciones y el rendimiento de los distintos tipos de cable.  Describir el cable coaxial y sus ventajas y desventajas en comparación con otros tipos de cable.  Describir el cable de par trenzado blindado (STP) y sus usos.  Describir el cable de par trenzado no blindado (UTP) y sus usos.  Discutir las carácterísticas de los cables derechos, cruzados y transpuestos y dónde se utiliza cada uno.  Explicar los principios básicos del cable de fibra óptica.  Describir cómo las fibras pueden guiar la luz a través de largas distancias.  Describir la fibra monomodo y multimodo.  Describir cómo se instala la fibra.  Describir el tipo de conectores y equipos que se utilizan con el cable de fibra óptica.  Explicar cómo se prueba la fibra para asegurarse de que funcione correctamente.  Discutir los temas de seguridad relacionados con la fibra óptica.
  Para poder comprender mejor las propiedades eléctricas de los elementos/materiales, busque «helio» (He) en la tabla periódica.
El número atómico del helio es 2, lo que significa que tiene 2 protones y 2 electrones.
Si se le resta el número atómico (2) al peso atómico (4), se puede determinar que el helio también tiene 2 neutrones. 
El gráfico muestra el modelo correspondiente al átomo de helio Si los protones y los neutrones de un átomo tuvieran el tamaño de una pelota de fútbol Nro.
5, en el medio de un estadio de fútbol, la única cosa más pequeña que la pelota serían los electrones.
Los electrones tendrían el tamaño de una cereza, y estarían orbitando cerca de los últimos asientos del estadio.
En otras palabras, el volumen total de este átomo, incluido el recorrido de los electrones, tendría el tamaño del estadio.
El núcleo del átomo donde se encuentran los protones y los neutrones tendría el tamaño de la pelota de fútbol. 
  Una de las leyes de la naturaleza, denominada Ley de la Fuerza Eléctrica de Coulomb, especifica que las cargas opuestas reaccionan entre sí con una fuerza que hace que se atraigan.
En el caso de cargas opuestas y de igual polaridad, la fuerza aumenta a medida que las cargas se aproximan.
Cuando las partículas se encuentran muy cerca una de la otra, la fuerza nuclear supera la fuerza eléctrica de repulsión y el núcleo se mantiene unido.
Si la ley de Coulomb es verdadera, y si el modelo de Bohr describe los átomos de helio como estables, entonces deben intervenir otras leyes de la naturaleza.
Ley de Coulomb: Las cargas opuestas se atraen y las cargas iguales se repelen.  Modelo de Bohr: Los protones tienen cargas positivas y los electrones tienen cargas negativas.
Los electrones tienen la velocidad justa y necesaria para mantenerse en órbita y para no caer en el núcleo, tal como ocurre con la Luna con respecto a la Tierra.
La fuerza nuclear es una fuerza increíblemente poderosa que actúa como si fuera un pegamento que mantiene unidos a los protones. 
Este mar de electrones, débilmente unidos a los átomos, es lo que hace que la electricidad sea posible.
  Se denomina electricidad estática a los electrones libres que permanecen en un lugar, sin moverse y con una carga negativa.
Si estos electrones estáticos tienen la oportunidad de saltar hacia un conductor, se
  La ESD, aunque por lo general no es peligrosa para las personas, puede producir graves problemas en los equipos electrónicos sensibles.
Una descarga electrostática puede dañar los chips o los datos del computador, o ambas cosas, de forma aleatoria.
  Se puede hacer referencia a los átomos, o a los grupos de átomos denominados moléculas, como materiales.
Los materiales pueden clasificarse en tres grupos, según la facilidad con la que la electricidad, o los electrones libres, fluya a través de ellos. 
  La base de todo dispositivo electrónico es el conocimiento de cómo los aislantes, los conductores y los semiconductores controlan el flujo de los electrones y trabajan juntos en distintas combinaciones. 
El voltaje se denomina a veces «fuerza electromotriz» (EMF) La EMF es una fuerza eléctrica o presión que se produce cuando los electrones y protones se separan.
La fuerza que se crea va empujando hacia la carga opuesta y en dirección contraria a la de la carga de igual polaridad.
Este proceso se produce en una batería, donde la acción química hace que los electrones se liberen de la terminal negativa de la batería.
La última forma en que se puede crear voltaje es por medio de la luz o las células solares. 
  El voltaje está representado por la letra V y, a veces, por la letra E, en el caso de la fuerza electromotriz.
Los materiales a través de los cuales fluye la corriente presentan distintos grados de oposición, o resistencia, al movimiento de los electrones.
  Todos los materiales que conducen electricidad presentan un cierto grado de resistencia al movimiento de electrones a través de ellos.
Estos materiales también tienen otros efectos denominados capacitancia e inductancia, asociados a la corriente de electrones.
La atenuación se relaciona a la resistencia al flujo de electrones y la razón por la que una señal se degrada a medida que recorre el conducto. 
  Los aislantes eléctricos, o aislantes, son materiales que no permiten que los electrones fluyan a través de ellos sino con gran dificultad o no lo permiten en absoluto.
Ejemplos de aislantes eléctricos son el plástico, el vidrio, el aire, la madera seca, el papel, el caucho y el gas helio.
Estos materiales poseen estructuras químicas sumamente estables, en las que los electrones orbitan fuertemente ligados a los átomos. 
  Los conductores eléctricos, generalmente llamados simplemente conductores, son materiales que permiten que los electrones fluyen a través de ellos con gran facilidad.
Pueden fluir con facilidad porque los electrones externos están unidos muy débilmente al núcleo y se liberan con facilidad.
A temperatura ambiente, estos materiales poseen una gran cantidad de electrones libres que pueden proporcionar conducción.
La aplicación de voltaje hace que los electrones libres se desplacen, lo que hace que la corriente fluya. 
  La tabla periódica clasifica en categorías a algunos grupos de átomos ordenándolos en columnas.
Aunque tengan distintas cantidades de protones, neutrones y electrones, sus electrones externos tienen órbitas similares y se comportan de forma similar, al interactuar con otros átomos y moléculas.
Los mejores conductores son metales como el cobre (Cu), la plata (Ag) y el oro (Au), porque tienen electrones que se liberan con facilidad.
Un ion es un átomo que tiene una cantidad de electrones que es mayor o menor que la cantidad de protones en el núcleo del átomo.
Aproximadamente un 70% del cuerpo humano consta de agua ionizada, lo que significa que el cuerpo humano también es conductor. 
  Los semiconductores son materiales en los que la cantidad de electricidad que conducen puede ser controlada de forma precisa.
Entre los ejemplos de estos materiales se incluyen el carbono (C), el germanio (Ge) y la aleación de arseniuro de galio (GaAs).
El semiconductor más importante, que permite fabricar los mejores circuitos electrónicos microscópicos, es el silicio (Si). 
  El silicio es muy común y se puede encontrar en la arena, el vidrio y varios tipos de rocas.
La regíón alrededor de San José, California, se denomina Silicon Valley (Valle del Silicio) porque la industria informática, que depende de los microchips de silicio, se inició en esta área.
Cuando se aplica voltaje, o presión eléctrica, y existe un camino para la corriente, los electrones se desplazan a lo largo del camino desde la terminal negativa hacia la terminal positiva.
  Si se piensa en el amperaje o corriente como la cantidad o volumen de tránsito de electrones que fluyen, entonces, se puede pensar que el voltaje es la velocidad del tránsito de los electrones.
Los dispositivos eléctricos tales como las ampolletas, los motores y las fuentes de alimentación para computadores se clasifican en términos de vatios.
Por ejemplo, la electricidad estática tiene un voltaje muy alto, tanto que puede saltar una brecha de una pulgada o más.
Sin embargo, tiene muy bajo amperaje y, como resultado, puede producir un choque pero no daños permanentes.
El motor de arranque de un automóvil opera a tan sólo 12 voltios pero requiere un amperaje muy alto para generar la energía suficiente para hacer que el motor del auto arranque.
Un rayo tiene un voltaje muy alto y un amperaje alto y así puede causar graves daños o lesiones.
La corriente consiste en electrones que fluyen alejándose de las terminales negativas y hacia las terminales positivas.
Cuando un artefacto eléctrico tiene un enchufe con tres espigas, una de las tres espigas sirve como conexión a tierra, o de cero voltios.
La conexión a tierra proporciona una ruta conductora para que los electrones fluyan a tierra, ya que la resistencia que presenta el cuerpo suele ser mayor que la resistencia que opone la vía que conduce directamente a tierra. 
  Por lo general, una conexión a tierra significa un nivel cero de voltios, al realizar las mediciones eléctricas.
El voltaje se crea mediante la separación de las cargas, lo que significa que las mediciones de voltaje se deben realizar entre dos puntos. 
  La analogía del sistema de suministro de agua ayuda a explicar los conceptos de la electricidad.
Cuanto mayor sea la altura del agua, y cuanto mayor sea la presión, mayor será el flujo de agua.
De igual manera, cuanto mayor sea el voltaje y cuanto mayor sea la presión eléctrica, más corriente se producirá.
Si la corriente se produce en un circuito de CA, entonces la cantidad de corriente dependerá de la cantidad de impedancia presente.
Si la corriente se produce en un circuito de CC, entonces la cantidad de corriente dependerá de la cantidad de resistencia presente.
  La relación entre el voltaje, la resistencia y la corriente es voltaje (V) = corriente (I) multiplicada por resistencia (R).
La corriente alterna (CA) y sus correspondientes voltajes varían con el tiempo, cambiando su polaridad o dirección.
La CA fluye en una dirección, luego invierte su dirección y fluye en sentido contrario para luego repetir el proceso.
Entonces, el voltaje de la CA invierte su polaridad, de modo que la terminal positiva se convierte en negativa y la terminal negativa en positiva.
  La corriente continua (CC) siempre fluye en la misma dirección, y los voltajes de CC siempre tienen la misma polaridad.
  El osciloscopio es un dispositivo electrónico que se utiliza para medir las señales eléctricas en relación al tiempo.
Generalmente existen dos ejes «y» que corresponden a dos voltajes de entrada para que se puedan observar y medir dos ondas al mismo tiempo. 
  Las líneas de alimentación transportan electricidad en forma de CA porque ésta puede ser conducida por largas distancias, de forma eficiente.
La CC se encuentra en las baterías para linternas, baterías de automóviles y como energía para los microchips de la motherboard de un computador, donde sólo necesita recorrer una corta distancia. 
Esto proporciona un voltaje o presión eléctrica que permite que los electrones fluyan a través de los distintos dispositivos.
Se puede considerar a un interruptor como dos extremos de un solo cable que se puede abrir o interrumpir para evitar que los electrones fluyan.
Por último, la lamparilla presenta resistencia al flujo de electrones, lo que hace que liberen energía, en forma de luz.
Los circuitos que participan en networking usan una versión mucho más compleja de este simple circuito.
En los sistemas eléctricos de CA y CC, los electrones siempre fluyen desde una fuente con una carga negativa hacia una fuente con una carga positiva.
Sin embargo, para que se produzca un flujo controlado de electrones, es necesario que haya un circuito completo.
Los cables tienen distintas especificaciones y generan distintas expectativas acerca de su rendimiento.
El tipo de conducto utilizado afecta la velocidad de la transmisión.  ¿Qué tipo de transmisión se planea?
La transmisión digital o de banda base y la transmisión con base analógica o de banda ancha son las dos opciones.
¿Qué distancia puede recorrer una señal a través de un tipo de cable en particular antes de que la atenuación de dicha señal se convierta en un problema?
En otras palabras, ¿se degrada tanto la señal que el dispositivo receptor no puede recibir e interpretar la señal correctamente en el momento en que la señal llega a dicho dispositivo?
La degradación de la señal está directamente relacionada con la distancia que recorre la señal y el tipo de cable que se utiliza.
      Algunos ejemplos de las especificaciones de Ethernet que están relacionadas con el tipo de cable son: 
El 5 representa la capacidad que tiene el cable para permitir que la señal recorra aproximadamente 500 metros antes de que la atenuación interfiera con la capacidad del receptor de interpretar correctamente la señal recibida.
El 2, en 10BASE2, se refiere a la longitud máxima aproximada del segmento de 200 metros antes que la atenuación perjudique la habilidad del receptor para interpretar apropiadamente la señal que se recibe.
El cable coaxial consiste de un conductor de cobre rodeado de una capa de aislante flexible.
El conductor central también puede ser hecho de un cable de aluminio cubierto de estaño que permite que el cable sea fabricado de forma económica.
Sobre este material aislante existe una malla de cobre tejida u hoja metálica que actúa como el segundo hilo del circuito y como un blindaje para el conductor interno.
Puede tenderse a mayores distancias que el cable de par trenzado blindado STP, y que el cable de par trenzado no blindado, UTP, sin necesidad de repetidores.
Los repetidores regeneran las señales de la red de modo que puedan abarcar mayores distancias.
El cable coaxial es más económico que el cable de fibra óptica y la tecnología es sumamente conocida.
Se ha usado durante muchos años para todo tipo de comunicaciones de datos, incluida la televisión por cable. 
El cable de mayor diámetro es de uso específico como cable de backbone de Ethernet porque tiene mejores carácterísticas de longitud de transmisión y de limitación del ruido.
Como su apodo lo indica, este tipo de cable puede ser demasiado rígido como para poder instalarse con facilidad en algunas situaciones.
  En el pasado, el cable coaxial con un diámetro externo de solamente 0,35 cm (a veces denominado thinnet o red fina) se usaba para las redes Ethernet.
Era particularmente útil para las instalaciones de cable en las que era necesario que el cableado tuviera que hacer muchas vueltas.
El trenzado externo metálico o de cobre del cable coaxial abarca la mitad del circuito eléctrico.
Se debe tener especial cuidado de asegurar una sólida conexión eléctrica en ambos extremos, brindando así una correcta conexión a tierra.
La incorrecta conexión del material de blindaje constituye uno de los problemas principales relacionados con la instalación del cable coaxial.
Los problemas de conexión resultan en un ruido eléctrico que interfiere con la transmisión de señales sobre los medios de networking.
Por esta razón, thinnet ya no se usa con frecuencia ni está respaldado por los estándares más recientes (100 Mbps y superiores) para redes Ethernet.
El cable de par trenzado blindado (STP) combina las técnicas de blindaje, cancelación y trenzado de cables.
Según se especifica para el uso en instalaciones de redes Token Ring, el STP reduce el ruido eléctrico dentro del cable como, por ejemplo, el acoplamiento de par a par y la diafonía.
El STP también reduce el ruido electrónico desde el exterior del cable, como, por ejemplo, la interferencia electromagnética (EMI) y la interferencia de radiofrecuencia (RFI).
El cable de par trenzado blindado comparte muchas de las ventajas y desventajas del cable de par trenzado no blindado (UTP).
El cable STP brinda mayor protección ante toda clase de interferencias externas, pero es más caro y de instalación más difícil que el UTP. 
  Un nuevo híbrido de UTP con STP tradicional se denomina UTP apantallado (ScTP), conocido también como par trenzado de papel metálico (FTP).
Es importante entender que la mayoría de las referencias hechas a STP hoy en día se refieren en realidad a un cable de cuatro pares apantallado.
  Los materiales metálicos de blindaje utilizados en STP y ScTP deben estar conectados a tierra en ambos extremos.
Si no están adecuadamente conectados a tierra o si hubiera discontinuidades en toda la extensión del material del blindaje, el STP y el ScTP se pueden volver susceptibles a graves problemas de ruido.
El blindaje no sólo evita que ondas electromagnéticas externas produzcan ruido en los cables de datos sino que también minimiza la irradiación de las ondas electromagnéticas internas.
Los cables STP y ScTP no pueden tenderse sobre distancias tan largas como las de otros medios de networking (tales como el cable coaxial y la fibra óptica) sin que se repita la señal.
El uso de aislamiento y blindaje adicionales aumenta de manera considerable el tamaño, peso y costo del cable.
Además, los materiales de blindaje hacen que las terminaciones sean más difíciles y aumentan la probabilidad de que se produzcan defectos de mano de obra.
Sin embargo, el STP y el ScTP todavía desempeñan un papel importante, especialmente en Europa o en instalaciones donde exista mucha EMI y RFI cerca de los cables.
El cable de par trenzado no blindado (UTP) es un medio de cuatro pares de hilos que se utiliza en diversos tipos de redes.
Este tipo de cable cuenta sólo con el efecto de cancelación que producen los pares trenzados de hilos para limitar la degradación de la señal que causan la EMI y la RFI.
Para reducir aún más la diafonía entre los pares en el cable UTP, la cantidad de trenzados en los pares de hilos varía.
Al igual que el cable STP, el cable UTP debe seguir especificaciones precisas con respecto a cuánto trenzado se permite por unidad de longitud del cable. 
  El estándar Tía/EIA-568-B.2 especifica los componentes de cableado, transmisión, modelos de sistemas, y los procedimientos de medición necesarios para verificar los cables de par trenzado balanceado.
Sin embargo, las predicciones de los analistas y sondeos independientes indican que el cable de Categoría 6 sobrepasará al cable Categoría 5 en instalaciones de red.
El hecho que los requerimientos de canal y enlace de la Categoría 6 sean compatibles con la Categoría 5e hace muy fácil para los clientes elegir Categoría 6 y reemplazar la Categoría 5e en sus redes.
Debido a que su diámetro externo es tan pequeño, el cable UTP no llena los conductos para el cableado tan rápidamente como sucede con otros tipos de cables.
Esto puede ser un factor sumamente importante a tener en cuenta, en especial si se está instalando una red en un edificio antiguo.
Además, si se está instalando el cable UTP con un conector RJ-45, las fuentes potenciales de ruido de la red se reducen enormemente y prácticamente se garantiza una conexión sólida y de buena calidad.
El cable UTP es más susceptible al ruido eléctrico y a la interferencia que otros tipos de medios para networking y la distancia que puede abarcar la señal sin el uso de repetidores es menor para UTP que para los cables coaxiales y de fibra óptica. 
  En una época, el cable de par trenzado era considerado más lento para transmitir datos que otros tipos de cables.
De hecho, en la actualidad, se considera que el cable de par trenzado es el más rápido entre los medios basados en cobre. 
  Para que sea posible la comunicación, la señal transmitida por la fuente debe ser entendida por el destino.
La señal transmitida necesita ser correctamente recibida por la conexión del circuito que está diseñada para recibir las señales.
El pin de transmisión de la fuente debe conectarse en fin al pin receptor del destino.
El cable que se conecta desde el puerto del switch al puerto de la NIC del computador recibe el nombre de cable directo.
El cable que conecta un puerto de un switch al puerto de otro switch recibe el nombre de cable de conexión cruzada.
  En la Figura , el cable que conecta el adaptador de RJ-45 del puerto COM del computador al puerto de la consola del router o switch recibe el nombre de cable rollover. 
  Los cables están definidos por el tipo de conexiones o la disposición de pines, de un extremo al otro del cable.
Un técnico puede comparar ambos extremos de un mismo cable poniendo uno al lado del otro, siempre que todavía no se haya embutido el cable en la pared.
El técnico observa los colores de las dos conexiones RJ-45 colocando ambos extremos con el clip en la mano y la parte superior de ambos extremos del cable apuntando hacia afuera.
Al comparar los extremos de un cable de conexión cruzada, el color de los pins nº 1 y nº 2 aparecerán en el otro extremo en los pins nº 3 y nº 6, y viceversa.
En un cable transpuesto, la combinación de colores de izquierda a derecha en un extremo debería ser exactamente opuesta a la combinación de colores del otro extremo.
Cuando una carga eléctrica se mueve hacia adelante y hacia atrás, o se acelera, se produce un tipo de energía denominada energía electromagnética.
Esta energía, en forma de ondas, puede viajar a través del vacío, el aire y algunos materiales como el vidrio.
  La radio, las microondas, el radar, la luz visible, los rayos x y los rayos gama parecen ser todos muy diferentes.
Si se ordenan todos los tipos de ondas electromagnéticas desde la mayor longitud de onda hasta la menor, se crea un continuo denominado espectro electromagnético. 
  La longitud de onda de una onda electromagnética es determinada por la frecuencia a la que la carga eléctrica que genera la onda se mueve hacia adelante y hacia atrás.
Si la carga se mueve lentamente hacia adelante y hacia atrás, la longitud de onda que genera es una longitud de onda larga.
Si la varilla se mueve lentamente hacia adelante y hacia atrás, generará movimientos en el agua con una longitud de onda larga entre las partes superiores de las ondas.
Si la varilla se mueve rápidamente hacia adelante y hacia atrás, los movimientos en el agua tendrán una longitud de onda mas corta. 
  Como todas las ondas electromagnéticas se generan de la misma manera, comparten muchas propiedades.
  Los ojos humanos están diseñados para percibir solamente la energía electromagnética de longitudes de onda de entre 700 y 400 nanómetros (nm).
La energía electromagnética con longitudes de onda entre 700 y 400 nm recibe el nombre de luz visible.
Las longitudes de onda de luz más largas que se encuentran cerca de los 700 nm se perciben como el color rojo.
Las longitudes de onda más cortas que se encuentran alrededor de los 400 nm aparecen como el color violeta.
  Las longitudes de onda que invisibles al ojo humano son utilizadas para transmitir datos a través de una fibra óptica.
Estas longitudes de onda son levemente más larga que las de la luz roja y reciben el nombre de luz infrarroja.
La longitud de onda de la luz en la fibra óptica es de 850 nm, 1310 nm o 1550 nm.
En el vacío del espacio, la luz viaja de forma continua en línea recta a 300.000 kilómetros por segundo.
Sin embargo, la luz viaja a velocidades diferentes y más lentas a través de otros materiales como el aire, el agua y el vidrio.
Cuando un rayo de luz, denominado rayo incidente, cruza los límites de un material a otro, se refleja parte de la energía de la luz del rayo.
El grado en que se dobla el rayo de luz incidente depende del ángulo que forma el rayo incidente al llegar a la superficie del vidrio y de las distintas velocidades a la que la luz viaja a través de las dos sustancias. 
  Esta desviación de los rayos de luz en los límites de dos sustancias es la razón por la que los rayos de luz pueden recorrer una fibra óptica aun cuando la fibra tome la forma de un círculo. 
  La densidad óptica del vidrio determina la desviación de los rayos de luz en el vidrio.
La densidad óptica se refiere a cuánto la velocidad del rayo de luz disminuye al atravesar una sustancia.
Cuanto mayor es la densidad óptica del material, más se desacelera la luz en relación a su velocidad en el vacío.
El índice de refracción se define como la velocidad de la luz en el vacío dividido por la velocidad de la luz en el medio.
Un material con un alto índice de refracción es ópticamente más denso y desacelera más la luz que un material con menor índice de refracción.
  En una sustancia como el vidrio, es posible aumentar el Índice de Refracción o densidad óptica, agregando productos químicos al vidrio.
Las siguientes lecciones proporcionan mayor información sobre la reflexión y la refracción y su relación con el diseño y funcionamiento de la fibra óptica.
Cuando un rayo de luz (el rayo incidente) llega a la superficie brillante de una pieza plana de vidrio, se refleja parte de la energía de la luz del rayo.
El ángulo que se forma entre el rayo incidente y una línea perpendicular a la superficie del vidrio, en el punto donde el rayo incidente toca la superficie del vidrio, recibe el nombre de ángulo de incidencia.
El ángulo que se forma entre el rayo reflejado y la normal recibe el nombre de ángulo de reflexión.
En otras palabras, el ángulo en el que el rayo de luz toca una superficie reflectora determina el ángulo en el que se reflejará el rayo en la superficie.
Parte del rayo de luz se refleja a la primera sustancia, con un ángulo de reflexión equivalente al ángulo de incidencia.
  Si el rayo incidente golpea la superficie del vidrio a un ángulo exacto de 90 grados, el rayo entra directamente al vidrio.
Por otro lado, si el rayo incidente no golpea la superficie con un ángulo exacto de 90 grados respecto de la superficie, entonces, el rayo transmitido que entra al vidrio se desvía.
Si el rayo de luz parte de una sustancia cuyo índice de refracción es menor, entrando a una sustancia cuyo índice de refracción es mayor, el rayo refractado se desvía hacia la normal.
Si el rayo de luz parte de una sustancia cuyo índice de refracción es mayor, entrando a una sustancia cuyo índice de refracción es menor, el rayo refractado se desvía en sentido contrario de la normal.
  Considere un rayo de luz que pasa con un ángulo que no es de 90 grados por el límite entre un vidrio y un diamante.
Cuando ese rayo de luz cruce el límite entre el diamante y el aire con un ángulo que no sea de 90 grados, se desviará alejádose de la normal.
La razón es que el aire tiene un índice de refracción menor, aproximadamente 1,000, que el índice de refracción del diamante.
Un rayo de luz que se enciende y apaga para enviar datos (unos y ceros) dentro de una fibra óptica debe permanecer dentro de la fibra hasta que llegue al otro extremo.
Es necesario lograr un diseño de fibra en el que la superficie externa de la fibra actúe como espejo para el rayo de luz que viaja a través de la fibra.
Si un rayo de luz que trata de salir por el costado de la fibra se refleja hacia dentro de la fibra a un ángulo tal que lo envíe hacia el otro extremo de la misma, se formaría un buen «conducto» o «guía de ondas» para las ondas de luz.
  Las leyes de reflexión y de refracción ilustran cómo diseñar una fibra que guíe las ondas de luz a través de la fibra con una mínima pérdida de energía.
Se deben cumplir las dos siguientes condiciones para que un rayo de luz en una fibra se refleje dentro de ella sin ninguna pérdida por refracción. 
El núcleo de la fibra óptica debe tener un índice de refracción (n) mayor que el del material que lo envuelve.
El material que envuelve al núcleo de la fibra recibe el nombre de revestimiento.  El ángulo de incidencia del rayo de luz es mayor que el ángulo crítico para el núcleo y su revestimiento.
La reflexión interna total hace que los rayos de luz dentro de la fibra reboten en el límite entre el núcleo y el revestimiento y que continúen su recorrido hacia el otro extremo de la fibra.
La apertura numérica de la fibra: La apertura numérica del núcleo es el rango de ángulos de los rayos de luz incidente que ingresan a la fibra y que son reflejados en su totalidad.  Modos: Los trayectos que puede recorrer un rayo de luz cuando viaja por la fibra.
  Al controlar ambas condiciones, el tendido de la fibra tendrá reflexión interna total.
La parte de una fibra óptica por la que viajan los rayos de luz recibe el nombre de núcleo de la fibra.
Los rayos de luz sólo pueden ingresar al núcleo si el ángulo está comprendido en la apertura numérica de la fibra.
Asimismo, una vez que los rayos han ingresado al núcleo de la fibra, hay un número limitado de recorridos ópticos que puede seguir un rayo de luz a través de la fibra.
Si el diámetro del núcleo de la fibra es lo suficientemente grande como para permitir varios trayectos que la luz pueda recorrer a lo largo de la fibra, esta fibra recibe el nombre de fibra «multimodo».
La fibra monomodo tiene un núcleo mucho más pequeño que permite que los rayos de luz viajen a través de la fibra por un solo modo.
  Cada cable de fibra óptica que se usa en networking está compuesto de dos fibras de vidrio envueltas en revestimientos separados.
El par trenzado de cobre utiliza un par de hilos para transmitir y un par de hilos para recibir.
En general, estos dos cables de fibra se encuentran en un solo revestimiento exterior hasta que llegan al punto en el que se colocan los conectores.
  Hasta que se colocan los conectores, no es necesario blindar ya que la luz no se escapa del interior de una fibra.
La fibra puede transportar muchos más bits por segundo y llevarlos a distancias mayores que el cobre.
  El núcleo es el elemento que transmite la luz y se encuentra en el centro de la fibra óptica.
El núcleo es, en general, vidrio fabricado de una combinación de dióxido de silicio (sílice) y otros elementos.
La fibra multimodo usa un tipo de vidrio denominado vidrio de índice graduado para su núcleo.
De esta manera, el área externa del núcleo es ópticamente menos densa que el centro y la luz puede viajar más rápidamente en la parte externa del núcleo.
Se utiliza este diseño porque un rayo de luz que sigue un modo que pasa directamente por el centro del núcleo no viaja tanto como un rayo que sigue un modo que rebota en la fibra.
Entonces, el receptor que se encuentra en el extremo de la fibra, recibe un fuerte flash de luz y no un pulso largo y débil.
Los rayos de luz que se transportan a través del núcleo de la fibra se reflejan sobre el límite entre el núcleo y el revestimiento a medida que se mueven a través de la fibra por reflexión total interna.
El cable de fibra óptica multimodo estándar es el tipo de cable de fibra óptica que más se utiliza en las LAN.
Un cable de fibra óptica multimodo estándar utiliza una fibra óptica con núcleo de 62,5 ó 50 micrones y un revestimiento de 125 micrones de diámetro.
A menudo, recibe el nombre de fibra óptica de 62,5/125 ó 50/125 micrones.
Los cables con amortiguación estrecha tienen material amortiguador que rodea y está en contacto directo con el revestimiento.
El cable de tubo suelto se utiliza principalmente para instalaciones en el exterior de los edificios mientras que el cable de amortiguación estrecha se utiliza en el interior de los edificios. 
  El material resistente rodea al amortiguador, evitando que el cable de fibra óptica se estire cuando los encargados de la instalación tiran de él.
El material utilizado es, en general, Kevlar, el mismo material que se utiliza para fabricar los chalecos a prueba de bala. 
El revestimiento exterior rodea al cable para así proteger la fibra de abrasión, solventes y demás contaminantes.
El color del revestimiento exterior de la fibra multimodo es, en general, anaranjado, pero a veces es de otro color. 
La fibra multimodo (62,5/125) puede transportar datos a distancias de hasta 2000 metros (6.560 pies). 
La mayor diferencia entre la fibra monomodo y la multimodo es que la monomodo permite que un solo modo de luz se propague a través del núcleo de menor diámetro de la fibra óptica.
  La marca 9/125 que aparece en el revestimiento de la fibra monomodo indica que el núcleo de la fibra tiene un diámetro de 9 micrones y que el revestimiento que lo envuelve tiene 125 micrones de diámetro.
El rayo de luz que el láser genera, ingresa al núcleo en un ángulo de 90 grados. 
  Como consecuencia, los rayos de luz que transportan datos en una fibra monomodo son básicamente transmitidos en línea recta directamente por el centro del núcleo.
  Esto aumenta, en gran medida, tanto la velocidad como la distancia a la que se pueden transmitir los datos.  Por su diseño, la fibra monomodo puede transmitir datos a mayores velocidades (ancho de banda) y recorrer mayores distancias de tendido de cable que la fibra multimodo.
Aunque está distancia distancia se considera un estándar, nuevas tecnologías han incrementado esta distancia y serán discutidas en un módulo posterior.
La fibra multimodo sólo puede transportar datos hasta una distancia de 2000 metros.
La luz de láser que se utiliza con la fibra monomodo tiene una longitud de onda mayor que la de la luz visible.
Recuerde mantener las cubiertas protectoras en los extremos de la fibra e insertarlos en los puertos de fibra óptica de switches y routers.
  La Figura compara los tamaños relativos del núcleo y el revestimiento para ambos tipos de fibra óptica en distintos cortes transversales.
Como la fibra monomodo tiene un núcleo más refinado y de diámetro mucho menor, tiene mayor ancho de banda y distancia de tendido de cable que la fibra multimodo.
Hace falta algún elemento para convertir la electricidad en luz y, en el otro extremo de la fibra, para convertir la luz nuevamente en electricidad.
Un diodo emisor de luz (LED) que produce luz infrarroja con longitudes de onda de 850 nm o 1310 nm.
Amplificación de la luz por radiación por emisión estimulada (Láser) una fuente de luz que produce un fino haz de intensa luz infrarroja, generalmente, con longitudes de onda de 1310nm o 1550 nm.
  Cada una de estas fuentes de luz puede ser encendida y apagada muy rápidamente para así enviar datos (unos y ceros) a un elevado número de bits por segundo. 
Luego, el receptor convierte el pulso de luz nuevamente en la señal eléctrica original tal como ingresó al transmisor al otro extremo de la fibra.
La señal está lista para ser enviada por el cable de cobre al dispositivo electrónico receptor, como por ejemplo, un computador, switch o router.
Los dispositivos semiconductores que se utilizan generalmente como receptores con enlaces de fibra óptica reciben el nombre de diodos p-intrínsecos–n (fotodiodos PIN). 
1310 ó 1550 nm de luz que el transmisor genera al otro extremo de la fibra.
Cuando un pulso de luz de la longitud de onda adecuada da en el fotodiodo PIN, éste rápidamente genera una corriente eléctrica de voltaje apropiado para la red.
  Hay conectores unidos a los extremos de las fibras de modo que éstas puedan estar conectadas a los puertos del transmisor y del receptor.
  Además de los transmisores, receptores, conectores y fibras que siempre son necesarios en una red óptica, a menudo también se ven repetidores y paneles de conexión de fibra. 
  Los repetidores son amplificadores ópticos que reciben pulsos de luz atenuante que recorren largas distancias y los convierte a su forma, fuerza y sincronización originales.
Las señales restauradas pueden entonces enviarse hasta el receptor que se encuentra en el extremo final de la fibra. 
  Los paneles de conexión de fibra son similares a los paneles de conexión que se usan con el cable de cobre.
Estos paneles aumentan la flexibilidad de una red óptica permitiendo que se realicen rápidos cambios en la conexión de los dispositivos, como por ejemplo, switches o routers con distintos tendidos de fibra o enlaces de cable disponibles.
                                                                   Figura 4                                                            Figura 5
El cable de fibra óptica no se ve afectado por las fuentes de ruido externo que causan problemas en los medios de cobre porque la luz externa no puede ingresar a la fibra salvo en el extremo del transmisor.
El manto está cubierto por un material amortiguador y una chaqueta exterior que impide que la luz entre o abandone el cable. 
  Además, la transmisión de la luz en la fibra de un cable no genera interferencia que afecte la transmisión en cualquier otra fibra.
Gigabit y 10 Gigabit Ethernet establecen distancias de transmisión que superan de lejos el tradicional alcance de 2 kilómetros de la Ethernet original.
  Aunque la fibra es el mejor de todos los medios de transmisión a la hora de transportar grandes cantidades de datos a grandes distancias, la fibra también presenta dificultades.
La dispersión de la luz dentro de una fibra es producida por defectos microscópicos en la uniformidad (distorsiones) de la fibra que reflejan y dispersan parte de la energía de la luz. 
Cuando un rayo de luz choca algunos tipos de impurezas químicas dentro de una fibra, estas impurezas absorben parte de la energía.
  Otro factor que causa atenuación en la señal luminosa son las irregularidades o asperezas de fabricación en el límite entre el núcleo y el revestimiento.
Se pierde potencia en la señal luminosa debido a que la reflexión interna total no es perfecta en el área áspera de la fibra.
Cualquier imperfección microscópica en el espesor o simetría de la fibra reducirá la reflexión interna total y el revestimiento absorberá parte de la energía de la luz. 
  La fibra multimodo de índice graduado está diseñada para compensar las diferentes distancias que los distintos modos de luz deben recorrer en un núcleo de gran diámetro.
La fibra monomodo no presenta el problema de trayectos múltiples que una señal luminosa puede recorrer.
Cuando las longitudes de onda de la luz viajan a través del vidrio a velocidades levemente distintas a las de otras longitudes de onda, se produce la dispersión cromática.
  Lamentablemente, los láser y, en especial, los LED generan una gama de longitudes de onda de modo que la dispersión cromática limita la distancia hasta que se pueden alcanzar en una fibra.
Si se transmite una señal a una distancia demasiado grande, lo que comenzó como un pulso brillante de energía de luz llegará al receptor dispersa, difusa y débil.
Una de las causas principales de la atenuación excesiva en el cable de fibra óptica es la instalación incorrecta.
Si se estira o curva demasiado la fibra, se pueden producir pequeñas fisuras en el núcleo que dispersan los rayos de luz.
Al curvar demasiado la fibra se puede cambiar el ángulo de incidencia de los rayos de luz que llegan al límite entre el núcleo y el revestimiento.
Entonces, el ángulo de incidencia del rayo será menor que el ángulo crítico para la reflexión interna total.
En lugar de reflejarse siguiendo la zona del doblez, parte de los rayos de luz se refractarán en el revestimiento y se perderán.
  Para evitar que la curvatura de la fibra sean demasiado pronunciada, generalmente, se introduce la fibra a un tipo de tubo instalado que se llama de interducto.
El interducto es mucho más rígido que la fibra y no se puede curvar de forma pronunciada, de modo que la fibra en el interducto tampoco puede curvarse en exceso.
El interducto protege la fibra, hace que sea mucho más sencillo el tendido y asegura que no se exceda el radio de la curvatura (límite de curva) de la fibra. 
  Una vez que se ha tendido la fibra, se debe partir (cortar) y pulir adecuadamente los extremos de la fibra para asegurarse de que estén lisos.
Se utiliza un microscopio o un instrumento de prueba con una lupa incorporada para examinar el extremo de la fibra y verificar que tenga la forma y pulido correctos.
Los conectores incorrectamente instalados, empalmes no apropiados y el empalme de dos cables de diferentes tamaños de núcleo reducirán drásticamente la fuerza de la señal luminosa.
  Una vez que el cable de fibra óptica y los conectores han sido instalados, los conectores y los extremos de las fibras deben mantenerse totalmente limpios.
Cuando estas cubiertas son retiradas, antes de conectar la fibra a un puerto en un switch o router, se deben limpiar los extremos de las fibras.
Se deben limpiar los extremos de la fibra con paño especial sin pelusa para limpiar lentes, humedecido con alcohol isopropílico puro.
Los puertos de fibra de un switch o router también deben mantenerse cubiertos cuando no se encuentran en uso y limpiarse con paño especial para limpiar lentes y alcohol isopropílico antes de realizar la conexión.
La suciedad en los extremos de una fibra disminuirá gravemente la cantidad de luz que llega al receptor. 
  La dispersión, absorción, difusión, incorrecta instalación y los extremos de fibra sucios son factores que disminuyen la fuerza de la señal luminosa y se conocen como ruido de fibra.
Antes de usar un cable de fibra óptica, es importante probarlo para asegurarse de que suficiente luz llegue al receptor para que éste pueda detectar los ceros y los unos en la señal. 
  Al planear un enlace de fibra óptica, es necesario calcular la pérdida tolerable de la potencia de la señal.
Una vez que todos los gastos son sustraídos del ingreso inicial, debe quedar dinero suficiente para todo el mes. 
  Es de suma importancia probar los enlaces de fibra y se deben mantener registros de los resultados de estas pruebas.
  Estos medidores prueban el cable óptico para asegurar que el cable cumpla con los estándares Tía para la fibra.
También verifican que la pérdida de potencia del enlace no caiga por debajo del presupuesto de pérdida del enlace óptico.
Una comprensión de las reglamentaciones y los estándares que se aplican a la tecnología inalámbrica permitirá la interoperabilidad y cumplimiento de todas las redes existentes.
Un sistema de DSSS puede transmitir hasta 11 Mbps, pero si opera por encima de los 2 Mbps se considera que no cumple con la norma.
Aunque las WLAN de DSSS podían interoperar con las WLAN de Espectro de Dispersión por Salto de Frecuencia (FHSS), se presentaron problemas que motivaron a los fabricantes a realizar cambios en el diseño.
  802.11b también recibe el nombre de Wi-Fi™ o inalámbrico de alta velocidad y se refiere a los sistemas DSSS que operan a 1, 2;
Todos los sistemas 802.11b cumplen con la norma de forma retrospectiva, ya que también son compatibles con 802.11 para velocidades de transmisión de datos de 1 y 2 Mbps sólo para DSSS.
Esta compatibilidad retrospectiva es de suma importancia ya que permite la actualización de la red inalámbrica sin reemplazar las NIC o los puntos de acceso. 
  Los dispositivos de 802.11b logran un mayor índice de tasa de transferencia de datos ya que utilizan una técnica de codificación diferente a la del 802.11, permitiendo la transferencia de una mayor cantidad de datos en la misma cantidad de tiempo.
La mayoría de los dispositivos 802.11b todavía no alcanzan tasa de transferencia de 11 Mbps y, por lo general, trabajan en un intervalo de 2 a 4 Mbps. 
El uso del rango de 5 GHZ no permite la interoperabilidad de los dispositivos 802.11b ya que éstos operan dentro de los 2,4 GHZ.
802.11a puede proporcionar una tasa de transferencia de datos de 54 Mbps y con una tecnología propietaria que se conoce como «duplicación de la velocidad» ha alcanzado los 108 Mbps.
  802.11g ofrece tasa de transferencia que 802.11a pero con compatibilidad retrospectiva para los dispositivos 802.11b utilizando tecnología de modulación por Multiplexión por División de Frecuencia Ortogonal (OFDM).
Cisco ha desarrollado un punto de acceso que permite que los dispositivos 802.11b y 802.11a coexistan en la misma WLAN.
El punto de acceso brinda servicios de ‘gateway’ que permiten que estos dispositivos, que de otra manera serían incompatibles, se comuniquen.
Equipada con NIC inalámbricas, se puede establecer una red ‘ad hoc’ comparable a una red cableada de par a par.
  Para resolver el problema de la compatibilidad, se suele instalar un punto de acceso (AP) para que actúe como hub central para el modo de infraestructura de la WLAN.
El AP se conecta mediante cableado a la LAN cableada a fin de proporcionar acceso a Internet y conectividad a la red cableada.
Los AP están equipados con antenas y brindan conectividad inalámbrica a un área específica que recibe el nombre de celda.
Según la composición estructural del lugar donde se instaló el AP y del tamaño y ganancia de las antenas, el tamaño de la celda puede variar enormemente.
Para brindar servicio a áreas más extensas, es posible instalar múltiples puntos de acceso con cierto grado de superposición.
La superposición, en redes con múltiples puntos de acceso, es fundamental para permitir el movimiento de los dispositivos dentro de la WLAN.
Este índice de superposición permitirá el roaming entre las celdas y así la actividad de desconexión y reconexión no tendrá interrupciones. 
  Cuando se activa un cliente dentro de la WLAN, la red comenzará a «escuchar» para ver si hay un dispositivo compatible con el cual «asociarse».
Esto se conoce como «escaneo» y puede ser activo o pasivo.  El escaneo activo hace que se envíe un pedido de sondeo desde el nodo inalámbrico que busca conectarse a la red.
  Los nodos de escaneo pasivo esperan las tramas de administración de beacons (beacons) que son transmitidas por el AP (modo de infraestructura) o nodos pares (ad hoc).
Cuando un nodo recibe un beacon que contiene el SSID de la red a la que se está tratando de conectar, se realiza un intento de conexión a la red.
El escaneo pasivo es un proceso continuo y los nodos pueden asociarse o desasociarse de los AP con los cambios en la potencia de la señal.
Una vez establecida la conectividad con la WLAN, un nodo pasará las tramas de igual forma que en cualquier otra red 802.X.
sin embargo una trama de Ethernet no puede superar los 1518 bytes mientras que una trama inalámbrica puede alcanzar los 2346 bytes.
En general, el tamaño de la trama de WLAN se limita a 1518 bytes ya que se conecta, con mayor frecuencia, a una red cableada de Ethernet. 
  Debido a que la radiofrecuencia (RF) es un medio compartido, se pueden producir colisiones de la misma manera que se producen en un medio compartido cableado.
La principal diferencia es que no existe un método por el que un nodo origen pueda detectar que ha ocurrido una colisión.
  Cuando un nodo fuente envía una trama, el nodo receptor devuelve un acuse de recibo positivo (ACK).
Este gasto, al combinarse con el del protocolo de prevención de colisiones reduce la tasa de transferencia real de datos a un máximo de 5,0 a 5,5 Mbps en una LAN inalámbrica 802.11b con una velocidad de 11 Mbps. 
  El rendimiento de la red también estará afectado por la potencia de la señal y por la degradación de la calidad de la señal debido a la distancia o interferencia.
La unidad transmisora disminuirá la velocidad de transmisión de datos de 11 Mbps a 5,5 Mbps, de 5,5 Mbps a 2 Mbps o de 2 Mbps a 1 Mbps.
Este es un punto fundamental a tener en cuenta con respecto a la seguridad, detección de fallas y administración general de una WLAN. 
  La autenticación puede ser un proceso nulo, como en el caso de un nuevo AP y NIC con las configuraciones por defecto en funcionamiento.
También puede configurarse el AP para derivar la tarea de autenticación a un servidor de autenticación, que realizaría un proceso de credencial más exhaustivo.
  La asociación que se realiza después de la autenticación, es el estado que permite que un cliente use los servicios del AP para transferir datos. 
No autenticado y no asociado  El nodo está desconectado de la red y no está asociado a un punto de acceso.  Autenticado y no asociado  El nodo ha sido autenticado en la red pero todavía no ha sido asociado al punto de acceso.  Autenticado y asociado  El nodo está conectado a la red y puede transmitir y recibir datos a través del punto de acceso. 
Puede ser utilizado en un entorno seguro y no seguro aunque existe una alta capacidad de los ‘husmeadores’ de red de bajo nivel para descubrir el SSID de la LAN. 
El AP está configurado con una clave cifrada y los nodos que buscan acceso a la red a través del AP deben tener una clave que coincida.
Las claves del WEP asignadas de forma estática brindan un mayor nivel de seguridad que el sistema abierto pero definitivamente no son invulnerables a la piratería informática. 
  El problema del ingreso no autorizado a las WLAN actualmente está siendo considerado por un gran número de nuevas tecnologías de soluciones de seguridad. 
En una WLAN, una señal de radio medida a una distancia de sólo 10 metros (30 pies) de la antena transmisora suele tener sólo 1/100mo de su potencia original.
Al igual que lo que sucede con la luz, las ondas de radio pueden ser absorbidas por ciertos materiales y reflejadas por otros.
Al pasar de un material, como el aire, a otro material, como una pared de yeso, las ondas de radio se refractan.
  Es importante recordar estas cualidades de las ondas de radio cuando se está planificando una WLAN para un edificio o en un complejo de edificios.
  Como las señales de radio se debilitan a medida que se alejan del transmisor, el receptor también debe estar equipado con una antena.
Cuando las ondas de radio llegan a la antena del receptor, se generan débiles corrientes eléctricas en ella.
Estas corrientes eléctricas, producidas por las ondas de radio recibidas, son equivalentes a las corrientes que originalmente generaron las ondas de radio en la antena del transmisor.
  En un transmisor, las señales eléctricas (datos) que provienen de un computador o de una LAN no son enviadas directamente a la antena del transmisor.
En cambio, estas señales de datos son usadas para alterar una segunda señal potente llamada señal portadora. 
  El proceso de alterar una señal portadora que ingresará a la antena del transmisor recibe el nombre de modulación.
Las estaciones de Frecuencia Modulada (FM) modulan la frecuencia de la señal portadora según lo determina la señal eléctrica proveniente del micrófono.
En las WLAN, se utiliza un tercer tipo de modulación llamado modulación de fase para superponer la señal de los datos a la señal portadora enviada por el transmisor.
  En este tipo de modulación, los bits de datos de una señal eléctrica cambian la fase de la señal portadora.  Un receptor demodula la señal portadora que llega desde su antena.
El receptor interpreta los cambios de fase de estos la señal portadora y la reconstruye a partir de la señal eléctrica de datos original. 
Como su nombre lo indica, la banda estrecha no afecta al espectro de frecuencia de la señal inalámbrica.
Una solución para el problema de interferencia en la banda estrecha consiste en simplemente cambiar el canal que utiliza el AP.
En realidad, diagnosticar la causa de interferencia en la banda estrecha puede ser una experiencia costosa y que consume tiempo.
Identificar la fuente requiere el uso de un analizador de espectro que resulta relativamente costoso, aunque se trate de un modelo económico. 
Las tecnologías Bluetooth™ saltan a través de los 2.4 GHz completo, varias veces por segundo y pueden producir una interferencia significativa en una red 802.11b.
Es común ver carteles en instalaciones que usan redes inalámbricas solicitando que se desconecten todos los dispositivos Bluetooth™ antes de entrar.
En los hogares y las oficinas, un dispositivo que, a menudo, se pasa por alto y que causa interferencia es el horno de microondas estándar.
Un microondas que tenga una pérdida de tan sólo un watt que ingrese al espectro de RF puede causar una importante interferencia en la red.
      Las condiciones climáticas, inclusive las más extremas, por lo general no afectan la señal de RF.
Sin embargo, la niebla o condiciones de humedad elevada pueden afectar y afectan las redes inalámbricas.
  La primera fuente de problemas de señal, y la más obvia, es la estación transmisora y el tipo de antena.
Una estación de mayor potencia transmitirá la señal a mayor distancia y una antena parabólica que concentre la señal aumentará el alcance de la transmisión. 
  En un entorno SOHO, la mayoría de los puntos de acceso utilizan antenas omnidireccionales gemelas que transmiten la señal en todas las direcciones reduciendo así el alcance de la comunicación. 
En el caso del EAP, el punto de acceso no brinda autenticación al cliente, sino que pasa esta tarea a un dispositivo más sofisticado, posiblemente un servidor dedicado, diseñado para tal fin.
Desafío EAP-MD5: El Protocolo de Autenticación Extensible (EAP) es el tipo de autenticación más antiguo, muy parecido a la protección CHAP con contraseña de una red cableada.  LEAP (Cisco): El Protocolo Liviano de Autenticación Extensible es el tipo más utilizado en los puntos de acceso de las WLAN de Cisco.
LEAP brinda seguridad durante el intercambio de credenciales, cifra utilizando claves dinámicas WEP y admite la autenticación mutua.  Autenticación del usuario: Permite que sólo usuarios autenticados se conecten, envíen y reciban datos a través de la red inalámbrica.  Cifrado: Brinda servicios de cifrado que ofrecen protección adicional de los datos contra intrusos.  Autenticación de datos: Asegura la integridad de los datos, autenticando los dispositivos fuente y destino. 
  La tecnología VPN cierra efectivamente la red inalámbrica ya que una WLAN irrestricta envía tráfico automáticamente entre los nodos que parecen estar en la misma red inalámbrica.
Las WLAN a menudo se extienden por afuera del perímetro del hogar o de la oficina donde se las instala y, si no hay seguridad, sin mucho esfuerzo los intrusos pueden infiltrarse en la red.
Por otra parte, es poco el esfuerzo necesario de parte del administrador de la red para brindar seguridad de bajo nivel a la WLAN.
Toda la materia está compuesta por átomos y los tres componentes de un átomo son: protones, neutrones y electrones.
La descarga electrostática (ESD) puede causar graves problemas en equipos electrónicos sensibles.
La atenuación se relaciona a la resistencia al flujo de electrones y la razón por la que una señal se degrada a medida que viaja.
Las corrientes fluyen por bucles cerrados llamados circuitos, que deben estar compuestos por materiales conductores y deben contar con fuentes de voltaje.
El multímetro se usa para medir voltaje, corriente, resistencia y otras mediciones eléctricas expresadas en forma numérica.
El cable coaxial consta de un conductor cilíndrico exterior hueco que rodea un conductor de alambre interno único.
El cable UTP es un medio de cuatro pares de hilos que se utiliza en varios tipos de redes.
La fibra óptica es un excelente medio de transmisión cuando es instalada, probada y mantenida correctamente.
La energía de la luz, un tipo de onda de energía electromagnética, se utiliza para transmitir grandes cantidades de datos de forma segura a distancias relativamente grandes.
La señal luminosa que transporta una fibra es producida por un transmisor que convierte una señal eléctrica en señal luminosa.
El receptor convierte la luz que llega al otro extremo del cable nuevamente en la señal eléctrica original.
Los rayos de luz obedecen a las leyes de reflexión y refracción a medida que recorren la fibra de vidrio, lo que permite la fabricación de fibras con propiedad de reflexión interna total.
La reflexión total interna hace que las señales luminosas permanezcan en el interior de la fibra, aunque la fibra no sea recta.
La atenuación de la señal luminosa es un problema en el caso de cables largos, especialmente si secciones del cable están conectados a paneles de conexión o están empalmados.
El cable y los conectores deben estar correctamente instalados y deben ser cuidadosamente probados con equipo óptico de prueba de alta calidad antes de ser utilizados.
Los enlaces de cable deben ser verificados periódicamente con instrumentos ópticos de prueba de alta calidad para controlar si, de alguna manera, se ha deteriorado el enlace.
Siempre se debe tener cuidado y proteger los ojos de las fuentes de luz intensa, como los láser.
La comprensión de las reglamentaciones y los estándares que se aplican a la tecnología inalámbrica permitirá la interoperabilidad y cumplimiento de todas las redes existentes.
Los problemas de compatibilidad con las NIC se resuelven instalando un punto de acceso (AP) que actúe como hub central para la WLAN  Son tres los tipos de tramas que se utilizan en las comunicaciones inalámbricas: de control, de administración y de datos Las WLAN utilizan Acceso Múltiple con Detección de Portadora y Prevención de Colisiones (CSMA/CA).
La baja calidad de un cableado de red provocará fallas en la red y un desempeño poco confiable.
Todos los medios de redes, de cobre, fibra óptica e inalámbricos, requieren una prueba para asegurar que cumplen con estrictas pautas de especificación.
Estas pruebas se basan en ciertos conceptos eléctricos y matemáticos y expresiones tales como señal, onda, frecuencia y ruido.
  El objetivo de la primera lección de este módulo es brindar algunas definiciones básicas que servirán para comprender los conceptos sobre pruebas de cables que se presentan en la segunda sección. 
  La segunda lección de este módulo describe los temas relacionados con la prueba de los medios utilizados para la conectividad de la capa física en las redes de área local (LAN).
Para que la LAN funcione correctamente, el medio de la capa física debería cumplir con las especificaciones de los estándares industriales. 
  La atenuación, que es el deterioro de la señal, y el ruido, que es la interferencia que sufre la señal, pueden causar problemas en las redes porque los datos enviados pueden ser interpretados incorrectamente o no ser reconocidos en absoluto después de haber sido recibidos.
Si se siguen los estándares durante la instalación, se deberían minimizar las reparaciones, los cambios, la atenuación y los niveles de ruido. 
  Una vez instalado el cable, un instrumento de certificación de cables puede verificar que la instalación cumple las especificaciones Tía/EIA.
Distinguir entre ondas sinoidales y ondas rectangulares.  Definir y calcular exponentes y logaritmos.  Definir y calcular decibelios.  Definir terminología básica relacionada con tiempo, frecuencia y ruido.  Distinguir entre ancho de banda digital y ancho de banda analógico.  Comparar y contrastar niveles de ruido en distintos tipos de cableado.  Definir y describir los efectos de la falta de concordancia entre atenuación e impedancia.  Definir diafonía, paradiafonía, telediafonía y paradiafonía de suma de potencia.  Describir cómo los pares trenzados contribuyen a reducir el ruido.  Describir las diez pruebas de cable de cobre definidas en Tía/EIA-568-B.
Por el contrario, el océano siempre presenta algún tipo de onda (las olas) detectable debido a los disturbios provocados por el viento y la marea.
  Las olas del océano se pueden describir en función de su altura, o amplitud, que se podría medir en metros.
También se pueden describir en función de la frecuencia con la que llegan a la orilla, usando período y frecuencia.
  Los profesionales de redes están particularmente interesados en las ondas de voltaje en medios de cobre, las ondas de luz en fibras ópticas, y los campos alternos eléctricos y magnéticos que se denominan ondas electromagnéticas.
La amplitud de una señal eléctrica también representa su altura, pero se mide en voltios (V) en lugar de metros (m).
  Si se general deliberadamente un disturbio con una duración fija y predecible, éste se llama pulso.
Las ondas sinoidales son periódicas, o sea que repiten el mismo patrón a intervalos regulares.
Las ondas sinoidales varían continuamente, o sea que no existen dos puntos adyacentes en el gráfico con el mismo valor. 
  Las ondas sinoidales son representaciones gráficas de muchas ocurrencias naturales que varían regularmente a lo largo del tiempo.
Algunos ejemplos de estas ocurrencias son la distancia de la tierra al sol, la distancia al suelo en un paseo en la Rueda de la Fortuna, y la hora a la que sale el sol.
Este valor se conserva durante cierto tiempo, y luego cambia rápidamente de vuelta a su valor original.
Como ocurre con todas las ondas, las ondas rectangulares se pueden describir en función de su amplitud, período y frecuencia.
  Recuerde que la base de un sistema numérico se refiere a la cantidad de diferentes símbolos que pueden ocupar una posición.
Por ejemplo, en el sistema binario sólo existen dos valores posibles, 0 y 1.
En el sistema decimal, existen diez valores posibles, los números del 0 al 9.
En el sistema hexadecimal existen 16 valores posibles, los números del 0 al 9 y las letras de la A a la F.
Esto equivale a 2 para números binarios, 10 para números decimales y 16 para números hexadecimales.
  Los números con exponentes se utilizan para representar fácilmente cifras muy grandes o muy pequeñas.
Es mucho más fácil y menos propenso a errores representar mil millones numéricamente como 109 que como 1000000000.
Muchos de los cálculos de las pruebas de cables implican el uso de cifras muy grandes, por eso se prefiere el formato exponencial.
Una forma de trabajar con las cifras muy grandes y muy pequeñas que ocurren en las redes es trasformar las cifras conforme a la regla, o función matemática, conocida como logaritmo.
Sin embargo, la base 10 tiene muchas ventajas que no se pueden obtener en los cálculos ordinarios con otras bases.
Por ejemplo, log (109) es igual a 9, log (10-3) = -3.
También se puede calcular el logaritmo de números que no son potencias de 10, pero no se puede calcular el logaritmo de un número negativo.
Sin embargo, la terminología se usa a menudo para calcular decibelios y para medir la intensidad de la señal en medios de cobre, ópticos e inalámbricos.
  dB = 10 log10 (Pfinal / Pref)  dB = 20 log10 (Vfinal / Vref) 
Los decibelios pueden ser valores negativos lo cual representaría una pérdida de potencia a medida que la onda viaja o un valor positivo para representar una ganancia en potencia si la señal es amplificada. 
  log10 implica que el número entre paréntesis se transformará usando la regla del logaritmo en base 10 
Normalmente, las ondas de luz en las fibras ópticas y las ondas de radio en el aire se miden usando la fórmula de potencia.
  En la formula dB = 10 log10 (Pfinal / Pref), ingrese valores para dB y Pref para encontrar la potencia entregada.
Esta fórmula se puede utilizar para saber cuánta potencia queda en una onda de radio después de recorrer cierta distancia a través de diferentes materiales, y a través de varias etapas de sistemas electrónicos, como un radio. 
Uno de los hechos más importantes de la era informática es que los datos que simbolizan caracteres, palabras, fotografías, videos o música se pueden representar electrónicamente mediante configuraciones de voltaje en cables y dispositivos electrónicos.
Los datos representados por estos patrones de voltaje se pueden convertir en ondas de luz o de radio, y luego de vuelta en ondas de voltaje.
El micrófono convierte los patrones de energía sonora en patrones de voltaje de energía eléctrica que representan la voz. 
  Si los patrones de voltaje se graficaran en función del tiempo, se verían los distintos patrones que representan la voz.
Un osciloscopio es un dispositivo electrónico importante que se utiliza para observar señales eléctricas como, por ejemplo, las ondas de voltaje y pulsos.
El eje «x» en el gráfico representa el tiempo y el eje «y» representa el voltaje o la corriente.
Generalmente existen dos ejes «y», de modo que se pueden observar y medir dos ondas al mismo tiempo. 
  El análisis de las señales con un osciloscopio se denomina análisis de dominio temporal, porque el eje “x”, o dominio de la función matemática, representa el tiempo.
Un dispositivo electrónico denominado analizador de espectro genera gráficos para este tipo de análisis. 
  Las señales electromagnéticas usan diferentes frecuencias para la transmisión, para que las diferentes señales no interfieran entre sí.
Para entender la complejidad de las señales de redes y de las pruebas de cable, examine cómo las señales analógicas varían en función del tiempo y de la frecuencia.
Primero, piense en una onda sinusoidal eléctrica de una sola frecuencia, cuya frecuencia es detectable por el oído humano.
El gráfico de varios tonos muestra varias líneas individuales que corresponden a la frecuencia de cada tono.
Si hay presentes muchos tonos diferentes, se representaría un espectro continuo de tonos individuales.
El ruido puede provenir de fuentes naturales y tecnológicas, y se agrega a las señales de datos en los sistemas de comunicación.
Aunque es imposible eliminar el ruido, se pueden minimizar sus efectos si se comprenden los orígenes del ruido.
Cables cercanos que transportan señales de datos Interferencia de radiofrecuencia (RFI), que es el ruido de otras señales que se están transmitiendo en las proximidades Interferencia electromagnética (EMI), que es el ruido que proviene de fuentes cercanas como motores y luces Ruido de láser en la transmisión o recepción de una señal óptica
  El ruido que afecta por igual a todas las frecuencias de transmisión se denomina ruido blanco.
El ruido que afecta únicamente a pequeños intervalos de frecuencia se denomina interferencia de banda estrecha.
La interferencia de banda estrecha afectaría sólo a algunas estaciones cuyas frecuencias estuvieran próximas entre sí.
Al detectarse en una LAN, el ruido blanco podría afectar a todas las transmisiones de datos, pero la interferencia de banda estrecha puede interferir quizás sólo en algunas señales. 
Dos formas de considerar el ancho de banda, que resultan importantes en el estudio de las LAN, son el ancho de banda analógico y el ancho de banda digital. 
  El ancho de banda analógico normalmente se refiere a la gama de frecuencias de un sistema electrónico analógico.
El ancho de banda analógico se podría utilizar para describir la gama de frecuencias transmitidas por una estación de radio o un amplificador electrónico.
La unidad de medida para el ancho de banda analógico es el hercio, al igual que la unidad de frecuencia. 
  El ancho de banda digital mide la cantidad de información que puede fluir desde un punto hacia otro en un período de tiempo determinado.
Los medios físicos, las tecnologías actuales y las leyes de la física limitan el ancho de banda. 
  Durante el proceso de prueba de los cables, se usa el ancho de banda analógico para determinar el ancho de banda digital de un cable de cobre.
Las formas de onda digitales están compuestas de muchas ondas sinusoidales (ondas análogas).
En general, los medios capaces de admitir anchos de banda analógicos más altos sin niveles elevados de atenuación, también admiten anchos de banda digitales más altos.
En los cables de cobre, las señales de datos se representan por niveles de voltaje que representan unos y ceros binarios.
Los niveles de voltaje se miden respecto de un nivel de referencia de cero voltios tanto en el transmisor como en el receptor.
Es importante que tanto el dispositivo transmisor como el receptor hagan referencia al mismo punto de referencia de cero voltios.
  Para que una LAN funcione correctamente, el dispositivo receptor debe poder interpretar con precisión los unos y ceros binarios transmitidos como niveles de voltaje.
Como la tecnología actual de Ethernet admite velocidades de miles de millones de bits por segundo, cada bit debe ser reconocido, aun cuando su duración sea muy breve.
Esto significa que es necesario retener lo más posible la potencia original de la señal, a medida que la señal recorre el cable y atraviesa los conectores.
Anticipándonos a protocolos de Ethernet cada vez más veloces, las nuevas instalaciones de cables se deben hacer con los mejores cables, conectores y dispositivos de interconexión disponibles, tales como bloques de empuje y paneles de conexión.
En los cables blindados, el material de blindaje protege la señal de datos de las fuentes externas de ruido, así como de ruido generado por señales eléctricas dentro del cable. 
Se compone de un conductor de cobre sólido recubierto con material aislante, y luego con un blindaje conductor trenzado.
En las aplicaciones LAN, el blindaje trenzado está conectado a tierra eléctricamente para proteger el conductor interno del ruido eléctrico externo.
El blindaje contribuye además a eliminar la pérdida de la señal, evitando que la señal transmitida se escape del cable.
Esto ayuda a que el cable coaxial sea menos sujeto al ruido que los otros tipos de cableado de cobre, pero también lo hace más caro.
La necesidad de conectar el blindaje a tierra, así como el tamaño voluminoso del cable coaxial, dificultan su instalación en comparación con otros cables de cobre. 
  Existen dos tipos de cables de par trenzado: par trenzado blindado (STP) y par trenzado no blindado (UTP).
      El cable STP contiene un blindaje conductivo externo conectado eléctricamente a tierra para aislar las señales del ruido eléctrico externo.
El STP utiliza además blindajes metálicos internos que protegen cada par de cables del ruido generado por los otros pares.
ScTP se refiere generalmente a un cable de par trenzado de Categoría 5 o 5E, mientras que STP se refiere a un cable propietario de IBM que contiene solo dos pares de conductores. 
El UTP no tiene blindaje y es más susceptible al ruido externo, pero se usa con más frecuencia por ser económico y más fácil de instalar. 
  El cable de fibra óptica se usa para transmitir señales de datos mediante una tecnología que aumenta y disminuye la intensidad de la luz para representar unos y ceros binarios.
La intensidad de una señal luminosa no disminuye tanto como la intensidad de una señal eléctrica sobre una tramo de igual longitud.
Las señales ópticas no se ven afectadas por el ruido eléctrico, y no es necesario conectar la fibra óptica a tierra a menos que la chaqueta contenga un miembro de tensión metálico.
A medida que disminuyen los costos y aumenta la demanda de velocidad, es posible que la fibra óptica se use cada vez más en los medios LAN.
Los cables muy largos y las frecuencias de señal muy elevadas contribuyen a una mayor atenuación de la señal.
Por esta razón, la atenuación en un cable se mide con un analizador de cable, usando las frecuencias más elevadas que dicho cable admite.
La resistencia del cable de cobre convierte en calor a parte de la energía eléctrica de la señal.
La señal también pierde energía cuando se filtra por el aislamiento del cable y como resultado de la impedancia provocada por conectores defectuosos. 
  La impedancia mide la resistencia del cable a la corriente alterna (CA) y se mide en ohmios.
  La discontinuidad en la impedancia provoca atenuación porque una porción de la señal transmitida se volverá a reflejar en el dispositivo transmisor en lugar de seguir su camino al receptor, como si fuera un eco.
Este efecto se complica si ocurren múltiples discontinuidades que hacen que porciones adicionales de la señal restante se vuelvan a reflejar en el transmisor.
Cuando el retorno de este reflejo choca con la primera discontinuidad, parte de la señal rebota en dirección de la señal original, creando múltiples efectos de eco.
Los ecos chocan con el receptor a distintos intervalos, dificultando la tarea de detectar con precisión los valores de datos de la señal.
  La combinación de los efectos de una señal atenuada con las discontinuidades en la impedancia en un enlace de comunicación se conoce como pérdida de inserción.
El correcto funcionamiento de una red depende de una impedancia carácterística y constante en todos los cables y conectores, sin discontinuidades en la impedancia a lo largo de todo el sistema de cables.
El ruido consiste en cualquier energía eléctrica en el cable de transmisión que dificulte que un receptor interprete los datos enviados por el transmisor.
Los hilos adyacentes del cable funcionan como antenas que reciben la energía transmitida, lo que interfiere con los datos transmitidos en esos hilos.
  Los instrumentos de prueba de cables miden la diafonía aplicando una señal de prueba a un par de hilos.
El analizador de cables mide la amplitud de las señales diafónicas no deseadas inducidas sobre los otros pares de hilos del cable. 
  Los cables de par trenzado están diseñados para aprovechar los efectos de la diafonía para minimizar el ruido.
Como una señal de ruido en un hilo aparecerá en forma idéntica en el otro hilo, es fácil detectar este ruido y filtrarlo en el receptor.
  Trenzar un par de hilos en un cable, contribuye además a reducir la diafonía en las señales de datos o de ruido provenientes de un par de hilos adyacentes.
En las categorías de UTP más altas, hacen falta más trenzas en cada par de hilos del cable para minimizar la diafonía a frecuencias de transmisión elevadas.
Al colocar conectores en los extremos de los cables UTP, se debe minimizar el destrenzado de los pares de hilos para asegurar una comunicación confiable en la LAN.
  La paradiafonía (NEXT) se computa como la relación entre la amplitud de voltaje de la señal de prueba y la señal diafónica, medida en el mismo extremo del enlace.
Los números negativos bajos indican más ruido, de la misma forma en que las temperaturas negativas bajas indican más calor.
Una lectura NEXT de 30 dB (que en realidad indica –30 dB) indica menos ruido NEXT y una señal más limpia que una lectura NEXT de 10 dB. 
Para acortar los tiempos de prueba, algunos instrumentos de prueba de cables permiten que el usuario pruebe el desempeño NEXT de un enlace utilizando un intervalo de frecuencia mayor que la especificada por el estándar Tía/EIA.
Para verificar el correcto desempeño de un enlace, NEXT se debe medir desde ambos extremos del enlace con un instrumento de prueba de buena calidad.
  Debido a la atenuación, la diafonía que ocurre a mayor distancia del transmisor genera menos ruido en un cable que la NEXT.
  La Paradiafonía de suma de potencia (PSNEXT) mide el efecto acumulativo de NEXT de todos los pares de hilos del cable.
El efecto combinado de la diafonía proveniente de múltiples fuentes simultáneas de transmisión puede ser muy perjudicial para la señal.
  Algunos estándares de Ethernet, como 10BASE-T y 100 BASE-TX, reciben datos de un solo par de hilos en cada dirección.
No obstante, para las tecnologías más recientes como 1000 BASE-T, que reciben datos simultáneamente desde múltiples pares en la misma dirección, las mediciones de suma de potencias son pruebas muy importantes.
El estándar Tía/EIA-568-B especifica diez pruebas que un cable de cobre debe pasar si ha de ser usado en una LAN Ethernet moderna de alta velocidad.
Se deben probar todos los enlaces de cables a su calificación más alta aplicable a la categoría de cable que se está instalando. 
  Los diez parámetros de prueba principales que se deben verificar para que un enlace de cable cumpla con los estándares Tía/EIA son: 
Mapa de cableado Pérdida de inserción Paradiafonía (NEXT) Paradiafonía de suma de potencia (PSNEXT) Telediafonía del mismo nivel (ELFEXT) Telediafonía del mismo nivel de suma de potencia (PSELFEXT) Pérdida de retorno Retardo de propagación Longitud del cable Sesgo de retardo
Una NIC (tarjeta de interfaz de red) transmite señales en los pins 1 y 2, y recibe señales en los pins 3 y 6.
  El mapa del cableado verifica además que la totalidad de los ocho cables estén conectados a los pins correspondientes en ambos extremos del cable.
La falla de par invertido ocurre cuando un par de hilos está correctamente instalado en un conector, pero invertido en el otro conector.
Si el hilo blanco/naranja se termina en el pin 1 y el hilo naranja se termina en el pin 2 en uno de los extremos de un cable, pero de forma invertida en el otro extremo, entonces el cable tiene una falla de par invertido.
  Una falla de cableado de par dividido ocurre cuando un hilo de un par se cruza con un hilo de un par diferente.
Esta mezcla entorpece el proceso de cancelación cruzada y hace el cable más susceptible a la diafonía y la interferencia.
Un par dividido da lugar a dos pares transmisores o receptores, cada uno con dos hilos no trenzados entre sí. 
  Las fallas de cableado de pares transpuestos se producen cuando un par de hilos se conecta a pins completamente diferentes en ambos extremos.
La combinación de los efectos de una señal atenuada con las discontinuidades en la impedancia en un enlace de comunicación se conoce como pérdida de inserción.
El estándar Tía/EIA exige que un cable y sus conectores pasen una prueba de pérdida de inserción antes de que se pueda usar dicho cable en una LAN, como enlace para comunicaciones.
Un analizador de cable mide la NEXT aplicando una señal de prueba a un par de cables y midiendo la amplitud de las señales de diafonía recibidas por los otros pares de cables.
El valor NEXT, expresado en decibelios, se computa como la diferencia de amplitud entre la señal de prueba y la señal diafónica medidas en el mismo extremo del cable.
Recuerde, como el número de decibelios que muestra el analizador de cables es un número negativo, cuanto mayor sea ese número, menor será la NEXT en ese par de hilos.
Tal como se había mencionado previamente, la prueba PSNEXT es en realidad un cálculo basado en los efectos NEXT combinados. 
La ELFEXT de par a par se expresa en dB como la diferencia entre la pérdida FEXT medida y la pérdida de inserción del par de hilos cuya señal está perturbada por la FEXT.
La telediafonía de igual nivel de suma de potencia (PSELFEXT) es el efecto combinado de ELFEXT de todos los pares de hilos. 
  La pérdida de retorno es una medida en decibelios de los reflejos causados por discontinuidades en la impedancia en todos los puntos del enlace.
El problema significativo es que los ecos de señal producidos por los reflejos originados en discontinuidades en la impedancia, afectarán al receptor a diferentes intervalos, causando la fluctuación de las señales.
El retardo de propagación es una medición simple del tiempo que tarda una señal en recorrer el cable que se está probando.
El Tía/EIA-568-B.1 especifica que la longitud física del enlace se calcula usando el par de hilos con el menor retardo eléctrico.
Los analizadores de cables miden la longitud del hilo en base al retardo eléctrico según la medición de una prueba de Reflectometría en el dominio del tiempo (TDR), y no por la longitud física del revestimiento del cable.
Ya que los hilos adentro del cable están trenzados, las señales en realidad recorren una distancia mayor que la longitud del cable.
Cuando un analizador de cables realiza una medición TDR, envía una señal de pulso por un par de hilos y mide el tiempo requerido para que el pulso regrese por el mismo par de hilos. 
      La prueba TDR se utiliza no sólo para determinar la longitud, sino también para identificar la distancia hasta las fallas de cableado, tales como cortocircuitos y circuitos abiertos.
Cuando el pulso encuentra un circuito abierto, un cortocircuito o una conexión deficiente, la totalidad o una parte de la energía del pulso se vuelve a reflejar al analizador de cables.
La distancia aproximada es útil a la hora de localizar un punto de conexión defectuoso en el recorrido de un cable, como un jack de pared. 
  Los retardos de propagación de los distintos pares de hilos en un solo cable pueden presentar leves diferencias debido a diferencias en la cantidad de trenzas y propiedades eléctricas de cada par de cables.
El sesgo de retardo es un parámetro crítico en redes de alta velocidad en las que los datos se transmiten simultáneamente a través de múltiples pares de hilos, tales como Ethernet 1000BASE-T.
Si el sesgo de retardo entre los pares es demasiado grande, los bits llegan en momentos diferentes y los datos no se vuelven a ensamblar correctamente.
A pesar de que un enlace de cable no es lo que más se ajusta a este tipo de transmisión de datos, la prueba de sesgo de retardo ayuda a garantizar que el enlace admitirá futuras actualizaciones a redes de alta velocidad. 
  Todos los enlaces de cable en una LAN deben pasar todas las pruebas antes mencionadas, según lo especificado por el estándar Tía/EIA-568.B para ser considerados dentro de los estándares.
Se debe usar un instrumento de certificación para asegurar que se pasan todas las pruebas para ser considerado dentro de los estándares.
Estas pruebas garantizan que los enlaces de cable funcionarán de manera confiable a velocidades y frecuencias altas.
Las pruebas de cables se deben realizar en el momento de instalar el cable, y a partir de ahí de forma periódica para garantizar que el cableado de la LAN cumpla con los estándares industriales.
Se deben utilizar correctamente instrumentos de prueba para cables de buena calidad para garantizar la precisión de dichas pruebas.
Un enlace de fibra óptica consta de dos fibras de vidrio separadas que funcionan como recorridos de datos independientes.
Una fibra transporta las señales transmitidas en una dirección, en tanto que la otra transporta señales en dirección contraria.
Cada fibra de vidrio está cubierta por un revestimiento que no permite el paso de la luz, por lo tanto los cables de fibra óptica no presentan problemas de diafonía.
Se produce atenuación en los enlaces de fibra óptica, pero en menor medida que en los cables de cobre. 
  Los enlaces de fibra óptica están sujetos al equivalente óptico de la discontinuidad en la impedancia de UTP.
Cuando la luz encuentra una discontinuidad óptica, tal como una impureza en el vidrio o una microfractura, parte de la señal de luz se refleja en la dirección opuesta.
Esto significa que sólo una fracción de la señal de luz original continuará su recorrido por la fibra en su camino hacia el receptor.
Como consecuencia, el receptor recibe una energía luminosa menor, lo que dificulta el reconocimiento de la señal.
Al igual que con el cable UTP, los conectores mal instalados son la principal causa del reflejo de luz y de la pérdida de potencia de la señal en las fibras ópticas. 
  Como el ruido ya no es un problema en las transmisiones por fibra óptica, el problema principal en un enlace de fibra óptica es la potencia con la que una señal luminosa llega hasta el receptor.
Las pruebas de cables de fibra óptica implican principalmente recorrer la fibra con una luz y medir si la cantidad de luz que llega al receptor es suficiente. 
  EEn un enlace de fibra óptica, se debe calcular la cantidad aceptable de pérdida de potencia de señal que puede ocurrir sin que resulte inferior a los requisitos del receptor.
Un instrumento para probar fibra, conocido como fuente de luz y medidor de potencia, verifica si el presupuesto de pérdida del enlace óptico ha sido excedido.
Si la fibra falla la prueba, se puede usar otro instrumento para probar cables para indicar donde ocurren las discontinuidades ópticas a lo largo de la longitud del enlace de cable.
Este nuevo estándar especifica el conjunto original de parámetros de rendimiento que deben ser probados para los cableados Ethernet, así como también los puntajes de aprobación para cada una de estas pruebas.
  Aunque las pruebas de Cat 6 son esencialmente las mismas que las especificadas por el estándar Cat 5, el cable Cat 6 debe aprobar las pruebas con puntajes mayores para lograr la certificación.
Un cable Cat 6 debe tener la capacidad de transportar frecuencias de hasta 250 MHz y debe presentar niveles inferiores de diafonía y pérdida de retorno. 
  Un analizador de cables de buena calidad, similar a la serie Fluke DSP-4000 o Fluke OMNIScanner2 puede realizar todas las mediciones de prueba requeridas para las certificaciones Cat 5, Cat 5e y Cat 6, tanto para enlaces permanentes como en el canal.
Todas las ondas poseen atributos similares, como amplitud, período y frecuencia.  Las ondas sinoidales son funciones periódicas de variación continua.
Las señales analógicas son parecidas a las ondas sinoidales.  Las ondas rectangulares son funciones periódicas cuyos valores permanecen constantes durante un período de tiempo y luego cambian en forma abrupta.
Las señales digitales son parecidas a las ondas rectangulares.  Los exponentes se utilizan para representar cifras muy grandes o muy pequeñas.
La base de un número elevado a un exponente positivo equivale a la base multiplicada por sí misma tantas veces como lo indica el exponente.
Por ejemplo, 103 = 10x10x10 = 1000.  Los logaritmos son similares a los exponentes.
Un logaritmo en base 10 de un número equivale al exponente al que habría que elevar 10 para que equivaliera a dicho número.
Por ejemplo, log10 1000 = 3 porque 103= 1000.  Los decibelios son las mediciones de una ganancia o una pérdida de potencia de una señal.
Los valores negativos representan pérdidas, y los valores positivos representan ganancias.  El análisis de dominio temporal es la graficación del voltaje o corriente respecto del tiempo, usando un osciloscopio.
El análisis de dominio de frecuencia es la graficación del voltaje o potencia respecto de la frecuencia, usando un analizador de espectro.  Las señales indeseables en un sistema de comunicaciones se denominan ruido.
El ruido blanco afecta a todas las frecuencias, en tanto que la interferencia de banda estrecha afecta únicamente a un cierto subconjunto de frecuencias.  El ancho de banda analógico es el intervalo de frecuencias asociado con ciertas transmisiones analógicas, como las de televisión o radio FM.  La mayoría de los problemas de las LAN ocurren en la capa física.
La única forma de evitar o diagnosticar muchos de estos problemas es mediante el uso de analizadores de cables.  Las instalaciones de cable adecuadas, que observan los estándares, aumentan la confiabilidad y el rendimiento de las LAN.  Los medios de cobre vienen en forma blindada y no blindada.
El cable no blindado es más susceptible al ruido.  La degradación de una señal depende de varios factores, tales como ruido, atenuación, desacoplamiento en la impedancia y diferentes tipos de diafonía.
Estos factores reducen el rendimiento de la red.  El estándar Tía/EIA-568-B especifica diez pruebas que un cable de cobre debe pasar si ha de ser usado en una LAN Ethernet moderna de alta velocidad.  La fibra óptica también se debe probar conforme a los estándares de redes.  Un cable de Categoría 6 debe cumplir con estándares de frecuencia más rigurosos que un cable de Categoría 5. 
Éstas incluyen desde el acceso telefónico hasta acceso de banda ancha, y difieren en el ancho de banda, costo y equipo necesario.
Los estudiantes que completen este módulo deberán poder:  Identificar las carácterísticas de las redes Ethernet  Identificar los cables de conexión directa, de conexión cruzada y transpuesto.  Describir las funciones, ventajas y desventajas de los repetidores, hubs, puentes, switches, y componentes de una red inalámbrica.  Describir las funciones de las redes de par a par.  Describir las funciones, ventajas, y desventajas de las redes cliente-servidor.  Describir y marcar la diferencia entre las conexiones WAN seriales, de Red Digital de Servicios Integrados (RDSI), de Línea Digital del Suscriptor (DSL), y de cable módem.  Identificar los puertos seriales, cables y conectores del router.  Identificar y describir la ubicación del equipo usado en las distintas configuraciones WAN.
  Cada red informática se puede desarrollar con varios tipos de medios distintos.
La longitud del cable El costo La facilidad de instalación La susceptibilidad a interferencias 
  El cable coaxial, la fibra óptica, e incluso el espacio abierto pueden transportar señales de red.
Sin embargo, el principal medio que se estudiará es el cable de par trenzado no blindado de Categoría 5 (UTP CAT 5) que incluye la familia de cables Cat 5e.
DIX creó e implementó la primera especificación LAN Ethernet, la cual se utilizó como base para la especificación 802.3 del Instituto de Ingenieros Eléctrica y Electrónica (IEEE), publicada en 1980.
Más tarde, el IEEE extendíó la especificación 802.3 a tres nuevas comisiones conocidas como 802.3u (Fast Ethernet), 802.3z (Gigabit Ethernet transmitido en fibra óptica) y 802.3ab (Gigabit Ethernet en UTP).
  La nueva generación de productos para multimedia, imagen y base de datos puede fácilmente abrumar a redes que funcionan a las velocidades tradicionales de Ethernet de 10 y 100 Mbps.
  Por lo general, las tecnologías Ethernet se pueden utilizar en redes de campus de muchas maneras diferentes: 
Los clientes o servidores que requieren mayor ancho de banda pueden utilizar Ethernet de 100-Mbps.  Se usa Fast Ethernet como enlace entre el usuario y los dispositivos de red.
Puede admitir la combinación de todo el tráfico de cada segmento Ethernet.  Para mejorar el rendimiento cliente-servidor a través de la red campus y evitar los cuellos de botella, se puede utilizar Fast Ethernet para conectar servidores empresariales.  A
  Las especificaciones de los cables y conectores usados para admitir las implementaciones de Ethernet derivan del cuerpo de estándares de la Asociación de la Industria de las Telecomunicaciones (Tía) y la Asociación de Industrias Electrónicas (EIA) Las categorías de cableado definidas para Ethernet derivan del Estándar de Recorridos y Espacios de Telecomunicaciones para Edificios Comerciales EIA/Tía-568 (SP2840).
  La Figura muestra los diferentes tipos de conexión utilizados en cada implementación de la capa física.
  En algunos casos el tipo de conector de la tarjeta de interfaz de red (NIC) no se ajusta al medio al que se tiene que conectar.
Como se ve en la Figura , puede existir una interfaz para el conector interfaz de unidad de conexión (AUI) de 15 pins.
Las letras RJ significan «registered jack» (jack registrado), y el número 45 se refiere a una secuencia específica de cableado.
Como se ve en la Figura cuando observa el conector macho de frente, las ubicaciones de los pins están numeradas desde 8, a la izquierda, hasta 1, a la derecha. 
  Como se ve en la Figura , el jack es el componente femenino en un dispositivo de red, toma de pared o panel de conexión.
  Para que la electricidad fluya entre el conector y el jack, el orden de los hilos debe seguir el código de colores T568A, o T568B recomendado en los estándares EIA/Tía-568-B.1, como se ve en la Figura .
Identifique la categoría de cableado EIA/Tía correcta que debe usar un dispositivo de conexión, refiriéndose a la documentación de dicho dispositivo, o ubicando alguna identificación en el mismo cerca del jack.
Si no se dispone de la documentación o de alguna identificación, use categoría 5E o mayor, dado que las categorías superiores pueden usarse en lugar de las inferiores.
Así podrá determinar si va a usar cable de conexión directa (straight-through) o de conexión cruzada (crossover).
  Si los dos conectores de un cable RJ-45 se colocan uno al lado del otro, con la misma orientación, podrán verse en cada uno los hilos de color.
Si el orden de los hilos de color es el mismo en cada extremo, entonces el cable es de conexión directa, como se observa en la Figura .
  En un cable de conexión cruzada, los conectores RJ-45 de ambos extremos muestran que algunos hilos de un extremo del cable están cruzados a un pin diferente en el otro extremo del cable.
La Figura muestra que los pins 1 y 2 de un conector se conectan respectivamente a los pins 3 y 6 de otro. 
  La Figura da las pautas de qué tipo de cable se debe utilizar cuando se interconecten dispositivos de Cisco. 
Switch a switch  Switch a hub  Hub a hub  Router a router  PC a PC  Router a PC 
  La Figura ilustra cómo una red determinada puede requerir una variedad de tipos de cable.
El término describe una situación en la que una persona en una colina repite la señal que acababa de recibir de otra persona ubicada en una colina anterior.
El telégrafo, el teléfono, las microondas, y las comunicaciones por fibra óptica usan repetidores para fortalecer la señal enviada a través de largas distancias. 
El propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits para permitir que los bits viajen a mayor distancia a través de los medios.
En Ethernet e IEEE 802.3 se implementa la “regla 5-4-3”, en referencia al número de repetidores y segmentos en un Backbone de acceso compartido con topología de árbol.
La “regla 5-4-3 divide la red en dos tipos de segmentos físicos: Segmentos Poblados (de usuarios), y Segmentos no Poblados (enlaces).
La regla manda que entre cualquiera dos nodos de una red, puede existir un máximo de cinco segmentos, conectados por cuatro repetidores o concentradores, y solamente tres de los cinco segmentos pueden tener usuarios conectados a los mismos.
El protocolo Ethernet requiere que una señal enviada en la LAN alcance cualquier parte de la red dentro de una longitud de tiempo especificada.
Cada repetidor a través del cual pasa la señal añade una pequeña cantidad de tiempo al proceso, por lo que la regla está diseñada para minimizar el tiempo de transmisión de la señal.
Mientras que un repetidor convencional tiene sólo dos puertos, un hub por lo general tiene de cuatro a veinticuatro puertos.
Los hubs por lo general se utilizan en las redes Ethernet 10BASE-T o 100BASE-T, aunque hay otras arquitecturas de red que también los utilizan.  El uso de un hub hace que cambie la topología de la red desde un bus lineal, donde cada dispositivo se conecta de forma directa al cable, a una en estrella.
En un hub, los datos que llegan a un puerto del hub se transmiten de forma eléctrica a todos los otros puertos conectados al mismo segmento de red, salvo a aquel puerto desde donde enviaron los datos. 
En sí, un hub pasivo no requiere energía eléctrica.  Activo: Se debe conectar un hub activo a un tomacorriente porque necesita alimentación para amplificar la señal entrante antes de pasarla a los otros puertos.  Inteligente: A los hubs inteligentes a veces se los denomina «smart hubs».
Estos dispositivos básicamente funcionan como hubs activos, pero también incluyen un chip microprocesador y capacidades diagnósticas.
Los hubs inteligentes son más costosos que los hubs activos, pero resultan muy útiles en el diagnóstico de fallas. 
Las colisiones ocurren cuando dos o más estaciones de trabajo envían al mismo tiempo datos a través del cable de la red.
Cada dispositivo conectado al mismo segmento de red se considera un miembro de un dominio de colisión. 
  Algunas veces los hubs se llaman concentradores, porque los hubs sirven como punto de conexión central para una LAN de Ethernet. 
Las redes inalámbricas usan Radiofrecuencia (RF), láser, infrarrojo (IR), o satélite/microondas para transportar señales de un computador a otro sin una conexión de cable permanente.
Las estaciones de trabajo dentro del ámbito de la red inalámbrica se pueden trasladar con facilidad sin tener que conectar y reconectar al cableado de la red.  Una aplicación común de la comunicación inalámbrica de datos es la que corresponde a los usuarios móviles.
Algunos ejemplos de usuarios móviles incluyen las personas que trabajan a distancia, aviones, satélites, las sondas espaciales remotas, naves espaciales y estaciones espaciales. 
      En el centro de la comunicación inalámbrica están los dispositivos llamados transmisores y receptores.
Muchos de los fabricantes de dispositivos para networking construyen el transmisor y el receptor en una sola unidad llamada transceptor o tarjeta de red inalámbrica.
Las estaciones de trabajo y los dispositivos digitales deben estar en la línea de vista del transmisor para operar.
Las redes basadas en infrarrojo se acomodan a entornos donde todos los dispositivos digitales que requieren conectividad de red se encuentran en una habitación.
La tecnología IR de networking se puede instalar rápidamente, pero las personas que cruzan la habitación, o el aire húmedo pueden debilitar u obstruir las señales de datos.
  La tecnología de radiofrecuencia permite que los dispositivos se encuentren en habitaciones o incluso en edificios diferentes.
Además, una sola frecuencia es fácil de monitorear, lo que hace que la transmisión de datos no sea segura.
La técnica del espectro disperso evita el problema de la transmisión insegura de datos porque usa múltiples frecuencias para aumentar la inmunidad al ruido y hace que sea más difícil que intrusos intercepten la transmisión de los datos. 
A veces, es necesario dividir una LAN grande en segmentos más pequeños que sean más fáciles de manejar.
  Esto disminuye la cantidad de tráfico en una sola LAN y puede extender el área geográfica más allá de lo que una sola LAN puede admitir.
Los dispositivos que se usan para conectar segmentos de redes son los puentes, switches, routers y gateways.
La función del puente es tomar decisiones inteligentes con respecto a pasar señales o no al segmento siguiente de la red. 
  Cuando un puente recibe una trama a través de la red, se busca la dirección MAC destino en la tabla de puenteo para determinar si hay que filtrar, inundar, o copiar la trama en otro segmento.
Si el dispositivo destino se encuentra en el mismo segmento que la trama, el puente impide que la trama vaya a otros segmentos.
Este proceso se conoce como filtrado.  Si el dispositivo destino está en un segmento distinto, el puente envía la trama hasta el segmento apropiado.  Si el puente desconoce la dirección destino, el puente envía la trama a todos los segmentos excepto aquel en el cual se recibíó.
Este proceso se conoce como inundación.  Si se ubica de forma estratégica, un puente puede mejorar el rendimiento de la red de manera notoria.
Mientras que un puente típico puede tener sólo dos puertos que enlacen dos segmentos de red, el switch puede tener varios puertos, según la cantidad de segmentos de red que sea necesario conectar.
Al igual que los puentes, los switches aprenden determinada información sobre los paquetes de datos que se reciben de los distintos computadores de la red.
Los switches utilizan esa información para crear tablas de envío para determinar el destino de los datos que se están mandando de un computador a otro de la red.
Un puente determina si se debe enviar una trama al otro segmento de red, basándose en la dirección MAC destino.
Los switches Ethernet están llegando a ser soluciones para conectividad de uso difundido porque, al igual que los puentes, los switches mejoran el rendimiento de la red al mejorar la velocidad y el ancho de banda. 
  La conmutación es una tecnología que alivia la congestión en las LAN Ethernet, reduciendo el tráfico y aumentando el ancho de banda.
Los switches pueden remplazar a los hubs con facilidad debido a que ellos funcionan con las infraestructuras de cableado existentes.
  Actualmente en la comunicación de datos, todos los equipos de conmutación realizan dos operaciones básicas: La primera operación se llama conmutación de las tramas de datos.
La conmutación de las tramas de datos es el procedimiento mediante el cual una trama se recibe en un medio de entrada y luego se transmite a un medio de salida.
El segundo es el mantenimiento de operaciones de conmutación cuando los switch crean y mantienen tablas de conmutación y buscan loops. 
  Los switches operan a velocidades mucho más altas que los puentes y pueden admitir nuevas funcionalidades como, por ejemplo, las LAN virtuales. 
Un beneficio es que un switch para Ethernet permite que varios usuarios puedan comunicarse en paralelo usando circuitos virtuales y segmentos de red dedicados en un entorno virtualmente sin colisiones.
Otra de las ventajas es que desplazarse a un entorno de LAN conmutado es muy económico ya que el hardware y el cableado se pueden volver a utilizar. 
Una NIC es una placa de circuito impreso que se coloca en la ranura de expansión de un bus de la motherboard o dispositivo periférico de un computador.
  Las NIC se consideran dispositivos Capa 2 porque cada NIC lleva un identificador exclusivo codificado, denominado dirección MAC.
Tal como su nombre lo indica, la tarjeta de interfaz de red controla el acceso del host al medio. 
  En algunos casos, el tipo de conector de la NIC no concuerda con el tipo de medios con los que debe conectarse.
Ese conector AUI necesita conectarse a un cable Ethernet UTP Categoría 5 Para hacer esto, se usa un transmisor/receptor, también conocido como transceptor.
Se considera un dispositivo de Capa 1, dado que sólo analiza los bits y ninguna otra información acerca de la dirección o de protocolos de niveles más altos. 
Se entiende que siempre que haya dispositivos de networking conectados a un medio de red, existe alguna clase de NIC o un dispositivo similar a la NIC.
Otro tipo de aplicaciones distribuyen sus tareas de modo que las funciones de un computador sirvan a una cantidad de otros de manera desigual.
  En una red de par a par, los computadores en red actúan como socios en partes iguales, o pares.
En algún momento, el computador A pedirá un archivo al computador B, el cual responderá entregándole el archivo al computador A.
Ya que son los usuarios individuales los que toman estas decisiones, no hay un punto central de control o administración en la red.
Además, en caso de fallas, los usuarios individuales deben tener una copia de seguridad de sus sistemas para poder recuperar los datos si estos se pierden.
Cuando un computador actúa como servidor, es posible que el usuario de ese equipo note que el rendimiento es menor, ya que el equipo cumple las peticiones realizadas por otros sistemas. 
                                    Figura 2                                                                        Figura 3
  A medida que la red crece, las relaciones de par a par se hacen cada vez más difíciles de coordinar.
Ya que las redes de par a par no se adaptan bien a mayores tamaños, su eficiencia disminuye a medida que el número de computadores en la red aumenta.
Además, los usuarios individuales controlan el acceso a los recursos de sus computadores, lo que implica que la seguridad se hace difícil de mantener.
El modelo cliente/servidor de networking se puede usar para superar las limitaciones de la red de par a par. 
En una disposición cliente/servidor, los servicios de red se ubican en un computador dedicado denominado servidor.
El servidor es un computador central que se encuentra disponible de forma continua para responder a las peticiones de los clientes, ya sea de un archivo, impresión, aplicación u otros servicios.
En general, los computadores de escritorio funcionan como clientes y uno o más computadores con potencia de procesamiento adicional, memoria y software especializado funcionan como servidores.
                                      Figura 1                                                                      Figura 2
Antes de que un cliente pueda acceder a los recursos del servidor, se debe identificar y obtener la autorización para usar el recurso.
Esto se hace asignando a cada cliente un nombre de cuenta y una contraseña que un servicio de autenticación verifica.
Con la centralización de las cuentas de los usuarios, de la seguridad, y del control de acceso, las redes basadas en servidores simplifican la administración de grandes redes. 
  La concentración de recursos de red como archivos, impresoras y aplicaciones en servidores hace que sea más fácil hacer una copia de seguridad de los datos generados y de mantenerlos.
En vez de estar repartidos en equipos individuales, los recursos pueden encontrarse en servidores dedicados y especializados para facilitar el acceso.
La mayoría de los sistemas cliente/servidor también incluyen recursos para mejorar la red al agregar servicios que extienden la utilidad de la misma. 
  La distribución de las funciones en las redes cliente/servidor ofrece grandes ventajas, pero también lleva aparejado algunos costos.
Aunque la agregación de recursos en los sistemas de servidor trae mayor seguridad, acceso más sencillo y control coordinado, el servidor introduce un punto único de falla a la red.
Los sistemas de servidor también necesitan hardware adicional y especializado que hace que el costo aumente. 
  Las Figuras  y resumen las ventajas y desventajas comparativas entre los sistemas de par a par y cliente-servidor. 
La implementación de la capa física varía según la distancia que haya entre el equipo y los servicios, la velocidad, y el tipo de servicio en sí.
Las conexiones seriales se usan para admitir los servicios WAN tales como líneas dedicadas arrendadas que usan el protocolo punto a punto (PPP) o de Frame Relay La velocidad de estas conexiones va desde los 2400 bits por segundo (bps) hasta el servicio T1 a 1544 megabits por segundo (Mbps) y el servicio E1 a 2048 megabits por segundo (Mbps). 
La interfaz de acceso básico (BRI) RDSI está compuesta de dos canales principales de 64 kbps (canales B) para datos, un canal delta (canal D) de 16 kbps que se usa para señalizar y para otras tareas de administración del enlace.
  Con la creciente demanda de servicios residenciales de banda ancha de alta velocidad, las conexiones de DSL y cable módem se están haciendo más populares.
Por ejemplo, un servicio DSL residencial puede alcanzar velocidades T1/E1 con la línea telefónica existente.
Una línea de cable coaxial provee una conectividad de alta velocidad que iguala o excede aquella de DSL.
Este proceso brinda comunicaciones de larga distancia confiables y el uso de un rango específico de frecuencias ópticas o electromagnéticas. 
Las señales que se transmiten a través de las líneas telefónicas de grado de voz utilizan 4 kilohercios (KHz).
  Para un router Cisco, existen dos tipos de conexiones seriales que proveen la conectividad física en las instalaciones del cliente.
  Si la conexión se hace directamente con el proveedor de servicio, o con un dispositivo que provee señal de temporización tal como la unidad de servicio de canal/datos (CSU/DSU), el router será un equipo terminal de datos (DTE) y usará cable serial DTE.
Sin embargo, hay situaciones en las que se requiere que el router local brinde la temporización y entonces utilizará un cable para equipo de comunicación de datos (DCE).
En las prácticas de laboratorio incluidas en el currículo, uno de los routers conectados necesitará brindar la función de temporización.
Los routers son los responsables de enrutar paquetes de datos desde su origen hasta su destino en la LAN, y de proveer conectividad a la WAN.
Dentro de un entorno de LAN, el router contiene broadcasts, brinda servicios locales de resolución de direcciones, tal como ARP, y puede segmentar la red utilizando una estructura de subred.
  Al conectarse en forma directa a un proveedor de servicios, o a un dispositivo como CSU/DSU que suministrará la señal de temporización, el router actúa como DTE y necesita un cable serial DTE.
Al armar un escenario de routers conectados espalda contra espalda en un ámbito de prueba, uno de los routers debe ser DTE y el otro DCE.
  Al cablear routers para obtener conectividad serial, los routers tendrán puertos fijos o modulares.
El tipo de puerto que se utilice afectará la sintaxis que se use posteriormente para configurar cada interfaz. 
  Las interfaces de los routers que tienen puertos seriales fijos están rotuladas según tipo y número de puerto.
  Las interfaces de los routers que tienen puertos seriales modulares se rotulan según el tipo de puerto, ranura y número de puerto.
Para configurar un puerto de una tarjeta modular, es necesario especificar la interfaz usando la sintaxis «tipo de puerto/número de ranura/número de puerto.»
cuando la interfaz sea serial, el número de ranura donde se instala el módulo es el 1, y el puerto al que se hace referencia es el puerto 0.
Se utiliza NT1 para conectar el cableado de cuatro hilos del abonado con el loop local de dos hilos convencional.
En América del norte, el cliente por lo general provee el NT1, mientras que en el resto del mundo el proveedor de servicios se encarga del dispositivo NT1. 
Revisar los rótulos de las interfaces de router es por lo general la manera más fácil de determinar si el router cuenta con un NT1 integrado.
Una interfaz BRI con un NT1 integrado tiene el rótulo BRI U mientras que la interfaz BRI sin un NT1 integrado tiene el rótulo BRI S/T.
Debido a que los routers pueden tener muchos tipos de interfaz RDSI, es necesario determinar qué tipo de interfaz se necesita al comprar el router.
Para interconectar el puerto BRI RDSI al dispositivo del proveedor de servicios, utilice un cable de conexión directa UTP de Categoría 5. 
Conecte el cable del teléfono al puerto ADSL en el router.  Conecte el otro extremo del cable del teléfono al jack telefónico. 
  Para conectar el router y obtener servicio DSL, utilice un cable del teléfono con conectores RJ-11.
DSL funciona sobre líneas telefónicas comunes usando los pins 3 y 4 en un conector estándar RJ-11.
El router de acceso al cable uBR905 de Cisco ofrece la posibilidad de tener acceso a una red de alta velocidad a usuarios residenciales, de pequeñas oficinas y de oficinas hogareñas (SOHO) usando el sistema de televisión por cable.
El router uBR905 tiene una interfaz de cable coaxial, o de conector F, que se conecta directamente al sistema de cable.
  Siga los siguientes pasos para conectar el router de acceso al cable uBR905 de Cisco al sistema de cable: 
Verifique que el router no esté conectado a la alimentación eléctrica.  Ubique el cable coaxial de RF que sale de la toma de pared para cable coaxial (de TV).  Instale el divisor de señal/ acoplador direccional, si fuera necesario, para separar las señales para uso del televisor y del computador.
Si fuera necesario, también instale un filtro de paso alto para evitar las interferencias entre las señales de TV y del computador.  Conecte el cable coaxial al conector F del router.
Ajuste el conector con los dedos, luego apriétalo dándole un 1/6 de vuelta con una llave.  Asegúresé de que todos los otros conectores del cable coaxial, todos los divisores intermedios, acopladores, o conexiones a tierra, estén bien ajustados desde la distribución hasta el router uBR905 de Cisco. 
No utilice una llave de torsión porque se corre el riesgo de ajustar el conector más de 1/6 de vuelta, que es lo que se recomienda una vez que se haya ajustado con los dedos.
Para configurar inicialmente un dispositivo Cisco, se debe conectar directamente una conexión para administración al dispositivo.
  El cable que se utiliza entre la terminal y el puerto de consola es el cable transpuesto, con conectores RJ45.
El cable transpuesto, también conocido como cable de consola, tiene una disposición de pins diferente que la de los cables de conexión directa o conexión cruzada RJ-45 usados en Ethernet o BRI RDSI.
Primero conecte los dispositivos utilizando un cable transpuesto desde el puerto de consola del router hasta el puerto serial de la estación de trabajo.
Luego, configure la aplicación de emulación de terminal con los siguientes parámetros de puerto (COM) usuales para equipos.
9600 bps, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo. 
El puerto AUX también utiliza los parámetros de 9600 bps, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo.
Use un cable de conexión cruzada para conectar dos dispositivos similares, tales como los switch, routers, PC y hubs.  Use un cable de conexión directa para conectar diferentes tipos de dispositivos tales como las conexiones entre un switch y un router, un switch y un PC o un hub y un router.  Existen dos tipos principales de LAN, de par a par y de cliente/servidor.  Las WAN utilizan transmisión serial de datos.
Los tipos de conexión de WAN incluyen: RDSI, DSL y cable módem.  Un router es, en general, el DTE y necesita un cable serial para conectarse a un dispositivo DCE como un CSU/DSU.  El BRI RDSI tiene dos tipos de interfaces: las S/T y las U.
Para interconectar el puerto BRI RDSI al dispositivo del proveedor de servicios, se utiliza un cable de conexión directa UTP de Categoría 5 con conectores RJ-45.  Un cable telefónico y un conector RJ-11 se usan para conectar un router para obtener servicio DSL.  El cable coaxial y el conector BNC se usan para conectar el router en un sistema de cable.  El cable transpuesto se usa para conectar una terminal y un puerto de consola de un dispositivo de internetworking.
Ethernet no es una tecnología sino una familia de tecnologías LAN que se pueden entender mejor utilizando el modelo de referencia OSI.
Todas las LAN deben afrontar el tema básico de cómo denominar a las estaciones individuales (nodos) y Ethernet no es la excepción.
Las especificaciones de Ethernet admiten diferentes medios, anchos de banda y demás variaciones de la Capa 1 y 2.
  Para que varias estaciones accedan a los medios físicos y a otros dispositivos de networking, se han inventado diversas estrategias para el control de acceso a los medios.
Comprender la manera en que los dispositivos de red ganan acceso a los medios es esencial para comprender y detectar las fallas en el funcionamiento de toda la red. 
Describir los principios básicos de la tecnología de Ethernet.  Explicar las reglas de denominación de la tecnología de Ethernet.  Definir cómo interactúan Ethernet y el modelo OSI.  Describir el proceso de entramado de Ethernet y la estructura de la trama.  Nombrar las denominaciones de los campos de Ethernet y su propósito.  Identificar las carácterísticas del CSMA/CD.  Describir los aspectos claves de la temporización de Ethernet, espacio entre tramas y tiempo de postergación después de una colisión.  Definir los errores y las colisiones de Ethernet.  Explicar el concepto de auto-negociación en relación con la velocidad y el dúplex.
Desde su comienzo en la década de 1970, Ethernet ha evolucionado para satisfacer la creciente demanda de LAN de alta velocidad.
En el momento en que aparece un nuevo medio, como la fibra óptica, Ethernet se adapta para sacar ventaja de un ancho de banda superior y de un menor índice de errores que la fibra ofrece.
Ahora, el mismo protocolo que transportaba datos a 3 Mbps en 1973 transporta datos a 10 Gbps. 
  Con la llegada de Gigabit Ethernet, lo que comenzó como una tecnología LAN ahora se extiende a distancias que hacen de Ethernet un estándar de red de área metropolitana (MAN) y red de área amplia (WAN). 
  La idea original de Ethernet nacíó del problema de permitir que dos o más host utilizaran el mismo medio y evitar que las señales interfirieran entre sí.
El problema de acceso por varios usuarios a un medio compartido se estudió a principios de los 70 en la Universidad de Hawai.
Se desarrolló un sistema llamado Alohanet para permitir que varias estaciones de las Islas de Hawai tuvieran acceso estructurado a la banda de radiofrecuencia compartida en la atmósfera.
Metcalfe quería que Ethernet fuera un estándar compartido a partir del cual todos se podían beneficiar, de modo que se lanzó como estándar abierto.
Ethernet transmitía a una velocidad de hasta 10 Mbps en cable coaxial grueso a una distancia de hasta 2 kilómetros (Km).
Este tipo de cable coaxial se conocía como thicknet (red con cable grueso) y tenía el ancho aproximado de un dedo pequeño. 
Por eso, el estándar IEEE 802.3 debía cubrir las necesidades de la Capa 1 y de las porciones inferiores de la Capa 2 del modelo OSI.
  Las diferencias entre los dos estándares fueron tan insignificantes que cualquier tarjeta de interfaz de la red de Ethernet (NIC) puede transmitir y recibir tanto tramas de Ethernet como de 802.3.
  El ancho de banda de 10 Mbps de Ethernet era más que suficiente para los lentos computadores personales (PC) de los años 80.
A principios de los 90, los PC se volvieron mucho más rápidos, los tamaños de los archivos aumentaron y se producían cuellos de botella en el flujo de los datos.
Más tarde siguieron los estándares para Ethernet de un gigabit por segundo (Gbps, mil millones de bits por segundo) en 1998 y 1999. 
Una trama de Ethernet puede partir desde una antigua NIC de 10 Mbps de cable coaxial de un PC, subir a un enlace de fibra de Ethernet de 10 Gbps y terminar en una NIC de 100 Mbps.
El ancho de banda de la red podría aumentarse muchas veces sin cambiar la tecnología base de Ethernet. 
  El estándar original de Ethernet ha sufrido una cantidad de enmiendas con el fin de administrar nuevos medios y mayores velocidades de transmisión.
El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos para todas las formas de Ethernet. 
  Cuando es necesario expandir Ethernet para agregar un nuevo medio o capacidad, el IEEE publica un nuevo suplemento del estándar 802.3.
Un número que indica el número de Mbps que se transmiten.  La palabra «base», que indica que se utiliza la señalización banda base.  Una o más letras del alfabeto que indican el tipo de medio utilizado (F = cable de fibra óptica, T = par trenzado de cobre no blindado). 
  Ethernet emplea señalización banda base, la cual utiliza todo el ancho de banda del medio de transmisión.
Ethernet utiliza la señalización bandabase, la cual usa la totalidad del ancho de banda del medio de transmisión.
  En la señalización banda ancha, la señal de datos nunca se transmite directamente sobre el medio.
10BROAD36 es el estándar IEEE para una red Ethernet 802.3 que usa cable coaxial grueso a 10 Mbps como medio de transmisión de banda ancha.
Una señal analógica, o señal portadora, es modulada por la data, y la señal portadora modulada es transmitida.
Una señal analógica (señal portadora) es modulada por la data y se transmite la señal portadora modulada.
Las estaciones de radio y la TV por cable utilizan la señalización banda ancha.  El IEEE no puede forzar a los fabricantes de equipamiento para networking a cumplir con todas las particularidades de ningún estándar.
Proporcionar la información de ingeniería necesaria para fabricar dispositivos que cumplan con los estándares de Ethernet.  Promover que los fabricantes introduzcan innovaciones.
Ethernet opera en dos áreas del modelo OSI, la mitad inferior de la capa de enlace de datos, conocida como subcapa MAC y la capa física.
Los problemas que se originan en una parte del dominio de colisión generalmente tienen impacto en todo el dominio. 
  Los estándares garantizan un mínimo ancho de banda y operabilidad especificando el máximo número de estaciones por segmento, la longitud máxima del mismo, el máximo número de repetidores entre estaciones, etc.
  La Figura relaciona una variedad de tecnologías Ethernet con la mitad inferior de la Capa 2 y con toda la Capa 1 del modelo OSI.
Ethernet en la Capa 1 incluye las interfaces con los medios, señales, corrientes de bits que se transportan en los medios, componentes que transmiten la señal a los medios y las distintas topologías.
La Capa 1 de Ethernet tiene un papel clave en la comunicación que se produce entre los dispositivos, pero cada una de estas funciones tiene limitaciones.
  Las subcapas de enlace de datos contribuyen significativamente a la compatibilidad de tecnología y comunicación con el computador.
La subcapa de Control de Enlace Lógico (LLC) sigue siendo relativamente independiente del equipo físico que se utiliza en el proceso de comunicación. 
  La Figura relaciona una variedad de tecnologías Ethernet con la mitad inferior de la Capa 2 y con toda la Capa 1 del modelo OSI.
Para permitir el envío local de las tramas en Ethernet, se debe contar con un sistema de direccionamiento, una forma de identificar los computadores y las interfaces de manera exclusiva.
Ethernet utiliza direcciones MAC que tienen 48 bits de largo y se expresan como doce dígitos hexadecimales.
Los seis dígitos hexadecimales restantes representan el número de serie de la interfaz u otro valor administrado por el proveedor mismo del equipo.
Las direcciones MAC a veces se denominan direcciones grabadas (BIA) ya que estas direcciones se graban en la memoria de sólo lectura (ROM) y se copian en la memoria de acceso aleatorio (RAM) cuando se inicializa la NIC. 
                                                   Figura 1                                                                        Figura 2
  En la capa MAC de enlace de datos se agregan encabezados e información final a los datos de la capa superior.
El encabezado y la información final contienen información de control destinada a la capa de enlace de datos en el sistema destino.
Los datos de las entidades de las capas superiores se encapsulan dentro de la trama de la capa de enlace, entre el encabezado y el cierre, para luego ser enviada sobre la red.
  La NIC utiliza la dirección MAC para evaluar si el mensaje se debe pasar o no a las capas superiores del modelo OSI.
La NIC realiza esta evaluación sin utilizar tiempo de procesamiento de la CPU permitiendo mejores tiempos de comunicación en una red Ethernet. 
  En una red Ethernet, cuando un dispositivo envía datos, puede abrir una ruta de comunicación hacia el otro dispositivo utilizando la dirección MAC destino.
El dispositivo origen adjunta un encabezado con la dirección MAC del destino y envía los datos a la red.
A medida que estos datos viajan a través de los medios de red, la NIC de cada dispositivo de la red verifica si su dirección MAC coincide con la dirección destino física que transporta la trama de datos.
Cuando los datos llegan al nodo destino, la NIC hace una copia y pasa la trama hacia las capas superiores del modelo OSI.
En una red Ethernet, todos los nodos deben examinar el encabezado MAC aunque los nodos que están comunicando estén lado a lado. 
  Todos los dispositivos conectados a la LAN de Ethernet tienen interfaces con dirección MAC incluidas las estaciones de trabajo, impresoras, routers y switches.
Las corrientes de bits codificadas (datos) en medios físicos representan un logro tecnológico extraordinario, pero por sí solas no bastan para que las comunicaciones puedan llevarse a cabo.
El entramado ayuda a obtener información esencial que, de otro modo, no se podría obtener solamente con las corrientes de bits codificadas: Entre los ejemplos de dicha información se incluye: 
Cuáles son los computadores que se comunican entre sí Cuándo comienza y cuándo termina la comunicación entre computadores individuales Proporciona un método para detectar los errores que se produjeron durante la comunicación.
  Se podría utilizar un gráfico de voltaje en función de tiempo para visualizar los bits.
Sin embargo, cuando se trabaja con grandes unidades de datos e información de control y direccionamiento, los gráficos de voltaje en función de tiempo pueden volverse excesivamente grandes y confusos.
Otro tipo de diagrama que se puede utilizar es el diagrama de formato de trama, que se basa en los gráficos de voltaje en función de tiempo.
Los diagramas de formato de trama muestran distintas agrupaciones de bits (campos), que ejecutan otras funciones.
Una trama genérica tiene secciones denominadas campos, y cada campo está formado por bytes.
Campo de inicio de trama Campo de dirección Campos de longitud/tipo Campo de datos Campo de secuencia de verificación de trama
  Cuando los computadores se conectan a un medio físico, debe existir alguna forma de informar a los otros computadores cuando están próximos a enviar un trama.
Las diversas tecnologías tienen distintas formas para hacerlo, pero todas las tramas, de cualquier tecnología, tienen una secuencia de señalización de inicio de bytes. 
  Todas las tramas contienen información de denominación como, por ejemplo, el nombre del computador origen (dirección MAC) y el nombre del computador destino (dirección MAC). 
Algunas tienen un campo «tipo», que especifica el protocolo de Capa 3 que realiza la petición de envío. 
  La razón del envío de tramas es hacer que los datos de las capas superiores, especialmente los datos de aplicación del usuario, lleguen desde el origen hasta el destino..
El paquete de datos incluye el mensaje a ser enviado, o los datos de aplicación del usuario.Puede resultar necesario agregar bytes de relleno de modo que las tramas tengan una longitud mínima para los fines de temporización.
Los bytes de control de enlace lógico (LLC) también se incluyen en el campo de datos de las tramas del estándar IEEE.
La subcapa LLC toma los datos de protocolo de la red, un paquete IP, y agrega información de control para ayudar a entregar ese paquete IP al nodo de destino.
  Todas las tramas y los bits, bytes y campos ubicados dentro de ellas, están suceptibles a errores de distintos orígenes.
El campo de Secuencia de verificación de trama (FCS) contiene un número calculado por el nodo de origen en función de los datos de la trama.
Cuando el computador destino recibe la trama, se vuelve a calcular el número FCS y se compara con el número FCS que se incluye en la trama.
Si los dos números son distintos, se da por sentado que se ha producido un error, se descarta la trama y se le puede pedir al origen que vuelva a realizar la transmisión.
Debido a que la fuente no puede detectar que la trama ha sido descartada, se deben iniciar retransmisiones por un protocolo de capa superior orientado a conexión que provea control de flujo de datos.
Usualmente se dan retransmisiones debido a que los protocolos, como TCP/IP, requieren que las estaciones envíen tramas de reconocimiento, ACK, dentro de un tiempo preestablecido. 
Verificación por redundancia cíclica (CRC): Realiza cálculos en los datos.  Paridad bidimensional: Coloca a cada uno de los bytes en un arreglo bidimensional y realiza chequeos verticales y horizontales de redundancia sobre el mismo, creando así un byte extra, que resulta en un número par o impar de unos binarios.
  El nodo que transmite los datos debe llamar la atención de otros dispositivos para iniciar una trama y para finalizar la trama.
En la capa de enlace de datos, la estructura de la trama es casi idéntica para todas las velocidades de Ethernet desde 10 Mbps hasta 10000 Mbps.
Sin embargo, en la capa física, casi todas las versiones de Ethernet son sustancialmente diferentes las unas de las otras, teniendo cada velocidad un juego distinto de reglas de diseño arquitectónico. 
  En la versión de Ethernet desarrollada por DIX antes de la adopción de la versión IEEE 802.3 de Ethernet, el Preámbulo y el Delimitador de Inicio de Trama (SFD) se combinaron en un solo campo, aunque el patrón binario era idéntico.
Estos dos usos del campo se combinaron oficialmente en una versión posterior del IEEE, ya que el uso que ambos le daban al campo era común en toda la industria.
El nodo receptor debe determinar cuál de los protocolos de capa superior está presente en una trama entrante examinando el campo Longitud/Tipo.
Si el valor de los dos octetos es igual o mayor que el de 0x600 (hexadecimal), 1536 (decimal), entonces el contenido del campo de Data es codificado de acuerdo al protocolo indicado.
Dirección destino Dirección origen Longitud/Tipo  Datos y relleno FCS Extensión 
  El Preámbulo es un patrón alternado de unos y ceros que se utiliza para la sincronización de los tiempos en implementaciones de 10 Mbps y menores de Ethernet.
Las versiones más veloces de Ethernet son síncronas y esta información de temporización es redundante pero se retiene por cuestiones de compatibilidad.
  Un Delimitador de Inicio de Trama es un campo de un octeto que marca el final de la información de temporización y contiene la secuencia de bits 10101011. 
Sin embargo, existe un número creciente de protocolos virtuales en uso que utilizan y a veces comparten una dirección MAC origen específica para identificar la entidad virtual. 
Si el valor es menor a 1536 decimal, 0x600 (hexadecimal), entonces el valor indica la longitud.
El valor del tipo especifica el protocolo de capa superior que recibe los datos una vez que se ha completado el procesamiento de Ethernet.
  Los Campos de datos y de relleno, de ser necesario, pueden tener cualquier longitud, mientras que la trama no exceda el tamaño máximo permitido de trama.
La unidad máxima de transmisión (MTU) para Ethernet es de 1500 octetos, de modo que los datos no deben superar dicho tamaño.
Se inserta un relleno no especificado inmediatamente después de los datos del usuario cuando no hay suficientes datos de usuario para que la trama cumpla con la longitud mínima especificada.
  Una FCS contiene un valor de verificación CRC de 4 bytes, creado por el dispositivo emisor y recalculado por el dispositivo receptor para verificar la existencia de tramas dañadas.
Ya que la corrupción de un solo bit en cualquier punto desde el inicio de la dirección destino hasta el extremo del campo de FCS hará que la checksum (suma de verificación) sea diferente, la cobertura de la FCS se auto-incluye.
MAC se refiere a los protocolos que determinan cuál de los computadores de un entorno de medios compartidos (dominio de colisión) puede transmitir los datos.
Hay dos categorías amplias de Control de acceso al medio: determinística (por turnos) y la no determinística (el que primero llega, primero se sirve). 
En una red Token Ring, los host individuales se disponen en forma de anillo y un token de datos especial se transmite por el anillo a cada host en secuencia.
Cuando un host desea transmitir, retiene el token, transmite los datos por un tiempo limitado y luego envía el token al siguiente host del anillo.
Si dos nodos transmiten al mismo tiempo, se produce una colisión y ningún nodo podrá transmitir. 
Las tres especifican aspectos de la Capa 2, LLC, denominación, entramado y MAC, así como también los componentes de señalización y de medios de Capa 1.
Ethernet: topología de bus lógica (el flujo de información tiene lugar en un bus lineal) y en estrella o en estrella extendida física (cableada en forma de estrella) Token Ring: topología lógica de anillo (en otras palabras, el flujo de información se controla en forma de anillo) y una topología física en estrella (en otras palabras, está cableada en forma de estrella)  FDDI: topología lógica de anillo (el flujo de información se controla en un anillo) y topología física de anillo doble (cableada en forma de anillo doble)
Transmitir y recibir paquetes de datos Decodificar paquetes de datos y verificar que las direcciones sean válidas antes de transferirlos a las capas superiores del modelo OSI Detectar errores dentro de los paquetes de datos o en la red
  En el método de acceso CSMA/CD, los dispositivos de networking que tienen datos para transmitir funcionan en el modo «escuchar antes de transmitir».
Esto significa que cuando un nodo desea enviar datos, primero debe determinar si los medios de networking están ocupados.
Si el nodo determina que la red está ocupada, el nodo esperará un tiempo determinado al azar antes de reintentar.
  Los dispositivos de networking detectan que se ha producido una colisión cuando aumenta la amplitud de la señal en los medios de networking. 
  Cuando se produce una colisión, cada nodo que se encuentra en transmisión continúa transmitiendo por poco tiempo a fin de asegurar que todos los dispositivos detecten la colisión.
Cuando caduca el período de retardo cada nodo puede intentar ganar acceso al medio de networking.
Las reglas y especificaciones básicas para el adecuado funcionamiento de Ethernet no son particularmente complicadas aunque algunas de las implementaciones más veloces de la capa física así se están volviendo.
A pesar de su sencillez básica, cuando se produce un problema en Ethernet, a menudo resulta difícil determinar el origen.
Debido a la arquitectura común en bus de Ethernet, también descrita como punto único de falla distribuido, el alcance del problema a menudo abarca a todos los dispositivos del dominio de colisión.
En los casos en que se utilizan repetidores, esto puede incluir dispositivos separados hasta por cuatro segmentos. 
  Cualquier estación de una red Ethernet que desee trasmitir un mensaje, primero «escucha» para asegurar que ninguna otra estación se encuentre transmitiendo.
La señal eléctrica tarda un tiempo en transportarse por el cable (retardo) y cada repetidor subsiguiente introduce una pequeña cantidad de latencia en el envío de la trama desde un puerto al siguiente.
Debido al retardo y a la latencia, es posible que más de una estación comience a transmitir a la vez o casi al mismo tiempo.
  Si la estación conectada opera en full dúplex entonces la estación puede enviar y recibir de forma simultánea y no se deberían producir colisiones.
Las operaciones en full-dúplex también cambian las consideraciones de temporización y eliminan el concepto de la ranura temporal.
La operación en full-dúplex permite diseños de arquitectura de redes más grandes ya que se elimina la restricción en la temporización para la detección de colisiones. 
  En el modo half dúplex, si se asume que no se produce una colisión, la estación transmisora enviará 64 bits de información de sincronización de tiempos que se conoce como preámbulo.
Los datos La checksum (FCS) utilizada para asegurar que no se haya dañado el mensaje durante la transmisión.
  Las estaciones que reciben la trama recalculan la FCS para determinar si el mensaje entrante es válido y luego envían los mensajes válidos a la siguiente capa superior de la pila del protocolo. 
Asíncrona significa que cada estación receptora utiliza los ocho octetos de la información de temporización para sincronizar el circuito receptor con los datos entrantes y luego los descarta.
Síncrona significa que la información de temporización no es necesaria, sin embargo, por razones de compatibilidad, el Preámbulo y la SFD (Delimitador de Inicio de Trama) están presentes.
  Para todas las velocidades de transmisión de Ethernet de 1000 Mbps o menos, el estándar describe la razón por la cual una transmisión no puede ser menor que la ranura temporal.
La ranura temporal de la Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o 64 octetos.
La ranura temporal se calcula en base de las longitudes máximas de cable para la arquitectura de red legal de mayor tamaño.
Todos los tiempos de retardo de propagación del hardware se encuentran al máximo permisible y se utiliza una señal de congestión de 32 bits cuando se detectan colisiones. 
  La ranura temporal real calculada es apenas mayor que la cantidad de tiempo teórica necesaria para realizar una transmisión entre los puntos de máxima separación de un dominio de colisión, colisionar con otra transmisión en el último instante posible y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y sean detectados.
Para que el sistema funcione, la primera estación debe enterarse de la colisión antes de terminar de enviar la trama legal de menor tamaño.
Para que una Ethernet de 1000 Mbps pueda operar en half dúplex, se agregó un campo de extensión al enviar tramas pequeñas con el sólo fin de mantener ocupado al transmisor el tiempo suficiente para que vuelva el fragmento de colisión.
Este campo sólo se incluye en los enlaces en half-dúplex de 1000 Mbps y permite que las tramas de menor tamaño duren el tiempo suficiente para satisfacer los requisitos de la ranura temporal.
  En Ethernet de 10 Mbps, un bit en la capa MAC requiere de 100 nanosegundos (ns) para ser transmitido.
A 100 Mbps el mismo bit requiere de 10 ns para ser transmitido y a 1000 Mbps sólo requiere 1 ns.
A menudo, se utiliza una estimación aproximada de 20,3 cm (8 in) por nanosegundo para calcular el retardo de propagación a lo largo de un cable UTP.
En 100 metros de UTP, esto significa que tarda menos de 5 tiempos de bit para que una señal de 10BASE-T se transporte a lo largo del cable.
  Para que Ethernet CSMA/CD opere, la estación transmisora debe reconocer la colisión antes de completar la transmisión de una trama del tamaño mínimo.
A 1000 Mbps, ajustes especiales son necesarios ya que se suele transmitir una trama completa del tamaño mínimo antes de que el primer bit alcance el extremo de los primeros 100 metros de cable UTP.
El espacio mínimo entre dos tramas que no han sufrido una colisión recibe el nombre de espacio entre tramas.
  Una vez enviada la trama, todas las estaciones de Ethernet de 10 Mbps deben esperar un mínimo de 96 tiempos de bit (9,6 microsegundos) antes de que cualquier estación pueda transmitir, de manera legal, la siguiente trama.
En versiones de Ethernet más veloces, el espacio sigue siendo el mismo, 96 tiempos de bit, pero el tiempo que se requiere para dicho intervalo se vuelve proporcionalmente más corto.
El propósito del intervalo es permitir que las estaciones lentas tengan tiempo para procesar la trama anterior y prepararse para la siguiente trama. 
  Se espera que un repetidor regenere los 64 bits completos de información de temporización, que es el preámbulo y la SFD, al inicio de cualquier trama.
Esto a pesar de la pérdida potencial de algunos de los bits iniciales del preámbulo, debido a una sincronización lenta.
Debido a esta reintroducción forzada de los bits de temporización, cierta reducción menor de la separación entre las tramas no sólo es posible sino que también esperada.
Algunos chipsets de Ethernet son sensibles a un acortamiento del espacio entre las tramas y comienzan a dejar de ver las tramas a medida que se reduce la separación.
Con el aumento del poder de procesamiento en el escritorio, resultaría muy sencillo para un computador personal saturar un segmento de Ethernet con tráfico y comenzar a transmitir nuevamente antes de que se cumpla el tiempo de retardo del espacio entre las tramas. 
  Una vez producida la colisión y que todas las estaciones permitan que el cable quede inactivo (cada una espera que se cumpla el intervalo completo entre las tramas), entonces, las estaciones que sufrieron la colisión deben esperar un período adicional y cada vez potencialmente mayor antes de intentar la retransmisión de la trama que sufríó la colisión.
El período de espera está intencionalmente diseñado para que sea aleatorio de modo que dos estaciones no demoren la misma cantidad de tiempo antes de efectuar la retransmisión, lo que causaría colisiones adicionales.
Esto se logra en parte al aumentar el intervalo a partir del cual se selecciona el tiempo de retransmisión aleatorio cada vez que se efectúa un intento de retransmisión.
  Si la capa MAC no puede enviar la trama después de dieciséis intentos, abandona el intento y genera un error en la capa de red.
Tal episodio es verdaderamente raro y suele suceder sólo cuando se producen cargas en la red muy pesadas o cuando se produce un problema físico en la red.
Unas pocas colisiones proporcionan una forma simple y sin problemas, que usa pocos recursos, para que los nodos de la red arbitren la contención para el recurso de red.
Cuando la contención de la red se vuelve demasiado grave, las colisiones se convierten en un impedimento significativo para la operación útil de la red. 
  Las colisiones producen una pérdida del ancho de banda de la red equivalente a la transmisión inicial y a la señal de congestión de la colisión.
Esto es una demora en el consumo y afecta a todos los nodos de la red causando posiblemente una significativa reducción en su rendimiento.
Tan pronto como se detecta una colisión, las estaciones transmisoras envían una señal de congestión de 32 bits que la impone.
Esto se hace de manera que se corrompen por completo los datos transmitidos y todas las estaciones tienen la posibilidad de detectar la colisión. 
La Estación 1 pudo transmitir un porcentaje significativo de la trama antes de que la señal alcanzara el último segmento del cable.
La Estación 2 no había recibido el primer bit de la transmisión antes de iniciar su propia transmisión y sólo pudo enviar algunos bits antes de que la NIC detectara la colisión.
De inmediato, la Estación 2 interrumpíó la transmisión actual, la sustituyó con la señal de congestión de 32 bits y cesó todas sus transmisiones.
Durante la colisión y el evento de congestión que la Estación 2 experimentaba, los fragmentos de la colisión iban en ruta por el dominio de colisiones repetido hacia la Estación 1.
La Estación 2 completó la transmisión de la señal de congestión de 32 bits y quedó en silencio antes de que la colisión se propagara hacia la Estación 1, que todavía no sabía de la misma y continuaba transmitiendo.
Finalmente, cuando los fragmentos de la colisión llegaron a la Estación 1, ésta cortó la transmisión en curso y sustituyó con la señal de congestión de 32 bits el resto de la trama que estaba transmitiendo.
  Una señal de congestión puede estar compuesta por cualquier dato binario siempre que no forme una checksum apropiada para la porción de la trama ya transmitida.
El patrón de datos que se observa con mayor frecuencia para una señal de congestión es simplemente un patrón de uno, cero, uno, cero que se repite, al igual que el Preámbulo.
Cuando se observa con un analizador de protocolos, este patrón aparece como una secuencia repetida de A ó 5 hexadecimales.
Los mensajes corrompidos, transmitidos de forma parcial, generalmente se conocen como fragmentos de colisión o runts.
Las colisiones normales tienen menos de 64 octetos de largo y, por lo tanto, reprueban tanto la prueba de longitud mínima como la prueba de la checksum de FCS.
Por lo general, las colisiones se producen cuando dos o más estaciones de Ethernet transmiten al mismo tiempo dentro de un dominio de colisión.
Una colisión simple es una colisión que se detecta al tratar de transmitir una trama, pero en el siguiente intento es posible transmitir la trama con éxito.
Las colisiones múltiples indican que la misma trama colisiónó una y otra vez antes de ser transmitida con éxito.
Los resultados de las colisiones, los fragmentos de colisión, son tramas parciales o corrompidas de menos de 64 octetos y que tienen una FCS inválida.
  Para crear una colisión local en un cable coaxial (10BASE2 y 10BASE5), la señal viaja por el cable hasta que encuentra una señal que proviene de la otra estación.
Esta condición de exceso de voltaje es, entonces, detectada por todas las estaciones en el segmento local del cable como una colisión. 
Esto sucede cuando la primera estación que detecta la colisión deja de transmitir y cuando todavía se observa la señal de congestión proveniente de la segunda estación que ha sufrido la colisión. 
  En el cable UTP, como por ejemplo 10BASE-T, 100BASE-TX y 1000BASE-T, la colisión se detecta en el segmento local sólo cuando una estación detecta una señal en el par de recepción (RX) al mismo tiempo que está enviando una señal en el par de transmisión (TX).
La única diferencia funcional entre la operación en half dúplex y full dúplex en este aspecto es si es posible o no que los pares de transmisión y de recepción se utilicen al mismo tiempo.
Por otra parte, una falla en el cable, como por ejemplo una diafonía excesiva, puede hacer que una estación perciba su propia transmisión como si fuera una colisión local. 
  Las carácterísticas de una colisión remota son una trama que mide menos que la longitud mínima, tiene una checksum de FCS inválida, pero no muestra el síntoma de colisión local del exceso de voltaje o actividad de transmisión/recepción simultánea.
Este tipo de colisión generalmente es el resultado de colisiones que se producen en el extremo lejano de una conexión con repetidores.
El repetidor no envía un estado de exceso de voltaje y no puede hacer que una estación tenga ambos pares de transmisión y de recepción activos al mismo tiempo.
La estación tendría que estar transmitiendo para que ambos pares estén activos y esto constituiría una colisión local.
  No hay posibilidad de que se produzca una colisión normal o legal después de que las estaciones transmitan los primeros 64 octetos de datos.
La diferencia más importante entre las colisiones tardías y las colisiones que se producen antes de los primeros 64 octetos radica en que la NIC de Ethernet retransmitirá de forma automática una trama que ha sufrido una colisión normal, pero no retransmitirá automáticamente una trama que ha sufrido una colisión tardía.
En lo que respecta a la NIC, todo salíó bien y las capas superiores de la pila del protocolo deben determinar si se perdíó la trama.
A diferencia de la retransmisión, una estación que detecta una colisión tardía la maneja de la misma forma que si fuera una colisión normal.
El conocimiento de los errores típicos es invaluable para entender tanto la operación como la detección de fallas de las redes Ethernet. 
Error de intervalo: El número real y el informado de octetos en una trama no concuerda.  Fantasma o jabber: Preámbulo inusualmente largo o evento de congestión.
  Mientras las colisiones locales o remotas se consideran parte normal de la operación de Ethernet, las colisiones tardías son un error.
La gravedad del problema indica la urgencia de la detección de la falla relativa a los errores detectados.
  El estándar 802.3, en varios lugares, define al jabber como una transmisión de al menos 20.000 a 50.000 tiempos de bit de duración.
Sin embargo, la mayoría de las herramientas de diagnóstico informan de la presencia de jabber siempre que se detecta una transmisión que excede el tamaño máximo legal de la trama, que es considerablemente menor a 20.000 a 50.000 tiempos de bit.
  Una trama larga es una trama de longitud mayor al tamaño máximo legal y que tiene en cuenta si la trama está rotulada o no.
  Una trama corta es una trama de longitud menor al tamaño mínimo legal de 64 octetos, con una secuencia de verificación de trama correcta.
  El término runt es generalmente un término coloquial (en Inglés) impreciso que significa algo menor al tamaño legal de la trama.
Puede referirse a las tramas cortas con una checksum de FCS válida aunque, en general, se refiere a los fragmentos de colisión.
Una trama recibida que tiene una Secuencia de verificación de trama incorrecta, también conocido como error de CRC o de checksum, difiere de la transmisión original en al menos un bit.
En una trama con error de FCS, es probable que la información del encabezado sea correcta, pero la checksum que calcula la estación receptora no concuerda con la checksum que adjunta la estación transmisora al extremo de la trama.
  Una gran cantidad de errores FCS provenientes de una sola estación indican, por lo general, una NIC defectuosa y/o falla o corrupción en los controladores del software, o un cable defectuoso que conecta esa estación a la red.
Si los errores FCS están asociados con muchas estaciones, por lo general, pueden rastrearse a la presencia de un cableado defectuoso, una versión defectuosa del controlador de la NIC, un puerto de hub defectuoso o a ruido inducido en el sistema de cables. 
En lugar del número correcto de bits binarios que forman agrupaciones completas de octetos, hay bits adicionales que sobran (menos de ocho).
Una trama así se trunca en el límite del octeto más cercano, y si la checksum de FCS falla, entonces, se informa un error de alineamiento.
Esto es causado a menudo por controladores de software dañados, o una colisión, y con frecuencia viene acompañado por una falla de la checksum de FCS.  Una trama con un valor válido en el campo «longitud» pero que no concuerda con el número real de octetos contabilizados en el campo de datos de la trama recibida recibe el nombre de error de rango.
Este error también aparece cuando el valor del campo de longitud es menor que el tamaño mínimo legal sin relleno para el campo de datos.
Un error, similar, Fuera de rango, se informa cuando el valor del campo «longitud» indica que el tamaño de los datos es demasiado grande para ser legal. 
  Fluke Networks ha acuñado el término fantasma para referirse a la energía (ruido) que se detecta en el cable y que parece ser una trama, pero que carece de un SFD válido.
Para ser considerada fantasma, la trama debe tener una longitud de al menos 72 octetos, incluyendo el preámbulo.
Debido a la naturaleza peculiar de los fantasmas, cabe notar que los resultados de las pruebas dependen en gran medida del lugar donde se efectuó la medición del segmento. 
La mayoría de las herramientas de monitoreo de la red no reconocen la existencia de fantasmas por la misma razón que no reconocen las colisiones de los preámbulos.
Los analizadores de protocolo basados en software, muchos analizadores de protocolos basados en hardware, las herramientas de diagnóstico manuales así como la mayoría de las sondas de monitoreo remoto (RMON) no informan de estos eventos.
Al crecer Ethernet de 10 a 100 y 1000 Mbps, fue necesario hacer que cada tecnología pudiera operar con las demás, al punto que las interfaces de 10, 100 y 1000 pudieran conectarse directamente.
Se desarrolló un proceso que recibe el nombre de Auto-negociación de las velocidades en half dúplex o en full dúplex.
Específicamente, en el momento en que se introdujo Fast Ethernet, el estándar incluía un método para configurar de forma automática una interfaz dada para que concordara con la velocidad y capacidades de la interfaz en el otro extremo del enlace.
Este proceso define cómo las interfaces en los extremos del enlace pueden negociar de forma automática una configuración ofreciendo el mejor nivel de rendimiento común.
  La 10BASE-T requirió que cada estación transmitiera un pulso de enlace aproximadamente cada 16 milisegundos, siempre que la estación no estuviera transmitiendo un mensaje.
Cuando se envía una serie de NLP en un grupo con el propósito de Auto-Negociación, el grupo recibe el nombre de ráfaga de Pulso de enlace rápido (FLP).
Cada ráfaga de FLP se envía a los mismos intervalos que un NLP y tiene como objetivo permitir que los antiguos dispositivos de 10BASE-T operen normalmente en caso de que reciban una ráfaga de FLP.
Una vez que ambas estaciones han interpretado qué ofrece el otro extremo, ambas cambian a la configuración común de mayor rendimiento y establecen un enlace a dicha velocidad.
Si algo interrumpe la comunicación y se pierde el enlace, los dos socios intentan conectarse nuevamente a la velocidad de la última negociación.
Es posible que se pierda el enlace debido a influencias externas tales como una falla en el cable o la emisión de una reconfiguración por uno de los socios.
Esto permite que el administrador de la red fuerce que los puertos operen a una velocidad seleccionada y a una configuración dúplex, sin deshabilitar la Auto-Negociación.
  Cuando una estación Auto-Negociadora realiza un primer intento de enlace, debe habilitarse a 100BASE-TX para que intente establecer un enlace de inmediato.
Si la señalización de la 100BASE-TX está presente y la estación admite 100BASE-TX, intentará establecer un enlace sin negociación.
Si la señalización produce el enlace o se transmiten las ráfagas de FLP, la estación procederá con dicha tecnología.
Si el otro extremo del enlace no ofrece una ráfaga de FLP, pero a cambio, ofrece NLP, entonces el dispositivo supone automáticamente que es una estación 10BASE-T.
  Si se establece un enlace a través de la detección paralela, se requiere una conexión en half dúplex.
Uno es a través de un ciclo de Auto-Negociación completo y el otro es forzar administrativamente a que ambos extremos del enlace realicen una conexión en full dúplex.
Si se fuerza a un extremo del enlace a conectarse en full dúplex, pero el otro extremo intenta Auto-Negociar, entonces seguramente se producirá una falta de concordancia en el dúplex.
  Muchos proveedores implementan hardware de forma tal que va intentando los distintos estados posibles de forma cíclica.
Algunos proveedores no ofrecen ningún intento para enlazarse hasta que la interfaz primero escucha una ráfaga de FLP o algún otro esquema de señalización. 
Todas las implementaciones en cable coaxial son half-dúplex por naturaleza y no pueden operar en full dúplex.
Como el UTP y la fibra, por lo general, transmiten por pares distintos, las señales no tienen oportunidad de superponerse o dañarse.
Ethernet ha establecido las reglas de arbitraje para resolver los conflictos que surgen cuando más de una estación intenta transmitir al mismo tiempo.
Se permite que dos estaciones de un enlace full-dúplex punto a punto transmitan en cualquier momento, independientemente de si la otra estación está transmitiendo.
  La Auto-Negociación evita la mayoría de las situaciones donde una estación de un enlace punto a punto transmite de acuerdo a las reglas de half-dúplex y la otra de acuerdo a las reglas de full-dúplex.
  En el caso en que los socios del enlace sean capaces de compartir más de una tecnología en común, consulte la lista de la Figura .
  Las implementaciones de Ethernet en fibra óptica no se incluyen en esta lista de resolución de prioridades porque la electrónica y la óptica de la interfaz no permiten una fácil configuración entre las implementaciones.
Sin embargo, todavía quedan varias opciones de configuración que tiene que determinarse, tales como el ajuste del dúplex o cuál es la estación que actuará como Máster a los fines de sincronización.
Ethernet ha sido la tecnología LAN de mayor éxito, en gran medida, debido a la simplicidad de su implementación, cuando se la compara con otras tecnologías.
Ethernet también ha tenido éxito porque es una tecnología flexible que ha evolucionado para satisfacer las cambiantes necesidades y capacidades de los medios: Este módulo presenta los datos específicos de los tipos más importantes de Ethernet.
El objetivo no es transmitir todos los hechos acerca de cada tipo de Ethernet sino desarrollar el sentido de lo que es común a todas las formas de Ethernet. 
  Las modificaciones a Ethernet han resultado en significativos adelantos, desde la tecnología a 10 Mbps usada a principios de principios de los 80.
En los últimos años, un crecimiento aún más rápido en la velocidad de los medios ha generado la transición de Fast Ethernet (Ethernet Rápida) a Gigabit Ethernet (Ethernet de 1 Gigabit).
Una versión de Ethernet aún más rápida, Ethernet de 10 Gigabits (10 Gigabit Ethernet) se halla fácilmente en el mercado e inclusive, versiones más rápidas están en desarrollo. 
  En estas versiones más rápidas de Ethernet, el direccionamiento MAC, CSMA/CD y el formato de trama no han sufrido cambios respecto de versiones anteriores de Ethernet.
Las tarjetas de interfaz de red (NIC) con base de cobre capaces de operar a 10/100/1000 están ahora entre las más comunes.
El uso de la fibra óptica que admite Gigabit Ethernet se considera un estándar para el cableado backbone en la mayoría de las instalaciones nuevas. 
Describir las similitudes y diferencias entre las Ethernet 10BASE5, 10BASE2 y 10BASE-T.  Definir la codificación de Manchester.  Nombrar los factores que afectan los límites de temporización de Ethernet.  Nombrar los parámetros de cableado 10BASE-T.  Describir las carácterísticas y tipos principales de Ethernet de 100 Mbps.  Describir la evolución de Ethernet.  Explicar los métodos MAC, los formatos de trama y el proceso de transmisión de Gigabit Ethernet.  Describir los usos de los medios y la codificación específicos en Gigabit Ethernet.  Identificar las salidas de pin y el cableado, típicos de las distintas implementaciones de Gigabit Ethernet.  Describir las similitudes y diferencias entre Gigabit Ethernet y Ethernet de 10 Gigabits.  Describir las consideraciones arquitectónicas básicas de Gigabit Ethernet y Ethernet de 10 Gigabits.
Las cuatro carácterísticas comunes de Ethernet antigua son los parámetros de temporización, el formato de trama, el proceso de transmisión y una regla básica de diseño. 
Cada estación receptora usa ocho octetos de información de temporización para sincronizar sus circuitos receptores a la data que entra.
Las 10BASE5, 10BASE2 y 10BASE-T todas comparten los mismos parámetros de temporización.Por ejemplo, 1 tiempo de bit a 10 Mbps = 100 nanosegundos = 0,1 µicrosegundos = 1 diez millónésima parte de un segundo.Esto significa que en una red Ethernet de 10 Mbps, 1 bit en la subcapa MAC requiere de 100 nseg para ser transmitido.
  Para todas las velocidades de transmisión Ethernet igual o por debajo de 1000 Mbps, la transmisión no debe ser menor al margen de tiempo “Slot time”.
El margen de tiempo es apenas mayor al tiempo, que en teoría, le tomaría a una transmisión desde un extremo de la red llegar hasta el otro extremo ubicado a la máxima distancia legal posible de un dominio de colisión Ethernet, colisionar con otra transmisión en el último instante posible, y regrasar al origen como fragmentos de la colisión para su detección. 
  El proceso de transmisión anterior de Ethernet es idéntico hasta la parte inferior de la capa física OSI.
A medida que la trama pasa de la subcapa MAC a la capa física, se llevan a cabo procesos adicionales antes de que los bits se trasladen desde la capa física al medio.
La SQE es una transmisión del transceptor de respuesta al controlador para indicarle sobre la funcionabilidad de los circuitos de detección de colisiones.
La señal SQE fue diseñada para corregir el problema en versiones anteriores de Ethernet, en las cuales el host desconocía si el transceptor estaba conectado.
Dentro de los 4 a los 8 microsegundos después de una transmisión normal para indicar que se transmitíó con éxito la trama saliente.
Siempre que haya una señal inadecuada en el medio, o las reflexiones causadas por un corto en el cable.  Siempre que se haya interrumpido una transmisión.
  Todas las formas de Ethernet de 10 Mbps toman octetos recibidos de la subcapa MAC y realizan un proceso denominado codificación de la línea.
  La codificación Manchester se basa en la dirección de la transición de borde en la mitad de la ventana de temporización para determinar el valor binario para dicho período de bits.
Como se puede observar en la tercera y cuarta forma de onda del gráfico, los valores binarios de bits están indicados por la dirección del cambio durante un período de bits dado.
Los niveles de voltaje de la forma de la onda al comienzo o fin de cualquier período de bits no son factores al determinar valores binarios. 
El diseño arquitectónico general es de suma importancia a la hora de implementar una red de medios mixtos.
  Ethernet de 10-Mbps opera dentro de los límites de temporización ofrecidos por una serie de no más de cinco segmentos, separados por no más de cuatro repetidores.
El producto original para Ethernet del año 1980, 10BASE5 transmitía 10 Mbps a través de un solo cable bus coaxial grueso.
Los sistemas 10BASE5 son económicos y no requieren de configuración, pero componentes básicos tales como las NIC son muy difíciles de encontrar así como el hecho de que es sensible a las reflexiones de señal en el cable.
Cada uno de los cinco segmentos máximos de coaxial grueso puede medir hasta 500 m (1640,4 pies) de largo.
  Debido a que el medio es un solo cable coaxial, solamente una estación puede transmitir al mismo tiempo, de lo contrario, se produce una colisión.
  La Figura ilustra una posible configuración para un máximo dominio de colisión de punta a punta.
Entre dos estaciones lejanas cualesquiera, sólo se permite que tres segmentos repetidos tengan estaciones conectadas, usando los otros dos segmentos repetidos solamente como segmentos de enlace para extender la red. 
Cada uno de los cinco segmentos máximos de cable coaxial delgado puede tener hasta 185 metros de longitud y cada estación se conecta directamente al conector BNC con forma de «T» del cable coaxial. 
De los cinco segmentos consecutivos en serie que se encuentran entre dos estaciones lejanas, sólo tres pueden tener estaciones conectadas.
10BASE-T utilizaba cable de cobre (UTP) de par trenzado, no blindado de Categoría 3 que era más económico y más fácil de usar que el cable coaxial.
Se encontraba en el centro de un conjunto de cables que partían hacia los PC, como los radios que parten desde el centro de una rueda.
Las distancias que los cables podían cubrir desde el hub y la ruta que se seguía al instalar los UTP comenzaron a utilizar, cada vez más, estrellas compuestas por estrellas: estructura que recibíó el nombre de topología en estrella extendida.
La explosión de popularidad de Ethernet desde mediados hasta fines de los 90 se produjo cuando Ethernet comenzó a dominar la tecnología de LAN. 
Un cable UTP para 10BASE-T tiene un conductor sólido para cada hilo en un cable horizontal con una longitud máxima de 90 metros.
Aunque el cable de Categoría 3 es apto para uso en redes de 10BASE-T, se recomienda que cualquier nueva instalación de cables se realice con cables de Categoría 5e o superior.
Los cuatro pares de hilos deberían utilizarse ya sea con la disposición de salida de los pins del cable T568A o bien la T568-B.
Este tipo de instalación de cables admite el uso de protocolos múltiples sin necesidad de volver a cablear.
El par transmisor del lado receptor se conecta al par receptor del dispositivo conectado.
Los hubs son repetidores multipuertos y cuentan en el número límite de repetidores entre las estaciones lejanas.
Como los hubs o repetidores solamente extienden la longitud de una red dentro de un solo dominio de colisión, existe un límite respecto de cuántos hubs pueden ser utilizados en dicho segmento.
Los puentes y los switches dividen un segmento en dominios de colisión individuales, dejando que las limitaciones de los medios determinen la distancia entre los switches.
Cuando se requiera del uso de múltiples hubs, es recomendable organizarlos de forma jerárquica, para así crear una estructura en forma de árbol.
El aspecto más importante a considerar es cómo mantener el retardo entre las estaciones lejanas al mínimo, independientemente de la arquitectura y los tipos de medios utilizados.
Aunque esta pueda parecer una distancia larga, por lo general se ve maximizada al cablear un edificio real.
Siempre que las estaciones de trabajo se encuentren dentro de unos 100 m de distancia del switch, esta distancia de 100m comienza nuevamente a partir del switch. 
Las dos tecnologías que han adquirido relevancia son 100BASE-TX, que es un medio UTP de cobre y 100BASE-FX, que es un medio multimodo de fibra óptica. 
  Tres carácterísticas comunes a 100BASE-TX y a 100BASE-FX son los parámetros de temporización, el formato de trama y algunas partes del proceso de transmisión.
Tenga en cuenta que un tiempo de bit a 100-Mbps = 10 nseg = 0,01 microsegundos = 1 100-millónésima parte de un segundo.
Debido al aumento de velocidad, se debe tener mayor cuidado porque los bits enviados se acortan en duración y se producen con mayor frecuencia.
La primera parte de la codificación utiliza una técnica denominada 4B/5B, la segunda parte es la codificación real de la línea específica para el cobre o la fibra. 
Ethernet coaxial original utilizaba transmisión en half-dúplex de modo que sólo un dispositivo podía transmitir a la vez.
Sin embargo, en 1997, Ethernet se expandíó para incluir capacidad de full dúplex permitiendo que más de un PC transmitiera al mismo tiempo en una red.
Estos switches tenían la capacidad de transmitir en full dúplex y de manejar rápidamente las tramas de Ethernet. 
  100BASE-TX usa codificación 4B/5B, que luego es mezclada y convertida a 3 niveles de transmisión multinivel o MLT-3.
La ausencia de una transición binaria indica un binario 0 y la presencia de una transición indica un binario 1.
El concepto de full dúplex se hace cada vez más importante a medida que aumentan las velocidades de Ethernet.
Una versión en fibra podría ser utilizada para aplicaciones con backbones, conexiones entre distintos pisos y edificios donde el cobre es menos aconsejable y también en entornos de gran ruido.
Los estándares para Gigabit Ethernet son, en estos momentos, la tecnología dominante en instalaciones de backbone, conexiones cruzadas de alta velocidad y necesidades generales de infraestructura. 
  La temporización, el formato de trama y la transmisión son todos comunes a ambas versiones de Fast Ethernet de 100 Mbps .
La forma de onda superior no presenta transición, lo que indica la presencia de un binario 0.
En este ejemplo, resulta más obvio que la ausencia de una transición indica un binario 0 y la presencia de una transición, un binario 1. 
  La transmisión a 200 Mbps es posible debido a las rutas individuales de Transmisión (Tx) y Recepción (Rx) de fibra óptica de 100BASE-FX. 
  Un repetidor Clase 1 puede introducir hasta 140 tiempos de bit de latencia.
Un repetidor Clase II está restringido a menores retardos, 92 tiempos de bit, debido a que inmediatamente repite la señal entrante al resto de los puertos sin proceso de translación.
Para lograr menor latencia, los repetidores Clase II deben conectarse a tipos de segmentos que usen la misma técnica de señalización.
  Tal como sucede con las versiones de 10 Mbps, es posible modificar algunas de las reglas de arquitectura para las versiones de 100 Mbps.
El estándar para 1000BASE-X, IEEE 802.3z, especifica una conexión full dúplex de 1 Gbps en fibra óptica..
El estándar para 1000BASE-T, IEEE 802.3ab, especifica el uso de cable de cobre balanceado de Categoría 5, o mejor.
Utilizan un tiempo de bit de 1 nanosegundo (0,000000001 segundos) o 1 mil millónésima parte de un segundo.
Según su implementación, Gigabit Ethernet puede hacer uso de distintos procesos para convertir las tramas a bits en el cable.
Debido a las mayores velocidades de estos estándares recientes, la menor duración de los tiempos de bit requiere una consideración especial.
Como los bits ingresan al medio por menor tiempo y con mayor frecuencia, es fundamental la temporización.
Esta transmisión a alta velocidad requiere de frecuencias cercanas a las limitaciones de ancho de banda para los medios de cobre.
La transmisión de datos se realiza de manera más eficiente utilizando códigos para representar el corriente binario de bits.
Los datos codificados proporcionan sincronización, uso eficiente del ancho de banda y mejores carácterísticas de la Relación entre Señal y Ruido. 
  En la capa física, los patrones de bits a partir de la capa MAC se convierten en símbolos.
Los símbolos también pueden ser información de control tal como trama de inicio, trama de fin, condiciones de inactividad del medio.
La trama se codifica en símbolos de control y símbolos de datos para aumentar la tasa de transferencia de la red. 
Este proceso de codificación más sencillo es posible debido a que el medio de la fibra puede transportar señales de mayor ancho de banda. 
Al instalar Fast Ethernet para aumentar el ancho de banda de las estaciones de trabajo, se comenzaron a crear cuellos de botella corriente arriba en la red.
1000BASE-T (IEEE 802.3ab) se desarrolló para proporcionar ancho de banda adicional a fin de ayudar a aliviar estos cuellos de botella.
Proporciónó mayor desempeño a dispositivos tales como backbones dentro de los edificios, enlaces entre los switches, servidores centrales y otras aplicaciones de armarios para cableado así como conexiones para estaciones de trabajo de nivel superior.
Fast Ethernet se diseñó para funcionar en los cables de cobre Cat 5 existentes y esto requirió que dicho cable aprobara la verificación de la Cat 5e.
La mayoría de los cables Cat 5 instalados pueden aprobar la certificación 5e si están correctamente terminados.
  Como el cable Cat 5e puede transportar, de forma confiable, hasta 125 Mbps de tráfico, obtener 1000 Mbps (Gigabit) de ancho de banda fue un desafío de diseño.
El primer paso para lograr una 1000BASE-T es utilizar los cuatro pares de hilos en lugar de los dos pares tradicionales utilizados para 10BASE-T y 100BASE-TX.
Esto se logra mediante un sistema de circuitos complejo que permite las transmisiones full dúplex en el mismo par de hilos.
Como la información viaja simultáneamente a través de las cuatro rutas, el sistema de circuitos tiene que dividir las tramas en el transmisor y reensamblarlas en el receptor. 
Esto significa que la transmisión y recepción de los datos se produce en ambas direcciones en el mismo hilo a la vez.
Mediante los complejos circuitos integrados que usan técnicas tales como la cancelación de eco, la Corrección del Error de Envío Capa 1 (FEC) y una prudente selección de los niveles de voltaje, el sistema logra una tasa de transferencia de 1Gigabit. 
  En los períodos de inactividad, son nueve los niveles de voltaje que se encuentran en el cable y durante los períodos de transmisión de datos son 17.
Con este gran número de estados y con los efectos del ruido, la señal en el cable parece más analógica que digital.
Como en el caso del analógico, el sistema es más susceptible al ruido debido a los problemas de cable y terminación. 
  Los datos que provienen de la estación transmisora se dividen cuidadosamente en cuatro corrientes paralelas;
luego se codifican, se transmiten y se detectan en paralelo y finalmente se reensemblan en una sola corriente de bits recibida.
El esquema 8B/ 10B se utiliza para los medios de fibra óptica y de cobre blindado y la modulación de amplitud de pulso 5 (PAM5) se utiliza para los UTP.
La codificación NRZ depende del nivel de la señal encontrado en la ventana de temporización para determinar el valor binario para ese período de bits.
A diferencia de la mayoría de los otros esquemas de codificación descriptos, este sistema de codificación va dirigido por los niveles en lugar de por los bordes.
Es decir, determinar si un bit es un cero o un uno depende del nivel de la señal en vez del momento cuando la señal cambia de nivel. 
  Las señales NRZ son entonces pulsadas hacia la fibra utilizando fuentes de luz de onda corta o de onda larga.
La onda corta utiliza un láser de 850 nm o una fuente LED en fibra óptica multimodo (1000BASE-SX).
La fuente láser de 1310 nm de onda larga utiliza fibra óptica monomodo o multimodo (1000BASE-LX).
Las fuentes de láser utilizadas con fibra monomodo pueden cubrir distancias de hasta 5000 metros.
Debido al tiempo necesario para encender y apagar por completo el LED o el láser cada vez, la luz se pulsa utilizando alta y baja energía.
Las limitaciones de distancia de los enlaces full-dúplex están restringidas sólo por el medio y no por el retardo de ida y vuelta.
El problema entonces yace en la topología lógica y el flujo de datos y no en las limitaciones de temporización o distancia. 
  Un cable UTP de 1000BASE-T es igual que un cable de una 10BASE-T o 100BASE-TX, excepto que el rendimiento del enlace debe cumplir con los requisitos de mayor calidad de ISO Clase D (2000) o de la Categoría 5e. 
A los 100 metros, 1000BASE-T opera cerca del límite de la capacidad de su hardware para recuperar la señal transmitida.
Cualquier problema de cableado o de ruido ambiental podría dejar un cable, que en los demás aspectos cumple con los estándares, inoperable inclusive a distancias que se encuentran dentro de la especificación. 
  Se recomienda que todos los enlaces existentes entre una estación y un hub o switch estén configurados para Auto-Negociación para así permitir el mayor rendimiento conjunto.
Se adaptó el IEEE 802.3ae para incluir la transmisión en full-dúplex de 10 Gbps en cable de fibra óptica.
  Con un formato de trama y otras especificaciones de Capa 2 de Ethernet compatibles con estándares anteriores, 10GbE puede proporcionar mayores necesidades de ancho de banda que son interoperables con la infraestructura de red existente.
Por tradición, se considera que Ethernet es una tecnología de LAN, pero los estándares de la capa física de 10GbE permiten tanto una extensión de las distancias de hasta 40 km a través de una fibra monomodo como una compatibilidad con la red óptica síncrona (SONET) y con redes síncronas de jerarquía digital (SDH).
El formato de trama es el mismo, permitiendo así la interoperabilidad entre todos los tipos de tecnologías antiguas, fast, gigabit y 10 Gigabit, sin retramado o conversiones de protocolo.  El tiempo de bit es ahora de 0,1 nanosegundos.
Todas las demás variables de tiempo caen en su correspondiente lugar en la escala.  Como sólo se utilizan conexiones de fibra en full-dúplex, el CSMA/CD no es necesario.
Las subcapas de IEEE 802.3 dentro de las Capas OSI 1 y 2 se preservan en su mayoría, con pocos agregados para dar lugar a enlaces en fibra de 40 km e interoperabilidad con las tecnologías SONET/SDH.  Entonces, es posible crear redes de Ethernet flexibles, eficientes, confiables, a un costo de punta a punta relativamente bajo.  El TCP/IP puede correr en redes LAN, MAN y WAN con un método de Transporte de Capa 2. 
10GBASE-SR: Para cubrir distancias cortas en fibra multimodo ya instalada, admite un rango de 26 m a 82 m.
10GBASE-LX4: Utiliza la multiplexación por división de longitud de onda (WDM), admite a un rango de 240 m a 300 m en fibra multimodo ya instalada y de 10 km en fibra monomodo.
Cuando se utiliza fibra monomodo como medio de transmisión, la distancia máxima de transmisión es de 40 kilómetros (25 millas).
De algunas conversaciones recientes entre los miembros del IEEE, surge la posibilidad de estándares para una Ethernet de 40, 80 e inclusive 100 Gbps. 
Una menor duración del tiempo de bit que resulta de una mayor velocidad requiere consideraciones especiales.
Esto significa que habría 1000 bits de datos en GbE en el mismo tiempo de bit que un bit de datos en una corriente de datos en Ethernet de 10-Mbps.
Debido a la corta duración del bit de datos de 10 GbE, a menudo resulta difícil separar un bit de datos del ruido.
Las transmisiones de datos en 10 GbE dependen de la temporización exacta de bit para separar los datos de los efectos del ruido en la capa física.
  En respuesta a estos problemas de la sincronización, el ancho de banda y la Relación entre Señal y Ruido, Ethernet de 10 Gigabits utiliza dos distintos pasos de codificación.
Al utilizar códigos para representar los datos del usuario, la transmisión de datos se produce de manera más eficiente.
Los datos codificados proporcionan sincronización, uso eficiente del ancho de banda y mejores carácterísticas de la Relación entre Señal y Ruido.
  Corrientes complejas de bits en serie se utilizan para todas las versiones de 10GbE excepto en 10GBASELX4, que utiliza la Amplia Multiplexión por División de Longitud de Onda (WWDM) para multiplexar corrientes de datos simultáneas de cuatro bits en cuatro longitudes de onda de luz lanzada a la fibra a la vez. 
  La Figura representa el caso particular del uso de cuatro fuentes láser de longitudes de onda apenas diferentes.
Una vez recibida del medio, la corriente de señal óptica se desmultiplexa en cuatro distintas corrientes de señal óptica.
Las cuatro corrientes de señal óptica entonces vuelven a convertirse en cuatro corrientes electrónicas de bits a medida que viajan, usando el proceso inverso a través de las subcapas hacia la capa MAC. 
  En la actualidad, la mayoría de los productos de 10GbE tienen forma de módulos, o tarjetas de línea, para agregar a los switches y a los routers de nivel superior.
A medida que evolucionen las tecnologías de 10GbE, será posible esperar una creciente variedad de componentes para la transmisión de señales.
A medida que evolucionen las tecnologías ópticas, se incorporarán mejores transmisores y receptores a estos productos, tomando ventaja adicional de la modularidad.
Los tipos de fibra incluyen fibra monomodo de 10µ y fibras multimodo de 50µ y 62.5µ.
  Aunque esta tecnología se limita a los medios de fibra óptica, algunas de las longitudes máximas para los cables son sorprendentemente cortas.
  Tal como sucede con las versiones de 10 Mbps, 100 Mbps y 1000 Mbps, es posible modificar levemente algunas de las reglas de arquitectura Los ajustes de arquitectura posibles están relacionados con la pérdida de la señal y distorsión a lo largo del medio.
Debido a la dispersión de la señal y otros problemas, el pulso de luz se vuelve indescifrable más allá de ciertas distancias.
  Mientras que Ethernet de 1 Gigabit es muy fácil de hallar en el mercado, y cada vez es más fácil conseguir los productos de 10 Gigabits, el IEEE y la Alianza de Ethernet de 10 Gigabits se encuentran trabajando en estándares para 40, 100 e inclusive 160 Gbps.
Las tecnologías que se adopten dependerán de un número de factores que incluyen la velocidad de maduración de las tecnologías y de los estándares, la velocidad de adopción por parte del mercado y el costo. 
El uso de UTP y de la fibra óptica con distintas rutas de Tx y Rx y los costos reducidos de los switches hacen que las conexiones a los medios en half-dúplex y los medios únicos compartidos sean mucho menos importantes. 
Cobre (hasta 1000 Mbps, tal vez más)  Inalámbrico (se aproxima a los 100 Mbps, tal vez más)  Fibra óptica (en la actualidad a una velocidad de 10.000 Mbps y pronto superior) 
  Los medios de cobre e inalámbricos presentan ciertas limitaciones físicas y prácticas en cuanto a la frecuencia más alta con la se pueda transmitir una señal.
En los sistemas de fibra, son la tecnología electrónica (por ejemplo los emisores y los detectores) y los procesos de fabricación de la fibra los que más limitan la velocidad.
Los adelantos futuros de Ethernet probablemente estén dirigidos hacia las fuentes de luz láser y a la fibra óptica monomodo. 
  Cuando Ethernet era más lenta, en half-dúplex, sujeta a colisiones y a un proceso «democrático» de prioridades, no se consideraba que tuviera las capacidades de Calidad de Servicio (QoS) necesarias para manejar cierto tipo de tráfico.
  Las tecnologías de Ethernet de alta velocidad y full-dúplex que ahora dominan el mercado están resultando ser suficientes a la hora de admitir aplicaciones intensivas inclusive las de QoS.
Irónicamente, la capacidad de QoS de punta a punta ayudó a dar un empuje a ATM para escritorio y a la WAN a mediados de los 90, pero ahora es Ethernet y no ATM la que está realizando este objetivo. 
Los parámetros de cableado 10BASE-T Las carácterísticas y tipos principales de Ethernet de 100 Mbps La evolución de Ethernet  Los métodos MAC, los formatos de trama y el proceso de transmisión de Gigabit Ethernet.
Los usos de los medios y codificación específicos de Gigabit Ethernet.  Las salidas de pin y el cableado típicos de las distintas implementaciones de Gigabit Ethernet.
Cuando el número de dispositivos que intentan acceder a la red es bajo, el número de colisiones permanece dentro de los límites aceptables.
Sin embargo, cuando el número de usuarios de la red aumenta, el mayor número de colisiones puede causar que el rendimiento sea intolerablemente malo.
Sin embargo, cuando las colisiones y broadcasts ocurren en un número que se encuentra por encima del óptimo, el rendimiento de la red se ve afectado.
El concepto de dominios de colisión y de broadcast trata las formas en que pueden diseñarse las redes para limitar los efectos negativos de las colisiones y broadcasts.
Este módulo explora los efectos de las colisiones y broadcasts sobre el tráfico de red y luego describe cómo se utilizan los puentes y routers para segmentar las redes y mejorar el rendimiento. 
Definir puenteo y conmutación.  Definir y describir la tabla de memoria de contenido direccionable (Content Addressable Memory, CAM).  Definir latencia.  Describir los modos de conmutación de almacenamiento y envío y por método de corte.  Explicar el protocolo Spanning Tree (Spanning Tree Protocol, STP).  Definir colisiones, broadcasts y dominios de colisión y de broadcast.  Identificar los dispositivos de las Capas 1, 2 y 3 utilizados para crear dominios de colisión y de broadcast.  Discutir el flujo de datos y los problemas con broadcasts.  Explicar la segmentación de la red y confeccionar una lista de los dispositivos utilizados en la creación de los segmentos.
  A medida que se agregan más nodos al segmento físico de Ethernet, aumenta la contención de los medios.
Ethernet es un medio compartido, lo que significa que sólo un nodo puede transmitir datos a la vez.
Al agregar más nodos, se aumenta la demanda sobre el ancho de banda disponible y se impone una carga adicional sobre los medios.
Cuando aumenta el número de nodos en un solo segmento, aumenta la probabilidad de que haya colisiones, y esto causa más retransmisiones.
Una solución al problema es dividir un segmento grande en partes y separarlo en dominios de colisión aislados. 
Como los datos se transmiten por todo el segmento del dominio de colisión, tanto el puente como el Host B procesan el paquete.  El puente agrega la dirección origen de la trama a su tabla de puenteo.
Como la dirección se encontraba en el campo de dirección origen y se recibíó la trama en el Puerto 1, la trama debe estar asociada con el puerto 1 de la tabla.  La dirección de destino de la trama se compara con la tabla de puenteo.
Ya que la dirección no se encuentra en la tabla, aunque está en el mismo dominio de colisión, la trama se envía a otro segmento.
La dirección del Host B no se registró aún ya que sólo se registra la dirección origen de una trama.  El Host B procesa la petición del ping y transmite una repuesta ping de nuevo al Host A.
Tanto el Host A como el puente reciben la trama y la procesan.  El puente agrega la dirección origen de la trama a su tabla de puenteo.
Debido a que la dirección de origen no estaba en la tabla de puenteo y se recibíó en el puerto 1, la dirección origen de la trama debe estar asociada con el puerto 1 de la tabla.
La dirección del Host A está asociada con el puente por el que la trama llegó, entonces la trama no se envía.  El Host A ahora va a hacer ping hacia el Host C.
El Host B descarta la trama porque no era el destino establecido.  El puente agrega la dirección origen de la trama a su tabla de puenteo.
Debido a que la dirección ya estaba registrada en la tabla de puenteo, simplemente se renueva.  La dirección de destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí.
La dirección del Host C no se registró aún, ya que sólo se registra la dirección origen de una trama.  El Host C procesa la petición del ping y transmite una repuesta ping de nuevo al Host A.
El Host D descarta la trama porque no era el destino establecido.  El puente agrega la dirección origen de la trama a su tabla de puenteo.
Ya que la dirección se encontraba en el campo de dirección origen y la trama se recibíó en el Puerto 2, la trama debe estar asociada con el puerto 2 de la tabla.  La dirección destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí.
La dirección se encuentra en la tabla pero está asociada con el puerto 1, entonces la trama se envía al otro segmento.  Cuando el Host D transmite datos, su dirección MAC también se registrará en la tabla de puenteo.
  Estos son los pasos que utiliza el puente para enviar y descartar tramas que se reciben en cualquiera de sus puertos.
Por lo general, un puente sólo tiene dos puertos y divide un dominio de colisión en dos partes.
Todas las decisiones que toma el puente se basan en un direccionamiento MAC o de Capa 2 y no afectan el direccionamiento lógico o de Capa 3.
Así, un puente dividirá el dominio de colisión pero no tiene efecto sobre el dominio lógico o de broadcast.
No importa cuántos puentes haya en la red, a menos que haya un dispositivo como por ejemplo un router que funciona en el direccionamiento de Capa 3, toda la red compartirá el mismo espacio de dirección lógica de broadcast.
  Un switch es básicamente un puente rápido multipuerto, que puede contener docenas de puertos.
En una red de veinte nodos, existen veinte dominios de colisión si cada nodo está conectado a su propio puerto de switch.
Si se incluye un puerto uplink, un switch crea veintiún dominios de colisión de un solo nodo.
Un switch crea y mantiene de forma dinámica una tabla de memoria de contenido direccionable (Content Addressable Memory, CAM), que contiene toda la información MAC necesaria para cada puerto.
Cuando sólo un nodo está conectado a un puerto de switch, el dominio de colisión en el medio compartido contiene sólo dos nodos.
Los dos nodos en este segmento pequeño, o dominio de colisión, constan del puerto de switch y el host conectado a él.
En una red que utiliza cableado de par trenzado, un par se usa para llevar la señal transmitida de un nodo al otro.
La capacidad de comunicación en ambas direcciones al mismo tiempo se conoce como full dúplex.
La mayoría de los switch son capaces de admitir full dúplex, como también lo son las tarjetas de interfaz de red (Network Interface Card, NIC) En el modo full dúplex, no existe contención para los medios.
  Además de la aparición de microprocesadores y memoria más rápidos, otros dos avances tecnológicos hicieron posible la aparición de los switch.
La memoria de contenido direccionable (Content Addressable Memory, CAM) es una memoria que esencialmente funciona al revés en comparación con la memoria convencional.
El uso de memoria CAM permite que un switch encuentre directamente el puerto que está asociado con la dirección MAC sin usar un algoritmo de búsqueda.
Un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) es un dispositivo formado de compuertas lógicas no dedicadas que pueden programarse para realizar funciones a velocidades lógicas.
El uso de estas tecnologías redujo enormemente los retardos causados por el procesamiento del software y permitíó que un switch pueda mantenerse al ritmo de la demanda de los datos de muchos microsegmentos y velocidades de bits altas.
La latencia es el retardo que se produce entre el tiempo en que una trama comienza a dejar el dispositivo origen y el tiempo en que la primera parte de la trama llega a su destino.
Existe una gran variedad de condiciones que pueden causar retardos mientras la trama viaja desde su origen a su destino: 
Retardos de los medios causados por la velocidad limitada a la que las señales pueden viajar por los medios físicos.  Retardos de circuito causados por los sistemas electrónicos que procesan la señal a lo largo de la ruta.  Retardos de software causados por las decisiones que el software debe tomar para implementar la conmutación y los protocolos.  Retardos causados por el contenido de la trama y en qué parte de la trama se pueden tomar las decisiones de conmutación.
Por ejemplo, un dispositivo no puede enrutar una trama a su destino hasta que la dirección MAC destino haya sido leída.
La conmutación en este punto se llama conmutación por el método de corte y da como resultado una latencia más baja en el switch.
Esto le da al software del switch la posibilidad de controlar la secuencia de verificación de trama (Frame Check Sequence, FCS) para asegurar que la trama se haya recibido de modo confiable antes de enviarla al destino.
Si se descubre que la trama es inválida, se descarta en este switch en vez de hacerlo en el destino final.
El punto medio entre los modos de corte y de almacenamiento y envío es el modo libre de fragmentos.
El modo libre de fragmentos lee los primeros 64 bytes, que incluye el encabezado de la trama, y la conmutación comienza antes de que se lea todo el campo de datos y la checksum.
Este modo verifica la confiabilidad de direccionamiento y la información del protocolo de control de enlace lógico (Logical Link Control, LLC) para asegurar que el destino y manejo de los datos sean correctos. 
                                            Figura 1                                                                        Figura 2
  Al usar conmutación por métodos de corte, tanto el puerto origen como el destino deben operar a la misma velocidad de bit para mantener intacta la trama.
Si las velocidades de bit no son iguales, la trama debe almacenarse a una velocidad de bit determinada antes de ser enviada a otra velocidad de bit.
  Una conmutación asimétrica proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 1000 Mbps y de 100 Mbps.
La conmutación asimétrica ha sido optimizada para el flujo de tráfico cliente/servidor en el que muchos clientes se comunican con el servidor de forma simultánea, lo cual requiere mayor ancho de banda dedicado al puerto del servidor para evitar un cuello de botella en ese puerto.
Cuando varios switch están ubicados en un árbol jerárquico sencillo, es poco probable que ocurran bucles de conmutación.
Sin embargo, a menudo las redes conmutadas se diseñan con rutas redundantes para ofrecer más confiabilidad y tolerancia a fallas.
Los bucles de conmutación pueden ocurrir ya sea por diseño o por accidente, y pueden llevar tormentas de broadcast que rápidamente abrumen la red.
Para contrarrestar la posibilidad de bucles, se proporcionan switches con un protocolo basado en los estándares llamado protocolo de spanning tree (Spanning Tree Protocol, STP).
Cada switch en una LAN que usa STP envía un mensaje especial llamado unidades de datos del protocolo puente (Bridge Protocol Data Unit, BPDU) desde todos sus puertos para que los otros switches sepan de su existencia y elijan un puente raíz para la red.
Los switches entonces usan un algoritmo spanning-tree (Spanning Tree Algorithm, STA) para resolver y desconectar las rutas redundantes.  Cada puerto de un switch que usa protocolo de spanning- tree se encuentra en uno de los cinco estados siguientes:  
De la inicialización al bloqueo De bloqueo a escucha o desactivado De escucha a aprendizaje o desactivado De aprendizaje a envío o desactivado De envío a desactivado
  El resultado de la resolución y eliminación de bucles usando STP es la creación de un árbol jerárquico lógico sin bucles.
Por ejemplo, si varios PC se encuentran conectados al mismo cable físico, a la misma fibra óptica entonces se dice que comparten el mismo entorno de medios.  Entorno extendido de medios compartidos: Es un tipo especial de entorno de medios compartidos en el que los dispositivos de networking pueden ampliar el entorno de modo que pueda incluir accesos múltiples o distancias mayores de cableado.  Entorno de red punto a punto: Se usa mucho en las conexiones de red de servicio de acceso telefónico y es la más común para el usuario hogareño.
Se trata de un entorno de networking compartido en el que un dispositivo se conecta a un dispositivo solamente, como por ejemplo un computador al proveedor de servicios de Internet por cable módem y línea telefónica. 
  Es importante saber identificar un entorno de medios compartidos, debido a que las colisiones sólo ocurren en un entorno así.
Un sistema de autopistas es un ejemplo de entorno compartido en el que las colisiones pueden ocurrir porque varios vehículos están utilizando las mismas rutas.
Existen reglas para determinar quién tiene acceso a los medios de red, pero a veces las reglas simplemente no pueden manejar el volumen de tráfico, entonces se producen colisiones.
Los dominios de colisión son los segmentos de red física conectados, donde pueden ocurrir colisiones.
La duración de este período sin transmisión varía y depende de un algoritmo de postergación para cada dispositivo de la red.
La división o aumento del número de dominios de colisión con los dispositivos de Capa 2 y 3 se conoce también como segmentación.
  Los dispositivos de Capa 1, tales como los repetidores y hubs, tienen la función primaria de extender los segmentos de cable de Ethernet Al extender la red se pueden agregar más hosts, Sin embargo, cada host que se agrega aumenta la cantidad de tráfico potencial en la red.
Como los dispositivos de Capa 1 transmiten todo lo que se envía en los medios, cuanto mayor sea el tráfico transmitido en un dominio de colisión, mayor serán las posibilidades de colisión.
El resultado final es el deterioro del rendimiento de la red, que será mayor si todos los computadores en esa red exigen anchos de banda elevados.
En fin, al colocar dispositivos de Capa 1 se extienden los dominios de colisión, pero la longitud de una LAN puede verse sobrepasada y causar otros problemas de colisión. 
  La regla de los cuatro repetidores en Ethernet establece que no puede haber más de cuatro repetidores o hubs repetidores entre dos computadores en la red.
Para asegurar que una red 10BASE-T con repetidores funcionará de forma adecuada, el cálculo del retardo del recorrido de ida y vuelta debe estar dentro de ciertos límites, de otro modo todas las estaciones de trabajo no podrán escuchar todas las colisiones en la red.
La latencia del repetidor, el retardo de propagación y la latencia de la NIC contribuyen a la regla de 4 repetidores.
Si se excede la regla de los cuatro repetidores, esto puede llevar a la violación del límite de retardo máximo.
Cuando se produce una colisión tardía, no se requiere que los conjuntos de chips en las NIC retransmitan de forma automática.
Cuatro repetidores o hubs Tres segmentos de host de red Dos secciones de enlace (sin hosts) Un dominio de colisión grande
  La regla 5-4-3-2-1 también explica cómo mantener el tiempo de retardo del recorrido de ida y vuelta en una red compartida dentro de los límites aceptables.
La historia de cómo Ethernet maneja las colisiones y los dominios de colisión se remonta a la investigación realizada en la Universidad de Hawai en 1970.
En su intento por desarrollar un sistema de comunicaciones inalámbrico entre las islas de Hawai, los investigadores de la Universidad desarrollaron un protocolo llamado Aloha.
  Una habilidad importante de todo profesional de networking, es la capacidad de reconocer los dominios de colisión.
Conectar varios computadores a un solo medio de acceso compartido que no tiene ningún otro dispositivo de networking conectado, crea un dominio de colisión.
Esta situación limita el número de computadores que pueden utilizar el medio, también llamado segmento.
Los dispositivos de Capa 2, los puentes y switches, hacen un seguimiento de las direcciones MAC y el segmento en el que se encuentran.
Esta función hace que las redes sean más eficientes, al permitir que los datos se transmitan por diferentes segmentos de la LAN al mismo tiempo sin que las tramas colisionen.
Al usar puentes y switches, el dominio de colisión se divide efectivamente en partes más pequeñas, que se transforman cada una a su vez en un dominio de colisión. 
Cuanto menor sea la cantidad de hosts en un dominio de colisión, mayores son las probabilidades de que el medio se encuentre disponible.
De lo contrario, el dispositivo de Capa 2 puede desacelerar las comunicaciones y convertirse en un cuello de botella en sí mismo. 
Es por eso que usar dispositivos de Capa 3 en una red produce el efecto de dividir los dominios de colisión en dominios menores. 
  Los dispositivos de Capa 3 tienen más funciones que sólo las de dividir los dominios de colisión.
Los dispositivos de Capa 3 y sus funciones se tratarán con mayor profundidad en la sección sobre dominios de broadcast.
Para comunicarse con todos los dominios de colisión, los protocolos utilizan tramas de broadcast y multicast a nivel de Capa 2 en el modelo OSI.
Cuando un nodo necesita comunicarse con todos los hosts de la red, envía una trama de broadcast con una dirección MAC destino 0xFFFFFFFFFFFF.
La acumulación de tráfico de broadcast y multicast de cada dispositivo de la red se denomina radiación de broadcast.
En algunos casos, la circulación de radiación de broadcast puede saturar la red, entonces no hay ancho de banda disponible para los datos de las aplicaciones.
En este caso, no se pueden establecer las conexiones en la red, y las conexiones existentes pueden descartarse, algo que se conoce como tormenta de broadcast.
  Como la NIC tiene que interrumpir a la CPU para procesar cada grupo de broadcast o multicast al que pertenece, el efecto de radiación de broadcast afecta el rendimiento de los hosts de la red.
La Figura muestra los resultados de pruebas que Cisco condujo sobre el efecto de la radiación de broadcast en el rendimiento de un CPU de Sun SPARCstation 2 usando una tarjeta Ethernet estándar incorporada.
Como se ve en los resultados, los broadcasts que inundan la red efectivamente pueden desconectar una estación de trabajo IP.
Pruebas en un entorno controlado con una variedad de broadcasts y multicasts de la red mostraron una degradación del sistema mensurable a tan sólo 100 broadcasts o multicasts por segundo.
  La mayoría de las veces, el host no se beneficia al procesar el broadcast, ya que no es el destino buscado.
Los niveles elevados de radiación de broadcast pueden degradar el rendimiento del host de manera considerable.
Las tres fuentes de broadcasts y multicasts en las redes IP son las estaciones de trabajo, los routers y las aplicaciones multicast. 
  Las estaciones de trabajo envían en broadcast una petición de protocolo de resolución de direcciones (Address Resolution Protocol, ARP) cada vez que necesitan ubicar una dirección MAC que no se encuentra en la tabla ARP.
Cuando el tráfico de broadcast y multicast hace un pico debido a una tormenta, la pérdida pico de la CPU puede tener una magnitud mayor al promedio.
Las tormentas de broadcast pueden originarse en un dispositivo que requiere información de una red que ha crecido demasiado.
La petición original recibe tantas respuestas que el dispositivo no las puede procesar, o la primera petición desencadena peticiones similares de otros dispositivos que efectivamente bloquean el flujo de tráfico en la red. 
  Como ejemplo, el comando telnet mumble.Com se traduce a una dirección IP a través de una búsqueda en el sistema de denominación de dominios (Domain Naming System, DNS).
Por lo general, las estaciones de trabajo IP guardan entre 10 y 100 direcciones en sus tablas ARP durante dos horas aproximadamente.
La velocidad de un ARP en una estación de trabajo típica puede ser cercana a 50 direcciones cada dos horas o 0,007 ARP por segundo.
  Los protocolos de enrutamiento que están configurados en la red pueden aumentar el tráfico de broadcast de modo significativo.
Algunos administradores configuran todas las estaciones de trabajo para que ejecuten el protocolo de información de enrutamiento (Routing Information Protocol, RIP) como una política de redundancia y alcance.
Si 2000 estaciones de trabajo se configuraran para ejecutar RIP y, en promedio, se requieren 50 paquetes para transmitir la tabla de enrutamiento, las estaciones de trabajo generarían 3333 broadcasts por segundo.
La mayoría de los administradores de red sólo configuran un número pequeño de routers, por lo general de cinco a diez, para ejecutar un RIP.
En el caso de una tabla de enrutamiento que tiene un tamaño de 50 paquetes, 10 routers RIP generarán cerca de 16 broadcasts por segundo. 
  Las aplicaciones multicast en IP pueden afectar negativamente el rendimiento de redes conmutadas de gran escala.
Aunque el multicast es una forma eficiente de enviar un flujo de datos de multimedia a muchos usuarios en un hub de medios compartidos, afecta a cada usuario de una red plana conmutada.
Una aplicación de paquete de video determinada, puede generar un flujo de siete megabytes (MB) de datos multicast que, en una red conmutada, se enviarían a cada segmento, causando una gran congestión.
Dividir una LAN en varios dominios de colisión aumenta la posibilidad de que cada host de la red tenga acceso a los medios.
Los broadcasts deben controlarse en la Capa 3, ya que los dispositivos de Capa 1 y Capa 2 no pueden hacerlo.
El tamaño total del dominio del broadcast puede identificarse al observar todos los dominios de colisión que procesan la misma trama de broadcast.
En otras palabras, todos los nodos que forman parte de ese segmento de red delimitados por un dispositivo de Capa 3.
Ellos, al igual que los dispositivos de Capa 1, poseen una conexión física y transmiten datos a los medios.
  Para que un paquete sea enviado a través del router, el dispositivo de Capa 2 debe ya haberlo procesado y la información de la trama debe haber sido eliminada.
Para que un paquete pueda enviarse, debe contener una dirección IP que esté por afuera del alcance de las direcciones asignadas a la LAN, y el router debe tener un destino al cual enviar el paquete específico en su tabla de enrutamiento.
El flujo de datos en un contexto de dominios de colisión y de broadcast se centra en la forma en que las tramas se propagan a través de la red.
Se refiere al movimiento de datos a través de los dispositivos de Capa 1, 2 y 3 y a la manera en que los datos deben encapsularse para poder realizar esa travésía en forma efectiva.
Recuerde que los datos se encapsulan en la capa de la red con una dirección de origen y destino IP, y en la capa de enlace de datos con una dirección MAC origen y destino.
  Una buena regla a seguir es que un dispositivo de Capa 1 siempre envíe la trama, mientras que un dispositivo de Capa 2 desee enviar la trama.
La trama simplemente se regenera y retemporiza y así vuelve a su calidad de transmisión original.
Cualquier segmento conectado por dispositivos de Capa 1 forma parte del mismo dominio, tanto de colisión como de broadcast. 
  Los dispositivos de Capa 2 filtran tramas de datos basados en la dirección MAC destino.
La trama también será enviada si se trata de un broadcast, multicast o unicast que se dirige fuera del dominio local de colisión.
La única vez en que la trama no se envía es cuando el dispositivo de Capa 2 encuentra que el host emisor y el receptor se encuentran en el mismo dominio de colisión.
Un dispositivo de Capa 2, tal como un puente, crea varios dominios de colisión pero mantiene sólo un dominio de colisión. 
  Los dispositivos de Capa 3 filtran paquetes basados en la dirección IP destino.
La única forma en que un paquete se enviará es si su dirección IP destino se encuentra fuera del dominio broadcast y si el router tiene una ubicación identificada para enviar el paquete.
  El flujo de datos en una red enrutada basada en IP, implica el movimiento de datos a través de dispositivos de administración de tráfico en las Capas 1, 2 y 3 del modelo OSI.
La Capa 1 se utiliza en la transmisión por medios físicos, la Capa 2 para la administración de dominios de colisión, y la Capa 3 para la administración de dominios de broadcast.
Como ocurre con muchos términos y siglas, segmento tiene varios significados.
Una de las partes en las que una entidad, o cantidad se divide o es marcada por límites naturales o algo similar a un límite natural.
Sección de una red limitada por puentes, routers o switches  En una LAN que usa topología de bus, un segmento es un circuito de corriente continua que con frecuencia se conecta a otros segmentos similares con repetidores.  Término usado en la especificación TCP para describir una sola unidad de capa de transporte de información.
Los términos datagrama, mensaje, y paquete también se usan para describir agrupamientos de información lógicos en varias capas del modelo de referencia OSI y en varios círculos tecnológicos. 
  Para definir correctamente el término «segmento», se debe presentar el contexto del uso junto con la palabra.
Si la palabra segmento se utiliza en un contexto de medios físicos de networking en una red enrutada, será visto como una de las partes o secciones de una red total.
Evolución del puenteo y la conmutación Memoria de contenido direccionable (Content Addressable Memory, CAM) Latencia de puenteo Modos de conmutación de almacenamiento y envío y por el método de corte.
Dispositivos de Capa 1, 2, y 3 utilizados para crear dominios de colisión y de broadcast.
Internet se desarrolló para brindar una red de comunicación que pudiera continuar funcionando en tiempos de guerra.
Aunque la Internet ha evolucionado en formas muy diferentes a las imaginadas por sus arquitectos, todavía se basa en un conjunto de protocolos TCP/IP.
Muchos de los protocolos utilizados hoy en día se diseñaron utilizando el modelo TCP/IP de cuatro capas. 
Cada modelo ofrece su propia estructura para explicar cómo funciona una red, pero los dos comparten muchas carácterísticas.
La falta de comprensión de cualquier de los dos modelos puede hacer que un administrador de sistemas no cuente con la información suficiente para determinar por qué una red funciona de cierta forma.
  Todo dispositivo conectado a Internet que desee comunicarse con otros dispositivos en línea debe tener un identificador exclusivo.
El identificador se denomina dirección IP porque los Routers utilizan un protocolo de la capa tres, el protocolo IP, para encontrar la mejor ruta hacia dicho dispositivo.
La división en subredes, la Traducción de direcciones en red (NAT) y el direccionamiento privado se utilizan para extender el direccionamiento IP sin agotar el suministro.
Otra versión de IP conocida como IPv6 mejora la versión actual proporcionando un espacio de direccionamiento mucho mayor, integrando o eliminando los métodos utilizados para trabajar con los puntos débiles del IPv4. 
  Además de la dirección física MAC, cada computador necesita de una dirección IP exclusiva, a veces llamada dirección lógica, para formar parte de la Internet.
Algunos dispositivos siempre cuentan con una dirección estática, mientras que otros cuentan con una dirección temporaria que se les asigna cada vez que se conectan a la red.
Cada vez que se necesita una dirección IP asignada dinámicamente, el dispositivo puede obtenerla de varias formas. 
Por ejemplo, las direcciones IP repetidas pueden detener el eficiente enrutamiento de los datos. 
Explicar por qué se desarrolló la Internet y cómo el TCP/IP se ajusta al diseño de la misma.  Nombrar las cuatro capas del modelo TCP/IP.  Describir las funciones de cada capa del modelo TCP/IP.  Comparar el modelo OSI con el TCP/IP.  Describir la función y la estructura de las direcciones IP.  Comprender por qué es necesaria la división en subredes.  Explicar la diferencia entre direccionamiento público y privado.  Comprender la función de las direcciones IP reservadas.  Explicar el uso del direccionamiento estático y dinámico para un dispositivo.  Comprender cómo el direccionamiento dinámico puede realizarse con RARP, BootP y DHCP.  Utilizar ARP para obtener direcciones MAC a fin de poder enviar un paquete a otro dispositivo.  Comprender los problemas relacionados con el direccionamiento entre redes.
(DoD) creó el modelo de referencia TCP/IP porque necesitaba una red que pudiera sobrevivir ante cualquier circunstancia.
Para tener una mejor idea, imagine un mundo, cruzado por numerosos tendidos de cables, alambres, microondas, fibras ópticas y enlaces satelitales.
Entonces, imagine la necesidad de transmitir datos independientemente del estado de un nodo o red en particular.
  Al leer sobre las capas del modelo TCP/IP, tenga en cuenta el propósito original de la Internet.
El modelo TCP/IP tiene cuatro capas: la capa de aplicación, la capa de transporte, la capa de Internet y la capa de acceso de red.
Es importante observar que algunas de las capas del modelo TCP/IP poseen el mismo nombre que las capas del modelo OSI.
Resulta fundamental no confundir las funciones de las capas de los dos modelos ya que estas desempeñan diferentes funciones en cada modelo. 
La capa de aplicación del modelo TCP/IP maneja protocolos de alto nivel, aspectos de representación, codificación y control de diálogo.
El modelo TCP/IP combina todos los aspectos relacionados con las aplicaciones en una sola capa y asegura que estos datos estén correctamente empaquetados antes de que pasen a la capa siguiente.
TCP/IP incluye no sólo las especificaciones de Internet y de la capa de transporte, tales como IP y TCP, sino también las especificaciones para aplicaciones comunes.
TCP/IP tiene protocolos que soportan la transferencia de archivos, e-mail, y conexión remota, además de los siguientes:
Protocolo de transferencia de archivos (FTP): es un servicio confiable orientado a conexión que utiliza TCP para transferir archivos entre sistemas que admiten la transferencia FTP.
  Protocolo trivial de transferencia de archivos (TFTP): es un servicio no orientado a conexión que utiliza el Protocolo de datagrama de usuario (UDP).
Los Routers utilizan el TFTP para transferir los archivos de configuración e imágenes IOS de Cisco y para transferir archivos entre los sistemas que admiten TFTP.
Es útil en algunas LAN porque opera más rápidamente que FTP en un entorno estable.  Sistema de archivos de red (NFS): es un conjunto de protocolos para un sistema de archivos distribuido, desarrollado por Sun Microsystems que permite acceso a los archivos de un dispositivo de almacenamiento remoto, por ejemplo, un disco rígido a través de una red.  Protocolo simple de transferencia de correo (SMTP): administra la transmisión de correo electrónico a través de las redes informáticas.
No admite la transmisión de datos que no sea en forma de texto simple.  Emulación de terminal (Telnet): Telnet tiene la capacidad de acceder de forma remota a otro computador.
El servidor de Telnet recibe el nombre de host remoto.  Protocolo simple de administración de red (SNMP): es un protocolo que provee una manera de monitorear y controlar los dispositivos de red y de administrar las configuraciones, la recolección de estadísticas, el desempeño y la seguridad.  Sistema de denominación de dominio (DNS): es un sistema que se utiliza en Internet para convertir los nombres de los dominios y de sus nodos de red publicados abiertamente en direcciones IP. 
La capa de transporte proporciona servicios de transporte desde el host origen hacia el host destino.
Esta capa forma una conexión lógica entre los puntos finales de la red, el host transmisor y el host receptor.
Los protocolos de transporte segmentan y reensamblan los datos mandados por las capas superiores en el mismo flujo de datos, o conexión lógica entre los extremos.
La corriente de datos de la capa de transporte brinda transporte de extremo a extremo. 
La capa de transporte envía los paquetes de datos desde la fuente transmisora hacia el destino receptor a través de la nube.
El control de punta a punta, que se proporciona con las ventanas deslizantes y la confiabilidad de los números de secuencia y acuses de recibo, es el deber básico de la capa de transporte cuando utiliza TCP.
La capa de transporte también define la conectividad de extremo a extremo entre las aplicaciones de los hosts.
Segmentación de los datos de capa superior Envío de los segmentos desde un dispositivo en un extremo a otro dispositivo en otro extremo.
La capa de transporte envía los paquetes de datos desde la fuente transmisora hacia el destino receptor a través de la nube.
El propósito de la capa de Internet es seleccionar la mejor ruta para enviar paquetes por la red.
El IP no se ve afectado por el contenido de los paquetes, sino que busca una ruta de hacia el destino.  El Protocolo de mensajes de control en Internet (ICMP) suministra capacidades de control y envío de mensajes.  El Protocolo de resolución de direcciones (ARP) determina la dirección de la capa de enlace de datos, la dirección MAC, para las direcciones IP conocidas.  El Protocolo de resolución inversa de direcciones (RARP) determina las direcciones IP cuando se conoce la dirección MAC. 
  Por último, a modo de aclaración de la terminología, a veces, se considera a IP como protocolo poco confiable.
Llamar al IP, protocolo poco confiable simplemente signfica que IP no realiza la verificación y la corrección de los errores.
Dicha función la realizan los protocolos de la capa superior desde las capas de transporte o aplicación.
La capa de acceso de red es la capa que maneja todos los aspectos que un paquete IP requiere para efectuar un enlace físico real con los medios de la red.
Esta capa incluye los detalles de la tecnología LAN y WAN y todos los detalles de las capas física y de enlace de datos del modelo OSI. 
  Los controladores para las aplicaciones de software, las tarjetas de módem y otros dispositivos operan en la capa de acceso de red.
La capa de acceso de red define los procedimientos para realizar la interfaz con el hardware de la red y para tener acceso al medio de transmisión.
Los estándares del protocolo de los módem tales como el Protocolo Internet de enlace serial (SLIP) y el Protocolo de punta a punta (PPP) brindan acceso a la red a través de una conexión por módem.
Debido a un intrincado juego entre las especificaciones del hardware, el software y los medios de transmisión, existen muchos protocolos que operan en esta capa.
  Las funciones de la capa de acceso de red incluyen la asignación de direcciones IP a las direcciones físicas y el encapsulamiento de los paquetes IP en tramas.
Basándose en el tipo de hardware y la interfaz de la red, la capa de acceso de red definirá la conexión con los medios físicos de la misma. 
  Un buen ejemplo de una configuración de la capa de acceso de red sería configurar un sistema Windows utilizando una NIC de otra empresa.
De acuerdo con la versión de Windows, la NIC sería automáticamente detectada por el sistema operativo y luego se instalarían los controladores adecuados.
Si esta fuera una versión de Windows antigua, el usuario tendría que especificar el controlador de la tarjeta de la red.
TCP/IP combina las capas de presentación y de sessión en una capa de aplicación TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en una sola capa TCP/IP parece ser más simple porque tiene menos capas La capa de transporte TCP/IP que utiliza UDP no siempre garantiza la entrega confiable de los paquetes mientras que la capa de transporte del modelo OSI sí.
La Internet es una idea que parece muy sencilla a primera vista, y cuando se repite a gran escala, permite la comunicación casi instantánea de datos por todo el mundo entre cualesquiera personas, en cualquier lugar, en cualquier momento.
Aunque se han producido avances tecnológicos que mejoran la velocidad de las comunicaciones, tales como la Ethernet de 10 Gigabits, de 1 Gigabit y Metro Optical, la distancia sigue siendo un problema.
  Concentrarse en la comunicación entre el computador origen y destino y los computadores intermedios al nivel de la capa de aplicación es una forma de ver el panorama de la arquitectura de Internet.
Colocar copias idénticas de una aplicación en todos los computadores de la red podría facilitar el envío de mensajes a través de la gran red.
Para que un nuevo software funcione correctamente, se requiere de la instalación de nuevas aplicaciones en cada computador de la red.
Cualquier falla en un computador intermedio o en la aplicación del mismo causaría una ruptura en la cadena de mensajes enviados. 
Con el modelo OSI a modo de ejemplo, el objetivo consiste en construir la funcionalidad de la red en módulos independientes.
Esto permite que una variedad de tecnologías LAN existan en las Capas 1 y 2 y una variedad de aplicaciones funcionen en las Capas 5;
El modelo OSI proporciona un mecanismo en el cual se separan los detalles de las capas inferior y superior.
Esto permite que los dispositivos intermedios de networking «retransmitan» el tráfico sin tener que molestarse con los detalles de la LAN. 
Una red de redes recibe el nombre de Internet, que se escribe con «i» minúscula.
Cuando se hace referencia a las redes desarrolladas por el DoD en las que corre la Worldwide Web (www) (Red mundial), se utiliza la letra «I» mayúscula y recibe el nombre de Internet.
Internetworking debe ser capaz de manejar el transporte de datos a lo largo de grandes distancias.
Las internetworks deben estar diseñadas para permitir que en cualquier momento, en cualquier lugar, cualquier persona reciba la comunicación de datos. 
  La Figura resume la conexión de una red física a otra por medio de un computador especial que recibe el nombre de Router.
Se necesita un Router para tomar toda decisión necesaria con respecto a la ruta para que las dos redes que se comuniquen.
La escabilidad aparece cuando un Router guarda una lista de todas las redes, pero deja los detalles del envío local a las redes físicas locales.
Sin embargo, las estructuras lógicas y físicas dentro de la nube Internet pueden ser extremadamente complejas como muestra la Figura .
El hecho que haya crecido de tal forma, con más de 90 000 rutas centrales y 300 000 000 usuarios finales es prueba de la solidez de la arquitectura de la Internet. 
                                                Figura 3                                                                        Figura 4
  Dos computadores, en cualquier lugar del mundo, si se conforman con determinadas especificaciones de hardware, software y protocolos, pueden comunicarse de forma confiable.
La estandarización de las prácticas y los procedimientos de transportación de datos por las redes ha hecho que Internet sea posible.
Aunque las direcciones de la Figura no son direcciones de red reales, representan el concepto de agrupamiento de las direcciones.
Este utiliza A o B para identificar la red y la secuencia de números para identificar el host individual. 
No se suele decir que un dispositivo tiene una dirección sino que cada uno de los puntos de conexión (o interfaces) de dicho dispositivo tiene una dirección en una red.
La combinación de letras (dirección de red) y el número (dirección del host) crean una dirección única para cada dispositivo conectado a la red.
Cada computador conectado a una red TCP/IP debe recibir un identificador exclusivo o una dirección IP.
Esta dirección, que opera en la Capa 3, permite que un computador localice otro computador en la red.
Para que el uso de la dirección IP sea más sencillo, en general, la dirección aparece escrita en forma de cuatro números decimales separados por puntos.
Cada parte de la dirección se conoce como octeto porque se compone de ocho dígitos binarios.
La notación decimal punteada es un método más sencillo de comprender que el método binario de unos y ceros.
Esta notación decimal punteada también evita que se produzca una gran cantidad de errores por transposición, que sí se produciría si sólo se utilizaran números binarios.
El uso de decimales separados por puntos permite una mejor comprensión de los patrones numéricos.
Tanto los números binarios como los decimales de la Figura representan a los mismos valores, pero resulta más sencillo apreciar la notación decimal punteada.
Las largas cadenas de unos y ceros que se repiten hacen que sea más probable que se produzcan errores de transposición y omisión.
  Resulta más sencillo observar la relación entre los números 192.168.1.8 y 192.168.1.9, mientras que 11000000.10101000.00000001.00001000 y 11000000.10101000.00000001.00001001 no son fáciles de reconocer.
Además, existen varias formas de convertir números decimales en números binarios.
  Al convertir un número decimal a binario, se debe determinar la mayor potencia de dos que pueda caber en el número decimal.
Si se ha diseñado este proceso para trabajar con computadores, el punto de inicio más lógico son los valores más altos que puedan caber en uno o dos bytes.
Como se menciónó anteriormente, el agrupamiento más común de bits es de ocho, que componen un byte.
Sin embargo, a veces el valor más alto que un byte puede contener no es lo suficientemente alto para los valores requeridos.
En lugar de tener dos números de ocho dígitos, se crea un solo número de 16 bits.
En lugar de tener tres números de ocho dígitos, se crea un número de 24 bits.
Las mismas reglas se aplican de la misma forma a los números de ocho bits.
  Ya que el trabajo con computadores, a menudo, se encuentra referenciado por los bytes, resulta más sencillo comenzar con los límites del byte y comenzar a calcular desde allí.
Como este número es mayor a 255, el valor más alto posible en un solo byte, se utilizarán dos bytes.
Como un millón es mayor que el valor más alto que puede caber en dos bytes, 65535, se necesitarán por lo menos tres bytes.
Multiplicando por dos hasta llegar a 24 bits, se llega a los tres bytes, el valor será de 8 388 608.
Esto significa que el valor más alto que puede caber en 24 bits es de 16 777 215.
Si se continúa con el procedimiento descripto, se llega a determinar que el número decimal un millón es equivalente al número binario 00001111 01000010 01000000. 
Simplemente coloque el binario en la tabla y, si se encuentra un uno en una posición de la columna, agregue el valor al total. 
Un Router envía los paquetes desde la red origen a la red destino utilizando el protocolo IP.
Los paquetes deben incluir un identificador tanto para la red origen como para la red destino.
Utilizando la dirección IP de una red destino, un Router puede enviar un paquete a la red correcta.
Cuando un paquete llega a un Router conectado a la red destino, este utiliza la dirección IP para localizar el computador en particular conectado a la red.
Cuando se envía una carta, primero debe enviarse a la oficina de correos de la ciudad destino, utilizando el código postal.
Dicha oficina debe entonces localizar el destino final en la misma ciudad utilizando el domicilio.
Una parte identifica la red donde se conecta el sistema y la segunda identifica el sistema en particular de esa red.
Cada uno de los octetos se divide en 256 subgrupos y éstos, a su vez, se dividen en otros 256 subgrupos con 256 direcciones cada uno.
Al referirse a una dirección de grupo inmediatamente arriba de un grupo en la jerarquía, se puede hacer referencia a todos los grupos que se ramifican a partir de dicha dirección como si fueran una sola unidad. 
  Este tipo de dirección recibe el nombre de dirección jerárquica porque contiene diferentes niveles.
Este número debe ser un número exclusivo, porque las direcciones repetidas harían imposible el enrutamiento.
  Las direcciones IP se dividen en clases para definir las redes de tamaño pequeño, mediano y grande.
 El primer paso para determinar qué parte de la dirección identifica la red y qué parte identifica el host es identificar la clase de dirección IP. 
Para adaptarse a redes de distintos tamaños y para ayudar a clasificarlas, las direcciones IP se dividen en grupos llamados clases.
Cada dirección IP completa de 32 bits se divide en la parte de la red y parte del host.
  La dirección Clase A se diseñó para admitir redes de tamaño extremadamente grande, de más de 16 millones de direcciones de host disponibles.
Con dicho primer bit, que es un 0, el menor número que se puede representar es 00000000, 0 decimal.
Estos números 0 y 127 quedan reservados y no se pueden utilizar como direcciones de red.
Los Routers o las máquinas locales pueden utilizar esta dirección para enviar paquetes nuevamente hacia ellos mismos.
  La dirección Clase B se diseñó para cumplir las necesidades de redes de tamaño moderado a grande.
Por lo tanto, el menor número que puede representarse en una dirección Clase B es 10000000, 128 decimal.
  El espacio de direccionamiento Clase C es el que se utiliza más frecuentemente en las clases de direcciones originales.
Este espacio de direccionamiento tiene el propósito de admitir redes pequeñas con un máximo de 254 hosts. 
Una dirección multicast es una dirección exclusiva de red que dirige los paquetes con esa dirección destino hacia grupos predefinidos de direcciones IP.
Por lo tanto, una sola estación puede transmitir de forma simultánea una sola corriente de datos a múltiples receptores. 
  El espacio de direccionamiento Clase D, en forma similar a otros espacios de direccionamiento, se encuentra limitado matemáticamente.
  La Figura muestra el rango de las direcciones IP del primer octeto tanto en decimales como en binarios para cada clase de dirección IP. 
  Ciertas direcciones de host son reservadas y no pueden asignarse a dispositivos de la red.
  En la Figura , la sección que está identificada en el casillero superior representa la red 198.150.11.0.
Los datos enviados a cualquier host de dicha red (198.150.11.1- 198.150.11.254) se verá desde afuera de la red del área local con la dirección 198.159.11.0.
Los números del host sólo tienen importancia cuando los datos se encuentran en una red de área local.
La LAN contenida en el casillero inferior recibe el mismo tratamiento que la LAN superior, sólo que el número de la red es 198.150.12.0.
  En la Figura , la sección que se identifica en el casillero superior representa la dirección de broadcast 198.150.11.255.
Todos los hosts de la red leerán los datos enviados a la dirección de broadcast (198.150.11.1- 198.150.11.254).
La LAN contenida en el casillero inferior recibe el mismo tratamiento que la LAN superior, sólo que la dirección de broadcast es 198.150.12.255.
  La dirección IP que tiene ceros binarios en todas las posiciones de bits de host queda reservada para la dirección de red.
Tomando como ejemplo una red Clase A, 113.0.0.0 es la dirección IP de la red, conocida como el ID (identificador) de la red, que contiene el host 113.1.2.3.
En un ejemplo de red Clase B, la dirección 176.10.0.0 es una dirección de red, como muestra la Figura . 
Los últimos dos octetos contienen ceros, dado que esos 16 bits corresponden a los números de host y se utilizan para identificar los dispositivos que están conectados a la red.
Una dirección de host para un dispositivo conectado a la red 176.10.0.0 podría ser 176.10.16.1.
Para asegurar que todos los demás dispositivos de una red procesen el broadcast, el transmisor debe utilizar una dirección IP destino que ellos puedan reconocer y procesar.
Las direcciones IP de broadcast terminan con unos binarios en toda la parte de la dirección que corresponde al host. 
  En el ejemplo de la red, 176.10.0.0, los últimos 16 bits componen el campo del host o la parte de la dirección del host.
El broadcast que se envía a todos los dispositios de la red incluye una dirección destino de 176.10.255.255.
La estabilidad de la Internet depende de forma directa de la exclusividad de las direcciones de red utilizadas públicamente.
Las direcciones IP de red repetidas hacen que el Router no pueda realizar su trabajo de seleccionar la mejor ruta.
IANA administra, cuidadosamente, la provisión restante de las direcciones IP para garantizar que no se genere una repetición de direcciones utilizadas de forma pública.
La repetición suele causar inestabilidad en la Internet y compromete su capacidad para entregar datagramas a las redes. 
Dos máquinas que se conectan a una red pública nunca pueden tener la misma dirección IP porque las direcciones IP públicas son globales y están estandarizadas.
Se desarrollaron nuevos esquemas de direccionamiento, tales como el enrutamiento entre dominios sin clase (CIDR) y el IPv6, para ayudar a resolver este problema.
  Las direcciones IP privadas son otra solución al problema del inminente agotamiento de las direcciones IP públicas.
Como ya se ha mencionado, las redes públicas requieren que los hosts tengan direcciones IP únicas.
Sin embargo, las redes privadas que no están conectadas a la Internet pueden utilizar cualquier dirección de host, siempre que cada host dentro de la red privada sea exclusivo.
Sin embargo, no es recomendable que una red privada utilice una dirección cualquiera debido a que, con el tiempo, dicha red podría conectarse a Internet.
El RFC 1918 asigna tres bloques de la dirección IP para uso interno y privado.
Estos tres bloques consisten en una dirección de Clase A, un rango de direcciones de Clase B y un rango de direcciones de Clase C.
Si se produce un direccionamiento hacia una intranet que no es pública, un laboratorio de prueba o una red doméstica, es posible utilizar las direcciones privadas en lugar de direcciones exclusivas a nivel global.
 Las direcciones IP privadas pueden entremezclarse, como muestra el gráfico, con las direcciones IP públicas.
  La conección de una red que utiliza direcciones privadas a la Internet requiere que las direcciones privadas se conviertan a direcciones públicas.
Este método, que consiste en dividir las clases de direcciones de red completas en partes de menor tamaño, ha evitado el completo agotamiento de las direcciones IP.
Como administrador de sistemas, es importante comprender que la división en subredes constituye un medio para dividir e identificar las redes individuales en toda la LAN.
Dividir una red en subredes significa utilizar una máscara de subred para dividir la red y convertir una gran red en segmentos más pequeños, más eficientes y administrables o subredes.
  El administrador del sistema debe resolver estos problemas al agregar y expandir la red.
Con la división en subredes, la red no está limitada a las máscaras de red por defecto Clase A, B o C y se da una mayor flexibilidad en el diseño de la red. 
  Las direcciones de subredes incluyen la porción de red más el campo de subred y el campo de host.
El campo de subred y el campo de host se crean a partir de la porción de host original de la red entera.
La capacidad para decidir cómo se divide la porción de host original en los nuevos campos de subred y de host ofrece flexibilidad en el direccionamiento al administrador de red. 
  Para crear una dirección de subred, un administrador de red pide prestados bits del campo de host y los designa como campo de subred.
Al crear una subred, donde se solicita un sólo bit, el número de la red suele ser red .0.
El número máximo de bits que se puede pedir prestado puede ser cualquier número que deje por lo menos 2 bits restantes para el número de host.
Desafortunadamente, los diseñadores de TCP/IP no pudieron predecir que, con el tiempo, su protocolo sostendría una red global de información, comercio y entretenimiento.
Hace más de viente años, la Versión 4 del IP (IPv4) ofrecía una estrategia de direccionamiento que, aunque resultó escalable durante algún tiempo, produjo una asignación poco eficiente de las direcciones.
  Las direcciones Clase A y B forman un 75 por ciento del espacio de direccionamiento IPv4, sin embargo, se pueden asignar menos de 17 000 organizaciones a un número de red Clase A o B.
Las direcciones de red Clase C son mucho más numerosas que las direcciones Clase A y B aunque ellas representan sólo el 12,5 por ciento de los cuatro mil millones de direcciones IP posibles. 
Aún si hubiera más direcciones Clase A, B y C, muchas direcciones de red harían que los Routers se detengan debido a la carga del enorme tamaño de las tablas de enrutamiento, necesarias para guardar las rutas de acceso a cada una de las redes. 
En ese entonces, el espacio de Clase B estaba a punto de agotarse.  Se produjo un gran y rápido aumento en el tamaño de las tablas de enrutamiento de Internet a medida que las redes Clase C se conectaban en línea.
La inundación resultante de nueva información en la red amenazaba la capacidad de los Routers de Internet para ejercer una efectiva administración. 
Estas extensiones se diseñaron específicamente para mejorar la eficiencia con la cual es posible utilizar un espacio de direccionamiento de 32 bits.
Dos de las más importantes son las máscaras de subred y el enrutamiento entre dominios sin clase (CIDR), que se tratan con mayor detalle en lecciones posteriores. 
Las direcciones de IPv4 miden 32 bits de longitud, se escriben con números decimales separados por puntos.
Las direcciones IPv6 miden 128 bits y son identificadores de interfaces individuales y conjuntos de interfaces.
Como cada interface pertenece a un solo nodo, cualquiera de las direcciones unicast asignada a las interfaces del nodo se pueden usar como identificadores del nodo.
Para que las direcciones sean más fáciles de leer, es posible omitir los ceros iniciales de cada campo.
La representación taquigráfica del IPv6 de los 128 bits utiliza números de 16 dígitos, que se muestran en forma de cuatro dígitos hexadecimales. 
  Después de diez años de planificación y desarrollo, el IPv6 lentamente comienza a implementarse en redes selectas.
Un host de red necesita obtener una dirección exclusiva a nivel global para poder funcionar en Internet.
La dirección MAC o física que posee el host sólo tiene alcance local, para identificar el host dentro de la red del área local.
Este protocolo es un esquema de direccionamiento jerárquico que permite que las direcciones individuales se asocien en forma conjunta y sean tratadas como grupos.
Más adelante, en esta lección, se tratará el direccionamiento estático y las tres variantes del direccionamiento dinámico.
Dos hosts con la misma dirección IP pueden generar conflictos que hacen que ambos no puedan operar correctamente.
Como muestra la Figura , los hosts tienen una dirección física ya que cuentan con una tarjeta de interfaz de red que les permite conectarse al medio físico.
La asignación estática funciona mejor en las redes pequeñas con poca frecuencia de cambios.
De forma manual, el administrador del sistema asigna y rastrea las direcciones IP para cada computador, impresora o servidor de una red interna.
Es fundamental llevar un buen registro para evitar que se produzcan problemas con las direcciones IP repetidas.
  Los servidores deben recibir una dirección IP estática de modo que las estaciones de trabajo y otros dispositivos siempre sepan cómo acceder a los servicios requeridos.
Considere lo difícil que sería realizar un llamado telefónico a un lugar que cambiara de número todos los días. 
  Otros dispositivos que deben recibir direcciones IP estáticas son las impresoras en red, servidores de aplicaciones y Routers. 
Es posible que un dispositivo de red, como por ejemplo una estación de trabajo sin disco, conozca su dirección MAC pero no su dirección IP.
  Considere el caso en que un dispositivo origen desee enviar datos al dispositivo madre.
En este ejemplo, el dispositivo fuente conoce su propia dirección MAC pero es incapaz de ubicar su propia dirección IP en la tabla ARP.
El dispositivio origen debe incluir tanto su dirección MAC como su dirección IP para que el dispositivo destino retire los datos, los pase a las capas superiores del modelo OSI y responda al dispositivo transmisor.
El protocolo bootstrap (BOOTP) opera en un entorno cliente-servidor y sólo requiere el intercambio de un solo paquete para obtener la información IP.
 Sin embargo, a diferencia del RARP, los paquetes de BOOTP pueden incluir la dirección IP, así como la dirección de un Router, la dirección de un servidor y la información específica del fabricante. 
Aunque las direcciones se asignan de forma dinámica, todavía existe una relación exacta entre el número de direcciones IP y el número de hosts.
Es posible que estos perfiles se utilicen al mismo tiempo y esto quiere decir que dos hosts tendrían la misma dirección IP. 
Un computador utiliza el BOOTP para enviar un paquete IP de broadcast a la dirección IP destino de todos unos, o sea, 255.255.255.255 en anotación decimal punteada.
Si el cliente encuentra su propia dirección MAC en el campo de dirección destino y un broadcast en el campo IP destino, toma la dirección IP y la guarda junto con la otra información proporcionada por el mensaje BOOTP de respuesta. 
A diferencia del BOOTP, el DHCP permite que el host obtenga la dirección IP de forma dinámica sin que el administrador de red tenga que configurar un perfil individual para cada dispositivo.
Ya no es necesario mantener un perfil fijo de cada dispositivo conectado a la red como en el caso del sistema BOOTP.
La importancia de este avance del DHCP es su capacidad de arrendar una dirección IP a un dispositivo y luego reclamar dicha dirección IP para otro usuario una vez que el primero la libera.
En la comunicación TCP/IP, el datagrama de una red de área local debe contener tanto una dirección MAC destino como una dirección IP destino.
El cojunto TCP/IP cuenta con un protocolo, llamado Protocolo de resolución de direcciones (ARP), que puede obtener las direcciones MAC, de forma automática, para la transmisión local.
TCP/IP tiene una variante en ARP llamada ARP proxy que proporciona la dirección MAC de un dispositivo intermedio para realizar la transmisión a otro segmento de la red fuera de la LAN.
En la red TCP/IP, el paquete de datos debe contener tanto la dirección MAC destino como la dirección IP destino.
Una vez que los dispositivos determinan las direcciones IP de los dispositivos destino, pueden agregar las direcciones MAC de destino a los paquetes de datos. 
  Algunos dispositivos guardan tablas que contienen las direcciones MAC e IP de otros dispositivos conectados a la misma LAN.
Cuando un dispositivo desea enviar datos a través de la red, utiliza la información que proporciona la tabla ARP. 
  Cuando un origen determina la dirección IP para un destino, luego consulta la tabla ARP a fin de encontrar la dirección MAC destino.
Si el origen encuentra una entrada en su tabla (dirección IP destino a dirección MAC destino), se asigna la dirección IP a la dirección MAC y luego la usa para encapsular los datos.
  Son dos las formas en las que los dispositivos pueden recolectar las direcciones MAC que necesitan agregar a los datos encapsulados.
Otra forma de obtener un par de direcciones para la transmisión de datos es realizar el broadcast de una petición ARP.
Si la dirección de uno de los dispositivos locales concuerda con la dirección IP de la petición, envía una respuesta ARP que contiene el par IP-MAC.
Si la dirección IP es para la red de área local y el computador no existe o se encuentra apagado, no hay respuesta a la petición ARP.
En esta variante, un Router envía una respuesta ARP con la dirección MAC de la interfaz en la que se recibíó la petición al host que la ejecuta.
El Router responde con direcciones MAC para aquellas peticiones en las que la dirección IP no se encuentra en el rango de direcciones de la subred local. 
  Otro método para enviar datos a la dirección de un dispositivo que se encuentra en otro segmento de red consiste en configurar un gateway por defecto.
El Gateway por defecto es una opción de host en la que la dirección IP de la interfaz del Router se guarda en la configuración de red del host.
El host origen compara la dirección IP destino y su propia dirección IP para determinar si las dos direcciones están ubicadas en el mismo segmento.
Si el host receptor no está en el mismo segmento, el host origen envía los datos utilizando la dirección IP real del destino y la dirección MAC del Router.
  Si el gateway por defecto del host o la carácterística ARP proxy del Router no están configurados, el tráfico no podrá salir de la red del área local.
Se debe haber logrado una adecuada comprensión de los siguientes puntos clave: texto •       Por qué se desarrolló la Internet y cómo el TCP/IP se ajusta al diseño de la misma.
Las clases de direcciones IP son divisiones lógicas del espacio de direccionamiento que se utiliza para satisfacer las necesidades de los distintos tamaños de redes.
La división en subredes se utiliza para dividir una red en redes de menor tamaño.
Las direcciones reservadas cumplen un papel especial en el direccionamiento IP y no se pueden utilizar para ninúgn otro propósito.
No se puede enrutar las direcciones privadas a la Internet pública.  La función de una máscara de subred es mapear las partes de una dirección IP que son de la red y del host.
Algún día, el IPV4 será totalmente obsoleto y el IPV6 será la versión que se utiliza comúnmente.
•        Un computador debe tener una dirección IP para comunicarse por Internet  Es posible configurar una dirección IP de forma estática o dinámica.
Una dirección IP dinámica se puede asignar utilizando RARP, BOOTP o DHCP  El DHCP brinda mayor información al cliente que el BOOTP  El DHCP hace posible que los computadores sean móviles permitiendo la conexión a muchas redes diferentes.
El direccionamiento IP permite que los paquetes sean enrutados desde el origen al destino usando la mejor ruta disponible.
La propagación de paquetes, los cambios en el encapsulamiento y los protocolos que están orientados a conexión y los que no lo están también son fundamentales para asegurar que los datos se transmitan correctamente a su destino.
  La diferencia entre los protocolos de enrutamiento y los enrutados es causa frecuente de confusión entre los estudiantes de networking.
Este módulo también introduce los protocolos de enrutamiento que permiten que los Routers construyan tablas a partir de las cuales se determina la mejor ruta a un Host en la Internet. 
La división en subredes permite que los administradores de red determinen el tamaño de las partes de la red con las que ellos trabajan.
Después de determinar cómo segmentar su red, ellos pueden utilizar la máscara de subred para establecer en qué parte de la red se encuentra cada dispositivo. 
Describir los protocolos enrutados (enrutables)  Enumerar los pasos del encapsulamiento de datos en una internetwork a medida que los datos se enrutan a uno o más dispositivos de Capa 3.  Describir la entrega no orientada a conexión y orientada a conexión.  Nombrar los campos de los paquetes IP.  Describir el proceso de enrutamiento.  Comparar y contrastar los diferentes tipos de protocolos de enrutamiento.  Enumerar y describir las distintas métricas utilizadas por los protocolos de enrutamiento.  Enumerar varios usos de la división en subredes.  Determinar las máscaras de subred para una situación determinada.  Utilizar máscaras de subred para determinar el ID de subred.
Para aceptar y actuar sobre estos mensajes, los computadores deben contar con definiciones de cómo interpretar el mensaje.
Los ejemplos de mensajes incluyen aquellos que establecen una conexión a una máquina remota, mensajes de correo electrónico y archivos que se transmiten en la red. 
El formato al cual el mensaje se debe conformar La manera en que los computadores intercambian un mensaje dentro del contexto de una actividad en particular
  Un protocolo enrutado permite que un Router envíe datos entre nodos de diferentes redes.
 Para que un protocolo sea enrutable, debe admitir la capacidad de asignar a cada dispositivo individual un número de red y uno de Host.
Algunos protocolos como los IPX, requieren sólo de un número de red porque estos protocolos utilizan la dirección MAC del Host como número de Host.
  La razón por la que se utiliza una máscara de red es para permitir que grupos de direcciones IP secuenciales sean considerados como una sola unidad.
El término no orientado a la conexión significa que no se establece ningún circuito de conexión dedicado antes de la transmisión, como sí lo hay cuando se establece una comunicación telefónica.
Los términos poco confiables y de máximo esfuerzo no implican que el sistema no sea confiable y que no funcione bien;
  A medida que la información fluye hacia abajo por las capas del modelo OSI, los datos se procesan en cada capa.
IP determina los contenidos de cada encabezado de paquete IP, lo cual incluye el direccionamiento y otra información de control, pero no se preocupa por la información en sí.
A medida que un paquete pasa por la internetwork a su destino final, los encabezados y la información final de la trama de Capa 2 se eliminan y se remplazan en cada dispositivo de Capa 3.
  Las tramas de Ethernet de Capa 2 están diseñadas para operar dentro de un dominio de broadcast utilizando la dirección MAC que está grabada en del dispositivo físico.
Otros tipos de tramas de Capa 2 incluyen los enlaces seriales del protocolo punto a punto (PPP) y las conexiones de Frame Relay, que utilizan esquemas de direccionamiento de Capa 2 diferentes.
No obstante el tipo de direccionamiento de Capa 2 utilizado, las tramas están diseñadas para operar dentro del dominio de broadcast de Capa 2, y cuando los datos atraviesan un dispositivo de Capa 3, la información de Capa 2 cambia. 
Se extrae la información de verificación por redundancia cíclica (CRC) de la información final de la trama aceptada, y la CRC se calcula para verificar que los datos de la trama no tengan errores.
Si la verificación es válida, el encabezado de la trama y la información final se descartan y el paquete pasa hacia arriba a la Capa 3.
Allí se verifica el paquete para asegurar que esté realmente destinado al Router, o si tiene que ser enrutado a otro dispositivo en la internetwork.
Si la dirección IP destino concuerda con uno de los puertos del Router, se elimina el encabezado de Capa 3 y los datos pasan a la Capa 4.
Si se encuentra una concordancia o si hay una ruta por defecto, el paquete se enviará a la interfaz especificada en la sentencia de concordancia de la tabla de enrutamiento.
Cuando el paquete se conmuta a la interfaz de salida, se agrega un nuevo valor de verificación CRC como información final de la trama, y se agrega el encabezado de trama apropiado al paquete.
 Es posible que los diferentes paquetes tomen distintas rutas para transitar por la red, pero se reensamblan al llegar a su destino.
En un sistema no orientado a conexión, no se comunica con el destino antes de enviar un paquete Una buena comparación para un sistema no orientado a conexión es el sistema postal.
  En los sistemas orientados a conexión, se establece una conexión entre el remitente y el destinatario antes de que se transfieran los datos.
  Los procesos de red no orientados a conexión también se conocen como procesos de conmutación de paquetes A medida que los paquetes se transportan desde el origen al destino, pueden tomar rutas diferentes, y es posible que no lleguen en el mismo orden.
Algunos de los criterios como, por ejemplo, el ancho de banda disponible, pueden variar de un paquete a otro. 
  Los procesos de red orientados a conexión también se conocen como procesos de conmutación de circuitos.
Este campo de cuatro bits contiene el número 4 si el encabezado es IPv4 o el número 6 si el encabezado es IPV6.
Sin embargo este campo no se usa para distinguir entre ambas versiones, para esto se usa el campo de tipo que se encuentra en el encabezado de la trama de capa 2.  Longitud del encabezado IP (HLEN): Indica la longitud del encabezado del datagrama en palabras de 32 bits.
Este número representa la longitud total de toda la información del encabezado, e incluye los dos campos de encabezados de longitud variable.  Tipo de servicio (TOS): Especifica el nivel de importancia que le ha sido asignado por un protocolo de capa superior en particular, 8 bits.  Longitud total: Especifica la longitud total de todo el paquete en bytes, incluyendo los datos y el encabezado, 16 bits.
Para calcular la longitud de la carga de datos reste HLEN a la longitud total.  Identificación: Contiene un número entero que identifica el datagrama actual, 16 bits.
Este es el número de secuencia.  Señaladores: Un campo de tres bits en el que los dos bits de menor peso controlan la fragmentación.
Un bit especifica si el paquete puede fragmentarse, y el otro especifica si el paquete es el último fragmento en una serie de paquetes fragmentados.  Desplazamiento de fragmentos: usado para ensamblar los fragmentos de datagramas, 13 bits.
Este campo permite que el campo anterior termine en un límite de 16 bits.  Tiempo de existencia (TTL): campo que especifica el número de saltos que un paquete puede recorrer.
Esto evita que los paquetes entren en un loop (bucle) interminable.  Protocolo: indica cuál es el protocolo de capa superior, por ejemplo, TCP o UDP, que recibe el paquete entrante luego de que se ha completado el procesamiento IP, ocho bits.  Checksum del encabezado: ayuda a garantizar la integridad del encabezado IP, 16 bits.  Dirección de origen: especifica la dirección IP del nodo emisor, 32 bits.  Dirección de destino: especifica la dirección IP del nodo receptor, 32 bits.  Opciones: permite que IP admita varias opciones, como seguridad, longitud variable.  Relleno: se agregan ceros adicionales a este campo para garantizar que el encabezado IP siempre sea un múltiplo de 32 bits  Datos: contiene información de capa superior, longitud variable hasta un de máximo 64 Kb. 
      Aunque las direcciones de origen y destino IP son importantes, los otros campos del encabezado han hecho que IP sea muy flexible.
Los campos del encabezado contienen las direcciones origen y destino del paquete y generalmente incluyen la longutid del mensaje.
Estas direcciones individuales son tratadas como unidades únicas hasta que se necesita la dirección destino para la entrega final de los datos.
Los Routers deben mantener tablas de enrutamiento y asegurarse de que otros Routers conozcan las modificaciones a la topología de la red.
Esta función se lleva a cabo utilizando un protocolo de enrutamiento para comunicar la información de la red a otros Routers.  Cuando los paquetes llegan a una interfaz, el Router debe utilizar la tabla de enrutamietno para establecer el destino.
El Router envía los paquetes a la interfaz apropiada, agrega la información de entramado necesaria para esa interfaz, y luego transmite la trama. 
  Un Router es un dispositivo de la capa de red que usa una o más métricas de enrutamiento para determinar cuál es la ruta óptima a través de la cual se debe enviar el tráfico de red.
Los protocolos de enrutamiento utilizan varias combinaciones de métricas para determinar la mejor ruta para los datos. 
Los pasos del proceso de encapsulamiento y desencapsulamiento ocurren cada vez que un paquete atraviesa un router.
El router debe desencapsular la trama de capa 2 y examinar la dirección de capa 3.
Como se muestra en la figura , el porceso completo del envío de datos de un dispositivo a otro comprende encapsulamiento y desencapsulamiento de las siete capas OSI.
Este proceso divide el flujo de datos en segmentos, agrega los encabezados apropiados e información final y luego transmite los datos.
El proceso de desencapsulamiento es el proceso inverso: quita los encabezados e información final, y luego combina los datos en un flujo continuo. 
  Este curso se concentra en el protocolo enrutable más común, el protocolo de Internet (IP) Otros ejemplos de protocolos enrutables incluyen IPX/SPX y AppleTalk.
Un observador inexperto puede pensar que el enrutamiento y la conmutación cumplen la misma función.
La diferencia básica es que la conmutación tiene lugar en la Capa 2, o sea, la capa de enlace de los datos, en el modelo OSI y el enrutamiento en la Capa 3.
Esta diferencia significa que el enrutamiento y la conmutación usan información diferente en el proceso de desplazar los datos desde el origen al destino. 
  La relación entre la conmutación y el enrutamiento es comparable con la relación entre las comunicaciones telefónicas locales y de larga distancia.
Cuando se realiza una comunicación telefónica a un número dentro de un mismo código de área, un Switch local administra la llamada.
Cuando el Switch recibe un pedido de llamada fuera de su código de área, transfiere la llamada a un Switch de nivel superior que reconoce los códigos de área.
El Switch de nivel superior entonces transfiere la llamada de modo que finalmente llegue al Switch local del código de área marcado.  El Router tiene una función parecida a la del Switch de nivel superior en el ejemplo del teléfono.
La figura muestra las tablas ARP de las direcciones MAC de Capa 2 y las tablas de enrutamiento de las direcciones IP de Capa 3.
Cada componente de la tabla ARP contiene un par de direcciones IP-MAC (en el gráfico las direcciones MAC están representadas por la sigla MAC, debido a que las direcciones verdaderas son demasiado largas y no caben en el gráfico).
Las tablas de enrutamiento también registran cómo se informó la ruta (en este caso ya sea directamente conectada [C] o informada por RIP [R]), la dirección IP de red de las redes alcanzables, el número de saltos o distancia hasta dichas redes, y la interfaz por la que los datos deben enviarse para llegar a la red de destino. 
Cuando un host va a mandar información a una dirección IP que no es local, entonces manda la trama al router más cercano., también conocida como su Gateway por defecto.
  Un switch interconecta segmentos que pertenecen a la misma red o subred lógicas.
 Para los host que no son locales, el switch reenvía la trama a un router en base a la dirección MAC destino.
El router examina la dirección destino de Capa 3 para llevar a cabo la decisión de la mejor ruta.
El host X sabe la dirección IP del router puesto que en la configuración del host se incluye la dirección del Gateway por defecto.
  Únicamente un switch mantiene una tabla de direcciones MAC conocidas, el router mantiene una tabla de direcciones IP.
Un switch soporta un número limitado de direcciones MAC desorganizadas debido a que sólo tiene que buscar direcciones MAC que están dentro de su segmento.
Entonces, los Routers necesitan un sistema de direccionamiento organizado que pueda agrupar direcciones similares y tratarlas como una sola unidad de red hasta que los datos alcancen el segmento destino.
Sería como tener una biblioteca que contiene una pila enorme con millones de páginas sueltas de material impreso.
Si las páginas están organizadas en libros y cada página está individualizada, y además los libros están registrados en un índice, es mucho más sencillo ubicar y utilizar la información. 
  Otra diferencia entre las redes conmutadas y enrutadas es que las redes conmutadas no bloquean los broadcasts.
Los Routers bloquean los broadcasts de LAN, de modo que una tormenta de broadcast sólo afecta el dominio de broadcast de origen.
Debido a que los Routers bloquean broadcasts, pueden brindar un mayor nivel de seguridad y control de ancho de banda que los Switches.
Los protocolos usados en la capa de red que transfieren datos de un Host a otro a través de un Router se denominan protocolos enrutados o enrutables.
Los protocolos de enrutamiento permiten que los Routers elijan la mejor ruta posible para los datos desde el origen hasta el destino. 
Incluir cualquier conjunto de protocolos de red que ofrece información suficiente en su dirección de capa para permitir que un Router lo envíe al dispositivo siguiente y finalmente a su destino.  Definir el formato y uso de los campos dentro de un paquete.
  Los Routers utilizan los protocolos de enrutamiento para intercambiar las tablas de enrutamiento y compartir la información de enrutamiento.
  Los ejemplos de protocolos de enrutamiento que admiten el protocolo enrutado IP incluyen el Protocolo de información de enrutamiento (RIP) y el Protocolo de enrutamiento de Gateway interior (IGRP), el Protocolo primero de la ruta libre más corta (OSPF), el Protocolo de Gateway fronterizo (BGP), el IGRP mejorado (EIGRP).
La determinación de la ruta permite que un Router compare la dirección destino con las rutas disponibles en la tabla de enrutamiento, y seleccione la mejor ruta.
  El Router utiliza la determinación de la ruta para decidir por cuál puerto debe enviar un paquete en su trayecto al destino.
La determinación de la ruta puede compararse a una persona que conduce un automóvil desde un lugar de la ciudad a otro.
El conductor tiene un mapa que muestra las calles que puede tomar para llegar a su destino, así como el Router posee una tabla de enrutamiento.
  Las decisiones del conductor se ven influenciadas por múltiples factores como el tráfico en la calle, el límite de velocidad, el número de carriles, si hay peaje o no, y si esa ruta se encuentra cerrada o no con frecuencia.
A veces es más rápido tomar un recorrido más largo por una calle más angosta y menos transitada que ir por una autopista con mucho tránsito.
De la misma forma, los Routers pueden tomar decisiones basándose en la carga, el ancho de banda, el retardo, el costo y la confiabilidad en los enlaces de red. 
  Se utiliza el siguiente proceso durante la determinación de la ruta para cada paquete que se enruta:  
Se obtiene la dirección destino del paquete .  Se aplica la máscara de la primera entrada en la tabla de enrutamiento a la dirección destino.  Se compara el destino enmascarado y la entrada de la tabla de enrutamiento.  Si hay concordancia, el paquete se envía al puerto que está asociado con la entrada de la tabla.  Si no hay concordancia, se compara con la siguiente entrada de la tabla.  Si el paquete no concuerda con ninguno de las entradas de la tabla, el Router verifica si se envió una ruta por defecto.  Si se envió una ruta por defecto, el paquete se envía al puerto asociado.
Una ruta por defecto es aquella que está configurada por el administrador de la red como la ruta que debe usarse si no existe concordancia con las entradas de la tabla de enrutamiento.  El paquete se elimina si no hay una ruta por defecto.
Los Routers utilizan protocolos de enrutamiento para crear y guardar tablas de enrutamiento que contienen información sobre las rutas.
Las tablas de enrutamiento contienen la información necesaria para enviar paquetes de datos a través de redes conectadas.
Asociaciones entre destino/siguiente salto: estas asociaciones le dicen al Router que un destino en particular está directamente conectado al Router, o que puede ser alcanzado utilizando un Router denominado «salto siguiente» en el trayecto hacia el destino final.
Cuando un Router recibe un paquete entrante, lee la dirección destino y verifica si hay concordancia entre esta dirección y una entrada de la tabla de enrutamiento.  Métrica de enrutamiento: los distintos protocolos de enrutamiento utilizan métricas de enrutamiento distintas.
Por ejemplo, el números de saltos es la única métrica de enrutamiento que utiliza el protocolo de información de enrutamiento (RIP).
El Protocolo de enrutamiento Gateway interior (IGRP) utiliza una combinación de ancho de banda, carga, retardo y confiabilidad como métricas para crear un valor métrico compuesto.  Interfaces de salida: la interfaz por la que se envían los datos para llegar a su destino final. 
  Los Routers se comunican entre sí para mantener sus tablas de enrutamiento por medio de la transmisión de mensajes de actualización del enrutamiento.
Algunos protocolos de enrutamiento transmiten estos mensajes de forma periódica, mientras que otros lo hacen cuando hay cambios en la topología de la red.
Algunos protocolos transmiten toda la tabla de enrutamiento en cada mensaje de actualización, y otros transmiten sólo las rutas que se han modificado.
En el caso de paquetes de enrutamiento, diferentes protocolos utilizan distintos algoritmos para decidir por cuál puerto debe enviarse un paquete entrante.
Por ejemplo, un algoritmo puede utilizar tanto las métricas del número de saltos como la del retardo, pero puede considerar las métricas de retardo como de mayor peso en el cálculo.  Simplicidad y bajo gasto: cuanto más simple sea el algoritmo, más eficientemente será procesado por la CPU y la memoria del Router.
Esto es importante ya que la red puede aumentar en grandes proporciones, como la Internet.  Solidez y estabilidad: un algoritmo debe funcionar de manera correcta cuando se enfrenta con una situación inusual o desconocida;
por ejemplo, fallas en el hardware, condiciones de carga elevada y errores en la implementación.  Flexibilidad: un algoritmo de enrutamiento debe adaptarse rápidamente a una gran variedad de cambios en la red.
Estos cambios incluyen la disponibilidad y memoria del Router, cambios en el ancho de banda y retardo en la red.  Convergencia rápida: la convergencia es el proceso en el cual todos los Routers llegan a un acuerdo con respecto a las rutas disponibles.
Cuando un evento en la red provoca cambios en la disponibilidad de los Routers, se necesitan actualizaciones para restablecer la conectividad en la red.
  Los algoritmos de enrutamiento utilizan métricas distintas para determinar la mejor ruta.
Los algoritmos de enrutamiento sofisticados basan la elección de la ruta en varias métricas, combinándolas en un sólo valor métrico compuesto.
  Las métricas pueden tomar como base una sola carácterística de la ruta, o pueden calcularse tomando en cuenta distintas carácterísticas.
En general, se prefiere un enlace Ethernet de 10 Mbps a una línea arrendada de 64 kbps.  Retardo: la cantidad de tiempo requerido para transportar un paquete a lo largo de cada enlace desde el origen hacia el destino El retardo depende del ancho de banda de los enlaces intermedios, de la cantidad de datos que pueden almacenarse de forma temporaria en cada Router, de la congestión de la red, y de la distancia física  Carga: la cantidad de actividad en un recurso de red como, por ejemplo, un Router o un enlace.  Confiabilidad: generalmente se refiere al índice de error de cada enlace de red.  Número de saltos: el número de Routers que un paquete debe atravesar antes de llegar a su destino.
Una ruta cuyo número de saltos es cuatro indica que los datos que se transportan a través de esa ruta deben pasar por cuatro Routers antes de llegar a su destino final en la red.
Si existen varias rutas hacia un mismo destino, se elige la ruta con el menor número de saltos.  Tictacs: el retardo en el enlace de datos medido en tictacs de reloj PC de IBM.
Un tictac dura aproximadamente 1/18 de segundo.  Costo: un valor arbitrario asignado por un administrador de red que se basa por lo general en el ancho de banda, el gasto monetario u otra medida. 
Un sistema autónomo es una red o conjunto de redes bajo un control común de administración, tal como el dominio cisco.Com.
Un sistema autónomo está compuesto por Routers que presentan una visión coherente del enrutamiento al mundo exterior. 
Protocolo de enrutamiento de Gateway interior (IGRP) Protocolo de enrutamiento de Gateway interior mejorado (EIGRP) Primero la ruta libre más corta (OSPF) Protocolo de sistema intermedio-sistema intermedio (IS-IS).
Los protocolos de enrutamiento pueden clasificarse en IGP o EGP, lo que describe si un grupo de Routers se encuentra bajo una sola administración o no.
  El enrutamiento por vector-distancia determina la dirección y la distancia (vector) hacia cualquier enlace en la internetwork.
Los Routers que utilizan los algoritmos de vector-distancia envían todos o parte de las entradas de su tabla de enrutamiento a los Routers adyacentes de forma periódica.
Un Router puede verificar todas las rutas conocidas y realizar las modificaciones a su tabla de enrutamiento al recibir las actualizaciones de enrutamiento.
La comprensión que el Router tiene de la red se basa en la perspectiva que tiene el Router adyacente de la topología de la red. 
RIP utiliza números de saltos como su única métrica de enrutamiento.  Protocolo de enrutamiento de Gateway interior (IGRP): es un IGP desarrollado por Cisco para resolver problemas relacionados con el enrutamiento en redes extensas y heterogéneas.  IGRP mejorada (EIGRP): esta IGP propiedad de Cisco incluye varias de las carácterísticas de un protocolo de enrutamiento de estado de enlace.
Es por esto que se ha conocido como protocolo híbrido balanceado, pero en realidad es un protocolo de enrutamiento vector-distancia avanzado. 
  Los protocolos de enrutamiento de estado de enlace se diseñaron para superar las limitaciones de los protocolos de enrutamiento vector distancia.
Los protocolos de enrutamiento de estado de enlace responden rápidamente a las modificaciones en la red, enviando actualizaciones sólo cuando se producen las modificaciones.
Los protocolos de enrutamiento de estado de enlace envían actualizaciones periódicas, conocidas como renovaciones de estado de enlace a rangos más prolongados;
  Cuando una ruta o enlace se modifica, el dispositivo que detectó el cambio crea una publicación de estado de enlace (LSA) en relación a ese enlace.
Cada dispositivo de enrutamiento hace una copia de la LSA, actualiza su base de datos de estado de enlace y envía la LSA a todos los dispositivos vecinos.
Se necesita esta inundación de LAS para estar seguros de que todos los dispositivos de enrutamiento creen bases de datos que reflejen de forma precisa la topología de la red antes de actualizar sus tablas de enrutamiento. 
  Por lo general, los algoritmos de estado de enlace utilizan sus bases de datos para crear entradas de tablas de enrutamiento que prefieran la ruta más corta.
RIP es un protocolo de enrutamiento vector-distancia que utiliza el número de saltos como métrica para determinar la dirección y la distancia a cualquier enlace en internetwork.
Si existen varias rutas hasta un destino, RIP elige la ruta con el menor número de saltos.
Sin embargo, debido a que el número de saltos es la única métrica de enrutamiento que RIP utiliza, no siempre elige el camino más rápido hacia el destino.
RIP Versión 1 (RIPv1) necesita que todos los dispositivos de la red utilicen la misma máscara de subred, debido a que no incluye la información de la máscara en sus actualizaciones de enrutamiento.
  RIP Versión 2 (RIPv2) ofrece un prefijo de enrutamiento y envía información de la máscara de subred en sus actualizaciones.
En los protocolos sin clase, las distintas subredes dentro de la misma red pueden tener varias máscaras de subred.
El uso de diferentes máscaras de subred dentro de la misma red se denomina máscara de subred de longitud variable (VLSM). 
El IGRP se desarrolló específicamente para ocuparse de los problemas relacionados con el enrutamiento de grandes redes que no se podían administrar con protocolos como, por ejemplo, RIP.
IGRP puede elegir la ruta disponible más rápida basándose en el retardo, el ancho de banda, la carga y la confiabilidad.
  El sistema intermedio-sistema intermedio (IS-IS) es un protocolo de enrutamiento de estado de enlace utilizado para protocolos enrutados distintos a IP.
El IS-IS integrado es un sistema de implementación expandido de IS-IS que admite varios protocolos de enrutamiento, inclusive IP. 
En especial, EIGRP suministra una eficiencia de operación superior tal como una convergencia rápida y un bajo gasto del ancho de banda.
BGP intercambia información de enrutamiento entre sistemas autónomos a la vez que garantiza una elección de ruta libre de loops.
A diferencia de los protocolos de Gateway internos (IGP), como RIP, OSPF y EIGRP, BGP no usa métricas como número de saltos, ancho de banda, o retardo.
En cambio, BGP toma decisiones de enrutamiento basándose en políticas de la red, o reglas que utilizan varios atributos de ruta BGP.
Las clases de direcciones IP ofrecen de 256 a 16,8 millones de Hosts, como se vio con anterioridad en este módulo.
Para administrar de forma eficiente un número limitado de direcciones IP, todas las clases pueden subdividirse en subredes más pequeñas.
Parara crear la estructura de subred, los bits de host se deben reasignar como bits de subred.
El punto de inicio de este proceso se encuentra siempre en el bit del Host del extremo izquierdo, aquel que se encuentra más cerca del octeto de red anterior. 
  Las direcciones de subred incluyen la porción de red Clase A, Clase B o Clase C además de un campo de subred y un campo de Host.
El campo de subred y el campo de Host se crean a partir de la porción de Host original de la dirección IP entera.
Esto se hace mediante la reasignación de bits de la parte de host a la parte original de red de la dirección.
 La capacidad de dividir la porción de Host original de la dirección en nuevas subredes y campos de Host ofrece flexibilidad de direccionamiento al administrador de la red. 
  Además de la necesidad de contar con flexibilidad, la división en subredes permite que el administrador de la red brinde contención de broadcast y seguridad de bajo nivel en la LAN.
La división en subredes ofrece algo de seguridad ya que el acceso a las otras subredes está disponible solamente a través de los servicios de un Router.
Estas listas pueden permitir o negar el acceso a la subred, tomando en cuenta varios criterios, de esta manera brindan mayor seguridad.
Algunos propietarios de redes Clases A y B han descubierto que la división en subredes crea una fuente de ingresos para la organización a través del alquiler o venta de direcciones IP que anteriormente no se utilizaban.
  Una LAN se percibe como una sola red sin conocimiento de su estructura de red interna.
Dada una dirección de nodo local 147.10.43.14 de la subred 147.10.43.0, el mundo exteriorsólo puede ver la red mayor que se anuncia, la 147.10.0.0.
Esto tiene su razón en que la dirección de la subred local 147.10.43.0 sólo es válida dentro de la LAN donde se aplica el subneteo.
La selección del número de bits a utilizar en el proceso de división en subredes dependerá del número máximo de Hosts que se requiere por subred.
Es necesario tener una buena comprensión de la matemática binaria básica y del valor de posición de los bits en cada octeto para calcular el número de subredes y Hosts creados cuando se pide bits prestados.
  Es posible que los últimos dos bits del último octeto nunca se asignen a la subred, sea cual sea la clase de dirección IP.
El uso de todos los bits disponibles para crear subredes, excepto los dos últimos, dará como resultado subredes con sólo dos Hosts utilizables.
  La máscara de subred da al Router la información necesaria para determinar en qué red y subred se encuentra un Host determinado.
 La máscara de subred se crea mediante el uso de 1s binarios en los bits de red.
Los bits de subred se determinan mediante la suma de los valores de las posiciones donde se colocaron estos bits.
Esta máscara se puede representar con una barra inclinada seguida por un número, por ejemplo /27.
El número representa el número total de bits que fueron utilizados por la red y la porción de subred. 
  Para determinar el número de bits que se deberán utilizar, el diseñador de redes calcula cuántos Hosts necesita la subred más grande y el número de subredes necesarias.
Al consultar la fila denominada «Hosts Utilizables», se ve en la tabla que para 30 Hosts se requieren tres bits.
La tabla también muestra que esto crea seis subredes utilizables, que satisfacen los requisitos de este esquema.
La diferencia entre las direcciones válidas y el total es el resultado del uso de la primera dirección como el ID de la subred y de la última como la dirección de broadcast para cada subred.
El tomar prestados el número adecuado de bits para obtener un número determinado de subredes y de hosts por subred puede generar el desperdicio de direcciones válidas en algunas subredes.
Sin embargo, el enrutamiento sin distinción de clase, el cual se cubrirá más adelante en el curso, permite el uso de estas direcciones. 
  El método que se utilizó para crear la tabla de subred puede usarse para resolver todos los problemas con subredes.
  El número de subredes que se pueden usar es igual a dos a la potencia del número de bitsasignados a subred, menos dos.
  (2 potencia de bits prestados) – 2 = subredes utilizables
Número de Hosts utilizables = dos elevado a la potencia de los bits restantes, menos dos (direcciones reservadas para el ID de subred y el broadcast de subred)
La tabla de la Figura es un ejemplo de subredes y direcciones que se crean al asignar tres bits al campo de la subred.
  Al llenar la tabla de subred, tres de los campos son automáticos, otros requieren de cálculos.
El ID de subred de la subred 0 equivale al número principal de la red, en este caso 192.168.10.0.
Este número consiste en los tres octetos de red con el número de máscara de subred insertado en la posición del cuarto octeto.
Al insertar estos números, se establecen puntos de referencia que verificarán la exactitud cuando se complete la tabla. 
  Al consultar la tabla de subredes o al utilizar la fórmula, los tres bits asignados al campo de la subred darán como resultado 32 Hosts en total, asignados a cada subred.
  El campo de broadcast es el último número en cada subred, y tiene unos binarios en la porción de Host.
La dirección tiene la capacidad de emitir broadcast sólo a los miembros de una sola subred.
Ya que el ID de subred para la subred cero es 192.168.10.0 y hay un total de 32 Hosts, el ID de broadcast será 192.168.10.31 Comenzando con el cero, el trigésimo segundo número secuencial es el 31.Es importante recordar que cero (0) es un número real en el mundo de networking. 
El resultado de la columna ID de broadcast puede completarse usando el mismo proceso que fue utilizado para la columna ID de la subred.
El procedimiento de dividir las redes de Clase A y B en subredes es idéntico al proceso utilizado para la Clase C, excepto que puede haber muchos más bits involucrados.
Hay 22 bits disponibles para asignación a los campos de subred en una dirección de Clase A, y 14 bits en la de B.
  Al asignar 12 bits de una dirección de Clase B a un campo de subred, se crea una máscara de subred de 255.255.255.240 o /28.
Los ocho bits fueron asignados al tercer octeto dando como resultado 255, el valor total de los ocho bits juntos.
Recuerde que el número después de la barra inclinada equivale a la suma total de todos los bits asignados al campo de subred más los bits de red fijos.
  Al asignar 20 bits de una dirección de Clase B a un campo de subred, se crea una máscara de subred de 255.255.255.240 o /28.
Los ocho bits del segundo y tercer octeto fueron asignados al campo de subred y a cuatro bits del cuarto octeto. 
A menos que la máscara esté relacionada con una dirección de red, no es posible descifrar cuántos bits fueron asignados al campo de subred. 
  No importa qué clase de dirección se necesite dividir en subredes, las reglas son las siguientes:
Habrá que dedicar mucho tiempo a la realización de ejercicios prácticos para desarrollar esquemas flexibles y que funcionen.
Sin embargo, un administrador de red debe saber cómo calcular las subredes de forma manual para diseñar esquemas de red efectivos y asegurar la validez de los resultados obtenidos con una calculadora de subred.
Los pasos del encapsulamiento de los datos en internetwork a medida que los datos se enruta a uno o más dispositivos de Capa 3.
Una vez que el Router está listo para transmitir el paquete, el Router debe encapsular el paquete de Capa3 en una nueva trama de Capa 2.  Los protocolos enrutados definen el formato y uso de los campos dentro de un paquete.
Los paquetes generalmente se transfieren de un sistema final a otro.  La conmutación de LAN tiene lugar en la Capa 2 del modelo de referencia OSI, y el enrutamiento en la Capa 3.
Se utilizan protocolos de enrutamiento entre los Routers para determinar la ruta y guardar las tablas de enrutamiento.
Se utilizan protocolos enrutados para dirigir el tráfico del usuario.  El enrutamiento implica dos actividades principales: Determinación de las mejores rutas posibles y transportación de paquetes por la internetwork.  Los algoritmos de enrutamiento procesan actualizaciones de enrutamiento y construyen tablas de enrutamiento con las mejores rutas.  Las tablas de enrutamiento contienen las mejores rutas hacia todas las redes conocidas.
Estas rutas pueden ser estáticas (de ingreso manual) o dinámicas (que se conocen a través de protocolos de enrutamiento)  La convergencia describe la velocidad a la que todas los Routers llegan a un acuerdo con respecto a una modificación en la red.  Los protocolos de enrutamiento interior enrutan los datos dentro de sistemas autónomos, mientras que los protocolos de enrutamiento exterior enrutan los datos entre sistemas autónomos.  Los Routers que utilizan protocolos de enrutamiento vector-distancia envían actualizaciones en forma periódica que contienen toda o parte de su tabla de enrutamiento.
Los Routers que usan protocolos de enrutamiento de estado de enlace, utilizan publicaciones de estado de enlace (LSA) para enviar actualizaciones sólo cuando ocurren cambios en la topología de la red, y envían tablas de enrutamiento completas con mucha menos frecuencia.  Los usos de la división en subredes.
Como su nombre lo indica, la capa de transporte de TCP/IP se encarga de transportar datos entre aplicaciones en dispositivos origen y destino.
Es esencial contar con una comprensión absoluta de la operación de la capa de transporte para comprender el manejo de datos en las redes modernas.
  Varias de las aplicaciones de red que se encuentran en la capa de aplicación TCP/IP resultan familiares incluso para los usuarios de red casuales.
HTTP, FTP y SMTP, por ejemplo, son siglas que los usuarios de navegadores de Web y los clientes de correo electrónico usan a menudo.
Describir las funciones de la capa de transporte TCP/IP.  Describir el control de flujo.  Describir los procesos que se usan para establecer una conexión entre sistemas pares o iguales.  Describir el uso de ventanas.  Describir los acuses de recibo.  Identificar y describir los protocolos de la capa de transporte.  Describir los formatos de encabezado TCP y UDP.  Describir los números de puerto TCP y UDP.  Hacer una lista de los protocolos principales de la capa de aplicación TCP/IP.  Suministrar una descripción breve acerca de las carácterísticas y operaciones de las aplicaciones TCP/IP conocidas.
Las tareas principales de la capa de transporte, la Capa 4 del modelo OSI, son transportar y regular el flujo de información desde el origen hasta el destino, de forma confiable y precisa.
El control de extremo a extremo y la confiabilidad se suministran a través de ventanas deslizantes, números de secuencia y acuses de recibo.
  Para comprender qué son la confiabilidad y el control de flujo, piense en alguien que estudia un idioma extranjero durante un año y luego visita el país en el que se habla ese idioma.
Mientras uno conversa, las palabras se deben repetir para que exista confiabilidad y se debe hablar lentamente de modo que el significado de la conversación no se pierda;
  La capa de transporte brinda servicios de transporte desde el host origen hasta el host destino.
Los protocolos de la capa de transporte segmentan y reensamblan los datos mandados por las aplicaciones de capas superiores en el mismo flujo de datos de capa de transporte.
Este flujo de datos de la capa de transporte brinda servicios de transporte de extremo a extremo. 
  El flujo de datos de la capa de transporte es una conexión lógica entre los puntos de terminación de una red.
Sus tareas principales son las de transportar y regular el flujo de información desde el origen hasta el destino de forma confiable y precisa.
La tarea principal de la Capa 4 es suministrar control de extremo a extremo usando ventanas deslizantes y brindar confiabilidad para los números de secuencia y los acuses de recibo.
Segmentación de los datos de las aplicaciones de capa superior Establecimiento de las operaciones de extremo a extremo Transporte de segmentos desde un host final a otro host final Control de flujo, suministrado por las ventanas deslizantes Confiabilidad, suministrada por los números de secuencia y los acuses de recibo
IP opera en la Capa 3 y es un servicio no orientado a conexión que proporciona una entrega de máximo esfuerzo a través de una red.
TCP opera en la Capa 4, y es un servicio orientado a conexión que suministra control de flujo y confiabilidad.
De forma conjunta, constituyen la base para un conjunto completo de protocolos que se denomina conjunto de protocolos TCP/IP.
A medida que la capa de transporte envía segmentos de datos, trata de garantizar que los datos no se pierdan.
Un host receptor que no puede procesar los datos tan rápidamente como llegan puede provocar una pérdida de datos.
El control de flujo evita el problema que se produce cuando un host que realiza la transmisión inunda los buffers del host destinatario.
TCP suministra el mecanismo de control de flujo al permitir que el host emisor y el receptor se comuniquen.
  Múltiples aplicaciones pueden compartir la misma conexión de transporte en el modelo de referencia OSI.
En otras palabras, esto significa que las distintas aplicaciones pueden enviar segmentos de datos con un sistema basado en el principio «el primero que llega es el primero que se sale».
  Una de las funciones de la capa de transporte es establecer una sesíón orientada a conexión entre dispositivos similares en la capa de aplicación.
Para que se inicie la transferencia de datos, tanto las aplicaciones emisoras como receptoras informan a sus respectivos sistemas operativos que se iniciará una conexión.
Los módulos de software de protocolo en los dos sistemas operativos se comunican entre sí enviando mensajes a través de la red a fin de verificar que la transferencia esté autorizada y que ambos lados estén preparados. 
  Después de que se haya establecido toda la sincronización, se establece la conexión y comienza la transferencia de datos.
Durante la transferencia, los dos dispositivos siguen comunicándose con su software de protocolo para verificar que estén recibiendo los datos correctamente. 
El segundo y el tercer intercambio de señales acusan recibo de la petición inicial de sincronización, y sincronizan los parámetros de conexión en sentido opuesto.
El segmento final del intercambio de señales es un acuse de recibo que se utiliza para informar al destino que ambos lados aceptan que se ha establecido una conexión.
Primero, una computadora de alta velocidad es capaz de generar tráfico más rápido que lo que la red tarda en transmitirla.  Segundo, si varias computadoras requieren mandar datagramnas simultáneamente a un mismo destino, éste puede experimentar un congestionamiento, aunque no se tenga un origen único.
  Cuando los datagramas llegan demasiado rápido como para que un host o gateway los procese, se almacenan temporalmente en la memoria.
Si el tráfico continúa, tarde o temprano el host o el gateway agota su memoria y debe descartar cualquier otro datagrama que llegue. 
  En vez de permitir que se pierda la información, el destino puede enviar un mensaje al origen indicando que no está listo («not ready»).
Este indicador, que funciona como una señal de «pare», indica al emisor que debe dejar de enviar datos.
  Al finalizar la transferencia de datos, el host emisor envía una señal que indica que la transmisión ha finalizado.
El host receptor ubicado en el extremo de la secuencia de datos acusa recibo del fin de la transmisión y la conexión se termina.
La sincronización se lleva a cabo a través de un intercambio de segmentos que establecen la conexión al transportar un bit de control denominado SYN (para la sincronización), y los ISN.
Esta solución requiere un mecanismo adecuado para elegir un número de secuencia inicial y un proceso levemente complicado para intercambiar los ISN. 
  La sincronización requiere que ambos lados envíen su propio número de secuencia inicial y que reciban una confirmación del intercambio en un acuse de recibo (ACK) de la otra parte.
El origen (A) inicializa una conexión mandando un paquete de SYN hacia el host destino (B) indicando su INS = X:
recibe el paquete, graba que el seq de A = X, responde con un ACK de X + 1, e indica que su INS = Y.
El ACK de X + 1 significa que el host B recibíó todos los octetos incluyendo X y ahora espera X + 1 siguiente:
recibe el paquete de B, y sabe que el seq de B = Y, y responde con un ACK de Y + 1, el cual termina el proceso de conexión:  A—>B ACK, seq de B = Y, ACK = Y + 1 
  El intercambio de señales de tres vías es necesario dado que los números de secuencia no están conectados a ningún reloj global de la red y los protocolos TCP pueden tener distintos mecanismos para elegir el ISN.
El receptor del primer SYN no tiene forma de saber si el segmento es un antiguo segmento demorado, a menos que recuerde el último número de secuencia utilizado en la conexión.
Los paquetes de datos se deben enviar al receptor en el mismo orden en los que se transmitieron para lograr una transferencia de datos confiable, orientada a conexión.
Los protocolos fallan si algún paquete se pierde, se daña, se duplica o se recibe en un orden distinto.
Una solución sencilla es que el receptor acuse recibo de cada paquete antes de que se envíe el siguiente paquete.
  Si el emisor debe esperar recibir un acuse de recibo luego de enviar cada paquete, el rendimiento es lento.
Por lo tanto, la mayoría de los protocolos confiables, orientados a conexión, permiten que haya más de un paquete pendiente en la red a la vez.
Como se dispone de tiempo después de que el emisor termina de transmitir el paquete de datos y antes de que el emisor termina de procesar cualquier acuse de recibo, este rango se utiliza para transmitir más datos.
El número de paquetes de datos que se permite que un emisor tenga pendientes sin haber recibido un acuse de recibo se denomina «ventana». 
Por «acuses de recibo expectante» se entiende que el número de acuse de recibo se refiere al siguiente paquete esperado.
Por «uso de ventanas» se entiende que el tamaño de la ventana se negocia de forma dinámica durante la sesíón TCP.
El uso de ventanas requiere que el dispositivo origen reciba un acuse de recibo desde el destino después de transmitir una cantidad determinada de datos.
Esta ventana especifica la cantidad de paquetes, comenzando por el número de acuse de recibo, que el proceso TCP receptor actualmente está preparado para recibir. 
  Con una ventana de tamaño 3, el origen puede enviar 3 bytes al destino.
Si el destino recibe los 3 bytes, le manda un ACK al origen, el cual ahora ya puede enviar otros 3 bytes.
El origen al no recibir el ACK, sabe que tiene que retransmitir los mismos tres bytes que ya había enviado, y la razón de transmisión se decrementa.
  Como se muestra en la Figura , el emisor envía tres paquetes antes de recibir un ACK (acuse de recibo).
Si el receptor puede manejar un tamaño de ventana de sólo dos paquetes, la ventana descarta el paquete tres, especifica tres como el siguiente paquete y especifica un nuevo tamaño de ventana de dos.
El emisor envía los dos siguientes paquetes, pero continúa especificando un tamaño de ventana de tres.
Esto significa que el emisor continúa esperando recibir un acuse de recibo de tres paquetes de parte del receptor.
El receptor responde solicitando el paquete cinco y especifica nuevamente un tamaño de ventana de dos.
La entrega confiable garantiza que una corriente de datos enviada desde un dispositivo sea entregada a través de un enlace de datos a otro dispositivo sin que se dupliquen o pierdan los datos.
El acuse de recibo positivo con retransmisión es una técnica que garantiza la entrega confiable de los datos.
El acuse de recibo positivo requiere que el receptor se comunique con el origen, enviando un mensaje de acuse de recibo una vez que recibe los datos.
El emisor mantiene un registro de cada paquete de datos (segmento TCP) que envía y del que espera recibir un acuse de recibo.
El emisor también inicia un temporizador cada vez que envía un segmento y retransmite el segmento si el temporizador expira antes de que llegue el acuse de recibo. 
  La figura muestra un emisor que transmite los paquetes de datos 1, 2 y 3.
El emisor, al recibir el acuse de recibo, envía los paquetes 4, 5 y 6.
Si el paquete 5 no llega a su destino el receptor acusa recibo con una petición para reenviar el paquete 5.
El emisor vuelve a enviar el paquete 5 y luego recibe el acuse de recibo antes de transmitir el paquete 7.
  TCP suministra secuenciamiento de segmentos con un acuse positivo de recibo de referencia de envío.
Los segmentos para los cuales no se acusa recibo dentro de un período determinado de tiempo darán como resultado una retransmisión.
El Protocolo para el control de la transmisión (TCP) es un protocolo de Capa 4 orientado a conexión que suministra una transmisión de datos full-dúplex confiable.
En un entorno orientado a conexión, se establece una conexión entre ambos extremos antes de que se pueda iniciar la transferencia de información.
TCP es responsable por la división de los mensajes en segmentos, reensamblándolos en la estación destino, reenviando cualquier mensaje que no se haya recibido y reensamblando mensajes a partir de los segmentos.
FTP (Protocolo de transferencia de archivos) HTTP (Protocolo de transferencia de hipertexto) SMTP (Protocolo simple de transferencia de correo) Telnet
Número de secuencia: El número que se usa para asegurar el secuenciamiento correcto de los datos entrantes.
Checksum (suma de comprobación): Suma de comprobación calculada a partir de los campos del encabezado y de los datos.
El UDP es un protocolo simple que intercambia datagramas sin acuse de recibo ni garantía de entrega.
  El UDP no usa ventanas ni acuses de recibo de modo que la confiabilidad, de ser necesario, se suministra a través de protocolos de la capa de aplicación.
TFTP (Protocolo trivial de transferencia de archivos) (SNMP) Protocolo simple de administración de red DHCP (Protocolo de configuración dinámica del host) DNS (Sistema de denominación de dominios)
Puerto origen: Número del puerto que realiza la llamada Puerto destino: Número del puerto al que se realiza la llamada Longitud: Número de bytes que se incluyen en el encabezado y los datos Checksum (suma de comprobación): Suma de comprobación calculada a partir de los campos del encabezado y de los datos.
Los números de puerto se utilizan para mantener un registro de las distintas conversaciones que atraviesan la red al mismo tiempo. 
Los programadores del software de aplicación han aceptado usar los números de puerto conocidos que emite la Agencia de Asignación de Números de Internet (IANA: Internet Assigned Numbers Authority).
Cualquier conversación dirigida a la aplicación FTP usa los números de puerto estándar 20 y 21.
El puerto 20 se usa para la parte de datos y el puerto 21 se usa para control.
A las conversaciones que no involucran ninguna aplicación que tenga un número de puerto bien conocido, se les asignan números de puerto que se seleccionan de forma aleatoria dentro de un rango específico por encima de 1023.
Los números superiores a 1024 son números de puerto asignados de forma dinámica.  Los números de puerto registrados son aquellos números que están registrados para aplicaciones específicas de proveedores.
  Los sistemas finales utilizan números de puerto para seleccionar la aplicación adecuada.
Cuando se diseñó el modelo TCP/IP, las capas de sesíón y de presentación del modelo OSI se agruparon en la capa de aplicación del modelo TCP.
Esto significa que los aspectos de representación, codificación y control de diálogo se administran en la capa de aplicación en lugar de hacerlo en las capas inferiores individuales, como sucede en el modelo OSI.
Este diseño garantiza que el modelo TCP/IP brinda la máxima flexibilidad, en la capa de aplicación, para los desarrolladores de software. 
  Los protocolos TCP/IP que admiten transferencia de archivos, correo electrónico y conexión remota probablemente sean los más familiares para los usuarios de la Internet.
Sistema de denominación de dominios (DNS) Protocolo de transferencia de archivos (FTP) Protocolo de transferencia de hipertexto (HTTP) Protocolo simple de transferencia de correo (SMTP) Protocolo simple de administración de red (SNMP) Telnet
Este esquema permite que el enrutamiento se base en clases de direcciones en lugar de basarse en direcciones individuales.
Es muy fácil olvidarse cuál es la dirección IP de un sitio en particular dado que no hay ningún elemento que permita asociar el contenido del sitio con su dirección.
  Se desarrolló un sistema de denominación de dominio para poder asociar el contenido del sitio con su dirección.
El Sistema de denominación de dominios (DNS: Domain Name System) es un sistema utilizado en Internet para convertir los nombres de los dominios y de sus nodos de red publicados abiertamente en direcciones IP.
Un dominio es un grupo de computadores asociados, ya sea por su ubicación geográfica o por el tipo de actividad comercial que comparten.
Por lo general, un nombre o una abreviatura que representan la dirección numérica de un sitio de Internet conforma el nombre de dominio.
FTP es un servicio confiable orientado a conexión que utiliza TCP para transferir archivos entre sistemas que admiten FTP.
El propósito principal de FTP es transferir archivos desde un computador hacia otro copiando y moviendo archivos desde los servidores hacia los clientes, y desde los clientes hacia los servidores.
Estos modos determinan la codificación que se usa para el archivo de datos que, en el modelo OSI, es una tarea de la capa de presentación.
Una vez que se ha completado toda la sesíón para copiar y trasladar archivos, el vínculo de comandos se cierra cuando el usuario se desconecta y finaliza la sesíón. 
TFTP se usa en el router para transferir archivos de configuración e imágenes de Cisco IOS y para transferir archivos entre sistemas que admiten TFTP.
TFTP puede leer o escribir archivos desde o hacia un servidor remoto pero no pued listar los directorios y no tiene manera de proporcionar autenticación de usuario.
Un navegador de Web es una aplicación cliente/servidor, lo que significa que requiere que haya tanto un componente de cliente como de servidor para que funcione.
Un navegador de Web presenta datos en formatos multimediales en las páginas Web que usan texto, gráficos, sonido y vídeo.
HTML dirige a un navegador de Web en una página Web en particular para crear el aspecto de la página de forma específica.
Además, HTML especifica la colocación del texto, los archivos y objetos que se deben transferir desde el servidor de Web al navegador de Web. 
  En el URL http://www.Cisco.Com/edu/, los caracteres «http://» le indican al navegador cuál es el protocolo que debe utilizar.
La segunda parte, «www», es el nombre de host o nombre de una máquina determinada con una dirección IP determinada.
La última parte identifica la carpeta específica que contiene la página web por defecto en el servidor.
El URL de la página de presentación ya se ha almacenado en el área de configuración del navegador de Web y se puede modificar en cualquier momento.
Desde la página de inicio, haga clic en uno de los hipervínculos de la página Web o escriba un URL en la barra de dirección del navegador.
El navegador de Web examina el protocolo para determinar si es necesario abrir otro programa y, a continuación, emplea DNS para determinar la dirección IP del servidor de Web.
Luego, las capas de transporte, de red, de enlace de datos y física trabajan de forma conjunta para iniciar la sesíón con el servidor Web.
  El servidor responde a la petición enviando todos los archivos de texto, audio, vídeo y de gráficos, como lo especifican las instrucciones de HTML, al cliente de Web.
El navegador del cliente reensambla todos los archivos para crear una vista de la página Web y luego termina la sesíón.
Si se hace clic en otra página ubicada en el mismo servidor o en un servidor distinto, el proceso vuelve a empezar. 
Los servidores de correo electrónico se comunican entre sí usando el Protocolo simple de transferencia de correo (SMTP) para enviar y recibir correo.
  Cuando un servidor de correo recibe un mensaje destinado a un cliente local, guarda ese mensaje y espera que el cliente recoja el correo.
Pueden usar programas que acceden directamente a los archivos del servidor de correo o pueden recoger el correo usando uno de los diversos protocolos de red.
Aunque los clientes de correo usan estos protocolos especiales para recoger el correo, casi siempre usan SMTP para enviar correo.
Dado que se usan dos protocolos distintos y, posiblemente, dos servidores distintos para enviar y recibir correo, es posible que los clientes de correo ejecuten una tarea y no la otra.
Por lo tanto, generalmente es una buena idea diagnosticar los problemas de envío de correo electrónico y los problemas de recepción del correo electrónico por separado. 
  Al controlar la configuración de un cliente de correo, se debe verificar que los parámetros de SMTP y POP o IMAP estén correctamente configurados.
Una buena manera de probar si un servidor de correo se puede alcanzar es hacer Telnet al puerto SMTP (25) o al puerto POP3 (110).
El siguiente formato de comandos se usa en la línea de comandos de Windows para probar la capacidad de alcanzar el servicio SMTP en el servidor de correo en la dirección IP 192.168.10.5: 
A menudo, los administradores no permiten que los hosts que no forman parte de su red usen el servidor SMTP para enviar o transmitir correo.
El Protocolo simple de administración de red (SNMP: Simple Network Management Protocol) es un protocolo de la capa de aplicación que facilita el intercambio de información de administración entre dispositivos de red.
El SNMP permite que los administradores de red administren el rendimiento de la red, detecten y solucionen los problemas de red y planifiquen el crecimiento de la red.
  Una red administrada con SNMP está compuesta por los tres componentes clave que se detallan a continuación:  
La gran mayoría de los recursos de procesamiento y de memoria que se requieren para la administración de red se suministra a través del NMS.
Deben existir uno o más NMS en cualquier red administrada.  Dispositivos administrados: Los dispositivos administrados son nodos de red que contienen un agente SNMP y que residen en un red administrada.
Los dispositivos administrados recopilan y guardan información de administración y ponen esta información a disposición de los NMS usando SNMP.
Los dispositivos administrados, a veces denominados elementos de red, pueden ser routers, servidores de acceso, switches y puentes, hubs, hosts del computador o impresoras.  Agentes: Los agentes son módulos del software de administración de red que residen en los dispositivos administrados.
Un agente tiene conocimiento local de la información de administración y convierte esa información a un formato compatible con SNMP. 
El software de cliente Telnet brinda la capacidad de conectarse a un host de Internet remoto que ejecuta una aplicación de servidor Telnet y, a continuación, ejecutar comandos desde la línea de comandos.
El servidor Telnet, que usa un software especial denominado daemon, se denomina host remoto. 
Generalmente, un cuadro de diálogo indica que se debe colocar un nombre de host y un tipo de terminal.
El tipo de terminal describe el tipo de emulación de terminal que el cliente Telnet debe ejecutar.
En lugar de ello, transmite las pulsaciones del teclado hacia el host remoto y dirige los resultados hacia el monitor del host local.
Las funciones de la capa de transporte de TCP/IP Control de flujo Los procesos que se usan para establecer una conexión entre sistemas pares o iguales Uso de ventanas Acuse de recibo Protocolos de la capa de transporte Formatos del encabezado TCP y UDP Números de puerto TCP y UDP Los procesos y protocolos principales de la capa de aplicación TCP/IP Servicios de denominación de dominio Protocolos de transferencia de archivos Protocolo simple de transferencia de correo Protocolo simple de administración de red Telnet
                            Módulo 1: Las WAN y los routers
Una red de área amplia (WAN) es una red de comunicaciones de datos que cubre una extensa área geográfica.
Esta comprensión sienta las bases para otros conocimientos y habilidades necesarios para configurar los routers y administrar las redes enrutadas.
Este módulo proporciona una detallada inspección de los componentes físicos internos y externos de un router.
Describir la función de un router en una WAN Identificar los componentes internos del router y describir sus funciones.
Una red de área amplia (WAN) es una red de comunicación de datos que cubre una extensa área geográfica como por ejemplo un estado, una provincia o un país.
A menudo, las WAN utilizan instalaciones de transmisión provistas por los proveedores de servicios de telecomunicaciones comunes, por ejemplo: las compañías telefónicas.
Usan conexiones seriales de diversos tipos para acceder al ancho de banda a través de áreas geográficas extensas. 
Por ejemplo, a diferencia de una LAN, que conecta estaciones de trabajo, periféricos, terminales y otros dispositivos dentro de un sólo edificio o en una área geográfica pequeña, una WAN realiza conexiones de datos a través de una amplia área geográfica.
Las compañías usan las WAN para conectar sus distintos establecimientos de modo que se pueda intercambiar información entre oficinas distantes. 
  Una WAN opera en la capa física y la capa de enlace de datos del modelo de referencia OSI.
Los routers ofrecen varios servicios, entre ellos el internetworking y los puertos de interfaz WAN  Los módems incluyen servicios de interfaz de grado de voz;
y los Adaptadores de terminal/Terminación de red 1 (TA/NT1) que realizan la interfaz con los servicios de Red digital de servicios integrados (RDSI)  Los servidores de comunicación concentran las comunicaciones de usuarios de acceso telefónico entrante y saliente. 
  Los protocolos de enlace de datos WAN describen cómo se transportan las tramas entre sistemas a través de un solo enlace de datos.
Incluyen protocolos diseñados para operar a través de servicios dedicados de conmutación de punto a punto, multipunto y multiacceso, como Frame Relay.
Sin embargo, los routers están diseñados para cumplir algunas funciones muy específicas que, en general, no realizan los computadores de escritorio.
Por ejemplo, los routers conectan y permiten la comunicación entre dos redes y determinan la mejor ruta para la transmisión de datos a través de las redes conectadas. 
  Al igual que los computadores, que necesitan sistemas operativos para ejecutar aplicaciones de software, los routers necesitan el software denominado Sistema operativo de internetworking (IOS) para ejecutar los archivos de configuración.
Estos archivos de configuración contienen las instrucciones y los parámetros que controlan el flujo del tráfico entrante y saliente de los routers.
El archivo de configuración especifica toda la información necesaria para una correcta configuración y uso de los protocolos enrutados y de enrutamiento seleccionados, o habilitados, en el router.
  Este curso mostrará cómo usar los comandos IOS para crear archivos de configuración a fin de que el router ejecute varias funciones de red esenciales.
El archivo de configuración del router puede parecer complejo a primera vista, pero, al terminar el curso, no lo parecerá tanto. 
  Los principales componentes internos del router son la memoria de acceso aleatorio (RAM), la memoria de acceso aleatorio no volátil (NVRAM), la memoria flash, la memoria de sólo lectura (ROM) y las interfaces.
Guarda la imagen del sistema operativo (IOS)  Permite que el software se actualice sin retirar ni reemplazar chips en el procesador.
Las dos principales funciones de un router son la selección de la mejor ruta para y la conmutación de las tramas hacia la interfaz correspondiente.
Los routers logran esto por medio de la creación de tablas de enrutamiento y el intercambio de información de red de estas tablas con otros routers. 
  Un administrador puede mantener las tablas de enrutamiento configurando las rutas estáticas, pero, por lo general, las tablas de enrutamiento se mantienen de forma dinámica a través del uso de un protocolo de enrutamiento que intercambia información de la topología (ruta) de red con otros routers. 
  Si, por ejemplo, un computador (x) necesita comunicarse con un computador (y) en un lugar del mundo y con otro computador (z) en otro lugar lejano, es necesario poder enrutar el flujo de la información y contar con rutas redundantes para asegurar la confiabilidad.
Muchas decisiones y tecnologías de diseño de red tienen su origen en el deseo de que los computadores x, y, z puedan comunicarse entre sí. 
Direccionamiento coherente de extremo a extremo Direcciones que representan topologías de red Selección de la mejor ruta •      Enrutamiento estático o dinámico.
Simplemente significa que las carácterísticas que distinguen una red WAN de una LAN, en general, se encuentran en la capa física y en la capa de enlace de datos.
En otras palabras, los estándares y protocolos que se usan en la capa 1 y capa 2 de las WAN son diferentes a aquellas que se utilizan en las mismas capas de las LAN. 
  La capa física WAN describe la interfaz entre el equipo terminal de datos (DTE) y el equipo de transmisión de datos (DCE).
El enrutamiento se produce en la capa de red, la capa 3, pero si la WAN opera en las capas 1 y 2, ¿un router es un dispositivo LAN o un dispositivo WAN?
Un router puede ser exclusivamente un dispositivo LAN, o puede ser exclusivamente un dispositivo WAN, pero también puede estar en la frontera entre una LAN y una WAN y ser un dispositivo LAN y WAN al mismo tiempo. 
  Una de las funciones de un router en una WAN es enrutar los paquetes en la capa 3, pero esta también es la función de un router en una LAN.
Cuando un router usa los protocolos y los estándares de la capa de enlace de datos y física asociados con las WAN, opera como dispositivo WAN.
Las funciones principales de un router en una WAN, por lo tanto, no yacen en el enrutamiento sino en proporcionar las conexiones con y entre los diversos estándares de enlace de datos y físico WAN.
Por ejemplo, un router puede tener una interfaz RDSI que usa encapsulamiento PPP y una interfaz serial que termina en una línea TI que usa encapsulamiento de Frame Relay.
El router debe ser capaz de pasar una corriente de bits desde un tipo de servicio, por ejemplo el RDSI, a otro, como el T1, y cambiar el encapsulamiento de enlace de datos de PPP a Frame Relay.
  Muchos de los detalles de los protocolos WAN de Capa 1 y Capa 2 se tratarán más adelante en este curso, pero algunos de los protocolos y estándares WAN clave aparecen en la siguiente lista de referencia. 
EIA/Tía -232 EIA/Tía -449 V.24 •   V.35 X.21 G.703  EIA-530  RDSI T1, T3, E1 y E3  xDSL SONET (OC-3, OC-12, OC-48, OC-192) 
  Los protocolos y estándares de la capa de enlace de datos WAN:  • Control de enlace de datos de alto nivel (HDLC)
Frame Relay Protocolo punto a punto (PPP) Control de enlace de datos síncrono (SDLC) Protocolo Internet de enlace serial (SLIP) X.25 ATM LAPB LAPD LAPF
  En el laboratorio de la academia, todas las redes estarán conectadas con cables Ethernet o seriales y los estudiantes podrán ver y tocar todo el equipo físicamente.
A diferencia de la configuración del laboratorio, en el mundo real, los cables seriales no están conectados de forma consecutiva.
Un administrador en Sidney tendría que conectarse al router de Nueva York a través de la nube WAN a fin de diagnosticar las fallas en el router de Nueva York. 
  En el laboratorio de la academia, la conexión consecutiva entre los cables DTE-DCE simula los dispositivos que conforman la nube WAN.
La conexión desde la interfaz s0/0 de un router a la interfaz s0/1 del otro router simula toda la nube de circuitos.
Aunque la arquitectura exacta de un router varía de modelo a modelo, esta sección presentará los principales componentes internos.
Estas funciones incluyen la inicialización del sistema, las funciones de enrutamiento y el control de la interfaz de red.
  RAM: La memoria de acceso aleatorio (RAM) se usa para la información de las tablas de enrutamiento, el caché de conmutación rápida, la configuración actual y las colas de paquetes.
Por lo general, la RAM se divide de forma lógica en memoria del procesador principal y memoria compartida de entrada/salida (I/O).
En general, la RAM es una memoria de acceso aleatorio dinámica (DRAM) y puede actualizarse agregando más Módulos de memoria en línea doble (DIMM). 
  Memoria flash: La memoria flash se utiliza para almacenar una imagen completa del software IOS de Cisco.
Agregando o reemplazando los Módulos de memoria en línea simples flash (SIMMs) o las tarjetas PCMCIA se puede actualizar la cantidad de memoria flash. 
  NVRAM: La memoria de acceso aleatorio no volátil (NVRAM) se utiliza para guardar la configuración de inicio.
En algunos dispositivos, la NVRAM se implementa utilizando distintas memorias de solo lectura programables, que se pueden borrar electrónicamente (EEPROM).
En otros dispositivos, se implementa en el mismo dispositivo de memoria flash desde donde se cargó el código de arranque.
  ROM: La memoria de solo lectura (ROM) se utiliza para almacenar de forma permanente el código de diagnóstico de inicio (Monitor de ROM).
Las tareas principales de la ROM son el diagnóstico del hardware durante el arranque del router y la carga del software IOS de Cisco desde la memoria flash a la RAM.
Algunos routers también tienen una versión más básica del IOS que puede usarse como fuente alternativa de arranque.
Los tres tipos de interfaces son la red de área local (LAN), la red de área amplia (WAN) y la Consola/AUX.
Estas interfaces tienen chips controladores que proporcionan la lógica necesaria para conectar el sistema a los medios.
  Los puertos de Consola/AUX son puertos seriales que se utilizan principalmente para la configuración inicial del router.
  Fuente de alimentación: La fuente de alimentación brinda la energía necesaria para operar los componentes internos.
Los routers de mayor tamaño pueden contar con varias fuentes de alimentación o fuentes modulares.
  Los componentes exactos que se utilizan y su ubicación en el router varían de modelo a modelo.
    Los tres tipos de conexiones básicos de un router son las interfaces LAN, las interfaces WAN y los puertos de administración.
En algunos tipos de interfaces WAN, se requiere de un dispositivo externo, como por ejemplo una CSU, para conectar el router a la conexión local del proveedor del servicio.
El puerto de administración proporciona una conexión basada en texto para la configuración y diagnóstico de fallas del router.
El computador debe ejecutar un programa de emulación de terminal para iniciar la sesíón basada en texto con el router.
Para prepararlo para la puesta en marcha y configuración iniciales, conecte una terminal ASCII RS-232 o un computador que emule una terminal ASCII terminal al puerto de consola del sistema.
  Una vez que la configuración inicial se ha introducido en el router a través del puerto de consola o auxiliar, entonces, se puede conectar el router a la red para realizar un diagnóstico de fallas o monitoreo. 
  Además, el router puede configurarse desde un lugar remoto haciendo telnet a una línea de terminal virtual o marcando el número de un módem conectado al puerto de consola o auxiliar del router.
El puerto de consola es un puerto de administración que se utiliza para proveer acceso al router fuera de banda.
  Para realizar la conexión al puerto de consola, se usa un cable transpuesto o de consola y un adaptador RJ45 a DB-9 para conectarse al PC.
Conecte el conector RJ-45 del cable transpuesto al puerto de consola del router.  Conecte el otro extremo del cable transpuesto al adaptador RJ-45 a DB-9.  Conecte el adaptador DB-9 hembra al PC. 
Una interfaz de router 10/100BaseTX router requiere cable de par trenzado no blindado Categoría 5 o superior (UTP) no obstante el tipo de router.
Si se conecta la interfaz incorrecta, es posible que se produzcan daños en el router o en otros dispositivos de networking.
Por ejemplo, las interfaces CSU/DSU integradas, AUX, consola, BRI RDSI, Ethernet y Token Ring usan el mismo conector de ocho pins, RJ-45, RJ-48 o RJ-49. 
  Para ayudar a diferenciar las conexiones del router, Cisco utiliza un esquema de códigos de color para identificar el uso del conector.
Una WAN realiza conexiones de datos a través de una amplia área geográfica usando distintos tipos de tecnologías.
Entre los tipos de conexión WAN se encuentra los de línea arrendada, de conmutación de circuitos y de conmutación de paquetes.
  Para cada tipo de servicio WAN, el equipo terminal del abonado (CPE), a menudo un router, es el equipo terminal de datos (DTE).
Este se conecta al proveedor del servicio por medio de un dispositivo del equipo de transmisión de datos (DCE), en general, un módem o una unidad de servicio de canal/unidad de servicio de datos (CSU/DSU).
Seleccionar el cable serial adecuado es tan sencillo como conocer las respuestas a las cuatro siguientes preguntas: 
Esto hace que la selección del cable serial que conecta el sistema de la red a los dispositivos seriales sea una parte fundamental de la configuración de una WAN. 
Conceptos de las redes WAN y LAN La función de un router en las redes WAN y LAN  Los protocolos de redes WAN La configuración del encapsulamiento La identificación y descripción de los componentes internos de un router Las carácterísticas físicas de un router Los puertos comunes de un router Cómo hacer una conexión en los puertos WAN, LAN y de consola de un router
La tecnología de Cisco se basa en el sistema operativo de internetworking de Cisco (IOS), que es el software que controla las funciones de enrutamiento y conmutación de los dispositivos de red.
Este módulo presenta una introducción de los fundamentos del IOS y provee ejercicios de familiarización con las carácterísticas resaltantes del IOS.
Todas las tareas de configuración de red, desde las más básicas hasta las más complejas, requieren un conocimiento sólido de los fundamentos básicos de la configuración del router.
Este módulo brinda las herramientas y las técnicas para la configuración básica del router, las cuales se usarán a lo largo de todo el curso. 
Describir las funciones del IOS Describir el funcionamiento básico del IOS Identificar algunas carácterísticas resaltantes del IOS Identificar los métodos para establecer una sesíón de interfaz de línea de comando (CLI) con el router.
Establecer una sesíón de HyperTerminal con un router Iniciar una sesíón con un router Usar la función de ayuda en la interfaz de línea de comando Diagnosticar errores de comando
Al igual que un computador, un router o switch no puede funcionar sin un sistema operativo.
Funciones básicas de enrutamiento y conmutación Acceso confiable y seguro a los recursos de la red Escalabilidad de la red
El software Cisco IOS usa una interfaz de línea de comando (CLI) como entorno de consola tradicional.
La consola usa una conexión serial directa, de baja velocidad, desde un computador o terminal a la conexión de consola del router.
Otra manera de iniciar una sesíón de CLI es mediante una conexión de acceso telefónico, con un módem o módem nulo conectado al puerto AUX del router.
Para establecer una sesíón Telnet al router, se debe configurar por lo menos una interfaz con una dirección IP, y configurar las conexiones y contraseñas de las sesiones de terminal virtual. 
Por ejemplo, para configurar una interfaz del router, el usuario debe ingresar al modo de configuración de interfaces.
Desde el modo de configuración de interfaces, todo cambio de configuración que se realice, tendrá efecto únicamente en esa interfaz en particular.
Al ingresar a cada uno de estos modos específicos, la petición de entrada del router cambia para señalar el modo de configuración en uso y sólo acepta los comandos que son adecuados para ese modo. 
El modo EXEC usuario permite sólo una cantidad limitada de comandos de monitoreo básicos.
Se puede configurar este modo para que solicite una contraseña del usuario antes de dar acceso.
Los comandos de configuración y administración requieren que el administrador de red se encuentre en el nivel EXEC privilegiado.
Para ingresar al modo de configuración global y a todos los demás modos específicos, es necesario encontrarse en el modo EXEC privilegiado.
  Para ingresar al nivel EXEC privilegiado desde el nivel EXEC usuario, ejecute el comando enable con la petición de entrada «>» en pantalla.
Una vez que se ha introducido la contraseña correcta, la petición de entrada del router cambia a «#», lo que indica que el usuario se encuentra ahora en el nivel EXEC privilegiado.
Si se introduce un signo de interrogación (?) en el nivel EXEC privilegiado, se mostrarán muchas opciones de comando, adicionales a las disponibles en el nivel EXEC usuario.
Cisco suministra imágenes de su IOS para muchos dispositivos, que abarcan una amplia gama de plataformas de productos de red. 
  Para adecuar óptimamente el software Cisco IOS que requieren dichas plataformas, Cisco trabaja en el desarrollo de muchas y variadas imágenes del software Cisco IOS.
Cada imagen provee una funcionalidad distinta, adecuada a las diversas plataformas de dispositivos, los recursos de memoria disponibles y las necesidades de los clientes. 
  Aunque existen diversas imágenes del IOS para cada modelo y funcionalidad de los dispositivos de Cisco, la estructura básica de los comandos de configuración es la misma.
Las destrezas de configuración y diagnóstico de fallas que se adquieren en cualquiera de los dispositivos, son útiles en una amplia gama de productos. 
  El esquema de denominación de las distintas versiones del software Cisco IOS consta de tres partes:  
El lugar donde se ejecuta la imagen y si la imagen ha sido comprimida en formato zip.
El Cisco Software Advisor es una herramienta interactiva que suministra la información más actualizada y permite la selección de opciones que satisfagan los requisitos de la red. 
  Una de las consideraciones principales al momento de seleccionar una nueva imagen del IOS, es la compatibilidad con las memorias flash y RAM del router.
En general, cuanto más reciente sea la versión y cuantas más carácterísticas brinde, mayor será la cantidad de memoria que se requiera.
Utilice el comando show versión del dispositivo de Cisco para verificar cuál es la imagen en uso y la memoria flash disponible.
Las páginas WWW de apoyo técnico de Cisco ofrecen herramientas para ayudar a determinar la cantidad de memoria flash y de memoria RAM que se requiere para cada imagen. 
  Antes de instalar una nueva imagen del software Cisco IOS en el router, verifique si el router cumple con los requisitos de memoria de dicha imagen.
  ……  cisco 1721 (68380) processor (revisión C) with 3584K/512K bytes of memory. 
  Esta línea indica la cantidad de memoria principal y compartida instalada en el router.
Los requisitos de memoria toman esto en cuenta, de modo que ambos números deben sumarse para conocer la cantidad de DRAM instalada en el router. 
  Para conocer la cantidad de memoria flash, ejecute el comando show flash:  GAD#show flash 
  Los dispositivos que usan el Cisco IOS tienen tres entornos o modos de operación distintos:  
  Los comandos de inicio del router generalmente se cargan en la RAM y ellos activan uno de estos entornos de operación.
El registro de configuración puede ser utilizado por el administrador del sistema para controlar el modo de inicio por defecto del router.
  El monitor de la ROM ejecuta el proceso de bootstrap y provee funcionalidad y diagnósticos de bajo nivel.
Sólo se puede ingresar a él mediante una conexión física directa en el puerto de la consola.
  Cuando el router opera en modo ROM de arranque, sólo está disponible un subconjunto limitado de la funcionalidad del Cisco IOS.
La ROM de arranque permite las operaciones de escritura en la memoria flash y se usa principalmente para reemplazar la imagen del software Cisco IOS que se guarda en la memoria flash.
La imagen del software Cisco IOS se puede modificar en la ROM de arranque mediante el comando copy tftp flash, el cual copia una imagen del Cisco IOS almacenada en un servidor TFTP, en la memoria flash del router. 
  El funcionamiento normal de un router requiere el uso de la imagen completa del software Cisco IOS tal como se guarda en la memoria flash.
Algunas imágenes del IOS se guardan en la memoria flash en un formato comprimido y se deben expandir al cargarse en la RAM. 
  Para ver la imagen y la versión del IOS en uso, use el comando show versión, el cual muestra también el registro de configuración.
El comando show flash se usa para verificar si el sistema tiene la memoria suficiente para cargar una nueva imagen del software Cisco IOS.
Un router se activa con la ejecución de tres elementos: el bootstrap, el sistema operativo y un archivo de configuración.
Si el router no puede encontrar un archivo de configuración, entra en el modo de configuración inicial (setup).
Una vez que el modo de configuración inicial se ha completado, se puede guardar una copia de respaldo del archivo de configuración en la RAM no volátil (NVRAM). 
  El objetivo de las rutinas de inicio del software Cisco IOS es iniciar la operación del router.
Asegurarse de que el hardware del router esté en perfectas condiciones y funcional.  Encontrar y cargar el software Cisco IOS.  Encontrar y aplicar el archivo de configuración inicial o entrar al modo de configuración inicial (setup). 
Estos diagnósticos verifican la operación básica de la CPU, la memoria y los puertos de interfaz de red.
  Después de la POST, se producen los siguientes eventos a medida que se inicializa el router:  
Un bootstrap es un conjunto de instrucciones sencillo que comprueba el hardware e inicializa el IOS para el funcionamiento.
Si el registro de arranque indica que se debe cargar de una flash, o de la red, los comandos del sistema de arranque en el archivo de configuración señalán el nombre y la ubicación exacta de la imagen.
Cuando el IOS está cargado y funcionando, se muestra en pantalla del terminal de consola una lista de los componentes de hardware y software disponibles.
  Paso 4 El archivo de configuración guardado en la NVRAM se carga en la memoria principal y se ejecuta línea por línea.
Los comandos de configuración inician los procesos de enrutamiento, proporcionan las direcciones para las interfaces y definen otras carácterísticas operativas del router.
  Paso 5 Si no existe ningún archivo de configuración válido en la NVRAM, el sistema operativo busca un servidor TFTP disponible.
  El modo de configuración inicial no debe ser el utilizado para configurar funciones complejas de protocolo en el router.
El propósito del modo de configuración inicial es permitir que el administrador instale una configuración mínima en un router que no pueda ubicar una configuración de otra fuente.
  En el modo de configuración inicial, las respuestas por defecto aparecen entre corchetes [ ] a continuación de la pregunta.
Al interrumpir la configuración inicial mediante Control-C, todas las interfaces quedan administrativamente inhabilitadas (shutdown). 
  Una vez que se ha completado el proceso de configuración en modo de configuración inicial, se muestran las siguientes opciones: 
(Regresar a la petición de entrada de comandos del IOS sin guardar esta configuración).  Return back to the setup without saving this config.
(Regresar a la configuración inicial y no guardar esta configuración).  Save this configuration to nvram and exit.
Si un LED está apagado cuando la interfaz está activa y la interfaz está conectada correctamente, puede ser señal de un problema.
Las pantallas que se muestran en este gráfico son sólo de referencia y podrían no reflejar exactamente lo que la pantalla muestra en la consola. 
  En la Figura , la frase «NVRAM invalid, possibly due to write erase» (NVRAM no válida, posiblemente por haber sido borrada), le indica al usuario que este router todavía no se ha configurado o que la NVRAM ha sido borrada.
El router se debe configurar, el archivo de configuración se debe guardar en la NVRAM y luego se le debe configurar para que use el archivo de configuración en la NVRAM.
El valor preconfigurado de fábrica del registro de inicio es 0x2102, el cual indica que el router debe intentar cargar una imagen del software Cisco IOS desde la memoria flash.
  En la Figura , el usuario puede determinar la versión del bootstrap y la versión del IOS en uso en el router, así como también el modelo, el procesador y la cantidad de memoria que contiene el router.
El número de interfaces Los tipos de interfaces La cantidad de NVRAM La cantidad de memoria flash
  En la Figura , el usuario se le presenta la opción de ingresar al modo de configuración inicial.
Recuerde que el propósito primordial del modo de configuración inicial es permitir que el administrador instale una configuración mínima en un router que no pueda ubicar una configuración de otra fuente.
Para conectar un PC que ejecuta un software de emulación de terminal al puerto de consola, use un cable transpuesto RJ-45 a RJ-45 con un adaptador hembra RJ-45 a DB-9. 
  Los parámetros por defecto para el puerto de consola son 9600 baudios, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo en hardware.
  Paso 2 Configure la terminal o el software de emulación de terminal del PC para 9600 baudios, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo en hardware. 
  La Figura muestra una lista de los sistemas operativos y los softwares de emulación de terminal que se pueden utilizar.
Para configurar los routers Cisco, se debe ingresar a la interfaz de usuario del router mediante una terminal o un acceso remoto.
En este modo no se permiten cambios en la configuración del router.  Modo EXEC privilegiado: Las tareas típicas incluyen cambios a la configuración del router. 
  La petición de entrada de modo EXEC usuario se muestra al iniciar la sesíón con el router.
Los comandos disponibles en este nivel de usuario son un subconjunto de los comandos disponibles en el nivel EXEC privilegiado.
En su mayor parte, estos comandos permiten que el usuario vea la información, sin cambiar la configuración del router. 
  Para acceder al conjunto completo de comandos, se debe ingresar al modo EXEC privilegiado.
En la petición de entrada password: (contraseña), escriba la contraseña que se ha establecido con el comando enable secret.
Se puede usar dos comandos para establecer una contraseña de acceso al modo EXEC privilegiado: enable password y enable secret.
Una vez que se han completado los pasos para iniciar la sesíón, la petición de entrada cambia a «#», para señalar que se ha ingresado al modo EXEC privilegiado.
Para regresar al modo EXEC usuario desde el modo EXEC privilegiado, se pueden ejecutar los comandos disable o exit.
Control-Z también se puede usar para regresar directamente al modo EXEC privilegiado desde cualquier modo de configuración global secundario.
Al escribir un signo de interrogación (?) en la petición de entrada del modo usuario o del modo privilegiado, aparece una útil lista de los comandos disponibles.
La petición de entrada «–More-» que aparece en la parte inferior de la pantalla indica que hay más pantallas disponibles.
Siempre que aparezca una petición de entrada «–More–«, la siguiente pantalla disponible se puede visualizar presionando la barra espaciadora.
(signo de interrogación) cuando se muestra la petición de entrada del modo EXEC privilegiado, la pantalla mostrará una lista de comandos más larga que la se obtiene cuando se muestra la petición de entrada del modo EXEC usuario.
  El resultado que aparece en pantalla varía, según el nivel del software Cisco IOS y la configuración del router. 
  Si un usuario desea configurar el reloj del router pero no sabe cuál es el comando adecuado, puede usar la función de ayuda para conocer cuál es el comando correcto.
  Paso 3 Introduzca la hora actual en horas, minutos y segundos, tal como se muestra en la Figura .
  Paso 5 El acento circunflejo (^) y la respuesta de la ayuda indican un error.
Para reingresar con la sintaxis correcta, vuelva a introducir el comando hasta el lugar donde se encuentra el acento circunflejo, y escriba luego un signo de pregunta (?). 
  Paso 6 Introduzca el año, siguiendo la sintaxis correcta, y presione Retorno o Intro para ejecutar el comando. 
La interfaz de usuario incluye un modo de edición ampliado que suministra un conjunto de funciones de teclas de edición que permiten que el usuario edite una línea de comando a medida que se la escribe.
Las secuencias clave que se indican en la Figura se pueden usar para mover el cursor sobre la línea de comando a efectos de realizar correcciones o cambios.
Aunque el modo de edición ampliado se habilita automáticamente en la versión actual del software, se puede desactivar si interfiere con la interacción de guiones escritos.
Para desactivar el modo de edición ampliado, escriba terminal no editing en la petición de entrada del modo EXEC privilegiado. 
  El conjunto de comandos de edición incluye una función de desplazamiento horizontal para comandos que ocupen más de una línea en la pantalla.
Cuando el cursor alcanza el margen derecho, la línea de comando se desplaza diez espacios hacia la izquierda.
Los primeros diez caracteres de la línea se ocultan, pero el usuario puede desplazar la línea hacia atrás para verificar la sintaxis al principio del comando.
Para desplazarse hacia atrás, presione Control-B o la tecla flecha-izquierda reiteradamente hasta llegar al principio del comando.
Cuando el cursor alcanza por primera vez el final de una línea, la línea se desplaza diez espacios hacia la izquierda.
Cada vez que el cursor alcanza el final de la línea, la línea vuelve a desplazarse diez espacios hacia la izquierda. 
  El resultado que aparece en pantalla varía, según el nivel del software Cisco IOS y la configuración del router. 
Establecer el tamaño del buffer de historial de comandos Reintroducir comandos Desactivar la función de historial de comandos
  El historial de comandos se activa por defecto y el sistema recuerda diez líneas de comandos en el buffer del historial.
Para cambiar la cantidad de líneas de comando que el sistema recuerda durante una sesíón de terminal, utilice el comando terminal history size (tamaño del historial de terminal) o el comando history size.
  Para reintroducir comandos que se encuentran en el buffer del historial, a partir del comando más reciente, presione Control-P o la tecla flecha-arriba repetidas veces para reintroducir comandos sucesivamente más antiguos.
Para regresar a los comandos más recientes en el buffer del historial, luego de introducir nuevamente los comandos con Control-P o la tecla flecha-arriba, presione Control-N o la tecla flecha-abajo repetidas veces para reintroducir comandos sucesivamente más recientes. 
  Para mayor rapidez al escribir comandos, se puede escribir los caracteres exclusivos del comando.
Si las letras distintivas identifican el comando, la tecla Tab simplemente señala que el router ha comprendido el comando específico que se desea introducir. 
Se puede copiar y luego pegar o insertar una cadena anterior de comandos como el comando actual.
Si un comando es escrito de forma incorrecta, la interfaz del usuario muestra el error mediante un indicador de error (^).
El símbolo «^»aparece en el punto de la cadena del comando donde se introdujo el comando, palabra clave o argumento incorrecto.
El indicador de ubicación del error y el sistema de ayuda interactiva permiten al usuario localizar y corregir fácilmente los errores de sintaxis.
  El acento circunflejo (^) y la respuesta de ayuda indican que se ha producido un error en 99.
Para que se muestre la sintaxis correcta, escriba el comando hasta el punto donde se ha producido el error y luego escriba un signo de interrogación (?): 
  Si una línea de comando es escrita de forma incorrecta y se presiona la tecla Intro, se puede presionar la tecla flecha-arriba para reescribir el último comando.
El comando show versión muestra información acerca de la versión del software Cisco IOS en uso en el router.
Versión e información descriptiva del IOS Versión de la ROM de bootstrap Versión de la ROM de arranque Tiempo de actividad del router Último método de reinicio Ubicación y nombre del archivo de imagen del sistema Plataforma del router Valores del registro de configuración
  Use el comando show versión para identificar la imagen del IOS del router y la fuente de arranque.
Las funciones del IOS El funcionamiento básico del IOS La identificación de las diversas funciones del IOS La identificación de los métodos para establecer una sesíón CLI con el router Las diferencias entre los modos EXEC usuario y EXEC privilegiado Cómo establecer una sesíón de HyperTerminal Iniciar una sesíón en el router Uso de la función de ayuda en la interfaz de línea de comando Uso de los comandos de edición ampliados Uso del historial de comandos Diagnóstico de errores de línea de comandos Uso del comando show versión 
Configurar un router para que realice las complejas tareas de redes y telecomunicaciones puede resultar un desafío.
Si se ejercitan estos procedimientos y los pasos para cambiar de un modo a otro, las configuraciones más complejas no serán tan abrumadoras.
Este módulo introduce los modos básicos de configuración del router y brinda oportunidades para practicar configuraciones sencillas. 
  La meta de todo administrador de red debe ser la de disponer de configuraciones claras y fáciles de entender, y que las mismas sean respaldadas periódicamente.
El Cisco IOS brinda al administrador una gama de herramientas que permiten agregar comentarios al archivo de configuración, para efectos de documentación.
De la misma manera que un programador competente documenta cada paso de su programación, un administrador de red debe documentar cuanta información le sea posible, en caso de que otra persona deba asumir la responsabilidad de la red. 
Dar nombre a un router Fijar contraseñas Examinar los comandos show Configurar una interfaz serial Configurar una interfaz Ethernet Realizar cambios a un router Guardar los cambios realizados a un router Configurar una descripción de interfaz Configurar un mensaje del día Configurar tablas de host Comprender la importancia de hacer copias de respaldo y de documentar
Todos los cambios de configuración hechos mediante la interfaz de línea de comando (CLI) en un router Cisco, se realizan desde el modo de configuración global.
Se ingresa a otros modos de operación más específicos según sea el cambio de configuración requerido, pero dichos modos específicos son todos subconjuntos del modo de configuración global.
Los comandos del modo de configuración global se utilizan en un router para ejecutar comandos de configuración que afectan al sistema como un todo.
El siguiente comando lleva al router al modo de configuración global y permite ingresar comandos desde la terminal:
La petición de entrada cambia para indicar que el router se encuentra ahora en modo de configuración global. 
  El modo de configuración global, a menudo abreviado como ‘global config’, es el modo de configuración principal.
Modo de interfaz Modo de línea Modo router Modo de subinterfaz Modo de controlador
Al ingresar a estos modos específicos, la petición de entrada del router cambia para señalar el modo de configuración en uso.
Todo cambio de configuración que se realice, tendrá efecto únicamente en las interfaces o procesos relativos a ese modo particular. 
  Al escribir exit desde alguno de estos modos de configuración específicos, el router regresa al modo de configuración global.
Al presionar Control-Z, se sale por completo del modo de configuración y el router vuelve al modo EXEC privilegiado.
  Al presionar la tecla Enter, la petición de entrada ya no mostrará el nombre de host por defecto (‘Router’), sino el nombre de host que se acaba de configurar, ‘Tokio’, en el ejemplo anterior. 
Las contraseñas también se usan para controlar el acceso al modo EXEC privilegiado, a fin de que sólo los usuarios autorizados puedan hacer cambios al archivo de configuración. 
      Aunque es opcional, se recomienda configurar una contraseña para la línea de comando.
  Se debe fijar contraseñas en una o más de las líneas de terminales virtuales (VTY), para habilitar el acceso remoto de usuarios al router mediante Telnet.
Normalmente, los routers Cisco permiten cinco líneas de VTY identificadas del 0 al 4, aunque según el hardware particular, puede haber modalidades diferentes para las conexiones de VTY.
Se suele usar la misma contraseña para todas las líneas, pero a veces se reserva una línea mediante una contraseña exclusiva, para que sea posible el acceso al router aunque haya demanda de más de cuatro conexiones.
  Los comandos enable password y enable secret se utilizan para restringir el acceso al modo EXEC privilegiado.
El comando enable password se utiliza sólo si no se ha configurado previamente enable secret.
Se recomienda habilitar siempre enable secret, ya que a diferencia de enable password, la contraseña estará siempre cifrada.
  En ocasiones es deseable evitar que las contraseñas se muestren en texto sin cifrar al ejecutar los comandos show running-config o show startup-config.
  El comando service password-encryption aplica un cifrado débil a todas las contraseñas sin cifrar.
Los numerosos comandos show se pueden utilizar para examinar el contenido de los archivos en el router y para diagnosticar fallas.
Para ver las estadísticas de una interfaz específica, ejecute el comando show interfaces seguido de la interfaz específica y el número de puerto.
Por ejemplo:  Router#show interfaces serial 0/1  show controllers serial: muestra información específica de la interface de hardware.
Por ejemplo:  Router#show controllers serial 0/1  show clock: Muestra la hora fijada en el router show hosts: Muestra la lista en caché de los nombres de host y sus direcciones show users: Muestra todos los usuarios conectados al router show history: Muestra un historial de los comandos ingresados show flash: Muestra información acerca de la memoria flash y cuáles archivos IOS se encuentran almacenados allí  show versión: Despliega la información acerca del routery de la imagen de IOS que esté corriendo en al RAM.
Este comando también muestra el valor del registro de configuración del router show ARP: Muestra la tabla ARP del router show protocols: Muestra el estado global y por interface de cualquier protocolo de capa 3 que haya sido configurado show startup-configuration: Muestra el archivo de configuración almacenado en la NVRAM show running-configuration: Muestra el contenido del archivo de configuración activo o la configuración para una interfaz específica o información de un map class
Ingrese al modo de configuración global Ingrese al modo de configuración de interfaz Especifique la dirección de la interfaz y la máscara de subred Si el cable de conexión es DCE, fije la velocidad de sincronización.
      A cada interfaz serial activa se le debe asignar una dirección de IP y la correspondiente máscara de subred, si se requiere que la interfaz enrute paquetes de IP.
  En los enlaces seriales interconectados directamente, como en un entorno de laboratorio, un extremo debe considerarse como un DCE y debe proporcionar la señal de sincronización.
Las velocidades de sincronización disponibles (en bits por segundo) son: 1200, 2400, 9600, 19200, 38400, 56000, 64000, 72000, 125000, 148000, 500000, 800000, 1000000, 1300000, 2000000, ó 4000000.
Cuando resulte necesario inhabilitar administrativamente una interfaz a efectos de mantenimiento o de diagnóstico de fallas, se utiliza el comando shutdown para desactivarla. 
Si es necesario modificar una configuración, se debe ir al modo de operación apropiado e ingresar el comando correspondiente.
Por ejemplo, para activar una interfaz, ingrese al modo de configuración global, luego al modo de configuración de interfaces, y ejecute el comando no shutdown. 
Si las variables que se muestran no son las esperadas, es posible corregir el entorno efectuando uno o más de los siguientes pasos: 
Ejecute la forma no de un comando de configuración.  Vuelva a cargar el sistema para regresar a la configuración original de configuración almacenada en la NVRAM.  Copie un archivo de configuración desde un servidor TFTP.  Elimine el archivo de configuración de inicio con erase startup-config, luego reinicie el router e ingrese al modo de configuración inicial (setup). 
  Para guardar las variables en la configuración de inicio en NVRAM, ejecute el siguiente comando al estar en EXEC privilegiado: 
  A cada interfaz Ethernet activa se le debe asignar una dirección de IP y la correspondiente máscara de subred, si se requiere que la interfaz enrute paquetes de IP. 
Ingrese al modo de configuración global Ingrese al modo de configuración de interfaz Especifique la dirección de la interfaz y la máscara de subred Active la interfaz
Cuando resulte necesario inhabilitar administrativamente una interfaz a efectos de mantenimiento o diagnóstico de fallas, se utiliza el comando shutdown para desactivarla.
Eso permite controlar el número de archivos de configuración que se deben mantener, y también el mecanismo y el lugar donde se almacenan.
  Un estándar es un conjunto de reglas o procedimientos, de uso generalizado o de carácter oficial.
Si una organización carece de estándares, una interrupción del servicio podría causar el caos en la red. 
  Para poder administrar una red, es necesario disponer de estándares de apoyo técnico centralizado.
Se debe resolver adecuadamente asuntos como configuraciones, seguridad, rendimiento y otros, para que la red funcione sin tropiezos.
La creación de estándares para la solidez de una red contribuye a reducir su complejidad, las paradas no planificadas, y el riesgo ante sucesos que pudieran tener un impacto negativo sobre su rendimiento.
La descripción de las interfaces se emplea para indicar información importante, como puede ser la relativa a un router distante, el número de un circuito, o un segmento de red específico.
La descripción de la interfaz puede ayudar a un usuario de red a recordar información específica de la interfaz, como por ejemplo, a cuál red atiende dicha interfaz.
Aunque la descripción se encuentra en los archivos de configuración en la memoria del router, no tiene efectos sobre su operación.
La descripción puede incluir el propósito y la ubicación de la interfaz, otros dispositivos o localidades geográficas conectadas a la interfaz, y también identificadores de circuitos.
Las descripciones permiten que el personal de apoyo comprenda mejor el alcance de los problemas relacionados con una interfaz, y permite resolver los problemas con mayor celeridad. 
  Ingrese al modo de interfaz específica (por ejemplo interfaz Ethernet 0) interface ethernet 0.
  Salga del modo de interfaz y regrese al modo EXEC privilegiado mediante el comando ctrl-z.
El mensaje de inicio de sesíón se muestra al usuario al momento de hacer login en el router, y se usa para comunicar información de interés a todos los usuarios de la red, tales como avisos de próximas interrupciones del sistema. 
  Un mensaje de inicio de sesíón debe advertir que sólo los usuarios autorizados deben intentar el acceso.
Use el comando banner motd, seguido de un espacio y un delimitador, como por ejemplo el signo numeral (#).
Ingrese al modo de configuración global, mediante el comando configure terminal.  Escriba el comando banner motd # Escriba aquí el mensaje del día #.  Guarde los cambios mediante el comando copy running-config startup-config. 
La resolución de nombres de host es el mecanismo que utiliza un computador para relacionar un nombre de host con una dirección de IP. 
  Para poder usar nombres de host para comunicarse con otros dispositivos de IP, los dispositivos de red, como los routers, deben poder vincular los nombres de host con las direcciones de IP.
El software Cisco IOS mantiene un archivo de vínculos entre los nombres de host y las direcciones de IP, el cual es utilizado por los comandos EXEC.
  Los nombres de host, a diferencia de los nombres DNS, sólo tienen vigencia en el router en el que están configurados.
La tabla de host permite que el administrador de red pueda escribir tanto el nombre del host, como puede ser Auckland, como la dirección de IP, para conectarse por Telnet a un host remoto.
Ejecute el comando ip host seguido del nombre de destino y todas las direcciones de IP con las que se puede llegar al dispositivo.
Para llegar al host, use un comando telnet o ping con el nombre del router o una dirección de IP que esté vinculada al nombre del router. 
Ingrese al modo de configuración global en el router.  Ejecute el comando ip host seguido del nombre del router y todas las direcciones de IP asociadas con las interfaces en cada router.  Repita el proceso, hasta que todos los routers de la red hayan sido configurados.  Guarde la configuración en la NVRAM. 
Confeccionar una lista y comparar los archivos de configuración de los dispositivos activos Almacenar los archivos de configuración en servidores de red Instalar y actualizar software
  Se deben guardar copias de respaldo de los archivos de configuración, en caso de que surja algún problema.
Dichas copias se pueden guardarse en un servidor de red, un un servidor TFTP, o en un disco que se conserve en un lugar seguro.
Se puede usar el comando copy running-config tftp, como se muestra en la Figura , para almacenar la configuración en uso del router en un servidor TFTP.
  Se puede usar un archivo de configuración ubicado en alguno de los servidores para configurar un router.
Ingrese al modo de configuración, mediante el comando copy tftp running-config, como se muestra en la Figura .  Con la petición de entrada del sistema en pantalla, seleccione un archivo de configuración de host o de red.
El archivo de configuración de red contiene comandos relacionados con todos los routers y servidores de terminales de la red.
Con la petición de entrada en pantalla, introduzca la dirección de IP opcional del host remoto en el cual se encuentra el archivo de configuración.
En la línea de comandos del sistema, escriba la dirección IP del host remoto donde se encuentra el servidor TFTP.
Con la petición de entrada en pantalla, introduzca el nombre del archivo de configuración o acepte el nombre preconfigurado.
Los nombres preconfigurados de los archivos son hostname-config para el archivo de host y networkconfig para el archivo de configuración de red.
En el entorno DOS, los nombres están limitados a ocho caracteres, más una extensión de tres caracteres (por ejemplo, router.Cfg).
Para ello se efectúa una captura de texto en el router, para luego guardar dicho texto en el disco o en el disco duro.
Cuando sea necesario copiar el archivo nuevamente al router, use las funciones estándar de edición de un programa emulador de terminal para pegar (paste) el archivo de comandos en el router.
Modo EXEC usuario Modo EXEC privilegiado Modo de configuración global Otros modos de configuración
Fijar el nombre de host  Fijar contraseñas Configurar interfaces Modificar configuraciones Mostrar configuraciones
Los estándares de configuración son elementos fundamentales para el éxito de toda organización que mantenga una red eficiente.  Las descripciones de las interfaces pueden incluir información que ayude a los administradores a entender y a diagnosticar problemas en sus redes.  Los mensajes de inicio de sesíón y los mensajes del día proporcionan información a los usuarios cuando se conectan al router.  La resolución de nombres de host traduce nombres a direcciones de IP, lo que permite al router convertir rápidamente dichos nombres en direcciones.  Es en extremo importante hacer copias de respaldo y también documentar las configuraciones, para un funcionamiento sin tropiezos de la red.
A veces los administradores de red se enfrentan a situaciones en las que la documentación de la red se encuentra incompleta o es imprecisa.
El Protocolo de descubrimiento de Cisco (CDP) puede resultar una herramienta útil para estas situaciones ya que ayuda a crear un panorama de la red.
Aunque el CDP solamente mostrará información sobre los vecinos conectados de forma directa, este constituye una herramienta de gran utilidad. 
  En muchos casos, después de configurar un router por primera vez, el administrador de red descubre que resulta difícil o inconveniente conectarse directamente al router para efectuar cambios de configuración u otras tareas.
Telnet es una aplicación basada en TCP/IP que permite la conexión remota con la interfaz de línea de comando del router (CLI) con el propósito de efectuar tareas de configuración, monitoreo y diagnóstico de fallas.
Activar y desactivar el CDP Utilizar el comando show cdp neighbors  Determinar cuáles dispositivos vecinos están conectados a cuáles interfaces locales Usar el CDP para recaudar información de las direcciones de red de los dispositivos vecinos Establecer una conexión Telnet Verificar una conexión Telnet Desconectarse de la sesíón Telnet Suspender una sesíón Telnet Realizar pruebas de conectividad alternativas Diagnosticar las fallas de las conexiones de terminales remotas
El Protocolo de descubrimiento de Cisco (CDP) es un protocolo de Capa 2 que conecta los medios físicos inferiores con los protocolos de red de las capas superiores, como lo indica la Figura .
El CDP se utiliza para obtener información sobre los dispositivos vecinos, tal como los tipos de dispositivos conectados, las interfaces de router a las que están conectados, las interfaces empleadas para realizar las conexiones, y los números de modelo de los dispositivos.
Cuando arranca un dispositivo Cisco, el CDP se inicia de forma automática y permite que el dispositivo detecte los dispositivos vecinos que también están ejecutando el CDP.
Este protocolo de Cisco se ejecuta en la capa de enlace de datos y permite que dos sistemas obtengan información entre sí, incluso si estos sistemas están utilizando protocolos de capa de red diferentes. 
  Cada dispositivo configurado para el CDP envía mensajes periódicos, conocidos como publicaciones, a varios routers.
Cada dispositivo publica al menos una dirección en la cual puede recibir mensajes del Protocolo de administración de red simple (SNMP).
Las publicaciones también contienen información sobre el «tiempo de existencia» o tiempo de espera, que indica la cantidad de tiempo que los dispositivos de recepción deben mantener la información CDP antes de descartarla.
Además, cada dispositivo escucha los mensajes periódicos CDP enviados por otros con el fin de obtener información de los dispositivos vecinos.
El CDP se usa básicamente para detectar todos los dispositivos Cisco que se encuentran conectados directamente a un dispositivo local.
El administrador de red puede mostrar los resultados de este intercambio de información CDP en una consola conectada al router local. 
  El administrador de red utiliza el comando show cdp neighbors para mostrar la información sobre las redes conectadas de forma directa al router.
CDP provee información sobre cada dispositivo vecino CDP al transmitir los valores de longitud y tipo (TLVs), que constan de bloques de información incorporados en las publicaciones CDP. 
  Los TLV del dispositivo que muestra el comando show cdp neighbors incluyen los siguientes: 
Identificador del dispositivo Interfaz local Tiempo de espera Capacidad Plataforma Identificador del puerto
  Observe que el router inferior de la figura no está conectado directamente al router de la consola del administrador.
Para obtener información CDP acerca de este dispositivo, el administrador necesitaría iniciar una sesíón Telnet a un router conectado directamente al dispositivo.
cdp run  cdp enable  show cdp traffic  clear cdp counters   show cdp   show cdp entry {*|nombre-dispositivo[*][protocolo |
versión]}   show cdp interface [número de tipo]      show cdp neighbors [número de tipo] [detalle]             
  El comando cdp run se utiliza para activar el CDP de forma global en el router.
En la versión 10.3 o superior del Cisco IOS, el CDP se activa de manera automática en todas las interfaces soportadas para enviar y recibir información de CDP.
Aunque una trama CDP puede ser pequeña, puede recuperar una gran cantidad de información útil sobre los dispositivos Cisco vecinos conectados. 
      Esta información puede utilizarse para crear un mapa de red de los dispositivos conectados.
Los dispositivos conectados a los dispositivos vecinos pueden detectarse al usar Telnet para conectarse con ellos, y con el comando show cdp neighbors para detectar cuáles dispositivos se encuentran conectados a esos vecinos. 
Para desactivar el CDP a nivel global, utilice el comando no CDP run en el modo de configuración global.
  En la versión 10.3 o superior del Cisco IOS, el CDP se activa automáticamente en todas las interfaces soportadas para enviar y recibir información CDP.
Para desactivar el CDP en una interfaz específica después de haberlo activado, utilice el comando no CDP enable en el modo de configuración de interfaz.
Los siguientes comandos pueden utilizarse para mostrar la versión, la información de actualización, las tablas y el tráfico:  
clear cdp table  clear cdp counters  show cdp traffic   show debugging   debug cdp adjacency   debug cdp events  debug cdp ip  debug cdp packets  cdp timer   cdp holdtime  show cdp 
  Es posible usar Telnet para realizar una prueba para determinar si se puede o no acceder a un router remoto.
Como lo indica la Figura , si se puede establecer una sesíón Telnet de forma exitosa para conectar el router York al París, entonces una prueba básica de la conexión en red se ha realizado con éxito.
  Si el acceso remoto puede lograrse por medio de otro router, entonces al menos una aplicación TCP/IP puede llegar al router remoto.
  Si es posible establecer una sesíón Telnet a un router, pero no es posible establecerla a otro router, es probable que existan problemas en el direccionamiento, denominación o permiso de acceso específicos que han causado la falla de Telnet.
El uso de ping permite la prueba de conexiones de extremo a extremo en la capa de la red.
La conexión Telnet finalizará por defecto después de diez minutos de inactividad o cuando se ingrese el comando exit en la petición de entrada EXEC.
Sin embargo, un problema potencial surge cuando una sesíón Telnet queda suspendida y se presiona la tecla Intro.
Esto implica ciertos riesgos a la hora de realizar cambios a la configuración o utilizar comandos EXEC.
El número de sesiones abiertas que se permiten a la vez se define con el comando session limit.  Para alternar entre sesiones al abandonar una sesíón y reanudar una abierta previamente, utilice los comandos indicados en la Figura .
Los routers series 2600 y 1700 tiene un límite predeterminado de 5 sesiones. 
  Varias sesiones Telnet pueden utilizarse y suspenderse por medio de la secuencia de teclas Ctrl-Shift-6, y luego x.
Como ayuda para diagnosticar la conectividad básica de red, muchos protocolos de red admiten un protocolo de eco.
El comando ping envía un paquete al host destino y luego espera un paquete de respuesta de ese host.
Los resultados de este protocolo de eco pueden ayudar a evaluar la confiabilidad de ruta a host, las demoras en la ruta y si se puede acceder al host, o si éste está funcionando.
  El objetivo de ping 172.16.1.5 de la Figura responde de forma exitosa a los cinco datagramas enviados.
Si se visualizan uno o más puntos (.) en lugar de signos de exclamación, significa que se vencíó el tiempo de espera de la aplicación en el router mientras esperaba un eco de paquete proveniente del objetivo de ping.
El comando EXEC de usuario ping puede utilizarse para diagnosticar la conectividad básica de la red.
El comando traceroute es similar al comando ping, salvo que en lugar de probar la conectividad de extremo a extremo, traceroute verifica cada paso en el proceso.
Si no es posible llegar a alguno de estos routers, se devolverán tres asteriscos (*) en lugar del nombre del router.
El comando traceroute seguirá intentando alcanzar el siguiente paso hasta que se utilice la secuencia de escape Ctrl-Shift-6.
Utilice el comando show ip route para determinar si existe una entrada en la tabla de enrutamiento para la red objetivo.
Los siguientes tres comandos se utilizan para realizar el diagnóstico de fallas relacionado con las direcciones: 
ping utiliza el protocolo ICMP para verificar la conexión de hardware y la dirección IP de la capa de red.
Este es un mecanismo de prueba básico.  telnet verifica el software de capa de aplicación entre las estaciones origen y destino.
Constituye el mecanismo de prueba más completo disponible.  traceroute permite la localización de fallas en la ruta desde el origen hasta el destino.
Trace utiliza los valores de tiempo de existencia para generar mensajes desde cada router que se encuentra a lo largo de la ruta.
Activación y desactivación del CDP Uso del comando show cdp neighbors  Cómo determinar cuáles dispositivos vecinos están conectados a cuáles interfaces locales Uso del CDP para recaudar información de las direcciones de red de los dispositivos vecinos Cómo establecer una conexión Telnet Verificación de una conexión Telnet Desconexión de la sesíón Telnet Suspensión de una sesíón Telnet Realización de pruebas alternativas de conectividad Diagnóstico de fallas de las conexiones de terminales remotas
Un administrador que desee mantener una operación confiable y sin interrupciones de su red, debe poner mucha atención a estos archivos, para garantizar que se usen las versiones adecuadas y que se creen todas las copias de respaldo que sean necesarias.
Identificar las etapas de la secuencia de arranque del router Determinar cómo el dispositivo ubica y carga el software Cisco IOS Usar los comandos boot system Identificar los valores del registro de configuración Describir brevemente los archivos que usa el Cisco IOS y sus funciones Hacer una lista de la ubicación de los distintos tipos de archivos en el router Describir brevemente las partes del nombre del IOS Guardar y restaurar archivos de configuración mediante TFTP y mediante copiar y pegar Cargar una imagen del IOS mediante TFTP Cargar una imagen del IOS mediante XModem Verificar el sistema de archivos mediante los comandos show
El router debe proveer un rendimiento confiable en lo que respecta a sus funciones de interconexión de redes Para lograrlo, las rutinas de inicio deben efectuar lo siguiente:
Comprobar el hardware del router.  Encontrar y cargar el software Cisco IOS.  Encontrar y ejecutar los comandos de configuración, que abarcan las funciones de protocolo y las direcciones de las interfaces. 
La fuente predefinida del Cisco IOS depende de la plataforma de hardware, pero por lo general el router busca los comandos boot system almacenados en la NVRAM.
Se puede especificar otras fuentes del software, o el router puede usar su propia secuencia de reserva o alterna para cargarlo.
Se puede especificar comandos boot system del modo de configuración global para introducir fuentes de reserva, a fin de que el router las utilice en forma secuencial.
El router utiliza estos comandos según sea necesario, en forma secuencial, cuando arranca de nuevo.  Si el router no encuentra comandos boot system en la NVRAM, el sistema, por defecto, usa el Cisco IOS que se encuentra en la memoria flash.  Si no hay un servidor TFTP disponible, el router cargará una versión limitada del IOS almacenada en ROM.
Los siguientes ejemplos muestran el uso de diversos comandos boot system, los cuales especifican la secuencia de reserva o alterna para el arranque del Cisco IOS.
Los tres ejemplos muestran valores del boot system los cuales especifican que la imagen del Cisco IOS sea cargada en primer lugar desde la memoria flash, luego desde un servidor de red y, por último, desde la ROM: 
Tiene la ventaja de que la información en la memoria flash no se ve afectada por fallas en la red, las cuales sí afectan la carga de imágenes del sistema desde servidores TFTP.
  Servidor de red: En caso de que el contenido de la memoria flash esté dañado, se puede cargar una imagen del sistema desde un servidor TFTP.
  ROM: Si la memoria flash está dañada y tampoco se puede cargar la imagen desde un servidor, la opción final programada es arrancar desde la ROM.
Sin embargo, es probable que la imagen del sistema en la ROM sea sólo una porción del software Cisco IOS, y que no incluya los protocolos, las funciones y las configuraciones del Cisco IOS completo.
El router ejecutará los comandos boot system según lo requiera, en el orden en el que se introdujeron originalmente al hacer la configuración.
El valor del campo de arranque del registro de configuración determina el orden en el cual el router busca la información de arranque del sistema.
Los valores por defecto del registro de configuración se pueden cambiar con el comando config-register del modo de configuración global.
Para garantizar que el valor de los 12 bits superiores se conserve, primero debe recuperarse el valor en uso del registro de configuración, mediante el comando show versión.
  Para cambiar el campo de arranque del registro de configuración, siga estas pautas:  
Para ingresar al modo de monitor de la ROM, fije 0xnnn0 como el valor del registro de configuración, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque.
Para ello ejecute el comando b al estar en pantalla el indicador del modo monitor de la ROM.  Para arrancar usando la primera imagen en memoria Flash, o para arrancar usando el IOS en memoria ROM (dependiendo de la plataforma), fije el registro de configuración en 0xnnn1, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque.
Plataformas previas, como los routers Cisco 1600 y 2500, arrancan usando una versión limitada del IOS ubicada en ROM.
Plataformas mas recientes, como los Cisco 1700, 2600 y enrutadores de alta capacidad arrancarán usando la primera imagen en memoria Flash.
Para configurar el sistema de modo que arranque automáticamente desde la NVRAM, fije el registro de configuración en cualquier valor entre 0xnnn2 y 0xnnnF, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque.
Estos valores fijan los bits del campo de arranque en un valor comprendido entre 0010 y 1111 binario.
El archivo de configuración incluye comandos boot system incorrectos  El valor del registro de configuración es erróneo La imagen en la flash está dañada Hay una falla de hardware
  En el arranque, el router busca comandos boot system en el archivo de configuración.
Los comandos boot system pueden forzar el arranque del router desde una imagen del IOS diferente a la que está en la flash. 
  Para identificar la fuente de la imagen de arranque, ejecute el comando show versión y busque la línea que identifica la fuente.
  Ejecute el comando show running-config y busque el comando boot system cerca de la parte superior de la configuración.
Si el comando boot system señala una imagen del IOS incorrecta, elimine el comando mediante la versión «no» de dicho comando.
Una de las partes de la documentación de la red debe ser una copia impresa del resultado de show versión.
Si dicha documentación no está disponible, en el CD de documentación de Cisco o en el sitio Web de Cisco se proveen recursos para identificar el valor correcto del registro de configuración.
Para hacer correcciones, se debe cambiar el registro de configuración en la configuración, para luego guardarla como la configuración de arranque.
  Si la falla continua, es posible que el archivo de imagen en la flash esté dañado.
open: read error…Requested 0x4 bytes, got 0x0 (error de lectura) trouble reading device magic number (problemas al leer el número mágico del dispositivo) boot: cannot open «flash:» (no se puede abrir la «flash:»)  boot: cannot determine first file name on device «flash:» (no se puede determinar el nombre del primer archivo del dispositivo «flash:»)
  Si ninguno de los ejemplos anteriores parece ser el problema, es posible que se haya producido una falla de hardware en el router.
El valor del registro de configuración no se muestra mediante los comandos show running-config o show startup-config.
  El otro software utilizado por los routers o switches se denomina archivo de configuración o archivo config.
Las funciones que se pueden especificar en el archivo de configuración son las direcciones de IP de las interfaces, los protocolos de enrutamiento y las redes que serán publicadas.
La memoria flash provee almacenamiento no volátil de una imagen del IOS, la cual se puede usar como sistema operativo en el arranque.
  Una copia del archivo de configuración se guarda en la RAM no volátil (NVRAM), para ser utilizada como configuración en el arranque.
  A partir de la versión 12, el IOS provee una interfaz única a todos los sistemas de archivos que utiliza el router.
Esto incluye los sistemas de archivos de la memoria flash, los sistemas de archivos de red (TFTP, rcp y FTP) y la lectura o escritura de datos (de o a la NVRAM, de la configuración en uso, de la ROM).
La convencíón URL identifica la ubicación de los archivos de configuración mediante el esquema [[[//location]/directory]/filename], luego de dos puntos.
Entre ellos podemos mencionar el de identificación de la plataforma del hardware, el de identificación de la funcionalidad y el correspondiente a la secuencia numérica.
  La primera parte del nombre del archivo del Cisco IOS identifica la plataforma de hardware para la cual ha sido desarrollado. 
  La segunda parte del nombre del archivo del IOS identifica las carácterísticas funcionales que brinda dicho IOS.
Básica: Un grupo de funciones básicas para una plataforma de hardware dada, por ejemplo, IP e IP/FW  Plus: Un grupo de funciones básicas y otras funciones adicionales tales como IP Plus, IP/FW Plus y Enterprise Plus  Cifrado: Añade la funcionalidad de cifrado de datos de 56 bits como la denominada Plus 56, a un conjunto de funciones Básicas o Plus.
A partir de la Versión 12.2 de Cisco IOS en adelante, los identificadores de cifrado son k8 y k9:  k8: cifrado de hasta 64 bits en la versión 12.2 del IOS y posteriores  k9: cifrado de más de 64 bits, en la versión 12.2 y posteriores 
En un router o switch de Cisco, la configuración en uso se encuentra en la RAM y la ubicación por defecto de la configuración de arranque es la NVRAM.
En caso de que la configuración se pierda, debe existir una copia de respaldo de la configuración de arranque.
Ejecute el comando copy running-config tftp.  Cuando aparezca el indicador, introduzca la dirección de IP del servidor TFTP en el cual se guardará el archivo de configuración.  Introduzca el nombre a ser asignado al archivo de configuración o acepte el nombre por defecto.  Confirme sus elecciones respondiendo ‘yes’ (sí) cada vez. 
  Cargar el archivo de configuración de respaldo desde un servidor TFTP, puede servir para restaurar la configuración del router.
Ejecute el comando copy tftp running-config.  Cuando aparezca el indicador, seleccione un archivo de configuración de host o de red.  Cuando aparezca el indicador del sistema, introduzca la dirección de IP del servidor TFTP en el que se encuentra el archivo de configuración.  Cuando aparezca el indicador del sistema, introduzca el nombre del archivo de configuración o acepte el nombre por defecto.  Confirme el nombre del archivo de configuración y la dirección del servidor que suministra el sistema. 
Otra forma de crear una copia de respaldo de la configuración es mediante la captura del resultado del comando show running-config.
Esto puede hacerse desde una sesíón de terminal, mediante la copia y pegado del resultado del comando en un archivo de texto, el cual se guarda luego.
  Ejecute los siguientes pasos para hacer un respaldo de la configuración mediante la captura del texto que se muestra en la pantalla de HyperTerminal: 
Seleccione Start (Inicio) para empezar la captura del texto  Muestre en pantalla la configuración mediante show running-config  Presione la barra espaciadora cuando aparezca el indicador «-More -«.
Una vez que se haya mostrado completamente la configuración, detenga la captura:  Seleccione Transfer (Transferir).
  Una vez que se haya completado la captura, se debe editar el archivo de configuración para eliminar textos superfluos.
Para ello, elimine toda la información innecesaria de la configuración capturada, a fin de poder «pegarla» de vuelta en el router.
show running-config •   Building configuration…  Current configuration:  -More- Todas las líneas que aparecen después de la palabra «End».
Esto se hace mediante el comando erase startup-config, luego del indicador EXEC privilegiado, para luego arrancar el router mediante el comando reload.
Ingrese al modo de configuración global del router.  En HyperTerminal, haga clic en Transfer > Send Text File (Transferir>Enviar archivo de texto).  Seleccione el nombre del archivo de la copia de respaldo de la configuración.  Las líneas del archivo se introducirán en el router como si se estuviesen tecleando.  Observe si ocurre algún error.  Una vez que haya introducido la configuración, presione las teclas Ctrl-Z para salir del modo de configuración global.  Restaure la configuración de arranque mediante copy running-config startup-config. 
El respaldo del IOS se puede iniciar desde el modo EXEC privilegiado, mediante el comando copy flash tftp. 
  Se puede recargar desde el servidor el IOS en su misma versión, o una superior, con el comando copy tftp flash.
Cuando se le solicite el nombre de archivo de la imagen del IOS en el servidor, el router puede solicitar que se borre la memoria flash.
A medida que la imagen es borrada de la memoria flash, se mostrará una serie de “e’s” que indican el avance del proceso.
  A medida que se descarga cada uno de los archivos de imagen del IOS, se mostrará un signo de exclamación «!».
Si la imagen del IOS de la flash se ha borrado o dañado, es posible que se deba restaurar el IOS desde el modo de monitor de la ROM (ROMmon).
En muchas de las arquitecturas de hardware de Cisco, el modo ROMmon se indica mediante el indicador rommon 1 >. 
  Si el router arranca correctamente, es necesario examinar varios elementos a fin de determinar por qué el router arrancó mediante ROMmon y no lo hizo automáticamente.
En primer lugar, ejecute el comando show versión para verificar el registro de configuración y asegurarse que esté configurado para la secuencia de arranque por defecto.
Si el valor del registro de configuración es correcto, ejecute el comando show startup-config para ver si hay algún comando del sistema de arranque que le indique al router que debe usar el IOS del monitor de la ROM.
  Si el router no arranca correctamente desde la imagen o si no existe ninguna imagen del IOS, es necesario descargar un nuevo IOS.
El archivo del IOS se puede recuperar mediante Xmodem, para restaurar la imagen a través de la consola o mediante TFTP en el modo ROMmon.
Para restaurar el IOS a través de la consola, la PC local debe tener una copia del archivo del IOS a ser restaurado, y un programa de emulación de terminal como, por ejemplo, HyperTerminal.
Una vez que ha cambiado la velocidad de la consola y reiniciado el router en el modo ROMmon, se debe cerrar la vieja sesíón (a 9600) e iniciar una nueva a 115200 bps, la nueva velocidad de la consola.
  La -c le indica al proceso Xmodem que debe usar Verificación de redundancia cíclica (CRC) para detectar errores durante la descarga.
  Al finalizar la transferencia, aparecerá un mensaje que indica que la flash ha sido borrada.
Antes de arrancar de nuevo el router, es necesario volver a fijar la velocidad de consola en 9600 y el config register a 0x2102.
  Mientras el router arranca de nuevo, es necesario finalizar la sesíón de terminal a 115200 bps e iniciar una nueva a 9600 bps.
  Dado que el modo ROMmon tiene una funcionalidad muy limitada, no se carga ningún archivo de configuración durante el arranque.
La transferencia TFTP de ROMmon sólo funciona en el primer puerto LAN, de modo que se fija un conjunto simple de parámetros IP para dicha interfaz.
Para establecer una variable de entorno ROMmon, se escribe el nombre de la variable, luego el signo igual (=) y el valor de la variable (NOMBRE_DE_LA_VARIABLE=valor).
IP_ADDRESS: la dirección de IP de la interfaz LAN  IP_SUBNET_MASK: la máscara de subred de la interfaz LAN  •            DEFAULT_GATEWAY: el gateway por defecto de la interfaz LAN  TFTP_SERVER: la dirección de IP del servidor TFTP.
  Una vez que se han fijado las variables para la descarga del IOS, se ejecuta el comando tftpdnld sin ningún argumento.
ROMmon mostrará un eco de las variables y luego un indicador de confirmación, con una advertencia que indica que esto borrará la flash.
  A medida que se recibe cada uno de los datagramas del archivo del IOS, aparecerá un signo de exclamación «!».
Una vez que se haya recibido todo el archivo de IOS, se procede a borrar la flash y escribir el nuevo archivo de imagen del IOS: Se mostrarán los mensajes correspondientes a medida que el proceso avanza.
  Cuando la nueva imagen ha sido escrita en la flash y reaparece el indicador de ROMmon, el router se puede arrancar mediante el comando i.
El comando show versión puede usarse para verificar la imagen en uso y la cantidad total de memoria flash.
Se puede examinar los valores del campo de arranque del registro de configuración para determinar desde dónde debe cargarse el IOS.
Si no concuerdan, es posible que haya una imagen del IOS dañada o ausente en la flash, o tal vez que haya comandos relativos al arranque en la configuración de arranque. 
  El comando show flash se puede usar también para verificar el sistema de archivos.
Este comando se usa para identificar la o las imágenes del IOS en la flash, así como también la cantidad de memoria flash disponible.
A menudo, este comando se usa para confirmar que haya espacio suficiente para guardar una nueva imagen del IOS.
  Como se mencionara anteriormente, el archivo de configuración puede contener comandos boot system (del sistema de arranque).
Se pueden usar varios comandos boot system para crear una secuencia de reserva para encontrar y cargar el IOS.
Identificación de las etapas de la secuencia de arranque del router Identificación del esquema usado por el dispositivo de Cisco para ubicar y cargar el Cisco IOS Uso del comando boot system  Identificación de los valores del registro de configuración.
Diagnóstico de fallas Identificación de los archivos que usa el Cisco IOS y sus funciones Identificación de la ubicación de los distintos tipos de archivos en el router Identificación de las partes del nombre del IOS Administración de los archivos de configuración mediante TFTP Administración de los archivos de configuración mediante cortar y pegar Administración de las imágenes del IOS mediante TFTP Administración de las imágenes del IOS mediante XModem Verificación del sistema de archivos mediante comandos show
Estas instrucciones, también conocidas como rutas, pueden ser dadas a un router por otro de forma dinámica, o pueden ser asignadas al router por el administrador de forma estática. 
  Este módulo introduce el concepto de protocolos de enrutamiento dinámico, describe sus distintas clases y brinda ejemplos de protocolos de cada clase.
  Un administrador de redes toma en cuenta muchos aspectos al seleccionar un protocolo de enrutamiento dinámico.
El tamaño de la red, el ancho de banda de los enlaces disponibles, la capacidad de procesamiento de los routers, las marcas y modelos de los routers de la red y los protocolos que ya se encuentran en uso en la red son todos factores a considerar a la hora de elegir un protocolo de enrutamiento.
Este módulo proporcionará más detalles acerca de las diferencias entre los protocolos de enrutamiento, los cuales serán útiles a los administradores de redes para hacer su elección.
Todos los dispositivos intermedios usan la dirección de IP de destino para guiar el paquete hacia la dirección correcta, de modo que llegue finalmente a su destino.
A fin de tomar decisiones correctas, los routers deben aprender la ruta hacia las redes remotas.
Cuando se usa enrutamiento estático, el administrador de la red configura manualmente la información acerca de las redes remotas. 
      Debido a que las rutas estáticas deben configurarse manualmente, cualquier cambio en la topología de la red requiere que el administrador agregue o elimine las rutas estáticas afectadas por dichos cambios.
En una red de gran tamaño, el mantenimiento manual de las tablas de enrutamiento puede requerir de una enorme cantidad de tiempo de administración.
En redes pequeñas, con pocos cambios, las rutas estáticas requieren muy poco mantenimiento.
Debido a los requisitos de administración adicionales, el enrutamiento estático no tiene la escalabilidad o capacidad de adaptarse al crecimiento del enrutamiento dinámico.
Aun en redes de gran tamaño, a menudo se configuran rutas estáticas, cuyo objetivo es satisfacer requerimientos específicos, junto con un protocolo de enrutamiento dinámico.
  Como las rutas estáticas se configuran manualmente, el administrador debe configurarla en el router, mediante el comando ip route.
  En las Figuras , el administrador del router Hoboken necesita configurar las rutas estáticas cuyo destino son las redes 172.16.1.0/24 y 172.16.5.0/24.
  La distancia administrativa es un parámetro opcional que da una medida del nivel de confiabilidad de la ruta.
Por lo tanto, es preferible instalar rutas de distancia administrativa menor antes que una ruta idéntica de distancia administrativa mayor.
En la tabla de enrutamiento se observará la ruta estática indicando la interface de salida, como si hubiera conexión directa.
Para verificar la distancia administrativa de una ruta en particular use el comando show ip routeaddress, donde la dirección ip de dicha ruta se inserta en la opción address.
Si se desea una distancia administrativa diferente a la distancia por defecto, se introduce un valor entre 0 y 255 después de la interfaz de salida o el siguiente salto, como se muestra a continuación:
  Si el router no puede llegar a la interfaz de salida que se indica en la ruta, ésta no se instalará en la tabla de enrutamiento.
Es posible configurar una ruta estática en un router, la cual sólo se usará en caso de fallas en la ruta dinámicamente conocida.
Para utilizar una ruta estática de esta forma, simplemente fije la distancia administrativa en un valor superior a la proporcionada por el protocolo de enrutamiento dinámico en uso.
Esta sección enumera los pasos a seguir para configurar rutas estáticas y da un ejemplo de una red sencilla en la que se podrían configurar rutas estáticas. 
Las direcciones pueden ser una interfaz local o la dirección del siguiente salto que conduce al destino deseado.  Ingrese al modo de configuración global.  Ejecute el comando ip route con una dirección de destino y máscara de subred, seguidos del gateway correspondiente del Paso 1.
La inclusión de una distancia administrativa es opcional.  Repita el Paso 3 para todas las redes de destino definidas en el Paso 1.  Salga del modo de configuración global.  Guarde la configuración activa en la NVRAM mediante el comando copy running-config startup-
Hoboken debe configurarse de manera tal que pueda llegar a la red 172.16.1.0 y a la red 172.16.5.0.
  Los paquetes cuyo destino es la red 172.16.1.0 deben ser enrutados hacia Sterling y los paquetes que cuyo destino es la red 172.16.5.0 deben ser enrutados hacia Waycross.
  Como primer paso, se configura ambas rutas estáticas para utilizar una interfaz local como gateway hacia las redes de destino.
Como no se especificaron distancias administrativas, estas tomarán el valor por defecto de 1 en la tabla de enrutamiento. 
  Esas mismas rutas estáticas también se pueden configurar utilizando como gateway la dirección del siguiente salto.
Las rutas por defecto se usan para enviar paquetes a destinos que no coinciden con los de ninguna de las otras rutas en la tabla de enrutamiento.
Generalmente, los routers están configurados con una ruta por defecto para el tráfico que se dirige a la Internet, ya que a menudo resulta poco práctico e innecesario mantener rutas hacia todas las redes de la Internet.
  La máscara 0.0.0.0, cuando se ejecuta el AND lógico hacia la dirección de IP de destino del paquete, siempre obtiene la red 0.0.0.0.
Si el paquete no coincide con una ruta más específica en la tabla de enrutamiento, será enviado hacia la red 0.0.0.0.
Ingrese al modo de configuración global.  Ejecute el comando ip route con 0.0.0.0 como la dirección de red de destino y 0.0.0.0 como máscara de subred.
La opción address para la ruta por defecto puede ser la interfaz del router local que está conectado a las redes externas, o puede ser la dirección IP del router del siguiente salto.
Salga del modo de configuración global.  Guarde la configuración activa en la NVRAM mediante el comando copy running-config sartup-
  En la sección «Configuración de rutas estáticas», se crearon rutas estáticas en Hoboken para hacer posible el acceso a las redes 172.16.1.0 de Sterling y 172.16.5.0 de Waycross.
Una ruta por defecto tanto en Sterling como en Waycross proporcionará el enrutamiento para todos los paquetes cuyo destino sea las redes conectadas indirectamente.
Una vez configuradas las rutas estáticas, es fundamental verificar que se muestren en la tabla de enrutamiento, y que el enrutamiento funcione tal como está previsto.
El comando show running-config se utiliza para mostrar la configuración activa en la RAM, a fin de verificar que se haya ingresado correctamente la ruta estática.
El comando show ip route se utiliza para comprobar que la ruta estática se encuentre en la tabla de enrutamiento. 
En modo privilegiado, introduzca el comando show running-config para mostrar la configuración activa.  Verifique que la ruta estática se haya ingresado correctamente.
Si la ruta fuese incorrecta, será necesario volver al modo de configuración global para eliminar la ruta estática incorrecta e ingresar la ruta correcta.  Ejecute el comando show ip route.  Verifique que la ruta configurada se encuentre en la tabla de enrutamiento.
En la sección «Configuración de rutas estáticas», se crearon rutas estáticas en el router Hoboken para hacer posible el acceso a las redes 172.16.1.0 de Sterling y 172.16.5.0 de Waycross.
 Con esa configuración, los nodos locales de la red Sterling (172.16.1.0) no pueden llegar a los nodos locales de la red Waycross (172.16.5.0). 
  Desde el modo EXEC privilegiado en el router Sterling, ejecute un ping hacia el nodo de la red 172.16.5.0.
Haga telnet en el router Hoboken Intente nuevamente realizar un ping hacia el nodo de la red 172.16.5.0 conectado al router de Waycross.
Un protocolo de enrutamiento permite que un router comparta información con otros routers, acerca de las redes que conoce así como de su proximidad a otros routers.
La información que un router obtiene de otro, mediante el protocolo de enrutamiento, es usada para crear y mantener las tablas de enrutamiento.
Protocolo de información de enrutamiento (RIP) Protocolo de enrutamiento de gateway interior (IGRP) Protocolo de enrutamiento de gateway interior mejorado (EIGRP) Protocolo «Primero la ruta más corta» (OSPF)
Un protocolo enrutado proporciona información suficiente en su dirección de la capa de red, para permitir que un paquete pueda ser enviado desde un host a otro, basado en el esquema de direcciones.
Un sistema autónomo (AS) es un conjunto de redes bajo una administración común, las cuales comparten una estrategia de enrutamiento común.
El AS puede ser administrado por uno o más operadores, a la vez que presenta un esquema unificado de enrutamiento hacia el mundo exterior. 
  Los números de identificación de cada AS son asignados por el Registro estadounidense de números de la Internet (ARIN), los proveedores de servicios o el administrador de la red.
Los routers utilizan protocolos de enrutamiento para administrar la información recibida de otros routers, la información que se conoce a partir de la configuración de sus propias interfaces, y las rutas configuradas manualmente. 
  Los protocolos de enrutamiento aprenden todas las rutas disponibles, incluyen las mejores rutas en las tablas de enrutamiento y descartan las rutas que ya no son válidas.
Al haber cambios en la topología de una red, por razones de crecimiento, reconfiguración o falla, la información conocida acerca de la red también debe cambiar.
La información conocida debe reflejar una visión exacta y coherente de la nueva topología.
  Cuando todos los routers de una red se encuentran operando con la misma información, se dice que la red ha hecho convergencia.
Una rápida convergencia es deseable, ya que reduce el período de tiempo durante el cual los routers toman decisiones de enrutamiento erróneas.
  Los sistemas autónomos (AS) permiten la división de la red global en subredes de menor tamaño, más manejables.
Cada AS cuenta con su propio conjunto de reglas y políticas, y con un único número AS que lo distingue de los demás sistemas autónomos del mundo.
  El método de enrutamiento por vector-distancia determina la dirección (vector) y la distancia hacia cualquier enlace en la red.
El método de estado del enlace, también denominado «primero la ruta más corta», recrea la topología exacta de toda la red.
Los protocolos de enrutamiento por vector-distancia envían copias periódicas de las tablas de enrutamiento de un router a otro.
El router B agrega un cifra de vector-distancia (por ejemplo: el número de saltos), la cual aumenta el vector-distancia.
  El algoritmo finalmente acumula información acerca de las distancias de la red, las cual le permite mantener una base de datos de la topología de la red.
Sin embargo, los algoritmos de vector-distancia no permiten que un router conozca la topología exacta de una red, ya que cada router solo ve a sus routers vecinos.
A medida que el proceso de descubrimiento de la red avanza, los routers descubren la mejor ruta hacia las redes de destino, de acuerdo a la información de vector-distancia que reciben de cada vecino.
Cada una de las redes de destino en la tabla de enrutamiento tiene una cifra total de vector-distancia, la cual indica la distancia a la que se encuentra dicha red por una ruta determinada.
Al igual que en el proceso de descubrimiento de la red, las actualizaciones de cambios de topología avanzan paso a paso, de un router a otro.
Los algoritmos de vector-distancia hacen que cada router envíe su tabla de enrutamiento completa a cada uno de sus vecinos adyacentes.
Las tablas de enrutamiento incluyen información acerca del costo total de la ruta (definido por su métrica) y la dirección lógica del primer router en la ruta hacia cada una de las redes indicadas en la tabla.
Los protocolos de enrutamiento de estado del enlace mantienen una base de datos compleja, con la información de la topología de la red.
El algoritmo de vector-distancia provee información indeterminada sobre las redes lejanas y no tiene información acerca de los routers distantes.
El algoritmo de enrutamiento de estado del enlace mantiene información completa sobre routers lejanos y su interconexión. 
Publicaciones de estado del enlace (LSA): una publicación del estado del enlace (LSA) es un paquete pequeño de información sobre el enrutamiento, el cual es enviado de router a router.
Base de datos topológica: una base de datos topológica es un cúmulo de información que se ha reunido mediante las LSA.  Algoritmo SPF: el algoritmo «primero la ruta más corta» (SPF) realiza cálculos en la base de datos, y el resultado es el árbol SPF.  Tablas de enrutamiento: una lista de las rutas e interfaces conocidas. 
  Proceso de descubrimiento de la red para el enrutamiento de estado del enlace:  el intercambio de LSAs se inicia en las redes conectadas directamente al router, de las cuales tiene información directa.
Cada router, en paralelo con los demás, genera una base de datos topológica que contiene todas la información recibida por intercambio de LSAs.
El router construye esta topología lógica en forma de árbol, con él mismo como raíz, y cuyas ramas son todas las rutas posibles hacia cada subred de la red.
El router elabora una lista de las mejores rutas a las redes de destino, y de las interfaces que permiten llegar a ellas.
El router que primero conoce de un cambio en la topología envía la información al resto de los routers, para que puedan usarla para hacer sus actualizaciones y publicaciones.
Para lograr la convergencia, cada router monitorea sus routers vecinos, sus nombres, el estado de la interconexión y el costo del enlace con cada uno de ellos.
El router genera una LSA, la cual incluye toda esa información, junto con información relativa a nuevos vecinos, los cambios en el costo de los enlaces y los enlaces que ya no son válidos.
  Cuando un router recibe una LSA, actualiza su base de datos con la información más reciente y elabora un mapa de la red con base en los datos acumulados, y calcula la ruta más corta hacia otras redes mediante el algoritmo SPF.
Cada vez que una LSA genera cambios en la base de datos, el algoritmo de estado del enlace (SPF) vuelve a calcular las mejores rutas, y actualiza la tabla de enrutamiento.
  Los routers que usan protocolos de estado del enlace requieren de más memoria y exigen mas esfuerzo al procesador, que los que usan protocolos de enrutamiento por vector-distancia.
Los routers deben tener la memoria suficiente para almacenar toda la información de las diversas bases de datos, el árbol de topología y la tabla de enrutamiento.
La avalancha de LSAs que ocurre al activar un router consume una porción del ancho de banda.
Durante el proceso de descubrimiento inicial, todos los routers que utilizan protocolos de enrutamiento de estado del enlace envían LSAs a todos los demás routers.
Esta acción genera un gran volumen de tráfico y reduce temporalmente el ancho de banda disponible para el tráfico enrutado de los usuario.
Después de esta disminución inicial de la eficiencia de la red, los protocolos de enrutamiento del estado del enlace generalmente consumen un ancho de banda mínimo, sólo para enviar las ocasionales LSAs que informan de algún cambio en la topología.
Los routers determinan la ruta de los paquetes desde un enlace a otro, mediante dos funciones básicas: •       Una función de determinación de ruta
La función de determinación de ruta permite al router evaluar diversas rutas hacia un destino, y establecer cuál es la más deseable.
El router utiliza la tabla de enrutamiento para determinar la mejor ruta, para luego enviar los paquetes de datos mediante la función de conmutación.
  La función de conmutación es el proceso interno que el router utiliza para recibir un paquete en una interfaz y enviarlo a otra dentro del router mismo.
Una responsabilidad clave de la función de conmutación es la de encapsular los paquetes de acuerdo a la estructura requerida por el siguiente enlace. 
  La Figura ilustra de qué forma los routers utilizan las direcciones para estas funciones de enrutamiento y conmutación.
El router utiliza el segmento de la dirección correspondiente a la red para seleccionar la ruta, y proceder a entregar el paquete al router siguiente en dicha ruta.
  La habilitación del enrutamiento de paquetes de IP, requiere fijar parámetros tanto globales como de enrutamiento.
La tarea principal del modo configuración de enrutamiento es indicar los números IP de la red.
La métrica de enrutamiento ayuda a los routers a encontrar la mejor ruta hacia cada red o subred.
  El comando network es necesario, ya que permite que el proceso de enrutamiento determine cuáles son las interfaces que participan en el envío y la recepción de las actualizaciones de enrutamiento.
  Los números de red se basan en las direcciones de clase de red, no en direcciones de subred ni direcciones de host individuales.
Un router puede utilizar un protocolo de enrutamiento de paquetes IP para llevar a cabo el enrutamiento.
Esto lo realiza mediante la implementación de un algoritmo de enrutamiento específico y emplea la capa de interconexión de redes del conjunto de protocolos TCP/IP.
OSPF: Un protocolo de enrutamiento interior de estado del enlace EIGRP: El protocolo mejorado de enrutamiento interior por vector-distancia de Cisco.
Es un protocolo de enrutamiento por vector-distancia.  Utiliza el número de saltos como métrica para la selección de rutas.  Si el número de saltos es superior a 15, el paquete es desechado.  Por defecto, se envía un broadcast de las actualizaciones de enrutamiento cada 30 segundos. 
Es un protocolo de enrutamiento por vector-distancia.  Se considera el ancho de banda, la carga, el retardo y la confiabilidad para crear una métrica compuesta.  Por defecto, se envía un broadcast de las actualizaciones de enrutamiento cada 90 segundos. 
  El protocolo público conocido como «Primero la ruta más corta» (OSPF) es un protocolo de enrutamiento de estado del enlace no patentado.
Es un protocolo de enrutamiento de estado del enlace.  Es un protocolo de enrutamiento público (open standard), y se describe en el RFC 2328.  Usa el algoritmo SPF para calcular el costo más bajo hasta un destino.  Las actualizaciones de enrutamiento producen un gran volumen de tráfico al ocurrir cambios en la topología. 
Es un protocolo mejorado de enrutamiento por vector-distancia.  Utiliza balanceo de carga asimétrico.  Utiliza una combinación de los algoritmos de vector-distancia y de estado del enlace.  Utiliza el Algoritmo de actualización difusa (DUAL) para el cálculo de la ruta más corta.  Las actualizaciones son mensajes de multicast a la dirección 224.0.0.10 generadas por cambios en la topología. 
Es un protocolo de enrutamiento exterior por vector-distancia.  Se usa entre ISPs o entre los ISPs y sus clientes.  Se usa para enrutar el tráfico de Internet entre sistemas autónomos.
Los protocolos de enrutamiento interior están diseñados para ser usados en redes cuyos segmentos se encuentran bajo el control de una sola organización.
Los criterios de diseño de los protocolos de enrutamiento interior requieren que el protocolo encuentre la mejor ruta a través de la red.
En otras palabras, la métrica y la forma en que esta se utiliza es el elemento más importante de un protocolo de enrutamiento interior.
  Un protocolo de enrutamiento exterior está diseñado para ser usado entre dos redes diferentes, las cuales se encuentran bajo el control de dos organizaciones diferentes.
Por ejemplo: una compañía puede usar el BGP, un protocolo de enrutamiento exterior, entre uno de sus routers y un router del ISP.
Los protocolos de enrutamiento exterior necesitan de estos tres conjuntos de información antes de comenzar su operación:
Una lista de los routers vecinos, con los que intercambiarán la información de enrutamiento.  Una lista de las redes a ser publicadas como de acceso directo.  El número de sistema autónomo del router local. 
  Un protocolo de enrutamiento exterior debe aislar los sistemas autónomos.
Las redes deben disponer de un protocolo para interconectar los diferentes sistemas autónomos.
Los sistemas autónomos disponen de un número de identificación, asignado por el Registro estadounidense de números de Internet (ARIN) o por un proveedor de acceso.
Un router no enviará un paquete hacia la red de destino sin una ruta.  Los administradores de redes son quienes configuran las rutas estáticas en forma manual.  Las rutas por defecto son rutas estáticas especiales, las cuales proporcionan gateways de último recurso.  Las rutas estáticas y las rutas por defecto se configuran con el comando ip route.  Es posible verificar la configuración de las rutas estáticas y por defecto mediante los comandos show ip route, ping, y traceroute.  Como verificar y diagnosticar las fallas de las rutas estáticas y por defecto.
Protocolos de enrutamiento Sistemas autónomos Propósito de los protocolos de enrutamiento y de los sistemas autónomos Clases de protocolos de enrutamiento Carácterísticas del protocolo de enrutamiento por vector-distancia y ejemplos.
Protocolos de enrutamiento (RIP, IGRP, OSPF, EIGRP, BGP)  Sistemas autónomos y protocolos IGP versus EGP Enrutamiento por vector-distancia Enrutamiento por estado del enlace
Los protocolos de enrutamiento dinámico pueden ayudar a simplificar la vida del administrador de redes.
El enrutamiento dinámico hace innecesario el exigente y prolongado proceso de configurar rutas estáticas.
El enrutamiento dinámico también hace posible que los routers se adapten a los cambios de la red y que ajusten sus tablas de enrutamiento en consecuencia, sin intervención del administrador de redes.
Este módulo cubre algunos de los problemas asociados con los protocolos de enrutamiento dinámico por vector-distancia, junto con algunos de los pasos que los diseñadores de protocolos han dado para resolverlos. 
  El Protocolo de información de enrutamiento (RIP) es un protocolo de enrutamiento por vector-distancia, en uso en miles de redes en todo el mundo.
El hecho que RIP se base en estándares abiertos y que sea de fácil implementación hace que resulte atractivo para algunos administradores de redes, aunque RIP carece de la capacidad y de las carácterísticas de los protocolos de enrutamiento más avanzados.
  Al igual que RIP, el Protocolo de enrutamiento de gateway interior (IGRP) es un protocolo de enrutamiento por vector-distancia.
Es capaz de utilizan diversos factores para determinar la mejor ruta hacia la red de destino.
Describir los distintos métodos utilizados por los protocolos de enrutamiento por vector-distancia para asegurar que la información de enrutamiento sea precisa.
Configurar el protocolo RIP  Utilizar el comando ip classless  Diagnosticar fallas en el protocolo RIP  Configurar RIP para el equilibrio de la carga Configurar RIP con rutas estáticas  Verificar la operación del protocolo RIP  Configurar el protocolo IGRP  Verificar la operación del protocolo IGRP Diagnosticar fallas en el protocolo IGRP
En el protocolo de vector-distancia, las actualizaciones de las tablas de enrutamiento se hacen periódicamente, o cuando cambia la topología de la red.
Es importante que un protocolo de enrutamiento sea eficiente en su tarea de actualizar las tablas de enrutamiento.
Al igual que en el proceso de descubrimiento de la red, las actualizaciones de cambio de topología se producen de forma sistemática de un router a otro.
Los algoritmos de vector-distancia requieren que cada router envíe toda la tabla de enrutamiento a cada uno de sus vecinos adyacentes.
Las tablas de enrutamiento incluyen información acerca del costo total de la ruta (definido por su métrica) y la dirección lógica del primer router en la ruta hacia cada una de las redes indicadas en la tabla.
Los bucles de enrutamiento pueden ser el resultado de tablas de enrutamiento incongruentes, las cuales no se han actualizado debido a la lenta convergencia de una red sujeta a cambios.
Antes de la falla de la red 1, todos los routers poseen información coherente y tablas de enrutamiento correctas.
Supongamos, para el resto de este ejemplo, que la ruta preferida del router C hacia la red 1 es a través del router B y que la distancia del router C a la Red 1 es 3.
En el momento en que la red 1 falla, el router E envía una actualización al router A.
El router A deja de enrutar paquetes hacia la red 1, pero los routers B, C y D siguen haciéndolo porque todavía no se les ha informado acerca de la falla.
El router C envía ahora una actualización periódica al router D, que señala una ruta hacia la red 1 a través del router B.
El router D cambia su tabla de enrutamiento para introducir esta información buena pero errónea, y transmite la información al router A.
Cualquier paquete destinado a la red 1 ahora realizará un bucle desde el router C al B, de allí al A y luego al D, y volverá nuevamente al C.
Las actualizaciones erróneas de la red 1 continuarán generando bucles hasta que algún otro proceso lo detenga.
Esta condición, denominada cuenta al infinito, hace que los paquetes recorran la red en un ciclo continuo, a pesar del hecho fundamental de que la red de destino, la red 1, está fuera de servicio.
Mientras los routers cuentan al infinito, la información errónea hace que se produzca un bucle de enrutamiento.
  Si no se toman medidas para detener la cuenta al infinito, la métrica del vector-distancia del número de saltos aumenta cada vez que el paquete atraviesa otro router.
Estos paquetes hacen un recorrido cíclico por la red debido a la información errónea en las tablas de enrutamiento.
  Los algoritmos de enrutamiento por vector-distancia se corrigen automáticamente, pero un bucle de enrutamiento puede requerir primero una cuenta al infinito.
Para evitar este problema, los protocolos de vector-distancia definen el infinito como un número máximo específico.
  Con este enfoque, el protocolo de enrutamiento permite que el bucle de enrutamiento continúe hasta que la métrica supere el máximo valor permitido.
Esto supera la cifra máxima por defecto de 15 saltos del vector-distancia, de modo que el router descarta el paquete.
En cualquier caso, cuando el valor de la métrica supera el valor máximo, se considera que no se puede alcanzar la red 1.
Otra fuente posible de bucles de enrutamiento se presenta cuando se envía información incorrecta a un router, la cual contradice información correcta que este envió originalmente.
El router A transfiere una actualización al router B y al router D, la cual indica que la red 1 está fuera de servicio.
El router C, sin embargo, transmite una actualización periódica al router B, que señala que la red 1 está disponible a una distancia de 4, a través del router D. Esto no rompe las reglas del horizonte dividido.  El router B determina erróneamente que el router C todavía tiene una ruta válida hacia la red 1, aunque con una métrica mucho menos favorable.
El router B envía una actualización periódica al router A la cual indica al router A la nueva ruta hacia la red 1.
El router A ahora determina que puede enviar paquetes a la red 1 a través del router B, el router B determina que puede enviar paquetes a la red 1 a través del router C, y el router C determina que puede enviar paquetes a la red 1 a través del router D. Cualquier paquete introducido en este entorno quedará atrapado en un bucle entre los routers.  El horizonte dividido busca evitar esta situación.
Si la actualización de enrutamiento relativa a la red 1 es enviada desde el router A, el router B o D no pueden enviar información sobre la red 1 de vuelta hacia el router A.
El horizonte dividido reduce así los errores de enrutamiento, y también disminuye el procesamiento de información de enrutamiento.
El envenenamiento de rutas es utilizado por varios protocolos de vector-distancia para resolver grandes bucles de enrutamiento.
Esto se lleva a cabo normalmente mediante la configuración del número de saltos en la cantidad máxima más uno. 
Cuando la red 5 sale fuera de servicio, el router E inicia el envenenamiento de la ruta, mediante una entrada de valor 16 para la red 5, es decir, fuera de alcance.
Debido al envenenamiento de la ruta hacia la red 5, el router C no es susceptible de efectuar actualizaciones incorrectas de la ruta hacia dicha red.
Cuando el router C recibe el envenenamiento de ruta desde el Router E, envía una actualización llamada actualización de envenenamiento inversa de vuelta al router E.
  Cuando se combina el envenenamiento de rutas con las actualizaciones generadas por eventos, se agiliza el tiempo de convergencia ya que los routers vecinos no tienen que esperar 30 segundos antes de publicar la ruta envenenada.
  El envenenamiento de rutas hace que el protocolo de enrutamiento publique rutas de métrica infinita para la ruta que está fuera de servicio.
El horizonte dividido con envenenamiento de rutas es en esencia un envenenamiento de rutas, pero, colocada en los enlaces en los el horizonte dividido no permitiría el paso de información de enrutamiento.
Sin embargo, una actualización generada por eventos es enviada de inmediato, en respuesta a algún cambio en la tabla de enrutamiento.
El router que detecta un cambio de topología envía de inmediato un mensaje de actualización a los routers adyacentes, los cuales a su vez, generan actualizaciones a efectos de notificar el cambio a sus vecinos adyacentes.
Cuando una ruta falla, inmediatamente se envía una actualización, sin esperar a que expiren los temporizadores de las actualizaciones.
Las actualizaciones generadas por eventos, cuando se usan en conjunto con el envenenamiento de rutas, aseguran que todos los routers conozcan de la falla en las rutas, aun antes de que se cumpla el lapso de tiempo para una actualización periódica. 
  Las actualizaciones generadas por eventos envían actualizaciones porque la información de enrutamiento ha cambiado, no porque se ha cumplido el lapso para una actualización.
El router envía otra actualización de enrutamiento a sus otras interfaces, sin esperar a que expire el temporizador de las actualizaciones de enrutamiento.
Esto causa que la información acerca del estado de la ruta que ha cambiado sea enviada, y activa más rápidamente los temporizadores de espera (holddown timers) en los routers vecinos.
  Mediante la actualización generada por eventos que genera el router C, éste anuncia que la red 10.4.0.0 está inaccesible.
  El problema de la cuenta al infinito puede evitarse mediante los temporizadores de espera (holddown timers):  
Si un router recibe una actualización de un router vecino, la cual indique que una red previamente accesible está ahora inaccesible, el router marca la ruta como inaccesible y arranca un temporizador de espera.
Si en algún momento, antes de que expire el temporizador de espera, se recibe una actualización por parte del mismo router, la cual indique que la red se encuentra nuevamente accesible, el router marca la red como accesible y desactiva el temporizador de espera.  Si llega una actualización desde un router distinto, la cual establece una métrica más conveniente que la originalmente registrada para la red, el router marca la red como accesible y desactiva el temporizador de espera.  Si en algún momento antes de que expire el temporizador de espera se recibe una actualización de un router distinto, la cual establece una métrica menos conveniente que la originalmente registrada para la red, la actualización no será tomada en cuenta.
El descartar las actualizaciones con métricas menos convenientes mientras el temporizador de espera se encuentra activado, da más tiempo para que la información relativa a un cambio perjudicial sea transmitido a toda la red.
La versión moderna del protocolo de estándar abierto RIP, a menudo denominado RIP IP, se describe formalmente en dos documentos distintos.
  RIP ha evolucionado a lo largo de los años desde el Protocolo de enrutamiento con definición de clases, RIP Versión 1 (RIP v1), hasta el Protocolo de enrutamiento sin clase, RIP Versión 2 (RIP v2).
  RIP evita que los bucles de enrutamiento se prolonguen en forma indefinida, mediante la fijación de un límite en el número de saltos permitido en una ruta, desde su origen hasta su destino.
Cuando un router recibe una actualización de enrutamiento que contiene una entrada nueva o cambiada, el valor de la métrica aumenta en 1, para incluir el salto correspondiente a sí mismo.
Si este aumento hace que la métrica supere la cifra de 15, se considera que es infinita y la red de destino se considera fuera de alcance.
Por ejemplo, RIP implementa los mecanismos de espera y horizonte dividido para prevenir la propagación de información de enrutamiento errónea.
Luego se ejecuta el comando network para informar al router acerca de las interfaces donde RIP estará activo.
A continuación, el proceso de enrutamiento asocia las interfaces específicas con las direcciones de red y comienza a enviar y a recibir actualizaciones RIP en estas interfaces. 
Cuando un router recibe una actualización de enrutamiento que incluya cambios a una entrada de su tabla de enrutamiento, actualiza la dicha tabla para reflejar la nueva ruta.
El valor recibido de la métrica de la ruta aumenta en 1 y la interfaz de origen de la actualización se señala como el salto siguiente en la tabla de enrutamiento.
Los routers RIP conservan sólo la mejor ruta hacia un destino pero pueden conservar más de una ruta al mismo destino si el costo de todas es igual.
  La mayoría de los protocolos de enrutamiento usan una combinación de actualizaciones causadas por eventos (event-driven) o por tiempo (time-driven).
Cambios en la topología también originan actualizaciones inmediatas en routers IGRP, independientes del valor del temporizador de actualización.
Una vez que se haya actualizado la tabla de enrutamiento por cambios en la configuración, el router comienza inmediatamente a transmitir las actualizaciones de enrutamiento, a fin de informar de estos cambios a los otros routers.
Estas actualizaciones, denominadas actualizaciones generadas por eventos, se envían independientemente de las actualizaciones periódicas que envían los routers RIP a intervalos regulares.
Por ejemplo, las descripciones de los comandos que se utilizan para configurar el router BHM que se muestra en la figura son las siguientes:
  Las interfaces del router Cisco conectadas a las redes 10.0.0.0 y 192.168.13.0 envían y reciben actualizaciones RIP.
Estas actualizaciones de enrutamiento permiten que el router conozca la topología de la red desde routers vecinos que también ejecutan RIP.
A veces, un router recibe paquetes destinados a una subred desconocida de una red que tiene interconexiones directas a subredes.
Para que el IOS de Cisco envíe estos paquetes hacia la mejor ruta de súper-net posible, ejecute el comando ip classless de configuración global.
Una ruta de súper-red es una ruta que abarca un ámbito más amplio de subredes mediante una sola entrada.
Por ejemplo, una compañía utiliza toda la subred 10.10.0.0 /16, entonces la ruta de súper-red para 10.10.10.0 /24 sería 10.10.0.0 /16.
  Al inhabilitar esta función, todos los paquetes que se reciban con destino a direcciones en subredes que encajen numéricamente dentro del esquema de direcciones de la subred en el router serán desechados.
El comando ip classless sólo afecta la operación de los procesos del IOS relativos al envío de paquetes.
Si se conoce una porción de una red principal, pero no se conoce la subred de destino de un paquete dentro de dicha red principal, el paquete es desechado.
  El aspecto más confuso de esta regla es que el router sólo usa la ruta por defecto si la ruta a la red principal no existe en la tabla de enrutamiento.
Por defecto, un router supone que todas las subredes de una red conectada directamente deben figurar en la tabla de enrutamiento.
Si se recibe un paquete cuya dirección de destino es desconocida, la cual pertenece a una subred desconocida de una red conectada directamente, el router considera que la subred no existe.
El configurar ip classless en el router resuelve este problema, al permitir que el router no tome en cuenta los límites con definición de clases de las redes en su tabla de enrutamiento y simplemente transmita hacia la ruta por defecto.
Los routers RIP dependen de los routers vecinos para obtener la información de la red que no conocen de primera mano.
Todos los protocolos de enrutamiento por vector-distancia tienen detalles importantes que son producto principalmente de una convergencia lenta.
Éstos generan incongruencias debido a la propagación por la red de actualizaciones de enrutamiento con información obsoleta.
  Para reducir los bucles de enrutamiento y la cuenta al infinito, RIP emplea las siguientes técnicas.
Cuenta al infinito Horizonte dividido •      Actualización inversa: Temporizadores de espera Actualizaciones generadas por eventos.
  Algunos de estos métodos pueden requerir hacer algunas configuraciones, mientras que otros no lo requieren o rara vez lo requieren.
El número máximo de saltos restringe en gran medida su uso en redes de gran tamaño, pero evita que un problema llamado «cuenta al infinito» produzca bucles de enrutamiento infinitos en la red.
  La regla de horizonte dividido se basa en la teoría que no es útil enviar información acerca de una ruta de vuelta a la dirección desde donde se originó.
Los temporizadores de espera ayudan a prevenir la cuenta al infinito, pero también aumentan el tiempo de convergencia.
Esto evita que una ruta menos conveniente ingrese en la tabla de enrutamiento pero también puede evitar que se instale una ruta alternativa válida.
Es posible reducir el lapso del temporizador de espera, para agilizar la convergencia pero esto se debe hacer con cautela.
El ajuste ideal es el que fije el temporizador con una duración apenas mayor al lapso máximo de actualización posible de la red.
Si cada router tiene un lapso de actualización de 30 segundos, el bucle más largo posible es de 120 segundos.
  Use el siguiente comando para cambiar el temporizador del contador de «holddown» , así como el temporizador de actualizaciones, el intervalo de inválidez y el intervalo de desecho.
  Un punto adicional que afecta el tiempo de convergencia y que puede configurarse es el intervalo entre actualizaciones.
Puede configurarse para intervalos más prolongados, a fin de ahorrar ancho de banda, o más cortos para disminuir el tiempo de convergencia.
  Otro detalle de los protocolos de enrutamiento es la publicación indeseada de actualizaciones del enrutamiento desde una interfaz en particular.
Cuando se ejecuta un comando network para una red dada, RIP comenzará inmediatamente a enviar publicaciones hacia todas las interfaces dentro del ámbito de direcciones de red especificado.
Para controlar cuáles serán las interfaces que harán intercambio de actualizaciones de enrutamiento, el administrador de redes puede inhabilitar el envío de actualizaciones desde las interfaces que escoja.
  Como RIP es un protocolo de tipo broadcast, el administrador de la red podría tener que configurar RIP para que intercambie información de enrutamiento en redes no broadcast, como en el caso de las redes Frame Relay.
  Por defecto, el IOS de Cisco acepta paquetes de la Versión 1 y de la Versión 2 de RIP, pero sólo envía paquetes de la Versión 1.
El administrador de redes puede configurar el router para que sólo reciba y envíe paquetes de la Versión 1 o para que sólo envíe paquetes de la Versión 2.
A efectos de configurar el router para enviar y recibir paquetes de una sola versión, utilice los comandos de la Figura .
  Para controlar cómo se procesan los paquetes recibidos desde una interfaz, utilice los comandos de la Figura .
  El comando show ip protocols muestra cuáles son los protocolos que transportan tráfico IP en el router.
  El comando show ip route se puede utilizar para verificar que las rutas recibidas por los routers RIP vecinos estén instaladas en la tabla de enrutamiento.
Recuerde que la red tardará algún tiempo en converger, de modo que puede que no aparezcan las rutas de forma inmediata.
show interfaceinterface  show ip interfaceinterface  show running-config 
La mayoría de los errores de configuración del protocolo RIP incluyen comandos de red incorrectos, subredes discontinuas u horizontes divididos.
  El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que se las envía y recibe.
El ejemplo de la Figura muestra el resultado del comando debug ip rip en un router, luego de recibir una actualización RIP.
Después de recibir y procesar la actualización, el router envía la información recientemente actualizada hacia sus dos interfaces RIP.
El resultado muestra que el router utiliza la versión 1 de RIP y que hace un broadcast de la actualización (dirección de broadcast 255.255.255.255).
  Existen varios indicadores clave a inspeccionar en el resultado del comando debug ip rip.
Un síntoma de estos problemas sería que un router publicara una ruta con una métrica más baja que la métrica que recibíó de la red.
show ip rip database  show ip protocols {sumario}  show ip route  debug ip rip {eventos}  show ip interface brief 
El filtro de rutas funciona regulando las rutas que se incluyen o que se publican desde la tabla de enrutamiento.
En el caso de los protocolos de enrutamiento de estado del enlace, los filtros de rutas tienen efectos diferentes a los correspondientes a los protocolos de vector-distancia.
Un router que ejecuta un protocolo de vector-distancia publica rutas de acuerdo al contenido de la tabla de enrutamiento.
Como resultado, el filtro de rutas tiene influencia sobre cuáles son las rutas que el router publica a sus vecinos. 
  Por otra parte, los routers que usan protocolos de estado del enlace determinan las rutas de acuerdo a la información en su base de datos del estado del enlace, en vez de guiarse por la tabla publicada por un router vecino.
Los filtros de ruta no tienen efectos sobre las publicaciones del estado del enlace o sobre la base de datos del estado del enlace.
Por este motivo, la información en este documento sólo es válida para los protocolos de enrutamiento de paquetes IP por vector-distancia tales como Protocolo de información de enrutamiento (RIP) y el Protocolo de enrutamiento de gateway interior (IGRP).
  El uso del comando passive interface puede evitar que los routers envíen las actualizaciones de enrutamiento a través de una interfaz en particular del router.
El evitar que los mensajes de actualización del enrutamiento sean enviados a través de una interfaz en particular del router impide que otros sistemas de esa red aprendan las rutas de forma dinámica.
En la figura , el router E utiliza el comando passiveinterface para prevenir que se envíen las actualizaciones de enrutamiento. 
  En los protocolos RIP e IGRP, el comando passive interface evita que el router envíe las actualizaciones hacia un vecino en particular, pero el router continúa recibiendo las actualizaciones de enrutamiento de dicho vecino.
El evitar que los mensajes de actualización del enrutamiento sean enviados a través de una interfaz en particular del router impide que otros sistemas conectados a esa interfaz aprendan las rutas de forma dinámica.
El balanceo de las cargas es un concepto que permite que un router saque ventaja de múltiples y mejores rutas hacia un destino dado.
Estas rutas están definidas de forma estática por el administrador de la red o calculadas por un protocolo de enrutamiento dinámico, como RIP. 
  RIP es capaz de balancear las cargas hasta en seis rutas de igual costo, cuatro de ellas por defecto.
Luego el apuntador iniciará un ciclo a través de las interfaces y rutas en un orden preconfigurado, por ejemplo: 1-2-3-4-1-2-3-4-1 y así sucesivamente.
  Es posible encontrar rutas de igual costo mediante el comando show ip route.
Por ejemplo, la Figura muestra el resultado de show ip route para una subred particular con rutas múltiples.
El balanceo de cargas describe la capacidad de un router para transmitir paquetes a una dirección IP de destino a través de más de una ruta.
El balanceo de las cargas es un concepto que permite que un router saque ventaja de múltiples y mejores rutas hacia un destino dado.
  Cuando un router conoce las múltiples rutas hacia una red específica, instala la ruta de distancia administrativa más corta en la tabla de enrutamiento.
A veces, el router debe elegir una ruta entre las muchas que ha conocido mediante el mismo proceso de enrutamiento, y cuyas distancias administrativas son iguales.
Cada proceso de enrutamiento calcula sus costos de distinta forma y éstos pueden requerir de una configuración manual a fin de lograr el equilibrio de cargas.
  Si el router recibe e instala rutas múltiples con los mismos valores de distancia administrativa y costo, puede activarse el balanceo de las cargas.
Puede haber hasta seis rutas de igual costo (un límite impuesto por el IOS de Cisco en la tabla de enrutamiento), pero algunos Protocolos de gateway interior (IGP) tienen sus propias limitaciones.
  Por defecto, la mayoría de los protocolos de enrutamiento de paquetes IP instalan un máximo de cuatro rutas paralelas en la tabla de enrutamiento.
Para cambiar el número máximo de rutas paralelas permitidas, utilice el siguiente comando en el modo configuración del router.
Las redes RIP deben disponer de rutas con el mismo número de saltos para efectuar el balanceo de las cargas, mientras que el protocolo IGRP usa el ancho de banda para determinar el esquema de balanceo de cargas.
  El router E elige la segunda ruta, E-C-A, con una métrica de 20 ya que su costo es inferior a 30 y 45.
Si está habilidado el método de conmutación conocido como process switching, el router alternará los caminos paquete a paquete.
Si el método de conmutación conocido como fast switching está habilitado, solamente una de las rutas se guardará en la memoria cache para la red de destino.
Los paquetes dirigidos a hosts distintos en la misma red pueden usar una ruta alternativa.
  Por defecto, el router usa balanceo de cargo por destino también llamado fast switching.
El cache de las rutas permite que los paquetes salientes sean balanceados por destino y no por paquete.
Las rutas estáticas son rutas definidas por el usuario, que obligan a los paquetes a tomar una ruta determinada entre su origen y su destino.
Son útiles también para especificar «un gateway de último recurso», el cual generalmente se conoce como una ruta por defecto.
Si un paquete tiene como destino una subred que no aparece expresamente en la tabla de enrutamiento, el paquete es enviado a través de una ruta por defecto. 
  Un router que ejecuta el protocolo RIP puede recibir una ruta por defecto a través de una actualización de otro router que ejecuta RIP.
  Las rutas estáticas pueden eliminarse con el comando de configuración global no ip route.
El administrador puede dejar de lado una ruta estática y dar prioridad a la información de enrutamiento dinámico mediante el ajuste de los valores de distancia administrativa.
Es posible definir una ruta estática como menos conveniente que una ruta aprendida de forma dinámica, siempre que la AD de la ruta estática sea mayor que la de la ruta dinámica.
Note que después de configurar la ruta estática a la red 172.16.0.0 vía 192.168.14.2, la tabla de enrutamiento no la muestra.
Esto se debe a que la AD es mayor (130) para las rutas estáticas, y al menos que la ruta RIP en S0/0 se pierda, no será instalada en la tabla de enrutamiento.
  Las rutas estáticas que señalán una interfaz serán publicadas a través del router propietario de las rutas estáticas, y se propagarán por toda la red.
Esto se debe a que las rutas estáticas que apuntan a una interfaz se consideran en la tabla de enrutamiento como conectadas, y por ello pierden su naturaleza estática en la actualización.
Si se asigna una ruta estática a una interfaz que no está definida en el proceso RIP, mediante el comando network, RIP no publicará la ruta a menos que se especifique un comando redistribute static en el proceso de RIP. 
  Cuando una interfaz sale fuera de servicio, todas las rutas estáticas que apuntan a ella son eliminadas de la tabla de enrutamiento de paquetes IP.
De igual forma, cuando el IOS no puede encontrar un salto siguiente válido para la dirección especificada en la ruta estática, la ruta es eliminada de la tabla de enrutamiento de paquetes IP. 
  En la Figura , se ha configurado una ruta estática en el router GAD para que tome el lugar de la ruta dinámica RIP en caso de fallas en el proceso de enrutamiento RIP.
La configuración de la ruta estática flotante indica una AD de (130) superior a la AD por defecto del la creada por RIP (120).
  Para configurar una ruta estática, ejecute el comando de la Figura en el modo de configuración global.
Los routers que usan los protocolos de vector-distancia deben enviar toda o parte de su tabla de enrutamiento en un mensaje de actualización de enrutamiento, a intervalos regulares y a cada uno de sus routers vecinos.
A medida que se propaga la información de enrutamiento por toda la red, los routers realizan las siguientes funciones: 
IGRP envía actualizaciones de enrutamiento a intervalos de 90 segundos, las cuales publican las redes de un sistema autónomo en particular.
La flexibilidad necesaria para segmentarse con distintas carácterísticas de ancho de banda y de retardo.
  Por defecto, el protocolo IGRP de enrutamiento usa el ancho de banda y el retardo como métrica.
El comando show ip protocols muestra los parámetros, los filtros y la información de la red relacionada con los protocolos de enrutamiento que están en uso en el router.
  Esta métrica compuesta es más precisa que la métrica del número de saltos que usa RIP para elegir una ruta hacia un destino.
Confiabilidad: la confiabilidad del enlace hacia el destino, según sea determinada por el intercambio de mensajes de actividad (keepalives).
El retardo y el ancho de banda no son valores medidos, sino que se fijan a través de los comandos de interfaces relativos al ancho de banda y al retardo.
El comando show ip route del ejemplo muestra entre corchetes los valores de la métrica de IGRP.
Un enlace de mayor ancho de banda tendrá una métrica de menor valor y una ruta con menor retardo acumulado tendrá una métrica de menor valor. 
El IOS de Cisco deriva rutas de sistema de las interfaces de red conectadas directamente y de la información de rutas de sistema suministrada por otros routers que ejecutan IGRP o por servidores de acceso.
Las rutas exteriores son rutas hacia redes fuera del sistema autónomo, las cuales se tienen en cuenta al identificar un gateway de último recurso.
El software usa el gateway (router) de último recurso si no se encuentra una ruta mejor y si el destino no es una red conectada.
Si el sistema autónomo tiene más de una conexión hacia una red externa, cada router puede seleccionar un router exterior diferente como gateway de último recurso.
Los lapsos de espera se utilizan para evitar que los mensajes periódicos de actualización puedan reinstalar erróneamente una ruta que podría estar fuera de servicio.
Cuando un router sale de servicio, los routers vecinos detectan ese evento por la falta de mensajes de actualización periódicos.
Los horizontes divididos se originan en la premisa que dice que no es útil enviar información acerca de una ruta de vuelta a la dirección desde donde se originó.
La técnica del horizonte dividido ayuda a prevenir los bucles de enrutamiento entre router adyacentes.
Las actualizaciones inversas envenenadas son necesarias para romper los bucles de enrutamiento de mayor envergadura.
En IGRP, las actualizaciones inversas envenenadas se envían sólo si la métrica de la ruta ha aumentado en un factor de 1,1 o más.
  IGRP también mantiene un cierto número de temporizadores y de variables que contienen los intervalos de tiempo.
Estos incluyen un temporizador de actualizaciones, un temporizador de caída del servicio, un temporizador de espera y un temporizador de purga.
  El temporizador de actualizaciones especifica a qué frecuencia se deben enviar los mensajes de actualización de enrutamiento.
  El temporizador de caída del servicio especifica cuánto tiempo debe esperar un router ante la ausencia de mensajes de actualización de enrutamiento en relación a una ruta específica antes de declarar que está fuera de servicio.
  El temporizador de espera especifica la cantidad de tiempo durante el cual no se toma en cuenta la información sobre rutas menos convenientes.
  Por último, el temporizador de purga indica cuánto tiempo debe transcurrir antes de que se purgue una ruta de la tabla de enrutamiento.
  En la actualidad se hace evidente la antigüedad de IGRP, ya que carece de capacidades para manejar máscaras de subred de longitud variable (VLSM).
Antes que desarrollar un IGRP versión 2 para corregir este problema, Cisco se ha apoyado en el legado de éxito de IGRP para desarrollar el Enhanced IGRP (IGRP mejorado).
  Para configurar un proceso de enrutamiento IGRP, use el comando de configuración router igrp.
  Para especificar una lista de redes para los procesos de enrutamiento IGRP, use el comando network de configuración del router.
Con el desarrollo de IGRP a principios de los años ochenta, Cisco Systems fue la primera compañía en resolver los problemas asociados al uso de RIP para enrutar datagramas entre routers interiores.
IGRP determina la mejor ruta a través de la red mediante el examen del ancho de banda y el retardo de las redes entre los routers.
IGRP converge más velozmente que RIP, evitando de esta manera los bucles de enrutamiento causados por desacuerdos respecto al salto que se debe realizar a continuación.
Como resultados de lo anterior y de otras mejoras que aventajan a RIP, IGRP hizo posible la instalación de muchas redes de diversas topologías, complejas y de gran tamaño. 
Usando el comando show ip route, verifique el protocolo de enrutamiento en uso (RIP) en los routers que se van a convertir.  Configure IGRP en el router A y en el router B   Ejecute show ip protocolsen el router A y en el router B  Ejecute show ip route en el router A y en el router B 
Para verificar que se haya configurado correctamente IGRP, ejecute el comando show ip route y observe las rutas IGRP señaladas con una «I». 
show interface interface  show running-config  show running-config interfaceinterface  show running-config |
  Para verificar que la interfaz Ethernet está correctamente configurada, ejecute el comando show interface fa0/0. 
  Para determinar si el protocolo IGRP está habilitado en el router, ejecute el comando show ip protocols. 
La mayoría de los errores de configuración de IGRP son comandos de red mal tecleados, subredes discontinuas o un número de sistema autónomo incorrecto. 
show ip protocols  show ip route  debug ip igrp events   debug ip igrp transactions  ping  traceroute 
Envenenamiento de rutas Evitar bucles de enrutamiento con actualizaciones generadas por eventos Prevenir bucles de enrutamiento con temporizadores de espera •          Prevenir las actualizaciones de enrutamiento a través de una interfaz.
No dispone de un mecanismo para garantizar la entrega de los paquetes de datos, a pesar de los problemas con los que se puedan encontrar en la red.
Los paquetes pueden no llegar a su destino por diversas razones, tales como fallas de hardware, configuración inadecuada o información de enrutamiento incorrecta.
Para ayudar a identificar estas fallas, el IP usa el Protocolo de mensajes de control en Internets (ICMP), para notificar al emisor de los paquetes que se produjo un error durante el proceso de envío.
  Dado que el protocolo IP no cuenta con un mecanismo incorporado para enviar mensajes de error y control, usa ICMP para enviar y recibir mensajes de error y control a los hosts de la red.
Este módulo se refiere principalmente a los mensajes de control, que son los mensajes que suministran información o parámetros de configuración a los hosts.
El conocimiento de los mensajes de control del ICMP es una parte esencial del diagnóstico de fallas de la red y es un elemento clave para lograr una comprensión absoluta de las redes IP. 
Describir el protocolo ICMP Describir el formato de mensajes del ICMP Identificar los tipos de mensajes de error del ICMP Identificar las causas potenciales de mensajes de error específicos Describir los mensajes de control del ICMP Identificar diversos mensajes de control del ICMP que se usan actualmente en las redes Determinar las causas de los mensajes de control del ICMP
No cuenta con ningún proceso incorporado para garantizar la entrega de paquetes en caso de que se produzca un problema de comunicación en la red.
Si un dispositivo que actúa como intermediario falla como por ejemplo un router, o si un dispositivo de destino sale fuera de la red, los paquetes no se pueden entregar.
Cuando se produce un error en la entrega de datagramas, se usa el ICMP para notificar de dichos errores a la fuente de los datagramas.
Por ejemplo, si la estación de trabajo 1 de la Figura envía un datagrama a la estación de trabajo 6, pero la interfaz Fa0/0 del router C deja de funcionar, el router C utiliza ICMP para enviar un mensaje de vuelta a la estación de trabajo 1, el cual notifica que el datagrama no se pudo entregar.
  Cuando el router C recibe el datagrama de la estación de trabajo 1, sólo conoce las direcciones de IP de origen y destino del datagrama.
Por lo tanto, el router C sólo puede notificar a la estación de trabajo 1 acerca de la falla, y no se envía ningún mensaje de error ICMP al router A y al router B.
Los mensajes del ICMP se encapsulan en datagramas, del mismo modo en que se entrega cualquier otro dato mediante el protocolo IP.
  Dado que los mensajes del ICMP se transmiten del mismo modo que cualquier otro paquete, están sujetos a las mismas fallas en la entrega.
Esto crea una situación en la que los informes de error pueden generar más informes de error, lo que provoca una congestión creciente en una red que ya tiene fallas.
De este modo, es posible que haya un error de entrega cuyo informe no llegue nunca de vuelta al emisor de los datos. 
En primer lugar, los dispositivos emisor y receptor deben disponer de la pila del protocolo TCP/IP debidamente configurada.
También se debe configurar una puerta de enlace predeterminada (también conocido como gateway por defecto), si va a haber envío de datagramas fuera de la red local.
En segundo lugar, se debe proveer de dispositivos que actúen como intermediarios, para el enrutamiento de los datagramas desde el dispositivo y la red de origen hacia la red de destino.
El router también debe disponer del protocolo TCP/IP debidamente configurado en sus interfaces y debe usar un protocolo de enrutamiento adecuado. 
Por ejemplo, el dispositivo emisor puede dirigir el datagrama a una dirección de IP inexistente o a un dispositivo de destino que está fuera de la red.
Los routers también pueden ser puntos de falla si la interfaz de conexión está desactivada o si el router no cuenta con la información necesaria para detectar la red de destino.
  La Figura  muestra un router que recibe un paquete, el cual no puede enviar a su destino final.
Si el dispositivo de destino recibe la petición de eco, crea un mensaje de respuesta el cual es enviado de vuelta al origen de la petición.
Si el emisor recibe la respuesta, confirma que el dispositivo destino se puede alcanzar mediante el uso del protocolo IP.
  Generalmente, el mensaje de petición de eco se inicia al ejecutar el comando ping, como se muestra en la Figura .
En estos ejemplos, el comando ping emite cuatro peticiones de eco y recibe cuatro respuestas, lo que confirma la conectividad IP entre los dos dispositivos.
  Como se muestra en la figura , la respuesta de eco incluye un valor TTL (tiempo de vida) el cual es un campo del ancabezado de un paquete IP que limita el número de reenvíos de un paquete.
Se puede producir situaciones en las comunicaciones de red en las que un datagrama viaje en círculos, sin llegar nunca a su destino.
Esto puede ocurrir si dos routers enrutan continuamente un datagrama de ida y vuelta entre ellos, pensando que el otro debe ser el siguiente salto hacia el destino.
  Las limitantes del protocolo de enrutamiento pueden dar como resultado destinos inalcanzables.
El número máximo de saltos en RIP es de 15, lo cual significa que las redes mayores a los 15 saltos no se pueden manejar con RIP. 
Ya sea que la ruta actual incluya un círculo, o bien que el paquete exceda el número máximo de saltos.
Cada tipo de mensaje ICMP que se muestra en la Figura tiene sus propias carácterísticas, pero todos los formatos de mensaje ICMP comienzan con estos mismos tres campos: 
El campo de código incluye información adicional relativa al tipo de mensaje en particular.
El campo checksum (suma de comprobación), al igual que en los otros tipos de paquetes, se usa para verificar la integridad de los datos. 
  La Figura muestra el formato de los mensajes ICMP «echo request» (petición de eco) y «echo reply» (respuesta de eco).
El campo identificador y el de número de secuencia son exclusivos de los mensajes de petición de eco y respuesta de eco.
El campo de datos contiene información adicional que puede formar parte de un mensaje de petición de eco o de respuesta de eco).
Las fallas de hardware, configuraciones inadecuadas del protocolo, interfaces inactivas y errores en la información de enrutamiento son algunas de las razones que pueden impedir que la entrega se complete con éxito.
En estos casos, el ICMP envía de vuelta al emisor un mensaje llamado «destination unreachable» (destino fuera de alcance), el cual le indica al emisor que el datagrama no se pudo entregar adecuadamente. 
  También se puede enviar un mensaje de destino fuera de alcance cuando se requiere la fragmentación de los paquetes para hacer posible su envío.
Si el datagrama no permite la fragmentación, el paquete no puede enviarse, por lo que se envía un mensaje de destino fuera de alcance.
Los mensajes de destino fuera de alcance también se pueden generar si los servicios IP relacionados, como por ejemplo el FTP o los servicios WWW, no están disponibles.
Para diagnosticar las fallas de una red IP de forma eficaz, es necesario comprender las diversas causas de los mensajes ICMP de destino fuera de alcance.
Es posible que los dispositivos que procesan datagramas no puedan enviar un datagrama debido a un error en el encabezado.
Este error no se relaciona con el estado del host de destino o de su red, pero impide que el datagrama se procese y se envíe, y debido a esto, el datgrama se descarta.
En este caso, se envía un mensaje ICMP «parameter problem» (problema de parámetros) de tipo 12 a la fuente del datagrama.
  El mensaje de problema de parámetros incluye el campo del marcador o apuntador del encabezado.
Si el valor del código es 0, el campo de marcador indica el octeto del datagram que generó el error.
En primer lugar, dado que el IP no garantiza la entrega, no cuenta con ningún método incorporado para informar a los hosts que se ha producido un error.
  A diferencia de los mensajes de error, los mensajes de control no se presentan como el resultado deperdida de paquetes o condiciones de error que puedan ocurrir durante la transmisión de los paquetes, sino que se utilizan para mantener a los hosts informadosde eventos como congestionamiento o la existencia de un mejor gatewaya una red remota.
Este tipo de mensaje sólo puede originarse de un gateway, que es un término que se usa comúnmente para describir un router.
Este gateway por defecto es la dirección del puerto del router conectado a la misma red que el host.
Una vez configurado con la dirección IP de la interfaz Fa 0/0 como su gateway por defecto, el host B usa esa dirección de IP para llegar a cualquier red a la cual no esté conectado directamente.
Sin embargo, en algunos casos, el host está conectado a un segmento de red el cual tiene dos o más routers conectados directamente.
En este caso, es posible que el gateway por defecto del host deba utilizar una petición de redireccionamiento/cambio para informar al host cuál es la mejor ruta hacia una red determinada.
Dado que el host B no está directamente conectado a la misma red, envía el paquete a su gateway por defecto, el router A.
El router A encuentra la ruta correcta hacia la red 10.0.0.0/8 en su tabla de enrutamiento, y determina que la ruta hacia la red es a través de la misma interfaz de la que provino la petición para enviar el paquete.
Envía el paquete y hace una petición ICMP de redireccionamiento/cambio al host B, en la cual le indica que debe usar el router B como gateway para enviar todas las peticiones futuras para la red 10.0.0.0/8.
  Los gateway por defecto envían mensajes ICMP de peticiones de redireccionamiento/cambio sólo si se cumplen las siguientes condiciones:
La interfaz a través de la cual el paquete ingresa al router es la misma a través de la cual sale el paquete enrutado.  La subred/red de la dirección de IP de origen es la misma red/subred de la dirección de IP del salto siguiente del paquete enrutado.  El datagrama no está enrutado desde el origen.  La ruta para el redireccionamiento no es otro redireccionamiento ICMP ni otra ruta por defecto.  El router está configurado para enviar redireccionamientos.
  El campo Router Internet Address (Dirección Internet del router) del redireccionamiento ICMP es la dirección de IP a ser usada como gateway por defecto para una red en particular.
En el ejemplo que aparece en la Figura , el redireccionamiento ICMP que se envía desde el router A al host B tiene un valor de campo del Router Internet Address de 172.16.1.200, el cual es la dirección IP de la interfaz E0 en el router B.
El conjunto de protocolos TCP/IP permite que los sistemas se conecten entre sí a través de amplias distancias por múltiples redes.
Como resultado de ello, puede haber problemas en el caso de hosts en redes distintas que tratan de comunicarse mediante software que requiere de sincronización de reloj.
El mensaje ICMP de tipo «timestamp» (de marca horaria) está diseñado para ayudar a resolver este problema. 
  El mensaje ICMP de petición de marca horaria permite que un host solicite la hora actual que observa el host remoto.
El host remoto usa un mensaje ICMP de respuesta de marca horaria para responder a la petición.
  El campo de tipo de un mensaje ICMP de marca horaria puede ser 13 (timestamp request/petición de marca horaria) o 14 (timestamp reply/respuesta de marca horaria).
El valor del campo de código se fija siempre en 0 dado que no hay ningún parámetro adicional disponible.
La petición de marca horaria ICMP contiene una marca horaria de origen, que es la hora en el host solicitante al momento de enviar la petición de marca horaria.
La marca horaria de recepción es la hora en que el host destino recibe la petición de marca horaria.
La marca horaria de transmisión se completa justo antes de que se devuelva la respuesta de marca horaria.
Las marcas horarias de origen, recepción y transmisión se calculan según la cantidad de milisegundos que transcurrieron desde la medianoche de la Hora Universal (UT).
  Todos los mensajes ICMP de respuesta de marca horaria contienen las marcas horarias de origen, recepción y transmisión.
Usando estos tres marca de tiempo, el cliente puede determinar el tiempo de tránsito a través de la red mediante la resta del tiempo de llegada y el tiempo de salida.
El host que originó la petición de marca horaria también puede estimar la hora local en la computadora remota.
  Aunque los mensajes ICMP de marca horaria suministran una forma sencilla para estimar la hora en un host remoto y el tiempo de tránsito total de una red, no es la mejor manera de obtener esta información.
En lugar de ello, existen protocolos más sólidos como por ejemplo el Protocolo de hora de red (NTP), perteneciente a las capas superiores de la pila del protocolo TCP/IP, el cual realiza la sincronización de relojes de un modo más confiable.
Los mensajes ICMP de petición de información y de respuesta fueron concebidos originalmente para permitir que el host determine su número de red.
El tipo 15 indica un mensaje de petición de información y el tipo 16 señala un mensaje de respuesta de información.
En la actualidad se usan otros protocolos como, por ejemplo el BOOTP, Reverse Address Resolution Protocol (RARP), y el Protocolo de configuración dinámica del host (DHCP), para que los hosts obtengan sus números de red.
Cuando un administrador de red emplea el proceso de división en subredes para dividir un grupo amplio de direcciones IP en múltiples subredes, se crea una nueva máscara de subred.
Esta nueva máscara de subred es vital para identificar los bits correspondientes a la red, la subred y el host de una dirección de IP.
Si un host no conoce su máscara de subred, puede enviar una petición de máscara al router local.
Cuando el router recibe la petición, envía de vuelta una respuesta de máscara de dirección o «address mask reply».
Este host desconoce su máscara de subred, por lo tanto hace una petición de la máscara de dirección como broadcast.
El router responde enviando una respuesta de máscara de dirección o «address mask reply»:
Cuando arranca un host de la red, y su gateway por defecto no se ha configurado manualmente, puede aprender cuáles son los routers disponibles a través del proceso de descubrimiento de routers.
El mensaje de descubrimiento de router se puede enviar también como broadcast, para que incluya los routers que no se pueden configurar para multicast.
Si se envía un mensaje de descubrimiento de router a un router que no maneja el proceso de descubrimiento, no se recibirá ninguna respuesta a dicho mensaje.
  Si un router que permite el proceso de descubrimiento recibe un mensaje de descubrimiento de router, envía de vuelta una publicación o anuncio de router.
Un host genera un mensaje ICMP de solicitud de router en respuesta a la ausencia de un gateway por defecto.
El router local responde con una publicación de router, en la que se identifica el gateway por defecto para el host local.
Si varias computadoras tratan de tener acceso al mismo destino a la vez, la computadora de destino puede ser incapaz de manejar el alto tráfico.
También se puede producir congestión cuando el tráfico de una LAN de alta velocidad llega a una conexión WAN más lenta.
Los mensajes ICMP source-quench (supresión en el origen) se usan para reducir la cantidad de datos perdidos.
Los mensajes de supresión en el origen solicitan a los emisores reducir la velocidad a la que transmiten los paquetes.
En la mayoría de los casos, la congestión se reduce luego de un corto período de tiempo, y el origen lentamente aumenta la velocidad de transmisión siempre y cuando no se reciba ningún otro mensaje de supresión en el origen.
La mayoría de los routers Cisco por defecto no envían mensajes de supresión en el origen, dado que dichos mensajes pueden contribuir a la congestión de la red. 
  El caso de las oficinas pequeñas o oficinas en el hogar (SOHO) es uno en el que los mensajes ICMP de supresión en el origen se pueden usar de forma efectiva.
Una red SOHO puede estar compuesta por cuatro computadoras conectadas en red mediante cable CAT-5 y que tienen una conexión Internet compartida a través de un módem de 56K.
Es muy fácil determinar que el ancho de banda de 10 ó 100 Mbps de la red local puede copar rápidamente el ancho de banda de 56Kbps del enlace WAN, lo que da como resultado la pérdida de datos y las retransmisiones.
El host que actúa como gateway puede usar un mensaje ICMP «source quench» para solicitar que los otros hosts reduzcan sus velocidades de transmisión para prevenir la pérdida continua de datos.
El IP es un método de entrega de mejor esfuerzo, el cual usa mensajes ICMP para alertar al emisor que los datos no llegaron a su destino.  Los mensajes ICMP de petición de eco y de respuesta de eco permiten que el administrador de red pruebe la conectividad IP, para ayudar en el proceso de diagnóstico de fallas.  Los mensajes ICMP se transmiten mediante el protocolo IP de modo que su entrega es poco confiable.  Los paquetes ICMP tienen su propia información especial en el encabezado, la cual comienza con un campo de tipo y un campo de código.  Identificar las causas potenciales de los mensajes específicos de error del protocolo ICMP Las funciones de los mensajes ICMP de control Los mensajes ICMP de petición de redireccionamiento/cambio Los mensajes de sincronización de reloj y estimación del tiempo de tránsito Los mensajes ICMP de petición de información y de respuesta de información Los mensajes ICMP de petición y respuesta de máscara de dirección El mensaje ICMP de descubrimiento de router El mensaje ICMP de solicitud de router Los mensajes ICMP de congestión y control de flujo
Un router usa un protocolo de enrutamiento dinámico para aprender acerca de rutas a las redes destino.
La mayoría de los routers usa una combinación de enrutamiento dinámico y rutas estáticas configuradas manualmente.
Cualquiera sea el método utilizado, cuando un router determina que una ruta es el mejor camino hacia un destino, la instala en su tabla de enrutamiento.
  La prueba y el diagnóstico de las fallas de una red son, tal vez, los componentes que demandan más tiempo entre las tareas que ejecuta un administrador de redes.
Una prueba y diagnóstico de fallas eficientes deben llevarse a cabo de forma lógica, ordenada y bien documentada.
De lo contrario, volverán a producirse los mismos problemas y el administrador de la red nunca podrá entender la red a ciencia cierta.
Este módulo describe un enfoque estructurado respecto del diagnóstico de fallas y provee algunas herramientas que se utilizan en este proceso.
Identificar y resolver los problemas de enrutamiento puede no resultar tan sencillo, pero muchas son las herramientas que pueden hacer más fácil la tarea.
Utilizar el comando show ip route para recopilar información detallada sobre las rutas instaladas en el router.
Comprender la forma en que un router utiliza el direccionamiento de Capa 2 y de Capa 3 para transferir los datos a través de la red.
Utilizar el comando telnet para verificar el software de capa de aplicación entre las estaciones origen y destino.
Utilizar los comandos show ip route y show ip protocol para identificar los problemas de enrutamiento.
Utilizar el comando show controllers serial para garantizar la conexión del cable apropiado.
Un router averigua las rutas desde la configuración de un administrador o desde otros routers mediante los protocolos de enrutamiento.
Los routers almacenan esta información en tablas de enrutamiento que se mantienen en la memoria de acceso aleatorio (RAM) del router.
Esta tabla contiene entradas para todas las redes y subredes conocidas, así como un código que indica de qué forma se obtuvo la información.
Los siguientes son algunos comandos adicionales que se pueden utilizar con el comando show ip route:
show ip route connected  show ip route address  show ip route rip  show ip route igrp  show ip route static 
  El ejemplo de tabla de enrutamiento muestra cuatro rutas para las redes directamente conectadas.
A fin de efectuar el envío hacia otros destinos, la tabla de enrutamiento para RTA debe incluir más rutas.
Enrutamiento estático: el administrador define, de forma manual, las rutas hacia una o más redes destino.  Enrutamiento dinámico: los router siguen reglas definidas por el protocolo de enrutamiento para intercambiar información de enrutamiento y seleccionar la mejor ruta de forma independiente. 
Se dice que las rutas definidas administrativamente son estáticas porque no cambian hasta que un administrador de red programe los cambios de forma manual.
Las rutas obtenidas de otros routers son dinámicas porque pueden cambiar de forma automática a medida que los routers vecinos se actualizan entre sí con la nueva información.
Las rutas por defecto se utilizan cuando un router no es capaz de hacer coincidir una red destino con ninguna entrada de la tabla de enrutamiento.
El router utiliza esta ruta por defecto para llegar al gateway de último recurso en un esfuerzo por enviar el paquete.
  Una carácterística de escalabilidad clave es que las rutas por defecto mantienen las tablas de enrutamiento tan simples como es posible.
Posibilitan que los routers envíen los paquetes destinados a cualquier host de Internet sin tener que mantener una entrada en la tabla para cada red de la Internet.
El administrador puede ingresar estáticamente las rutas por defecto o es posible obtener información de las mismas de forma dinámica mediante un protocolo de enrutamiento.
  El enrutamiento por defecto comienza en el administrador: Antes de que los routers puedan intercambiar la información de forma dinámica, el administrador debe configurar al menos un router con una ruta por defecto.
Según los resultados deseados, el administrador puede utilizar alguno de los siguientes comandos para configurar una ruta por defecto de forma estática:  
  El comando ip default-network se usa para establecer una ruta predeterminada en redes que usan protocolos de enrutamiento dinámico.
Este comando es con distinción de clase o classful, lo que quiere decir que una subred señalada por este comando instala la red mayor en la tabla de ruteo.
El comando ip default-network se debe usar en la red mayor, para marcar la subred candidata a ser la ruta predeterminada.
  El comando ip default-network establece una ruta por defecto en las redes que utilizan protocolos de enrutamiento dinámico.
El comando global ip default-network 192.168.17.0 define la red Clase C 192.168.17.0 como la ruta destino para paquetes que no poseen entradas en la tabla de enrutamiento.
Para cada red configurada con el comando ip default-network, si un router cuenta con una ruta hacia la red, dicha ruta queda señalada como candidata a ser la ruta por defecto.
  Después de configurar una ruta o una red por defecto, el comando show ip route mostrará lo siguiente:
  Gateway of last resort is 172.16.1.2 to network 0.0.0.0  
En el tráfico que fluye a través de la nube de la red, la determinación de la ruta se produce en la capa de red.
La función de determinación de ruta permite al router evaluar las rutas disponibles hacia un destino y establecer el mejor manejo de un paquete.
Los servicios de enrutamiento utilizan la información de topología de red al evaluar las rutas de red.
Esta información la puede configurar el administrador de red o se puede recopilar a través de procesos dinámicos ejecutados en la red. 
  La capa de red proporciona entrega de paquetes de mejor esfuerzo y de extremo a extremo a través de redes interconectadas.
La capa de red utiliza la tabla de enrutamiento IP para enviar paquetes desde la red origen a la red destino.
Una vez que el router determina cuál es la ruta a utilizar, toma el paquete proveniente de una interfaz y lo envía hacia otra interfaz o puerto que refleje la mejor ruta hacia su destino.
Mientras las direcciones de capa de red se utilizan para que los paquetes viajen desde el origen hacia el destino, es importante comprender que se utiliza un tipo de dirección diferente para que los paquetes se transmitan desde un router hacia el siguiente.
Como se muestra en la Figura , en cada interfaz, a medida que el paquete se desplaza por la red, se examina la tabla de enrutamiento y el router determina el salto siguiente.
  La dirección de Capa 3 se utiliza para enrutar el paquete desde la red origen hacia la red destino.
La dirección de capa de enlace de datos resulta necesaria porque la entrega dentro de la red está determinada por la dirección del encabezado de la trama de Capa 2 y no por el encabezado del paquete de Capa 3.
Un router puede descubrir rutas utilizando protocolos de enrutamiento dinámico o rutas que el administrador configura de forma manual en el router.
Una vez descubiertas o configuradas, el router debe elegir cuáles son las mejores rutas hacia una red dada.
  La distancia administrativa de la ruta es la información clave que el router utiliza para decidir cuál es el mejor camino hacia un destino en particular.
Por ejemplo, RIP versión 1 (RIP v1) utiliza el recuento de saltos como único factor para determinar la métrica de una ruta.
Otros protocolos basan su métrica en el recuento de saltos, ancho de banda, retardo, carga, confiabilidad, y costo.
  Factores tales como ancho de banda y retardo son estáticos porque permanecen inalterables para cada interfaz hasta que se cambie la configuración del router o se rediseñe la red.
Factores tales como carga y confiabilidad son dinámicos porque el router los calcula para cada interfaz en tiempo real.
  Cuantos más factores compongan una métrica, mayor la flexibilidad para adaptar las operaciones de la red a las necesidades específicas.
Por defecto, IGRP utiliza los factores estáticos ancho de banda y retardo para calcular el valor de la métrica.
Estos dos factores pueden configurarse de forma manual, permitiendo un control preciso sobre cuál es la ruta que elige el router.
IGRP también puede configurarse para incluir loa factores dinámicos: carga y confiabilidad, en el cálculo de la métrica.
Utilizando los factores dinámicos, los routers IGRP pueden tomar decisiones basándose en las condiciones del momento.
Si un enlace está muy cargado o es no confiable, IGRP aumentará la métrica de las rutas que utilizan dicho enlace.
En estas circunstancias, las rutas alternativas pueden presentar una métrica menor que las rutas cuya métrica aumentó y se utilizarán como reemplazo. 
  IGRP calcula la métrica agregando los valores ponderados de las diferentes carácterísticas del enlace con la red en cuestión.
En el siguiente ejemplo, los valores: ancho de banda, ancho de banda dividido por la carga y el retardo se ponderan con las constantes K1, K2, y K3. 
  Métrica = [K1 * Ancho de banda + (K2 * Ancho de banda)/(256-Carga) + K3*Retardo] * [K5/(Confiabilidad + K4)]
  Los valores por defecto de las constantes son K1 = K3 = 1 y K2 = K4 = K5 = 0. 
Dados los valores por defecto para las constantes K1 a K5, el cálculo de la métrica compuesta usado por IGRP se reduce a Métrica = Ancho de banda + Retardo.
Las asociaciones entre el destino/salto siguiente le dicen al router que la mejor forma de alcanzar un destino en particular es enviar el paquete hacia un router en particular.
  Cuando un router recibe un paquete entrante, lee la dirección destino e intenta asociar esta dirección con el salto siguiente.
show ip route   show ip route address   show ip protocols   show ip rip database  
A diferencia de los algoritmos de ruta única, estos algoritmos de rutas múltiples permiten el tráfico a través de múltiples líneas, proporcionan un mejor rendimiento y son más confiables. 
El comando variance instruye al router a incluir rutas con métricas menores a n veces la métrica mínima para esa ruta, donde n es el número especificado por el comando variance.
La variable n puede tomar valores entre 1 y 128, con el valor por defecto igual a 1, lo cual significa balanceo de carga simétrico.
  La Figura muestra el resultado del comando show ip route ejecutado en Rt1 antes de configurada la variancia.
  La Figura muestra el resultado de show ip route ejecutado en Rt1 después de configurada la variancia.
  Una vez ejecutado ping, la mejor ruta es utilizando la interfaz Serial 0/0.
Las pruebas básicas de una red deben desarrollarse en secuencia comenzando desde una capa del modelo de referencia OSI a la siguiente.
Comenzando con la Capa 1, busque problemas simples tales como cables de suministro conectados a la pared.
  Cada prueba presentada en esta sección se ocupa de las operaciones de red en una capa específica del modelo de referencia OSI.
Debe existir un proceso ordenado para diagnosticar fallas basado en los estándares de networking establecidos por un administrador de red.
  Paso 2: Circunscribir el problema a un segmento de la red, a un módulo o unidad completos o a un usuario.
  Paso 3: Aislar la falla a un hardware o software específico dentro de la unidad, el módulo o la cuenta de red del usuario.
  Un proceso ordenado es de fundamental importancia a fin de mantener la red en funcionamiento uniforme y eficiente.
  Utilizando un enfoque estructurado para diagnosticar fallas, cada miembro de un equipo de asistencia técnica de redes puede saber cuáles son los pasos que cada miembro del grupo ha llevado a cabo para resolver el problema.
Si se intenta llevar a cabo una variedad de ideas para el diagnóstico de fallas sin organización o documentación, la forma de solucionar los problemas no es efectiva.
Aun si se resuelve el problema en un entorno no estructurado, probablemente resulte imposible repetir la solución en problemas similares en el futuro.
Cables inadecuados para la tarea (se deben usar los cables rollover, de conexión cruzada y de conexión directa (straight-through) correctamente).
                                    Figura 1                                    Figura 2                                    Figura 3
•             Configuraciones de temporización incorrectas en las interfaces seriales Problemas en la tarjeta de interfaz de red (NIC).
  Si se producen errores en la red, debe iniciarse el proceso de prueba a través de las capas de OSI.
En la Capa 7, es posible utilizar el comando telnet para verificar el software de capa de aplicación entre las estaciones origen y destino.
Si la interfaz cuenta con luces indicadoras que no muestran una conexión válida, apague el dispositivo y vuelva a colocar la tarjeta de la interfaz.
Un cable no apropiado o defectuoso también puede hacer que la luz de enlace indique una mala conexión o la ausencia de enlace. 
Asegúresé de que todas las conexiones cruzadas realicen una adecuada conexión con la ubicación correcta utilizando el cable y método apropiados.
Verifique que todos los puertos del hub o del switch se encuentren en la VLAN o en el dominio de colisión correctos y que se hayan configurado las opciones correctas para el spanning tres y demás consideraciones.
Puede resultar necesario el uso de un cable de interconexión cruzada para realizar conexiones directas entre dos switches o hubs o entre dos host, por ejemplo: PCs o routers.
Si hubiera alguna duda de que la conexión es buena, vuelva a colocar el cable y controle que la conexión sea segura.
Si este cable se conecta a un toma de pared, utilice el analizador de cables para garantizar que la conexión esté bien cableada.
  Además, controle todos los transceptores para garantizar que sean del tipo correcto y que estén bien conectados y configurados.
Como ayuda para diagnosticar la conectividad básica de red, muchos protocolos de red admiten un protocolo de eco.
El comando ping envía un paquete al host destino y luego espera un paquete de respuesta de ese host.
Los resultados de este protocolo de eco pueden ayudar a evaluar la confiabilidad de ruta hacia el host, las demoras en la ruta y si se puede acceder al host o si este funciona.
El resultado del comando ping muestra los tiempos mínimo, promedio y máximo que tarda un paquete ping en encontrar un sistema especificado y regresar.
El comando ping utiliza el Protocolo de mensajes de control en Internet (ICMP) para verificar la conexión de hardware y la dirección lógica de la capa de red.
En la figura , el destino de ping 172.16.1.5 respondíó con éxito a los cinco datagramas enviados.
Si se visualizan uno o más puntos (.) en lugar de signos de exclamación, significa que se vencíó el tiempo de espera de la aplicación en el router mientras se esperaba un eco de paquete proveniente del objetivo de ping.
  El siguiente comando activa una herramienta de diagnóstico que se usa para probar la conectividad.
  El comando ping prueba las conexiones de red enviando peticiones de eco ICMP hacia un host objetivo y controla el tiempo de respuesta.
El comando ping registra el número de paquetes enviados, el número de respuestas recibidas y el porcentaje de paquetes perdidos.
También registra la cantidad de tiempo que tardan los paquetes en llegar al destino y las respuestas en ser recibidas.
Esta información permite verificar la comunicación entre una estación de trabajo y otros host, y si se perdíó información.
  Es posible invocar el comando ping desde el modo EXEC del usuario y desde el modo EXEC privilegiado.
El comando ping se puede utilizar para confirmar la conectividad básica de una red en AppleTalk, Servicio de red no orientado a la conexión ISO (CLNS), IP, Novell, Apollo, VINES, DECnet, o redes XNS.
  El uso de un comando ping extendido hace que el router ejecute una variedad más extensa de opciones de prueba.
Para utilizar ping extendido, escriba ping en la línea de comando, luego presione la tecla Intro sin ingresar una dirección IP.
  Es una buena idea utilizar el comando ping cuando la red funciona correctamente para ver cómo funciona el comando en condiciones normales y de modo que sea posible compararlo cuando se ejecuta el diagnóstico de fallas.
La aplicación de telnet se utiliza generalmente para conectar dispositivos remotos, recopilar información y ejecutar programas.
A los fines del diagnóstico de fallas, resulta de utilidad verificar que se pueda realizar la conexión utilizando Telnet.
Una conexión exitosa de Telnet indica que la aplicación de capa superior y los servicios de las capas inferiores funcionan correctamente.
  Si un administrador puede conectarse por Telnet con un router pero no con otro, verifique la conectividad de la capa inferior.
Si se ha verificado la conectividad, probablemente la falla de Telnet se deba a problemas de permiso de acceso, denominación o direccionamiento específicos.
  Si la conexión Telnet con un servidor particular falla desde un host, pruebe conectarse desde un router y desde otros dispositivos diferentes.
Este es un problema frecuente de las direcciones asignadas por DHCP en que el administrador no ha agregado entradas DNS adicionales para los grupos DHCP.  Es posible que la aplicación Telnet no pueda negociar las opciones adecuadas y, por lo tanto, no se produce la conexión.
En un router Cisco, este proceso de negociación se puede visualizar utilizando el comando debugtelnet.  Es posible que el servicio Telnet esté desactivado o que se haya trasladado a un puerto diferente al 23 en el servidor destino.
  El comando show utilizado para verificar el estado y las estadísticas de las interfaces es el comando show interfaces.
El comando show interfaces sin argumentos entrega el estado y las estadísticas de todas las interfaces del router.
Para ver el estado de la interfaz serial 0/0, use el comando show interfaces serial 0/0.
  El hardware incluye a los cables, conectores e interfaces que muestran el estado de la conexión física entre los dispositivos.
El estado del software muestra el estado de los mensajes, por ejemplo: mensajes de actividad, información de control e información del usuario que se transmiten entre los dispositivos adyacentes.
  Estos elementos fundamentales del resultado del comando show interfaces serial se muestran como estado del protocolo de enlace de datos y de la línea.
  El primer parámetro se refiere a la capa de hardware y básicamente refleja si la interfaz recibe la señal de detección de portadora (CD) proveniente del otro extremo de la conexión.
Si la línea está desactivada, hay un problema con el cableado, el equipo puede estar apagado en alguna parte del circuito o puede estar funcionando mal, o puede haber sido administrativamente desactivada.
  El comando show interfaces serial también proporciona información de ayuda para el diagnóstico de otros problemas de la Capa 1 que no resultan fáciles de determinar.
Un número creciente de recuentos de transiciones de portadora en un enlace serial puede indicar uno o más de los siguientes problemas: 
  Si aparece un número creciente de errores de entrada en el resultado del comando show interfaces serial, varios son las causas posibles de estos errores.
  Si las transiciones de portadora y los reinicios de las interfaces aumentan o si los errores de entrada son muchos a medida que aumentan los reinicios de la interfaz, el problema probablemente sea un enlace inadecuado o CSU o DSU defectuosas.
  El número de errores debe interpretarse en relación a la cantidad de tráfico que ha procesado el router y la cantidad de tiempo durante el cual las estadísticas han sido capturadas.
Las estadísticas reflejan el funcionamiento de un router desde que se puso en marcha o desde la última vez que se reiniciaron los contadores. 
  Si el resultado del comando show interfaces muestra que nunca se reiniciaron los contadores, utilice el comando show versión para saber cuánto hace que el router se encuentra en funcionamiento.
Comenzar desde cero brinda un mejor cuadro sobre el estado actual de la red y ayuda a verificar que la corrección del problema sea real.
El comando show interfaces es tal vez la única herramienta de importancia para descubrir problemas de Capa 1 y de Capa 2 con el router.
El segundo parámetro (protocolo) indica si los procesos del IOS que controlan el protocolo de la línea consideran utilizable la interfaz o no.
Se entiende por mensajes de actividad a los mensajes enviados por un dispositivo de red para informar a otro que el circuito virtual entre ambos sigue estando activo.
Si la interfaz pierde tres mensajes de actividad consecutivos, el protocolo de línea se marca como desactivado.
      Siempre que la línea esté desactivada, el protocolo también lo está porque no existe un medio utilizable para el protocolo de Capa 2.
Esto se aplica cuando la interfaz se encuentra desactivada debido a un problema de hardware y cuando esté desactivada por el administrador.
  El comando show interfaces serial debe utilizarse después de configurar una interfaz serial a fin de verificar los cambios y que la interfaz se encuentre operando.
Cisco Discovery Protocol (CDP) divulga la información sobre el dispositivo a sus vecinos directos incluyendo direcciones IP y MAC e interfaces salientes. 
  El resultado del comando show cdp neighbors muestra información sobre los dispositivos Cisco vecinos que se conectan de forma directa.
Si se sospecha que el problema es de cableado, habilite las interfaces con el comando no shutdown y luego ejecute el comando show cdp neighbors detail antes de cualquier configuración.
Este comando muestra el detalle del dispositivo específico, por ejemplo: interfaces, ID del puerto y el dispositivo.
  Si la capa física funciona correctamente, entonces también se muestran todos los restantes dispositivos Cisco directamente conectados.
Por razones de seguridad, CDP debe configurarse sólo en enlaces entre dispositivos Cisco y inhabilitarse en puertos o enlaces de usuario no administrados a nivel local.
El comando traceroute se utiliza para descubrir las rutas que toman los paquetes cuando viajan hacia su destino.
Traceroute también puede utilizarse para ayudar a verificar la capa de red (Capa 3) teniendo en cuenta salto por salto y para proporcionar puntos de referencia para el desempeño. 
  El comando traceroute a menudo se refiere como comando trace en los materiales de referencia.
  El resultado del comando traceroute genera una lista de saltos alcanzados de forma exitosa.
Si los datos finalmente llegan a su destino, entonces el resultado indica cada router por el que pasa el datagrama.
Para cada router de la ruta se genera una línea de resultado en la terminal que indica la dirección IP de la interfaz que ingresó los datos.
Si se obtiene el último salto exitoso del resultado de traceroute y se lo compara con el diagrama de internetwork, es posible aislar el área del problema.
El tiempo de ida y vuelta (RTT) es el tiempo necesario para enviar un paquete de eco y obtener una respuesta.
Sin embargo, es posible capturar y utilizar este resultado para futuros diagnósticos de fallas en el desempeño de la internetwork.
  Tenga en cuenta que el dispositivo que recibe el traceroute también tiene que saber cómo enviar la respuesta nuevamente hacia el origen del traceroute.
Para que los datos del comando traceroute o ping completen el recorrido con éxito entre los routers, debe haber rutas conocidas en ambas direcciones.
Una falla en la respuesta no siempre indica un problema ya que los mensajes ICMP pueden estar limitados por la velocidad o filtrados en el sitio del host.
  Traceroute envía una secuencia de datagramas de Protocolo de datagramas de usuario (UDP) desde el router hacia una dirección de puerto inválida en el host remoto.
El valor de TTL de 1 hace que el datagrama expire el tiempo de espera en el primer router de la ruta.
  Como estos datagramas tratan de acceder a un puerto inválido en el host destino, los mensajes que vuelven son ICMP de puerto inalcanzable y no ICMP de tiempo excedido.
Esto indica un puerto inalcanzable y señala que el programa traceroute da por terminado el proceso.
Los comandos show ip protocols y show ip route muestran información sobre los protocolos de enrutamiento y la tabla de enrutamiento.
El resultado de estos comandos puede utilizarse para verificar la configuración del protocolo de enrutamiento. 
  El comando show ip route es tal vez el único comando fundamental para el diagnóstico de problemas relacionados con el enrutamiento.
El resultado del comando show ip route muestra las entradas para todas las redes y subredes conocidas y de qué forma se obtuvo la información.
Si el problema se produce al llegar al host de una red en particular, entonces es posible utilizar el resultado del comando show ip route para verificar que el router tenga una ruta hacia dicha red.
  Si el resultado del comando show ip route no muestra que se tomaron las rutas aprendidas esperadas o que no hay rutas aprendidas, entonces el problema posiblemente sea la falta de intercambio en la información de enrutamiento.
En este caso, utilice el comando show ip protocols en el router para verificar el error de configuración del protocolo de enrutamiento.
  El comando show ip protocols muestra los valores sobre la información del protocolo IP de enrutamiento de todo el router.
Este comando se puede utilizar para confirmar cuáles son los protocolos configurados, cuáles son las redes divulgadas, cuáles son las interfaces que envían actualizaciones y las actualizaciones de los orígenes del enrutamiento.
El resultado del comando show ip protocols también muestra los temporizadores, los filtros, el resumen de las rutas, la redistribución de las rutas y otros parámetros que son específicos para cada protocolo de enrutamiento que se habilita en el router.
Cuando se configuran múltiples protocolos de enrutamiento, la información sobre cada protocolo se enumera en una lista por separado. 
  El resultado del comando show ip protocols se puede utilizar para diagnosticar una gran variedad de problemas de enrutamiento, incluyendo la identificación de un router del que se sospecha envía información incorrecta sobre un router.
Puede utilizarse para confirmar la presencia de los protocolos esperados, las redes divulgadas y los vecinos de enrutamiento.
Como sucede con cualquier proceso de diagnóstico de fallas, identificar el problema es difícil pero no imposible si no se dispone de documentación que indique lo esperado.
Muy a menudo, la configuración y el diagnóstico de fallas de los routers se realiza de forma remota, cuando no es posible inspeccionar físicamente las conexiones del router.
El comando show controllers es de utilidad para determinar el tipo de cable conectado sin inspeccionar los cables.
  Examinando el resultado del comando show controllers, es posible determinar el tipo de cable que el controlador detecta.
Resulta útil para encontrar una interfaz serial sin cable, el tipo de cable inadecuado o un cable defectuoso.
  El comando show controllers serial 0/0 interroga al circuito integrado (chip) que controla las interfaces seriales y muestra información acerca de la interfaz física serial 0/0.Incluso dentro de un tipo de router, pueden utilizarse chips de controlador distintos.
  Sin tener en cuenta el tipo de controlador, el comando show controllers serial genera un resultado impresionante.
Excepto por el tipo de cable, la mayor parte de este resultado es detalle técnico interno relacionado con el estado del chip del controlador.
Como los comandos show sólo muestran información estática, brindan un cuadro histórico del la operación del router.
Con el comando debug, el resultado brinda una visión interna de los sucesos que se producen en el router.
Estos sucesos pueden ser tráfico en una interfaz, mensajes de error generados por los nodos de una red, paquetes de diagnóstico específicos del protocolo y otros datos útiles para el diagnóstico de fallas.
El resultado dinámico del comando debug se genera a costa del desempeño, produciendo un mayor encabezado en el procesador que puede interrumpir el funcionamiento normal del router.
Utilice los comandos debug para examinar los tipos de tráfico o problemas específicos una vez que los problemas potenciales se circunscriban a unas pocas causas. 
El comando debug all se debe utilizar moderadamente ya que puede interrumpir las operaciones del router.
  Por defecto, el router envía el resultado de debug y los mensajes del sistema a la consola.
Si se utiliza una sesíón por telnet para examinar el router, entonces, es posible redirigir el resultado de debug y los mensajes del sistema hacia a terminal remota.
Es necesario tener sumo cuidado al seleccionar los comandos debug a partir de una sesíón por telnet.
No se debe elegir ningún comando que haga que el resultado de debug cree un tráfico adicional que, a su vez, cree un resultado de debug .
Si esto sucede, la sesíón por telnet rápidamente saturará el enlace con tráfico o el router agotará uno o más recursos.
Una buena regla a seguir para evitar esta repetición de tráfico es «Nunca debug (depurar) ninguna actividad en el puerto donde se establece la sesíón».
Con frecuencia, algunos pueden generar muchas líneas mientras que otros producen una o dos líneas de resultado cada pocos minutos. 
  Otro servicio del IOS que mejorará la utilidad de la salida del comando debug es el comando timestamps.
Esta información proporciona la hora de ocurrencia del evento de depuración y el tiempo transcurrido entre eventos. 
El siguiente comando configura una marca de tiempo que mostrará las horas:minutos:segundos de la salida, la cantidad de tiempo transcurrido desde que el router se encendíó por última vez o desde que se ejecutó un comando reload:
Para determinar cuanto tiempo ha pasado desde la última ocurrencia del evento debug, se tiene que usar como referencia el tiempo desde la última reinicialización del router.
  Un uso más práctico de las marcas de tiempo es que muestren la fecha y hora en la que el evento ocurríó.
  Se debe notar que este comando es útil solamente si el reloj se encuentra configurado en el router.
De otra manera, la marca de tiempo mostrada en la salida del comando debug no es un tiempo preciso.
Para asegurar que las marcas de tiempo sean correctas, el reloj del router se debe configura con la hora y fecha correcta desde el modo EXEC privilegiado usando el siguiente comando:
En algunas plataformas Cisco, el reloj del router no se respalda con una batería, de manera que la hora del sistema se borrará después de una reinicialización del router o una falla de energía.
  El comando no debug all o el comando undebug all desactivan el resultado de diagnóstico.
Por ejemplo: si se habilita debug para monitorear RIP con el comando debug ip rip, es posible inhabilitarlo con no debug ip rip.
Determinación la dirección origen y destino de una ruta •          Determinación de la distancia administrativa de la ruta Determinación de la métrica de una ruta.
Observación de las múltiples rutas hacia un destino Uso de un enfoque estructurado en el diagnóstico de fallas Prueba capa por capa OSI Diagnóstico de fallas en la Capa 1 utilizando indicadores.
Diagnóstico de problemas de enrutamiento con los comandos show ip route y show ip protocols.  Diagnóstico de fallas utilizando el comando show controllers.
Los routers utilizan información de la dirección del Protocolo de Internet (IP) en un encabezado IP del paquete para determinar cuál es la interfaz hacia la que se conmutará el paquete para que llegue lo más cerca posible de su destino.
Como IP no brinda ningún servicio que ayude a asegurar que el paquete realmente llegue a destino, se describe como un protocolo no confiable, no orientado a conexión que hace uso de entregas de mejor esfuerzo.
Si los paquetes se descartan en la ruta, llegan en el orden incorrecto o se transmiten a una velocidad mayor a la que el receptor puede aceptar, IP, por si mismo, no puede corregir el problema.
Cada capa espera recibir servicios de la capa inferior y cada una provee ciertos servicios a su capa superior.
Las capas de aplicación, presentación y de sesíón del modelo OSI son todas parte de la capa de aplicación del modelo TCP/IP, acceden a los servicios de la capa de transporte a través de entidades lógicas llamadas puertos.
Este módulo presenta el concepto de puertos y explica su fundamental importancia y la de los números de puerto en el networking con datos.
La capa de transporte es responsable del transporte confiable y de la regulación del flujo de datos desde el origen hacia el destino.
Esto se logra utilizando ventanas deslizantes y números de secuencia junto con un proceso de sincronización que garantiza que cada host se encuentra listo y desea comunicarse.
  Para comprender la confiabilidad y el control de flujo, piense en un estudiante que ha estudiado un idioma extranjero durante un año.
Durante las conversaciones, deberá pedirle a la gente que repita lo que ha dicho (para confiabilidad) y que hable despacio, para que pueda entender las palabras (control de flujo).
La capa de transporte, la Capa 4 del modelo OSI, provee estos servicios a la capa 5 por medio de TCP.
Antes de transmitir datos, los dos clientes que desean comunicarse deben llevar a cabo unproceso de sincronización para establecer una conexión virtual para cada sesíón entre ellos.
Este proceso de sincronización asegura que ambas partesestán listas para la transmisión y permite que los dispositivos determinen los númeors de la secuencia inicial de dicha sesíón.
Este proceso se llama saludo de tres vías, es un proceso de tres pasospara establecer una conexión virtual entre dos dispositivos.
Para establecer la sesíón TCP, el cliente usa un puerto conocido del servicio que desea contactar.
      En el paso uno, el cliente inicia la sincronización enviando un paquete SYN para iniciar la conexión.
  En el paso dos, el otro host recive el paquete, graba el Número Secuancial x del cliente, y responde con un Acuse de Recibo (ACK).
el ACK es un bit en el campop de código del encabezado del segmento TCP, y el número ACK es un campo de 32 bits en el mismo encabezado.
El campo de Número de ACK contiene el siguiente Número Secuencial que se espera recibir (x + 1).
El número ACK x + 1 significa que el host ya recibíó todos los bytes incluyendo x, y espera recibir el byte x + 1.
El host también inicia un regreso de sesíón, esto incluye un segmento TCP con su propio Número Secuencial y bandera de sincronización.
      En el paso tres, el host que inició la conversación responde con un Númeor de ACK de y + 1, el cual es el Número Secuencial del valor del Host B + 1.
  Es importante entender que los números secuenciales inciales se usan sólo para comenzar la comunicaión entre dos dispositivos.
Estos ataques están diseñados para denegar serviciosa host legítimos que tratan de establecer conexiones.
SYN flooding explota el saludo de tres vías y causa que los dispositivos manden un ACK a direcciones origen que no completarán el saludo.
  El saludo de tres vías empieza al mandar un paquete SYN, el cual incluye las IP origen y destino.
Spoofing es un término usado cuando el cliente destino responde a una dirección origen que no existe, o no se puede alcanzar y entonces se va a estado de espera hasta que recibe un ACk del origen.
La solicitud de espera se coloca en una cola en la conexión o en un área de memoria de espera.
Este estado de espera requiere el uso de recursos del sistema que se está atacando, tal como memoria, hasta que el temporizador de la conexión expira.
Los hackers inundaran el host con falsos SYN para usar sus recursos en la conexión y no dejarlo contestar para poder legitimizar los requisitos de la conexión.
  Para defenderse de estos ataques, los administradores del sistema pueden reducir el período de espera de desconexión y aumentar el tamaño de la cola de conexión.
También existe software que puede detectar estos tipos de ataques e iniciar medidas de defensa.
A menudo, la cantidad de datos que se necesita transmitir es demasiado grande como para ser enviada en un solo segmento de datos.
En este caso, los datos deben dividirse en porciones de menor tamaño para permitir su correcta transmisión.
Además, es posible que las máquinas receptoras no sean capaces de recibir datos con la rapidez que el origen los envía, tal vez, porque el dispositivo receptor está ocupado con otras tareas o porque el transmisor simplemente es un dispositivo más robusto. 
  Una vez segmentados los datos, deben transmitirse hacia el dispositivo destino.
Uno de los servicios que provee TCP es el control de flujo que regula la cantidad de datos enviada durante un período de transmisión dado.
El tamaño del a ventana determina la cantidad de datos que se pueden transmitir simultáneamente antes que el destino responda con un Acuse de recibo (ACK).
Después que un host transmita el tamañode ventana en bytes, el host debe recibir un ACK indicando que la información se recibíó antes de poder enviar más información.
Por ejemplo, si la ventana es de 1, se debe generar un ACK por cada byte antes de enviar el siguiente .
  TCP usa las ventanas para determinar de forma dinámica el tamaño de la transmisión.
Los dispositivos negociasn el tamaño de la ventana a un número específico de bytes para transmitir antes del ACK .
  Este proceso de variación dinámica del tamaño de la ventana incrementa la confiabilidad.
Los segmentos de datos viajan entonces desde el transmisor hacia el receptor después del proceso de sincronización y la negociación del tamaño de ventana que dicta el número de bytes que es posible transmitir por vez.
TCP aplica los números de secuencia a los segmentos de datos que transmite de modo que el receptor pueda reensamblar adecuadamente los bytes en su orden original.
Si los segmentos TCP llegan desordenados, los segmentos se pueden reensamblar de forma incorrecta.
Los números de secuencia le indican al dispositivo destino cómo ordenar correctamente los bytes a medida que arriban. 
  Estos números de secuencia también actúan como números de referencia de modo que el receptor sabe si ha recibido todos los datos.
También identifican las porciones de datos perdidos y así el transmisor puede retransmitir los datos faltantes.
Esto ofrece una mayor eficiencia ya que el transmisor sólo necesita retransmitir los segmentos faltantes en lugar de todo el grupo de datos.
Tenga en cuenta que después del puerto destino en el formato del segmento se encuentra la porción del número de secuencia.
En la estación receptora, TCP usa los números de secuencia para reensamblar los segmentos hasta formar un mensaje completo.
El acuse de recibo es un paso frecuente del proceso de sincronización que incluye ventanas deslizantes y secuenciación de datos.
En un segmento TCP, el campo número de secuencia está seguido por el campo número de acuse de recibo, también conocido como el campo código.
  Uno de los problemas con el protocolo IP no confiable es que no cuenta con un método de verificación para determinar que los segmentos de datos realmente llegan a destino.
Por lo tanto, los segmentos de datos pueden enviarse de forma constante sin saber si realmente se recibieron o no.
TCP utiliza acuse de recibo positivo y retransmisión para controlar el flujo de datos y confirmar la entrega de los datos.
  El acuse de recibo positivo y retransmisión (PAR) es una técnica frecuente que muchos protocolos utilizan para proporcionar confiabilidad.
Con PAR, el origen envía un paquete, inicia un temporizador y espera un acuse de recibo antes de enviar el siguiente paquete.
Si el temporizador expira antes de que el origen reciba un acuse de recibo, el origen retransmite el paquete y reinicia el temporizador.
TCP utiliza acuses de recibo de expectativa, lo que significa que el número de acuse de recibo se refiere al siguiente octeto esperado.
  El uso de ventanas es un mecanismo de control de flujo que requiere que el dispositivo origen reciba un acuse de recibo desde el destino después de transmitir una cantidad determinada de datos.
Con un tamaño de ventana de tres, el dispositivo origen puede enviar tres octetos al destino.
Si el destino recibe los tres octetos, envía un acuse de recibo al dispositivo origen, que ahora puede transmitir otros tres octetos.
Si, por algún motivo, el destino no recibe los tres octetos, posiblemente debido a búferes cuya capacidad se ha excedido, no envía un acuse de recibo.
Debido a que el origen no recibe un acuse de recibo, sabe que los octetos se deben retransmitir, y que la velocidad de transmisión debe reducirse.
La pila del protocolo TCP/IP contiene muchos protocolos diferentes, cada uno diseñado para realizar una tarea determinada.
TCP permite la transmisión confiable, orientada a conexión de los paquetes en la Capa 4 del modelo OSI.
UDP proporciona la transmisión de paquetes no orientado a conexión y no confiable de los paquetes en la Capa 4 del modelo OSI. 
  TCP debe utilizarse cuando las aplicaciones requieren la garantía de que un paquete llegue intacto, en secuencia y sin duplicar.
El encabezado que se asocia con garantizar la entrega del paquete, a veces, se convierte en un problema al utilizar TCP.
No todas las aplicaciones necesitan garantizar la entrega del paquete de datos, por lo tanto, utilizan un mecanismo de entrega no orientado a conexión, más rápido, que aporta el UDP.
El estándar del protocolo UDP, que se describe en RFC 768, es un protocolo simple que intercambia segmentos sin acuses de recibo ni entrega garantizada.
  UDP no hace uso de ventanas ni acuses de recibo de modo que los protocolos de capa de aplicación deben brindar la detección de errores.
El campo Puerto de origen es un campo optativo que sólo se utiliza si la información debe regresar al host transmisor.
Cuando un router destino recibe una actualización de enrutamiento, el router origen no solicita nada, de modo que nada debe regresar a la fuente.
Una petición DNS proveniente de un host hacia un servidor DNS suele tener un campo Puerto destino de 53, el número de puerto de UDP para DNS.
El checksum de UDP es optativo pero debería utilizarse para garantizar que no se han dañado los datos durante la transmisión.
  Una vez que el segmento UDP llega a la dirección IP destino, debe haber un mecanismo que permita que el host receptor determine la exacta aplicación en destino.
Si un host provee servicios de TFTP y DNS, debe ser capaz de determinar cuál es el servicio que necesitan los segmentos UDP que llegan.
En un momento dado, miles de paquetes que proveen cientos de servicios distintos atraviesan una red moderna.
En muchos casos, los servidores proveen una gran cantidad de servicios lo que causa problemas singulares para el direccionamiento de los paquetes.
Si un servidor ofrece servicios SMTP y HTTP, utiliza el campo puerto destino para determinar cuál es el servicio que solicita el origen.
El origen no puede construir un paquete destinado sólo a la dirección IP del servidor porque el destino no sabría cuál es el servicio que se solicita.
Un número de puerto debe asociarse a la conversación entre hosts para garantizar que el paquete alcance el servicio adecuado en el servidor.
Sin una forma de distinguir entre las distintas conversaciones, el cliente sería incapaz de enviar un mensaje electrónico y navegar una página web utilizando un servidor al mismo tiempo.
  Los hosts que corren TCP/IP asocian los puertos de la capa de transporte con determinadas aplicaciones.
Los números de puerto se usan para realizar el seguimiento de las distintas conversaciones que atraviesan la red al mismo tiempo.
Los números de puerto son necesarios cuando un host se comunica con un servidor que provee múltiples servicios.
Tanto TCP como UDP utilizan números de puerto o socket para enviar información a las capas superiores.
  Los fabricantes de software de aplicación han acordado utilizar los números de puerto bien conocidos que se definen en la RFC1700.
Toda conversación dirigida a la aplicación FTP utiliza el número de puerto estándar 21.
Las conversaciones que no involucran aplicaciones con números de puerto bien conocidos reciben números de puerto elegidos de forma aleatoria de un rango específico.
Los puertos registrados son aquellos desde 1.024 a 49.151.  Los puertos dinámicos y/o privados son aquellos desde el 49.152 al 65.535.
  Los sistemas que inician solicitudes de comunicación usan números de puerto para seleccionar las aplicaciones adecuadas.
El host que origina la transferencia asigna dinámicamente los números del puerto de origen para estas solicitudes y, en general, son números mayores a 1023.
Los números de puerto en el rango de 0 a 1023 se consideran números de puerto públicos y son controlados por la Autoridad de Asignación de Números de Internet (IANA, por sus siglas en inglés).Los números de las casillas de correo postal son una buena analogía de los números de puerto.
Es posible enviar una carga postal a un código postal, ciudad y casilla de correo.
El código postal y la ciudad dirigen la correspondencia hacia las instalaciones postales correctas mientras que la casilla de correo garantiza la entrega a la persona a quien va dirigida la carta.
De igual forma, la dirección IP lleva al paquete hacia el servidor correcto, pero el número de puerto TCP o UDP garantiza que el paquete pase a la aplicación correspondiente.
Los servicios que funcionan en los host deben contar con un número de puerto asignado para que la comunicación se produzca.
Un host remoto que intenta conectarse con un servicio espera que el servicio utilice puertos y protocolos de capa de transporte específicos.
  Estos puertos bien conocidos definen las aplicaciones que se ejecutan sobre los protocolos de la capa de transporte.
Por ejemplo, un servidor que provee servicio FTP enviará las conexiones TCP que utilizan los puertos 20 y 21 provenientes de los clientes hacia su aplicación FTP.
De esta forma, el servidor puede determinar con exactitud cuál es el servicio que solicita el cliente.
TCP y UDP utilizan los números de puerto para determinar el servicio adecuado a las peticiones enviadas.
Cada vez que un cliente se conecta a un servicio de un servidor, es necesario especificar el puerto de origen y destino.
  Los puertos destino o los puertos para servicios, generalmente, se definen utilizando los puertos conocidos.
  En general, un cliente determina el puerto de origen asignando un número mayor a 1023 de forma aleatoria.
Por ejemplo, un cliente que intenta comunicarse con un servidor web utiliza TCP y asigna el puerto destino con el número 80 y el puerto origen con 1045.
Cuando el paquete llega al servidor, pasa hacia la capa de transporte superior y eventualmente al servicio HTTP que opera en el puerto 80.
El servidor HTTP responde a las peticiones del cliente con un segmento que utiliza el puerto 80 como origen y 1045 como destino.
De esta manera, los clientes y servidores utilizan los puertos para diferenciar el proceso al que se asocia el segmento. 
Este valor de 16 bits puede hacer que los números de puerto varíen de 0 a 65535.
Estos números de puerto se dividen en tres categorías diferentes: puertos bien conocidos, puertos registrados y puertos dinámicos o privados.
Como su nombre indica, estos puertos se utilizan para los servicios de red bien conocidos, por ejemplo;
Se usan números de puerto para rastrear múltiples sesiones que pueden ocurrir entre hosts.
Los números de puerto de origen y destino se combinan con la dirección de red para formar un socket.
Por ejemplo, un host puede tener una conexión telnet, puerto 23 mientras que, al mismo tiempo, puede navegar la red, puerto 80.
Por lo tanto, cada conversación en el extremo origen necesita su propio número de puerto y cada servicio solicitado necesita de su propio número de puerto.
Estos tres métodos de direccionamiento resultan a menudo confusos, pero es posible evitar la confusión si se explican las direcciones haciendo referencia al modelo OSI.
Los números de puerto se encuentran en la capa de transporte y la capa de red les brinda servicio.
La capa de red asigna una dirección lógica (dirección IP) y recibe servicios de la capa de enlace de datos quien le asigna una dirección física (dirección MAC). 
Estos pueden compararse con el puerto, la dirección MAC y la dirección IP que se utilizan para los datos de red.
El nombre en el sobre equivale al número de puerto, la calle es la dirección MAC, y la ciudad y estado son la dirección IP.
Es posible enviar varias cartas a la misma calle, ciudad y estado pero incluye distintos nombres.
Ataques de servicio denegado Uso de ventanas y tamaño de las ventanas Números de secuencia ACK positivo Operación de UDP Múltiples conversaciones entre hosts Puertos para servicios Puertos para los clientes Numeración de los puertos y números de puertos conocidos Ejemplo de múltiples sesiones entre hosts Comparación de direcciones MAC, direcciones IP y números de puertos.
Los administradores de red deben buscar maneras de impedir el acceso no autorizado a la red, permitiendo al mismo tiempo el acceso de los usuarios internos a los servicios requeridos.
Aunque las herramientas de seguridad, como por ejemplo: las contraseñas, equipos de callback y dispositivos de seguridad física, son de ayuda, a menudo carecen de la flexibilidad del filtrado básico de tráfico y de los controles específicos que la mayoría de los administradores prefieren.
Por ejemplo, un administrador de red puede permitir que los usuarios tengan acceso a Internet, pero impedir a los usuarios externos el acceso telnet a la LAN. 
  Los routers ofrecen funciones del filtrado básico de tráfico, como el bloqueo del tráfico de Internet, mediante el uso de las listas de control de acceso (ACLs).
Una ACL es una lista secuencial de sentencias de permiso o rechazo que se aplican a direcciones o protocolos de capa superior Este módulo introduce las ACL estándar y extendidas como medio de control del tráfico de red y explica de qué manera se utilizan las ACL como parte de una solución de seguridad. 
  Además, este capítulo incluye consejos, consideraciones, recomendaciones y pautas generales acerca del uso de las ACL e incluye los comandos y configuraciones necesarias para crear las ACL.
  Las ACL pueden ser tan simples como una sola línea destinada a permitir paquetes desde un host específico o pueden ser un conjunto de reglas y condiciones extremadamente complejas que definan el tráfico de forma precisa y modelen el funcionamiento de los procesos de los routers.
Aunque muchos de los usos avanzados de las ACL exceden el alcance de este curso, este módulo ofrece detalles sobre las ACL estándar y extendida, su ubicación adecuada y algunas de las aplicaciones especiales de las mismas. 
Es posible crear ACL en todos los protocolos de red enrutados, por ejemplo: el Protocolo de Internet (IP) y el Intercambio de paquetes de internetwork (IPX).
  Las ACL filtran el tráfico de red, controlando si los paquetes enrutados se envían o se bloquean en las interfaces del router.
Algunos de los puntos de decisión de ACL son direcciones origen y destino, protocolos y números de puerto de capa superior.
Para controlar el flujo de tráfico en una interfaz, se debe definir una ACL para cada protocolo habilitado en la interfaz.
Una ACL por cada protocolo, multiplicada por dos por dirección entrante y saliente, multiplicada por dos por el número de puertos.
Al restringir el tráfico de video, por ejemplo, las ACL pueden reducir ampliamente la carga de la red y en consecuencia mejorar el rendimiento de la misma.  Brindar control de flujo de tráfico.
Si no se necesitan actualizaciones debido a las condiciones de la red, se preserva el ancho de banda.  Proporcionar un nivel básico de seguridad para el acceso a la red.
Por ejemplo, las ACL pueden permitir que un host acceda a una parte de la red y evitar que otro acceda a la misma área.
Por ejemplo, al Host A se le permite el acceso a la red de Recursos Humanos, y al Host B se le niega el acceso a dicha red.  Se debe decidir qué tipos de tráfico se envían o bloquean en las interfaces del router.
Permitir que se enrute el tráfico de correo electrónico, pero bloquear todo el tráfico de telnet.  Permitir que un administrador controle a cuáles áreas de la red puede acceder un cliente.  Analizar ciertos hosts para permitir o denegar acceso a partes de una red.
Otorgar o denegar permiso a los usuarios para acceder a ciertos tipos de archivos, tales como FTP o HTTP. 
  Si las ACL no están configuradas en el router, todos los paquetes que pasen a través del router tendrán acceso a todas las partes de la red.
Una lista ACL es un grupo de sentencias que definen si se aceptan o rechazan los paquetes en interfaces entrantes o salientes.
Estas decisiones se toman haciendo coincidir una sentencia de condición en una lista de acceso y luego realizando la acción de aceptación o rechazo definida en la sentencia. 
El software Cisco IOS verifica si los paquetes cumplen cada sentencia de condición, en orden, desde la parte superior de la lista hacia abajo.
Una vez que se encuentra una coincidencia, se lleva a cabo la acción de aceptar o rechazar y no se verifican otras sentencias ACL.
Si una sentencia de condición que permite todo el tráfico está ubicada en la parte superior de la lista, no se verifica ninguna sentencia que esté por debajo.
  Si se requieren más cantidad de sentencias de condición en una lista de acceso, se debe borrar y volver a crear toda la ACL con las nuevas sentencias de condición.
Para que el proceso de revisión de una ACL sea más simple, es una buena idea utilizar un editor de textos como el Bloc de notas y pegar la ACL a la configuración del router.
A medida que una trama ingresa a una interfaz, el router verifica si la dirección de Capa 2 concuerda o si es una trama de broadcast.
Si se acepta la dirección de la trama, la información de la trama se elimina y el router busca una ACL en la interfaz entrante.
Si el paquete cumple las condiciones, se lleva a cabo la acción de aceptar o rechazar el paquete.
Si se acepta el paquete en la interfaz, se lo compara con las entradas de la tabla de enrutamiento para determinar la interfaz destino y conmutarlo a aquella interfaz.
Si existe una ACL, se compara el paquete con las sentencias de la lista y si el paquete concuerda con una sentencia, se lleva a cabo la aceptación o el rechazo del paquete.
Si no hay ACL o se acepta el paquete, el paquete se encapsula en el nuevo protocolo de Capa 2 y se envía por la interfaz hacia el dispositivo siguiente.
  A manera de revisión, las sentencias de la ACL operan en orden secuencial lógico.
Si se cumple una condición, el paquete se permite o deniega, y el resto de las sentencias de la ACL no se verifican.
Si todas las sentencias ACL no tienen coincidencias, se coloca una sentencia implícita que dice deny any (denegar cualquiera) en el extremo de la lista por defecto.
Aunque la línea deny any no sea visible como última línea de una ACL, está ahí y no permitirá que ningún paquete que no coincida con las líneas anteriores de la ACL sea aceptada.
Cuando esté aprendiendo por primera vez cómo crear una ACL, es una buena práctica agregar el deny any al final de las ACL para reforzar la presencia dinámica de la prohibición implícita deny.
Este número identifica el tipo de lista de acceso creado y debe ubicarse dentro de un rango específico de números que es válido para ese tipo de lista.
  Después de ingresar al modo de comando apropiado y que se decide el número de tipo de lista, el usuario ingresa sentencias de lista de acceso utilizando el comando access-list, seguida de los parámetros necesarios.
Estando en el modo de comandos adecuado y definido el tipo de número de lista, el usuario tipea las condiciones usando el comando access-list seguido de los parámetros apropiados.
  En TCP/IP, las ACL se asignan a una o más interfaces y pueden filtrar el tráfico entrante o saliente, usando el comando ip access-group en el modo de configuración de interfaz.
Es posible establecer la dirección del filtro para verificar los paquetes que viajan hacia dentro o fuera de una interfaz.
Para determinar si la ACL controla el tráfico entrante o saliente, el administrador de red necesita mirar las interfaces como si se observara desde dentro del router.
Una lista de acceso entrante filtra el tráfico que entra por una interfaz y la lista de acceso saliente filtra el tráfico que sale por una interfaz.
  Es necesario utilizar estas reglas básicas a la hora de crear y aplicar las listas de acceso.
Una lista de acceso por protocolo y por dirección.  Se deben aplicar las listas de acceso estándar que se encuentran lo más cerca posible del destino.  Se deben aplicar las listas de acceso extendidas que se encuentran lo más cerca posible del origen.  Utilice la referencia de la interfaz entrante y saliente como si estuviera mirando el puerto desde adentro del router.  Las sentencias se procesan de forma secuencial desde el principio de la lista hasta el final hasta que se encuentre una concordancia, si no se encuentra ninguna, se rechaza el paquete.  Hay un deny any (denegar cualquiera)implícito al final de todas las listas de acceso.
Las entradas de la lista de acceso deben realizar un filtro desde lo particular a lo general.
Primero se deben denegar hosts específico y por último los grupos o filtros generales.  Primero se examina la condición de concordancia.
El permiso o rechazo se examina SÓLO si la concordancia es cierta.  Nunca trabaje con una lista de acceso que se utiliza de forma activa.  Utilice el editor de texto para crear comentarios que describan la lógica, luego complete las sentencias que realizan esa lógica.  Siempre, las líneas nuevas se agregan al final de la lista de acceso.
No es posible agregar y quitar líneas de manera selectiva en las ACL numeradas.  Una lista de acceso IP envía un mensaje ICMP llamado de host fuera de alcance al emisor del paquete rechazado y descarta el paquete en la papelera de bits.  Se debe tener cuidado cuando se descarta una lista de acceso.
Si la lista de acceso se aplica a una interfaz de producción y se la elimina, según sea la versión de IOS, puede haber una deny any (denegar cualquiera) por defecto aplicada a la interfaz, y se detiene todo el tráfico.  Los filtros salientes no afectan al tráfico que se origina en el router local.
Los números uno y cero en la máscara se usan para identificar cómo tratar los bits de la dirección IP correspondientes.
El término máscara wildcard es la denominación aplicada al proceso de comparación de bits de máscara y proviene de una analogía con el «wildcard» (comodín) que equivale a cualquier otro naipe en un juego de póquer.
Las máscaras de subred y las máscaras de wildcard representan dos cosas distintas al compararse con una dirección IP.
Las máscaras de subred usan unos y ceros binarios para identificar las porciones de red, de subred y de host de una dirección IP.
Las máscaras de wildcard usan unos y ceros binarios para filtrar direcciones IP individuales o en grupos, permitiendo o rechazando el acceso a recursos según el valor de las mismas.
La única similitud entre la máscara wildcard y la de subred es que ambas tienen 32 bits de longitud y se componen de unos y ceros. 
  Durante el proceso de máscara wildcard, la dirección IP en la sentencia de la lista de acceso tiene la máscara wildcard aplicada a ella.
Esto crea el valor de concordancia, que se utiliza para comparar y verificar si esta sentencia ACL debe procesar un paquete o enviarlo a la próxima sentencia para que se lo verifique.
La segunda parte del proceso de ACL consiste en que toda dirección IP que una sentencia ACL en particular verifica, tiene la máscara wildcard de esa sentencia aplicada a ella.
  Hay dos palabras clave especiales que se utilizan en las ACL, las opciones any y host.
Para explicarlo de forma sencilla, la opción any reemplaza la dirección IP con 0.0.0.0 y la máscara wildcard por 255.255.255.255.
  El comando show ip interface muestra información de la interfaz IP e indica si se ha establecido alguna ACL.
Para ver una lista específica, agregue el nombre o número ACL como opción a este comando.
El comando show running-config también revela las listas de acceso en el router y la información de asignación de interfaz. 
También se recomienda verificar las listas de acceso usando tráfico de ejemplo para asegurarse que la lógica de la lista de acceso sea correcta.
Con la comparación se permite o rechaza el acceso a todo un conjunto de protocolos, según las direcciones de red, subred y host.
Por ejemplo, se verifican los paquetes que vienen en Fa0/0 para establecer la dirección origen y el protocolo.
  En la versión 12.0.1 del IOS de Cisco, se usaron por primera vez números adicionales (1300 al 1999) para las ACLs estándar pudiendo así proveer un máximo posible de 798 ACLs estándar adicionales, a las cuales se les conoce como ACLs IP expandidas.
(también entre 1300 y 1999 en IOS recientes) En la primera sentencia ACL, cabe notar que no hay máscara wildcard.
Esto significa que toda la dirección debe concordar o que esta línea en la ACL no aplica y el router debe buscar una concordancia en la línea siguiente de la ACL.
Por ejemplo, no es suficientemente claro cual es el propósito del siguiente comando: access-list 1 permit 171.69.2.88.
Es mucho mas fácil leer un comentario acerca de un comando para entender sus efectos, así como sigue:
Las ACL extendidas verifican las direcciones de paquetes de origen y destino, y también los protocolos y números de puerto.
Se puede permitir o rechazar el acceso de los paquetes según el lugar donde se originó el paquete y su destino así como el tipo de protocolo y direcciones de puerto.
Una ACL extendida puede permitir el tráfico de correo electrónico de Fa0/0 a destinos específicos S0/0, al mismo tiempo que deniega la transferencia de archivos y la navegación en la red.
Una vez descartados los paquetes, algunos protocolos devuelven un paquete al emisor, indicando que el destino era inalcanzable. 
Cada una de estas sentencias debe tener el mismo número de lista de acceso, para poder relacionar las sentencias con la misma ACL.
Puede haber tanta cantidad de sentencias de condición como sean necesarias, siendo la única limitación la memoria disponible en el router.
Por cierto, cuantas más sentencias se establezcan, mayor será la dificultad para comprender y administrar la ACL.
  La sintaxis de una sentencia ACL extendida puede ser muy extensa y a menudo, se vuelve engorrosa en la ventana terminal.
Las wildcards también tienen la opción de utilizar las palabras clave host o any en el comando.
  Al final de la sentencia de la ACL extendida, se obtiene más precisión con un campo que especifica el Protocolo para el control de la transmisión (TCP) o el número de puerto del Protocolo de datagrama del usuario (UDP).
Las operaciones lógicas pueden especificarse como igual (eq), desigual (neq), mayor a (gt) y menor a (lt) aquéllas que efectuarán las ACL extendidas en protocolos específicos.
Las ACL extendidas utilizan el número de lista de acceso entre 100 y 199 (también entre 2000 y 2699 en IOS recientes).
  El comando ip access-group enlaza una ACL extendida existente a una interfaz.
  Las ACL nombradas IP se introdujeron en el software Cisco IOS Versión 11.2, permitiendo que las ACL extendidas y estándar tuvieran nombres en lugar de números.
Identifica intuitivamente las ACL usando un nombre alfanumérico.  El IOS no limita el número de las ACL nombradas que se pueden configurar.
Las ACL nombradas tienen la capacidad de modificar las ACL sin tener que eliminarlas y luego reconfigurarlas.
Cabe notar que las listas de acceso nombradas permiten eliminar sentencias pero sólo permiten que las sentencias se agreguen al final de la lista.
  Es importante conocer las listas de acceso nombradas debido a las ventajas antes mencionadas.
  La configuración vista crea una ACL estándar llamada filtro de Internet y una ACL extendida llamada “grupo de marketing”.
Las ACL se utilizan para controlar el tráfico, filtrando paquetes y eliminando el tráfico no deseado de la red.
Si las ACL se colocan en el lugar correcto, no sólo es posible filtrar el tráfico sino también toda la red se hace más eficiente.
Si se tiene que filtrar el tráfico, la ACL se debe colocar en un lugar donde mejore la eficiencia de forma significativa. 
  En la figura el administrador quiere denegar el tráfico telnet o FTP del segmento LAN Ethernet del Router A al segmento LAN Ethernet conmutado Fa0/1 en el Router D, y al mismo tiempo permitir otros tipos de tráfico.
Entonces los paquetes no atraviesan la Ethernet del Router A, no atraviesan las interfaces seriales de los Routers B y C, y no entran al Router D. El tráfico con direcciones de origen y destino diferentes todavía puede permitirse.
  La regla es colocar las ACL extendidas lo más cerca posible del origen del tráfico denegado.
Las ACL estándar no especifican las direcciones destino, de modo que se deben colocar lo más cerca posible del destino.
  Un administrador solo puede colocar una lista de acceso en el dispositivo que controla.
De este modo, la ubicación de la lista de acceso se determina según hasta dónde se extienda el control del administrador de la red.
Un firewall es una estructura arquitectónica que existe entre el usuario y el mundo exterior para proteger la red interna de los intrusos.
En la mayoría de los casos, los intrusos provienen de la Internet mundial y de las miles de redes remotas que interconecta.
Normalmente, un firewall de red se compone de varias máquinas diferentes que funcionan al mismo tiempo para impedir el acceso no deseado e ilegal. 
      En esta arquitectura, el router conectado a Internet, es decir el router exterior, obliga todo el tráfico entrante a pasar por el gateway de la aplicación.
El router conectado a la red interna, es decir el router interior, acepta los paquetes provenientes sólo del gateway de aplicación.
En efecto, el gateway controla la entrega de servicios basados en red que entran y salen de la red interna.
Por ejemplo, sólo ciertos usuarios pueden estar autorizados a comunicarse con Internet o sólo a ciertas aplicaciones se les puede permitir establecer conexiones entre un host interior y exterior.
Si la única aplicación que se permite es el correo electrónico, entonces sólo se permiten paquetes de correo electrónico a través del router.
Esto protege el gateway de aplicación y evita que se supere su capacidad con paquetes que de otra manera se descartarían.
  Se deben utilizar ACL en los routers firewall, que a menudo se sitúan entre la red interna y una red externa, como Internet.
Esto permite el control del tráfico entrante o saliente de alguna parte específica de la red interna.
El router firewall proporciona un punto de aislamiento, de manera que el resto de la estructura interna de la red no se vea afectada.
  Se necesita configurar las ACL en routers fronterizos, que son aquellos situados en las fronteras de la red, para brindar mayor seguridad.
Esto proporciona protección básica contra la red externa u otra parte menos controlada de la red, en un área más privada de la red.
En estos routers fronterizos, es posible crear ACLs para cada protocolo de red configurado en las interfaces del router.
Las listas de acceso extendidas y estándar se aplican a paquetes que viajan a través de un router.
Una lista de acceso extendida Telnet saliente, por defecto no impide las sesiones Telnet iniciadas por el router. 
  Del mismo modo que hay puertos físicos o interfaces, como Fa0/0 y S0/0 en el router, también hay puertos virtuales.
Existen cinco líneas vty, numeradas del 0 al 4, como se observa en la figura .
Por razones de seguridad, es posible negar o permitir, a los usuarios, el acceso a la terminal virtual del router, pero se les puede negar el acceso a destinos desde dicho router.
  El objetivo de restringir el acceso vty es aumentar la seguridad de la red.
También se logra el acceso a vty utilizando el protocolo Telnet para realizar una conexión no física con el router.
Es necesario imponer idénticas restricciones a todas las líneas vty, ya que no es posible controlar a qué línea se conectará el usuario.
  El proceso de creación de una lista de acceso vty es igual al descrito para una interfaz.
Sin embargo, para aplicar la ACL a una línea terminal se necesita el comando access-class en vez del access-group.
  Cuando configure las listas de acceso en las líneas vty tenga en consideración lo siguiente:
Cuando controle el acceso a una interfaz, es posible utilizar un número o un nombre.  Sólo se pueden aplicar listas de acceso numeradas a las líneas virtuales.  Imponga restricciones idénticas a todas las líneas de terminal virtual, porque el usuario puede querer conectarse a cualquiera de ellas.
Las ACL desempeñan varias funciones en un router, entre ellas la implementación de procedimientos de seguridad/acceso.  Las ACL se utilizan para controlar y administrar el tráfico.  En algunos protocolos, es posible aplicar dos ACL a una interfaz: una ACL entrante y una saliente.  Mediante el uso de las ACL, una vez que un paquete ha sido asociado a una sentencia ACL, se le puede denegar o permitir el acceso al router.  Los bits de máscara wildcard usan el número uno (1) y el número cero (0) para identificar la manera de tratar los bits de dirección IP correspondientes.  Verificación de la creación y aplicación de las listas de acceso a través del uso de varios comandos show de IOS.  Los dos tipos principales de ACL son: estándar y extendida.  Las ACL nombradas permiten el uso de un nombre para identificar la lista de acceso en lugar de un número.  Las ACL pueden configurarse para todos los protocolos de red enrutados.  Las ACL se ubican en donde se pueda tener un control más eficiente.  Las ACL, en general se usan en routers firewall.  Las listas de acceso pueden también restringir el acceso de la terminal virtual al router.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.