lunes, 9 de marzo de 2015

NORMA IEEE 802.6 PARA REDES DE AREA METROPOLITANA

IEEE 802.6 es un estándar de la serie 802 referido a las redes MAN (Metropolitan Area Network). Actualmente el estándar ha sido abandonado debido a algunos defectos provenientes de este protocolo (no es muy efectivo al conectar muchas estaciones de trabajo) y a que normalmente se utilizan Synchronous Optical Network (SONET) y Asynchronous Tranfer Mode (ATM). Hoy en día se han reemplazado también por otros protocolos sobre Ethernet como Multiprotocol Label Switching (MPLS).
El IEEE 802.6, también llamado DQDB (Distributed Queue Dual Bus, bus doble de colas distribuidas), está formado por dos buses unidireccionales paralelos que serpentean a través del área o ciudad a cubrir.  Es decir, usa dos cables half-duplex por los cuales se recibe y transmiten voz y datos entre un conjunto de nodos.Cada bus tiene un Head-end, el cual genera células para que viajen corriente abajo.

Cuando una estación desea transmitir tiene que confirmar primero la dirección del receptor (si esta a la derecha o a la izquierda) y luego tomar el bus correspondiente. Esto generó un gran problema ya que una vez conformada la red, cada estación tiene que chequear las direcciones de las otras estaciones, generando grandes demoras de tiempo.
Define un protocolo de alta velocidad donde las estaciones enlazadas comparten un bus dual de fibra óptica usando un método de acceso llamado Bus Dual de Cola Distribuida (DQDB). El bus dual provee tolerancia de fallos para mantener las conexiones si el bus se rompe. El estándar MAN esta diseñado para proveer servicios de datos, voz y vídeo en un área metropolitana de aproximadamente 50 kilómetros a tasas de 1.5, 45, y 155 Mbits/seg. DQDB es el protocolo de acceso subyacente para el SMDS (Servicio de Datos de Multimegabits Switcheados), en el que muchos de los portadores públicos son ofrecidos como una manera de construir redes privadas en áreas metropolitana. El DQDB es una red repetidora que switchea celdas de longitud fija de 53 bytes; por consiguiente, es compatible con el Ancho de Banda ISDN y el Modo de Transferencia Asíncrona (ATM). Las celdas son switcheables en la capa de Control de Enlaces Lógicos.
Los servicios de las MAN son Sin Conexión, Orientados a Conexión, y/o isócronas (vídeo en tiempo real). El bus tiene una cantidad de slots de longitud fija en el que son situados los datos para transmitir sobre el bus. Cualquier estación que necesite transmitir simplemente sitúa los datos en uno o más slots. Sin embargo, para servir datos isócronos, los slots en intervalos regulares son reservados para garantizar que los datos llegan a tiempo y en orden.
Las redes metropolitanas siguen estándares entre las LAN y la WAN. Una MAN es una red de distribución de datos para un área geográfica en el entorno de una ciudad. P.ej en un polígono industrial.
Su tasa de error es intermedia entre LAN y WAN. Es menor que en una LAN pero no llega a los niveles de una WAN. P.ej. Televisión por cable en Marín.
 
Funcionalidad: El IEEE ha propuesto la norma 802.6 como estándar para este tipo de redes. Esta normativa propuso inicialmente velocidades de transferencia desde 34 MGb/s hasta 155 MGB/s.

jueves, 5 de marzo de 2015

Normas IEEE 802

IEEE 802.11 – Estándar para redes inalámbricas con línea visual.
Es aplicada a LANs inalámbrica y proporciona 1 o 2 Mbps de transmisión en la  banda de 2.4 GHz que usa cualquier frecuencia que brinca el espectro del cobertor (FHSS) o la sucesión directa del espectro (DSSS).

IEEE 802.11a – Estándar superior al 802.11b, pues permite velocidades teóricas máximas de hasta 54 Mbps, apoyándose en la banda de los 5GHz. A su vez, elimina el problema de las interferencias múltiples que existen en la banda de los 2,4 GHz (hornos microondas, teléfonos digitales DECT, BlueTooth).
Es aplicada a una  LANs inalámbrica. La especificación esta aplicada a los sistemas de ATM inalámbricos

IEEE 802.11b – Extensión de 802.11 para proporcionar 11 Mbps usando DSSS. También conocido comúnmente como Wi-Fi (Wireless Fidelity): Término registrado promulgado por la WECA para certificar productos IEEE 802.11b capaces de ínter operar con los de otros fabricantes. Es el estándar más utilizado en las comunidades inalámbricas.

IEEE 802.11e – Estándar encargado de diferenciar entre video-voz-datos. Su único inconveniente es el encarecimiento de los equipos.
Los proveedores de servicio de banda ancha a la vista QoS y la casa multimedia es capaz de conectar una red de computadoras como un ingrediente esencial a ofrecer. Su acceso de Internet es de gran velocidad. (From NetworkWorldFusion)

IEEE 802.11g – Utiliza la banda de 2,4 GHz, pero permite transmitir sobre ella a velocidades teóricas de 54 Mbps. Se consigue cambiando el modo de modulación de la señal, pasando de 'Complementary Code Keying' a 'Orthogonal Frequency Division Multiplexing'. Así, en vez de tener que adquirir tarjetas inalámbricas nuevas, bastaría con cambiar su firmware interno.

IEEE 802.11i – Conjunto de referencias en el que se apoyará el resto de los estándares, en especial el futuro 802.11a. El 802.11i supone la solución al problema de autenticación al nivel de la capa de acceso al medio, pues sin ésta, es posible crear ataques de denegación de servicio (DoS).
AES es un nivel más fuerte de seguridad que encuentra en la actual Wi-Fi Protección de  norma de seguridad de Acceso. (From NetworkWorldFusion)

IEEE 802.12 - Comité para formar el estándar de 100 base VG que sustituye CSMA/CD por asignación de prioridades.

IEEE 802.14 - Comité para formar el estándar de 100 base VG sin sustituir CSMA/CD.

IEEE 802.15 - Grupo del Funcionamiento propone dos categorías generales de 802.15, llamado TG4  (la proporción baja) y TG3 (la proporción alta). La versión de TG4 proporciona velocidades de los datos de 20 Kbps o 250 Kbps. La versión de TG3 apoya que los datos se aceleran yendo de 11 Mbps a 55 Mbps. Los rasgos adicionales incluyen el uso de a a 254 dispositivos de la red, dirigiéndose al dispositivo dinámico, apoyado para dispositivos en que la latencia es el apretón de manos crítico, la seguridad aprovisiona, y direcciona el poder. Habrá 16 cauces en la banda de 2.4-GHz, 10 cauces en la banda de 915-MHz , y un cauce en la banda de 868-MHz .

IEEE 802.16 - son un grupo de banda ancha de normas de comunicaciones inalámbricas para las redes del área metropolitanas (Tripula) desarrollado por un grupo activo del Instituto de ingenieros electricos y electronicos (IEEE). La normal original 802.16 , publicó en el 2001 de diciembre, especificando por punto la banda ancha de sistemas inalámbricos que operan en los 10-66 GHz autorizaron el espectro. Una enmendadura, 802.16a, aceptado en el 2003 de enero, las extensiones especificadas 2-11 GHz del espectro, entregando a 70 Mbps  distancias a 31 millas. Oficialmente llamado la especificación de WirelessMAN™, se esperan normas 802.16  para habilitar las aplicaciones multimedias con la conexión inalámbrica y, con un rango de 30 millas, que proporcione una última milla tecnologica viable.
 
Un grupo más temprano de normas de IEEE, las especificaciones 802.11, proporciona una alternativa inalámbrica a Ethernet LANs (el área local conecta una red de computadoras); se espera que la norma 802.16 complemente éstos permitiendo una alternativa inalámbrica a T1 une las oficinas que une a nosotros y a Internet. Aunque las primeras enmendaduras a la norma sólo son para las conexiones inalámbricas fijas, se espera que una enmendadura extensa, 802.16e, habilite las conexiones para los dispositivos móviles.
 

IEEE 802.2 - Define los métodos para controlar las tareas de interacción entre la tarjeta de red y el procesador (nivel 2 y 3 del OSI) llamado LLC.
El 10 de diciembre de 2003, la Norma IEEE-SA aprobó la reafirmacion de Norma 802.2.

IEEE 802.3 – Define las formas de protocolos Ethernet CSMA/CD en sus diferentes medios físicos (cables).
 
son una especificación para norma Ethernet, un método de comunicación física en una red de área local (LAN) que se mantiene por el Instituto de Ingenieros Eléctricos y  Electrónicos (IEEE). en general, 802.3 especifican los medios de comunicación físicos y las características activas de Ethernet. El Ethernet original apoya una proporción del datos de 10 megabits por segundo (Mbps) y especifica estos posibles medios físicos de comunicación:
 
10BASE-2 (cable coaxial con una longitud máxima de 185 metros) 
10BASE-5 (cable coaxial con una longitud máxima de 500 metros) 
10BASE-F (cable de fibra óptica) 
10BASE-T (teléfono ordinario de par de alambre) 
10BASE-36 (el multi-cauce de la banda ancha cable coaxial con una longitud máxima de 3,600 metros)
 
Esta designación es una taquigrafía identificador  IEEE. Los "10" en los medios de comunicación teclean que la designación, se refiere a la velocidad de la transmisión de 10 Mbps. La BASE se refiere al banda base señala que medios que se llevan son sólo signos de Ethernet en el medio (o, con 10BASE-36, en un solo cauce). El "T" representa el par de alambre; el "F" representa cable de fibra óptica; y los "2", "5", y "36" se refieren a la longitud del cable coaxial (los 185 metros de longitud ha dependido alrededor de "2" para 200).
 
IEEE 802.4 – Define cuadros Token Bus tipo ARCNET.

IEEE 802.5 – Define hardware para Token Ring.
Una topología en anillo es una arquitectura de LAN que consta una serie de dispositivos conectados el uno con el otro por medio de enlaces de transmisión unidireccionales para formar un lazo cerrado. Tanto Token Ring/IEEE 802.5, como FDDI implementan una topología en anillo.


IEEE 802.6 – Especificación para redes tipo MAN.

IEEE 802.7 – Especificaciones de redes con mayores anchos de banda con la posibilidad de transmitir datos, sonido e imágenes.

IEEE 802.8 – Especificación para redes de fibra óptica time Token Passing/FDDI.

IEEE 802.9 - Especificaciones de redes digitales que incluyen video

domingo, 22 de febrero de 2015

PROTOCOLO DE ACCESO CSMA/CD

Cuando la interfaz del servidor tiene un paquete para transmitir, escucha en la línea para determinar si hay mensajes siendo transmitidos. Si no detecta transmisión alguna, la interfaz comienza a enviar. Cada transmisión está limitada en el tiempo, pues existe un tamaño máximo de paquete. Cuando un transceiver comienza a transmitir, la señal no llega a cada punto de la red simultáneamente, a pesar de que viaja a casi un 80% de la velocidad de la luz. Por lo anterior, es posible que 2 transceivers determinen que la red está ociosa y comiencen a transmitir al mismo tiempo; provocando la colisión de las dos señales.
Detección de Colisiones (CD): Cada transceiver monitorea el cable mientras está transfiriendo para verificar que una señal externa no interfiera con la suya. Cuando una colisión es detectada, la interfaz aborta la transmisión y espera hasta que la actividad cese antes de volver a intentar la transmisión. Política de retención exponencial. El emisor espera un tiempo aleatorio después de la primera colisión; un periodo de espera 2 veces más largo que el primero en caso de una segunda colisión; 4 veces más largo la próxima vez, etc., reduciendo así al máximo la probabilidad de colisión.
Otro modo de explicarlo es:
El protocolo CSMA/CD funciona de algún modo como una conversación en una habitación oscura.
Todo el mundo escucha hasta que se produce un periodo de silencio, antes de hablar (CS, detección de portadora).
Una vez que hay silencio, todo el mundo tiene las mismas oportunidades de decir algo (Acceso Múltiple).
Si dos personas empiezan a hablar al mismo tiempo, se dan cuenta de ello y dejan de hablar (Detección de Colisiones.)

PROTOCOLOS DE ACCESO MÚLTIPLE CON DETECCIÓN DE PORTADORA

En ALOHA las estaciones se ponían a transmitir sin preguntar si el medio está libre. Veamos ahora protocolos más 'diplomáticos', que antes de ponerse a hablar miran si alguien ya lo está haciendo. Estos protocolos se denominan de acceso múltiple con detección de portadora o CSMA (Carrier Sense Multiple Access). Esto permite hacer un uso más eficiente del canal, y llegar a mayores grados de ocupación.
CSMA 1-persistente
En su nivel más primitivo el protocolo CSMA hace lo siguiente: cuando tiene una trama lista para enviar primero escucha el canal para saber si está libre; si lo está envía la trama; en caso contrario espera a que se libere y en ese momento envía la trama. Este protocolo se denomina CSMA 1-persistente porque hay una probabilidad 1 (es decir certeza) de que la trama se transmita cuando el canal esté libre.
En una situación real con tráfico intenso es muy posible que cuando un ordenador termine de transmitir haya ya una 'cola' de ordenadores esperando para enviar su trama; con CSMA 1-persistente es altamente probable que todas esas tramas sean emitidas a la vez y colisionen, pudiéndose repetir este proceso varias veces con la consiguiente degradación del rendimiento. De hecho no hace falta que lo hagan exactamente a la vez: basta con que empiecen a transmitir con una diferencia de tiempos menor que la distancia que los separa, ya que en tal caso detectarán el canal libre en el momento de iniciar la transmisión; por ejemplo, supongamos dos ordenadores unidos por un cable de un kilómetro de longitud, con lo que la señal emitida por uno tardará unos 5 m s en llegar al otro; si la diferencia de tiempo con la que ambos empiezan a emitir es menor de 5 m s se producirá una colisión, pues el segundo no habrá recibido la señal del primero a tiempo de evitarla. En este tipo de redes el retardo de propagación de la señal puede tener un efecto importante en el rendimiento.
A pesar de sus inconvenientes el CSMA 1-persistente supone un avance respecto al ALOHA ranurado, ya que toma la precaución de averiguar antes si el canal está disponible, con lo que se evitan un buen número de colisiones. Suponiendo distribución de Poisson la máxima eficiencia puede llegar al 55% aproximadamente, obteniéndose ésta con un grado de ocupación del 100%. Como veremos más tarde el funcionamiento de Ethernet corresponde hasta cierto punto con el de CSMA 1-persistente.
CSMA no persistente
En un intento por resolver el problema del protocolo anterior podemos adoptar la estrategia siguiente: antes de enviar escuchamos, si el canal está libre transmitimos, pero si está ocupado, en vez de estar a la escucha, pendientes de usarlo en cuanto se libere, esperamos un tiempo aleatorio después del cual repetimos el proceso; A este protocolo se le denomina CSMA no persistente. Intuitivamente podemos predecir que dará una menor eficiencia que CSMA 1-persistente para tráficos moderados (pues introduce una mayor latencia), pero se comportará mejor en situaciones de tráfico elevado pues evita el efecto 'cola de espera' y las colisiones que en consecuencia se producen. La simulación matemática confirma esta suposición.
CSMA p-persistente
Tratemos ahora de diseñar un protocolo híbrido, que combine las ventajas de los dos anteriores. Tendrá el rendimiento de CSMA 1-persistente en tráficos moderados y el de CSMA no persistente en tráficos intensos. Este protocolo se denomina CSMA p-persistente y se aplica a canales a intervalos o ranurados. El funcionamiento es el siguiente: cuando el ordenador tiene algo que enviar primero escucha el canal; si está libre transmite, en caso contrario espera; cuando se ha liberado transmite con una probabilidad p (o no transmite con una probabilidad q=1-p); si no ha transmitido en el primer intervalo el ciclo se repite, es decir transmite con una probabilidad p (o no transmite con una probabilidad q). El proceso se repite hasta que finalmente la trama es transmitida o bien otro ordenador utiliza el canal, en cuyo caso espera un tiempo aleatorio y empieza de nuevo el proceso.
Ajustando el valor del parámetro p se puede regular el funcionamiento de este protocolo entre el de CSMA.1-persistente y el de CSMA no persistente. Su eficiencia es en general superior a la de ambos.
CSMA con detección de colisión
Hasta ahora, una vez habían empezado a transmitir una trama los ordenadores seguían transmitiendo aun cuando detectaran que había una colisión. En ese caso sería más eficiente parar de transmitir, ya que la trama será errónea e inútil. Este tipo de protocolo se conoce comoCSMA/CD (Carrier Sense Multiple Access with Collision Detection, acceso múltiple detección de portadora con detección de colisiones), y se utiliza en la red local IEEE 802.3, también conocida como Ethernet, en sus múltiples variantes.
En una red CSMA/CD la única circunstancia en la que puede producirse una colisión es cuando dos ordenadores empiezan a transmitir a la vez, o con una diferencia de tiempo lo bastante pequeña como para que la señal de uno no haya podido llegar al otro antes de que éste empiece a transmitir. Supongamos que tenemos dos ordenadores A y B situados en extremos opuestos de la red, y que el tiempo que la señal tarda en propagarse de un extremo a otro de la red es t; cabría pensar que pasado ese tiempo t desde que A empieza a transmitir ya puede estar seguro de que no se producirán colisiones; sin embargo esta suposición es incorrecta, ya que B podría haber empezado a transmitir justo en el instante t -e, o sea inmediatamente antes de que le haya llegado la trama de A; por tanto sólo después de un tiempo 2t puede A estar seguro de haberse `apoderado' del canal de transmisión.
Dado que el período de incertidumbre en CSMA/CD se reduce a ese intervalo 2t estas redes se suelen modelar como un sistema ALOHA ranurado con intervalos de tamaño 2t.


REDES DE ÁREA LOCAL

QUE ES UNA RED LAN?

Una LAN es una red que conecta los ordenadores en un área relativamente pequeña y predeterminada (como una habitación, un edificio, o un conjunto de edificios). Las redes LAN se pueden conectar entre ellas a través de líneas telefónicas y ondas de radio. 
La red de área local nos va a permitir compartir bases de datos, programas y periféricos como puede ser un módem, una impresora, un escáner, entre otros; poniendo a nuestra disposición otros medios de comunicación como pueden ser el correo electrónico y el chat. Además una red de área local sobrelleva un importante ahorro, tanto de dinero, ya que no es preciso comprar muchos periféricos, se consume menos papel, y en una conexión a Internet se puede utilizar una única conexión telefónica compartida por varios ordenadores conectados en red; como de tiempo, ya que se logra gestión de la información y del trabajo.
Las redes locales permiten interconectar ordenadores que estén dentro de un mismo edificio (ya sea dentro del mismo edificio como a otro que se encuentra a cierta distancia), pero siempre teniendo en cuenta que el medio físico que los une no puede tener más de unos miles de metros.
Además, cabe resaltar que una red LAN puede estar conectada a otra por medio de una red WAN (WAN, Wide Area Network), las cuales se sirven de otras redes de comunicaciones como puede ser la red telefónica para transmitir información entre los ordenadores comunicantes.


VENTAJAS

  • Se pueden compartir periféricos como: son impresoras, módems, scanners, entre otros dispositivos.
  • Se pueden compartir grandes cantidades de información mediante el empleo de gestores de bases de datos en red. Con ello se evita la redundancia de datos y se facilita el acceso y la actualización de los datos.
  • La red se convierte en un mecanismo de comunicación entre los usuarios conectados a ella, ya que permite el envío de mensajes mediante el empleo del correo electrónico, ya sea entre usuarios de la red local o entre usuarios de otras redes o sistemas informáticos, programando reuniones o intercambiando ficheros de todo tipo.
  • Se aumenta la eficiencia de los ordenadores, poniendo a disposición del usuario todo un sistema que hace que las consultas sean más rápidas y cómodas.
  • Se trata de un sistema completamente seguro, pudiendo impedirse que determinados usuarios accedan a áreas de información concretas, o que puedan leer la información pero no modificarla. El acceso a la red está controlado mediante nombres de usuario y claves de acceso. El control de los usuarios que acceden a la red lo lleva a cabo el sistema operativo. El control de los usuarios que acceden a la información lo lleva a cabo el software de gestión de bases de datos que se esté empleando.
Los sistemas operativos de red intentan dar la sensación de que los recursos remotos a los que accede el usuario son locales al ordenador desde el cual está trabajando el usuario. Por ejemplo, un usuario puede estar consultando la información de una base de datos. El usuario en ningún momento tiene conocimiento de si la información a la cual está accediendo se encuentra en su propio ordenador o en otro distinto dentro de su red local o en cualquier otra parte del mundo.

Creación de una red LAN


Cuando tiene varios equipos, puede ser conveniente conectarlos entre sí para crear una red de área local (LAN). A diferencia de lo que la gente cree, el costo por configurar una red con estas características es muy reducido.
Existen dos clases principales de arquitectura de red local:
  • Las redes conectadas, basadas en la tecnología Ethernet, que representan a la mayoría de las conexiones locales. Muchas veces se las denomina redes RJ45 ya que, por lo general, las redes Ethernet usan cables RJ45.
  • Las redes inalámbricas, que generalmente usan la tecnología WiFi, correponden a este tipo.
Para crear una Red RJ45 necesitamos:

  • Varios equipos con el sistema operativo Windows instalado (es posible tener dos equipos con diferentes versiones de Windows en la misma red);
  • Tarjetas Ethernet conectadas a un puerto ISA o PCI (con un conector RJ45) o integradas a la placa madre. Asegúrese de que los diodos de la parte posterior de la tarjeta de red, si corresponde, se enciendan cuando el equipo esté encendido y de que el cable esté conectado. También existen adaptadores de red para puertos USB, especialmente en el caso de los adaptadores de red inalámbrica.
  • Los cables RJ45 en el caso de las redes conectadas;
  • Un hub, dispositivo al que se pueden conectar los cables RJ45 desde diferentes equipos de la red, que no son costosos, un conmutador o, como alternativa, un cable cruzado, si desea conectar sólo dos equipos.



INTRODUCCIÓN A LAS REDES DE COMPUTADORAS

SI QUIERES CONOCER DE FORMA FÁCIL, PRÁCTICA Y RESUMIDA SOBRE LAS REDES DE COMPUTADORAS INGRESA AQUÍ :


        
  


viernes, 20 de febrero de 2015

PRINCIPALES PROTOCOLOS DE LA CAPA DE ENLACE


El propósito principal de los protocolos de enlace de datos es garantizar que la comunicación entre dos máquinas directamente conectadas esté libre de errores.Para conseguir este objetivo, habitualmente se divide la información a transmitir en pequeños bloques de datos, cada uno de los cuales lleva asociado un código detector de error y un número de secuencia. Dichos bloques se envían de forma secuencial y si uno de ellos sufre un error será reenviado por el transmisor. De esta forma, se consigue que un error no implique a la retransmisión de todo el mensaje, sino sólo una pequeña parte de él.Otra posibilidad es incluir suficiente información de control en cada bloque de forma que el receptor pueda ser capaz de reconstruir la información original en caso de que llegue errónea. Puesto que esa información redundante crece exponencialmente con el tamaño de la información, generalmente no se utiliza y se gana en eficiencia cuando se retransmite en bloque dañado.


Protocolo simplex sin restricciones


Los datos se transmiten en una dirección, las capas de red en el transmisor y receptor siempre están listas, el tiempo de procesamiento puede ignorarse, espacio infinito de buffer, canal libre errores.

Dos procedimientos diferentes, uno transmisor y uno receptor que se ejecutan en la capas de enlace. Transmisor solo envía datos a la línea, obtiene un paquete de la capa de red, construye un frame de salida y lo envía a su destino. Receptor espera la llegada de un frame.




Protocolo simplex de parada y espera

El receptor no es capaz de procesar datos de entrada con una rapidez infinita, el receptor debe proporcionar realimentación al transmisor, el transmisor envía un frame y luego espera acuse antes de continuar.

Protocolo simplex para un canal ruidoso

Canal presenta errores, los frame pueden llegar dañados o perderse por completo. Agregar un temporizador, falla si el frame de acuse se pierde pues se retransmitirá el frame. Se debe agregar un numero de secuencia en el encabezado de cada frame que se envía.



Protocolo de ventana corrediza

Usar el mismo circuito para datos en ambas direcciones. Se mezclan los frames de datos con los frame de acuse de recibido, el receptor analiza el campo de tipo en el encabezado de un frame de entrada para determinar si es de datos o acuse.

Entre sus principales ventajas resaltan:

  • Incorporación, retardo temporal de los acuses para que puedan colgarse del siguiente frame de datos de salida, usando el campo ack del encabezado del frame
  • Mejor aprovechamiento del ancho de banda del canal, no son frames independientes
  • Si no llega un nuevo frame en un tiempo predeterminado, la capa de enlace de datos manda un frame de acuse independiente.
En todos los protocolos de ventana corrediza, cada frame de salida contiene un número de secuencia con un intervalo que va desde 0 hasta algún máximo. El máximo es generalmente 2(n) -1, por lo que el número de secuencia cabe bien en un campo de n bits.



Protocolo de ventana corrediza de un bit

Usa parada y espera, ya que el transmisor envía un frame y espera su acuse antes de transmitir el siguiente. La máquina que arranca obtiene su primer paquete de su capa de red, construye un frame a partir de él y lo envía. Al llegar este frame, la capa de enlace de datos receptor lo revisa para ver si es un duplicado. Si el marco es el esperado, se pasa a la capa de red y la ventana del receptor se recorre hacia arriba.
El campo de acuse contiene el número del último frame recibido sin error. Si este número concuerda con el número de secuencia del marco que está tratando de enviar el transmisor, éste sabe que ha terminado con el marco almacenado en el buffer y que puede obtener el siguiente paquete de su capa de red. Si el número de secuencia no concuerda con el número, debe continuar intentando enviar el mismo frame.
Por cada frame que se recibe, se envía un frame de regreso. Problema si el transmisor tiene un temporizador corto, ya que enviará varias veces el frame, sin embargo el receptor sólo aceptará el frame una vez y no entregará frames repetidos a la capa de red.



CORRECCIÓN DE ERRORES

Los mecanismos explicados detectan errores pero no los corrigen. La corrección del error se puede conseguir de dos formas, en la primera, cuando de descubre un error el receptor puede pedir al emisor que retransmita toda la unidad de datos, con la segunda, el receptor puede usar un código de corrección de errores que corrija automáticamente determinados errores. En teoría es posible corregir automáticamente cualquier error en un código binario, sin embargo los códigos de corrección son más sofisticados que los de detección y necesitan mas bits de redundancia, el número de bits necesarios es tan alto que su uso no es eficiente, por esa razón la mayoría de la corrección se limita a errores de tres bits o menos.

Corrección de errores de un único bit

El concepto de la corrección de errores se puede comprender con el caso más sencillo: el error de un único bit. Un error de un bit supone que un bit ha cambiado de un 0 a un 1 o de un 1 a un 0, para corregir el error, el receptor sólo tiene que invertir el valor del bit alterado, sin embargo, para hacer eso, el receptor debe saber en qué bit está el error, por lo que el secreto de la corrección de errores es localizar el bit o bits inválidos. La cuestión es el uso de los bits de redundancia para la corrección. Ahora bien ¿cuantos bits de redundancia usar?
 
Para calculas el número de bits de redundancia r necesarios para corregir un número de bits de datos m, es necesario encontrar una relación entre m y r.
Si a m de datos bits se le añaden r bits de redundancia, la unidad transmitida es m+r, los bits de redundancia r deben ser capaces de indicar todas las posibilidades de error de 1 bit posibles, incluyendo el no error, que en m+r bits es de m+r+1 posibilidades (no error, error en bit0, error en bit 1, etc), por ello r debe ser capaz de indicar todas esos estados. Dado que los r bits pueden representar 2r estados, entonces r debe ser tal que 2r ≥ m + r + 1. 

Código Hamming

Se pueden utilizar los bits de redundancia para corregir errores, pero ¿cómo se manipulan esos bits para descubrir en qué posición se ha producido el error? R. W. Hamming desarrolló una técnica que proporciona una solución práctica. El código Hamming se puede aplicar a unidades de datos de cualquier longitud y usa la relación de bits de datos y de redundancia. En el código cada bit r es el bit de VRC (redundancia vertical) para una combinación de bits de datos. Por ejemplo, un dato de 7 bits necesita 4 bits de redundancia, los colocaremos en las posiciones 1, 2, 4 y 8, con lo que la secuencia transmitida es la que indica la figura.

Detección y corrección 

El receptor recibe la transmisión, toma los datos y recalcula cuatro nuevos VRC usando el mismo conjunto de bits usados en el cálculo en el emisor, a continuación reensambla los nuevos valores de paridad siguiendo el orden de la posición (r8, r4, r2, r1) la cifra resultante indica si ha habido error y en qué bit se ha producido. Si el resultado es 0000 no ha habido error, cualquier otro resultado indica error y bit erróneo. Una vez identificado el bit erróneo, el receptor puede cambiar el valor de ese bit para corregir el error.
Corrección de errores de ráfaga.
Se puede diseñar un código Hamming para corregir errores de ráfaga de una cierta longitud, sin embargo el número de bits de redundancia necesarios es muy elevado, porque los errores pueden ser de tantos bits pero pueden estar en cualquiera de los bits de la cadena transmitida.