uso de las computadoras

ESCUELA PREPARATORIA OFICIAL ANEXA A LA NORMAL DE ATLACOMULCO

ALUMNAS:Ø     Ximena Lovera Montoya
Ø     Litzy Magali ortega Mondragón
Ø     Victoria Ortiz Longinos

DOCENTE:
Octavio Alcántara Martínez
INFORMÁTICA Y COMPUTACIÓN
ABRIL 2017
1.1 USOS DE LAS REDES DE COMPUTADORAS
Antes de empezar a examinar con detalle los elementos técnicos, vale la pena dedicar algo de tiempo a precisar por qué la gente se interesa en las redes de computadoras y para qué se pueden utilizar. Después de todo, si nadie se hubiera interesado en ellas, no se habrían construido tantas. Empezaremos con el uso tradicional que les dan las empresas y los individuos, y luego avanzaremos a los últimos desarrollos con respecto a los usuarios móviles y la conexión de redes domésticas.
Descripción: Resultado de imagen para redes domesticas
1.1.1 Aplicaciones de negocios
Muchas compañías tienen una cantidad considerable de computadoras. Por ejemplo, una compañía podría tener computadoras separadas para supervisar la producción, controlar inventarios y hacer la nómina. Al principio estas computadoras tal vez hayan trabajado por separado pero, en algún momento, la administración decidió conectarlas para extraer y correlacionar información acerca de toda la compañía.
Dicho de una manera más general, el asunto aquí es la compartición de recursos y el objetivo es hacer que todos los programas, el equipo y, en particular, los datos estén disponibles para todos los que se conecten a la red, independientemente de la ubicación física del recurso y del usuario.
Un ejemplo claro y muy difundido es el de un grupo de oficinistas que comparten una impresora.
Ninguno de los individuos necesita una impresora privada, y una impresora de alto volumen en red suele ser más barata, rápida y fácil de mantener que varias impresoras individuales.
Sin embargo, compartir información es tal vez más importante que compartir recursos físicos, como impresoras, escáneres y quemadores de CDs. Para las compañías grandes y medianas, así como para muchas pequeñas, la información computarizada es vital. La mayoría de las compañías tiene en línea registros de clientes, inventarios, cuentas por cobrar, estados financieros, información de impuestos, etcétera. Si todas las computadoras de un banco se cayeran, éste no duraría más de cinco minutos. Una moderna planta manufacturera, con una línea de ensamblado controlada por computadora, ni siquiera duraría ese tiempo. Incluso una pequeña agencia de viajes o un despacho jurídico de tres personas, ahora dependen en gran medida de las redes de computadoras para que sus empleados puedan tener acceso de manera instantánea a la información y a los documentos importantes.
En las compañías más pequeñas, es posible que todas las computadoras estén en una sola oficina o en un solo edificio, pero en las más grandes, las computadoras y los empleados pueden estar dispersos en docenas de oficinas y plantas en varios países. No obstante, un vendedor en Nueva York podría requerir algunas veces tener acceso a una base de datos de inventario de productos que se encuentra en Singapur. En otras palabras, el hecho de que un usuario esté a 15,000 km de sus datos no debe ser impedimento para que utilice esos datos como si fueran locales. Esta meta se podría resumir diciendo que es un intento por acabar con la “tiranía de la geografía”.
En términos aún más sencillos, es posible imaginar el sistema de información de una compañía como si consistiera en una o más bases de datos y algunos empleados que necesitan acceder a ellas de manera remota. En este modelo, los datos están almacenados en computadoras poderosas que se llaman servidores. Con frecuencia, éstos se encuentran alojados en una central y un administrador de sistemas les da mantenimiento. En contraste, los empleados tienen en sus escritorios máquinas más sencillas, llamadas clientes, con las que pueden acceder a datos remotos —por ejemplo, para incluirlos en las hojas de cálculo que están elaborando. (Algunas veces nos referiremos a los usuarios de las máquinas como “el cliente”, pero debe quedar claro, por el contexto, si el término se refiere a la computadora o a su usuario.) Las máquinas cliente y servidor están conectadas por una red.
Descripción: Resultado de imagen para imagenes de red cliente servidor
Este conjunto se conoce como modelo cliente-servidor.
 Se utiliza ampliamente y forma la base en gran medida del uso de redes. Es aplicable cuando el cliente y el servidor están en el mismo edificio (por ejemplo, cuando pertenecen a la misma compañía), pero también cuando están bastante retirados. Por ejemplo, cuando una persona en casa accede a una página Web, se emplea el mismo modelo, en el que el servidor remoto de Web es el servidor y la computadora personal del usuario es el cliente. En la mayoría de los casos, un servidor puede manejar una gran cantidad de clientes.     
Si vemos el modelo cliente-servidor en detalle, nos daremos cuenta de que hay dos procesos involucrados, uno en la máquina cliente y otro en la máquina servidor. Lacomunicación toma la siguiente forma: el proceso cliente envía una solicitud a través de la red al proceso servidor y espera una respuesta. Cuando el proceso servidor recibe la solicitud, realiza el trabajo que se le pide o busca los datos solicitados y devuelve una respuesta.
Un segundo objetivo de la configuración de una red de computadoras tiene que ver más con la gente que con la información e, incluso, con las computadoras mismas. Una red de computadoras
Red es un poderoso medio de comunicación entre los empleados. Casi todas las compañías que tienen dos o más computadoras cuentan con correo electrónico, mediante el cual los empleados mantienen generalmente una comunicación diaria. De hecho, una queja común es la gran cantidad de correo electrónico que tenemos que atender, mucho de él sin sentido porque los jefes han descubierto que pueden enviar el mismo mensaje (a menudo sin contenido) a todos sus subordinados con sólo oprimir un botón.
Pero el correo electrónico no es la única forma de comunicación mejorada que las redes de computadoras hacen posible. Con una red es fácil que dos o más personas que trabajan a distancia escriban en conjunto un informe. Si un empleado hace un cambio a un documento en línea, los demás pueden ver el cambio de inmediato, en vez de esperar una carta durante varios días. Esta agilización facilita la cooperación entre grupos de personas que no se encuentran en el mismo lugar, lo cual antes había sido imposible.
Otra forma de comunicación asistida por computadora es la videoconferencia. Con esta tecnología, los empleados en ubicaciones distantes pueden tener una reunión, viéndose y escuchándose unos a otros e incluso escribiendo en una pizarra virtual compartida. La videoconferencia es
una herramienta poderosa para eliminar el costo y el tiempo que anteriormente se empleaba en viajar. A veces se dice que la comunicación y el transporte están en competencia, y que el que gane hará obsoleto al otro.
Una tercera meta para cada vez más compañías es hacer negocios de manera electrónica con otras compañías, sobre todo proveedores y clientes. Por ejemplo, los fabricantes de automóviles, de aviones, de computadoras, etcétera, compran subsistemas de diversos proveedores y luego ensamblan las partes. Mediante las redes de computadoras los fabricantes pueden hacer pedidos electrónicamente conforme se requieran. Tener la capacidad de hacer pedidos en tiempo real (es decir, conforme se requieren) reduce la necesidad de tener grandes inventarios y mejora la eficiencia.
Una cuarta meta que se está volviendo más importante es la de hacer negocios con consumidores a través de Internet. Las líneas aéreas, las librerías y los vendedores de música han descubierto que muchos consumidores prefieren realizar sus compras desde casa. Por consiguiente, muchas compañías proporcionan en línea catálogos de sus productos y servicios y levantan pedidos de la misma manera. Se espera que este sector crezca rápidamente en el futuro. Es lo que se conoce como comercio electrónico.
1.1.2 Aplicaciones domésticas
En 1977 Ken Olsen era presidente de Digital Equipment Corporation, que en esa época era el segundo proveedor de computadoras en el mundo (después de IBM). Cuando se le preguntó por qué Digital no perseguía el mercado de las computadoras personales en gran volumen, contestó:
“No hay razón alguna para que un individuo tenga una computadora en su casa”. La historia demostró lo contrario y Digital ya no existe. ¿Por qué la gente compra computadoras para uso doméstico?
En principio, para procesamiento de texto y juegos, pero en los últimos años esto ha cambiado radicalmente. Tal vez la razón más importante ahora sea por el acceso a Internet. Algunos de los usos más comunes de Internet por parte de usuarios domésticos son los siguientes:
v     Acceso a información remota.
v     Comunicación de persona a       persona.
v     Entretenimiento interactivo.
v     Comercio electrónico.
El acceso a la información remota se puede realizar por diversas razones. Puede ser que navegue por World Wide Web para obtener información o sólo por diversión. La información disponible incluye artes, negocios, cocina, gobiernos, salud, historia, pasatiempos, recreación, ciencia, deportes, viajes y muchas otras cosas más. La diversión viene en demasiadas formas como para mencionarlas, más algunas otras que es mejor no mencionar.
Muchos periódicos ahora están disponibles en línea y pueden personalizarse. Por ejemplo, en algunos casos le puede indicar a un periódico que desea toda la información acerca de políticos corruptos, incendios, escándalos que involucran a las celebridades y epidemias, pero nada sobre fútbol. Incluso puede hacer que los artículos que usted desea se descarguen en su disco duro o se impriman mientras usted duerme, para que cuando se levante a desayunar los tenga disponibles.
Mientras continúe esta tendencia, se provocará el desempleo masivo de los niños de 12 años que entregan los diarios, pero los periódicos lo quieren así porque la distribución siempre ha sido el punto débil en la gran cadena de producción.
El tema más importante después de los periódicos (además de las revistas y periódicos científicos) son las bibliotecas digitales en línea. Muchas organizaciones profesionales, como la ACM
(www.acm.org) y la Sociedad de Computación del IEEE (www.computer.org), ya cuentan con muchos periódicos y presentaciones de conferencias en línea. Otros grupos están creciendo de manera rápida. Dependiendo del costo, tamaño y peso de las computadoras portátiles, los libros impresos podrían llegar a ser obsoletos. Los escépticos deben tomar en cuenta el efecto que la imprenta tuvo sobre los manuscritos ilustrados del medioevo.
Todas las aplicaciones anteriores implican las interacciones entre una persona y una base de datos remota llena de información. La segunda gran categoría del uso de redes es la comunicación de persona a persona, básicamente la respuesta del siglo XXI al teléfono del siglo XIX. Millones de personas en todo el mundo utilizan a diario el correo electrónico y su uso está creciendo rápidamente. Ya es muy común que contenga audio y vídeo, así como texto y figuras. Los aromas podrían tardar un poco más. Descripción: Resultado de imagen para clientes y servidores fijos
1.1.3 Usuarios móviles
Las computadoras portátiles, como las notebook y los asistentes personales digitales (PDAs), son uno de los segmentos de crecimiento más rápido de la industria de la computación.
Muchos propietarios de estas computadoras poseen máquinas de escritorio en la oficina y desean estar conectados a su base doméstica cuando están de viaje o fuera de casa. Puesto que no es posible tener una conexión alámbrica en autos y aviones, hay un gran interés en las redes inalámbricas.
En esta sección veremos brevemente algunos usos de ellas.
¿Por qué querría alguien una? Un argumento común es la oficina portátil. Con frecuencia, las personas que están de viaje desean utilizar sus equipos portátiles para enviar y recibir llamadas telefónicas, faxes y correo electrónico, navegar en Web, acceder a archivos remotos e iniciar sesión en máquinas remotas. Y desean hacer esto desde cualquier punto, ya sea por tierra, mar o aire. Por ejemplo, actualmente en las conferencias por computadora, los organizadores suelen configurar una red inalámbrica en el área de la conferencia. Cualquiera que tenga una computadora portátil y un módem inalámbrico puede conectarse a Internet, como si la computadora estuviera conectada a una red alámbrica (cableada). Del mismo modo, algunas universidades han instalado redes inalámbricas en sus campus para que los estudiantes se puedan sentar entre los árboles y consultar los archivos de la biblioteca o leer su correo electrónico.


Descripción: Resultado de imagen para redes moviles

1.1.2 Aplicaciones domésticas
En 1977 Ken Olsen era presidente de Digital Equipment Corporation, que en esa época era el
segundo proveedor de computadoras en el mundo (después de IBM). Cuando se le preguntó por
qué Digital no perseguía el mercado de las computadoras personales en gran volumen, contestó:
“No hay razón alguna para que un individuo tenga una computadora en su casa”. La historia
demostró lo contrario y Digital ya no existe. ¿Por qué la gente compra computadoras para uso doméstico?
En principio, para procesamiento de texto y juegos, pero en los últimos años esto ha cambiado
radicalmente. Tal vez la razón más importante ahora sea por el acceso a Internet. Algunos
de los usos más comunes de Internet por parte de usuarios domésticos son los siguientes:

·        1. Acceso a información remota.
·        2. Comunicación de persona a persona.
·        3. Entretenimiento interactivo.
·        4. Comercio electrónico.

El acceso a la información remota se puede realizar por diversas razones. Puede ser que navegue
por World Wide Web para obtener información o sólo por diversión. La información disponible
incluye artes, negocios, cocina, gobiernos, salud, historia, pasatiempos, recreación, ciencia, deportes,
viajes y muchas otras cosas más. La diversión viene en demasiadas formas como para mencionarlas,
más algunas otras que es mejor no mencionar.
Muchos periódicos ahora están disponibles en línea y pueden personalizarse. Por ejemplo, en
algunos casos le puede indicar a un periódico que desea toda la información acerca de políticos
corruptos, incendios, escándalos que involucran a las celebridades y epidemias, pero nada sobre
fútbol. Incluso puede hacer que los artículos que usted desea se descarguen en su disco duro o se
impriman mientras usted duerme, para que cuando se levante a desayunar los tenga disponibles.
Mientras continúe esta tendencia, se provocará el desempleo masivo de los niños de 12 años que
entregan los diarios, pero los periódicos lo quieren así porque la distribución siempre ha sido el
punto débil en la gran cadena de producción.
El tema más importante después de los periódicos (además de las revistas y periódicos científicos)
son las bibliotecas digitales en línea. Muchas organizaciones profesionales, como la ACM
(www.acm.org) y la Sociedad de Computación del IEEE (www.computer.org), ya cuentan con
muchos periódicos y presentaciones de conferencias en línea. Otros grupos están creciendo de manera
rápida. Dependiendo del costo, tamaño y peso de las computadoras portátiles, los libros impresos
podrían llegar a ser obsoletos. Los escépticos deben tomar en cuenta el efecto que la
imprenta tuvo sobre los manuscritos ilustrados del medioevo.
Todas las aplicaciones anteriores implican las interacciones entre una persona y una base de
datos remota llena de información. La segunda gran categoría del uso de redes es la comunicación
de persona a persona, básicamente la respuesta del siglo XXI al teléfono del siglo XIX. Millones
de personas en todo el mundo utilizan a diario el correo electrónico y su uso está creciendo
rápidamente. Ya es muy común que contenga audio y vídeo, así como texto y figuras. Los aromas
podrían tardar un poco más.


Muchas personas utilizan los mensajes instantáneos. Esta característica, derivada del programa
talk de UNIX, que se utiliza aproximadamente desde 1970, permite que las personas se escriban
mensajes en tiempo real. Una versión, para varias personas, de esta idea es el salón de conversación
(chat room), en el que un grupo de personas puede escribir mensajes para que todos los vean.
Los grupos de noticias mundiales, con debates sobre todo tema imaginable, ya son un lugar
común entre un grupo selecto de personas y este fenómeno crecerá para abarcar a la población en
general. Estos debates, en los que una persona envía un mensaje y todos los demás suscriptores
del grupo de noticias lo pueden leer, van desde los humorísticos hasta los apasionados. A diferencia
de los salones de conversación, los grupos de noticias no son en tiempo real y los mensajes se
guardan para que cuando alguien vuelva de vacaciones, encuentre todos los mensajes que hayan
sido enviados en el ínterin, esperando pacientemente a ser leídos.
Otro tipo de comunicación de persona a persona a menudo se conoce como comunicación de
igual a igual ( peer to peer), para distinguirla del modelo cliente-servidor (Parameswaran y cols.,
2001). De esta forma, los individuos que forman un grupo esparcido se pueden comunicar con
otros del grupo, como se muestra en la figura 1-3. Cada persona puede, en principio, comunicarse
con una o más personas; no hay una división fija de clientes y servidores.

La comunicación de igual a igual dominó la mayor parte del 2000 con un servicio llamado
Napster, que en su mayor apogeo tenía más de 50 millones de personas canjeando música, lo que
fue probablemente la mayor infracción a derechos de autor en toda la historia de la música grabada
(Lam y Tan, 2001, y Macedonia, 2000). La idea era muy sencilla. Los miembros registraban en
una base de datos central mantenida en el servidor de Napster la música que tenían en sus discos
duros. Si un miembro deseaba una canción, verificaba la base de datos para ver quién la tenía e
iba directamente ahí para obtenerla. Al no conservar realmente ninguna obra musical en las máquinas,
Napster argumentaba que no estaba infringiendo los derechos de autor de nadie. Las cortes
no estuvieron de acuerdo y lo clausuraron.
Sin embargo, la siguiente generación de sistemas de igual a igual elimina la base de datos
central al hacer que cada usuario mantenga su propia base de datos de manera local, y al proporcionarle
una lista de otras personas cercanas que también son miembros del sistema. De esta
manera, un nuevo usuario puede ir a cualquiera de ellas para ver qué tiene y obtener una lista de
otras más para indagar acerca de más música y más nombres. Este proceso de consulta se puede repetir
de manera indefinida hasta construir una enorme base de datos local de lo que hay a disposición.
Es una actividad que podría ser tediosa para las personas pero que para las computadoras es
muy sencilla.
También existen las aplicaciones legales para la comunicación de igual a igual. Por ejemplo,
un club de admiradores que comparte un dominio público de música o cintas de muestra que las
nuevas bandas han cedido para efectos de publicidad, familias que comparten fotografías, películas
e información genealógica y adolescentes que juegan en línea juegos para varias personas. De
hecho, una de las aplicaciones de Internet más populares, el correo electrónico, es esencialmente
de igual a igual. Se espera que esta forma de comunicación crezca con rapidez en el futuro.
Los delitos electrónicos no se limitan a la ley de derechos de autor. Otra área activa es la de los
juegos electrónicos. Las computadoras han simulado cosas durante décadas. ¿Por qué no simular máquinas
tragamonedas, ruedas de la fortuna, repartidores de blackjack y más equipo de juegos electrónicos?
El problema es que los juegos electrónicos son legales en muchos lugares (Inglaterra, por
ejemplo) y los propietarios de casinos han aprovechado el potencial de los juegos electrónicos
por Internet. ¿Qué pasaría si el jugador y el casino estuvieran en países diferentes entre los cuales
hay conflicto de leyes? Ésa es una buena pregunta.
Otras aplicaciones orientadas a la comunicación y de rápido crecimiento incluyen el uso de Internet
para transportar llamadas telefónicas, el teléfono con vídeo y la radio por Internet. Otra aplicación
es el teleaprendizaje, es decir, asistir a clases a las 8:00 A.M. sin el inconveniente de tener
que levantarse antes de la cama. A largo plazo, el uso de las redes para mejorar la comunicación
de persona a persona puede demostrar que ésta es el área más importante.
Nuestra tercera categoría es el entretenimiento, que es una industria grande y en crecimiento.
La aplicación dominante (la que podría impulsar al resto) es el vídeo bajo demanda. De aquí a 10
años, podría seleccionar cualquier película o programa de televisión producido en cualquier país
y proyectarlo en su pantalla al instante. Las películas nuevas podrían llegar a ser interactivas, en
las que se pediría ocasionalmente al usuario que eligiera el rumbo de la narración, con escenarios
alternativos preparados para todos los casos. La televisión en vivo también podría llegar a ser interactiva,
permitiendo que la audiencia participe en programas de preguntas, elija entre los competidores,
etcétera.
Por otra parte, tal vez el vídeo bajo demanda no sea la aplicación dominante. Podría ser la de
los juegos. En la actualidad ya contamos con juegos de simulación de varias personas en tiempo
real, como el de las escondidas en un calabozo virtual y simuladores de vuelo en los que los jugadores
de un equipo tratan de derribar a los del equipo contrario. Si los juegos se juegan con anteojos
y tiempo real tridimensional, con imágenes en movimiento de calidad fotográfica, tenemos un
tipo de realidad virtual compartida a nivel mundial.
Nuestra cuarta categoría es el comercio electrónico en el más amplio sentido de la palabra.
Comprar desde el hogar ya es una actividad común y permite que los usuarios inspeccionen los
catálogos en línea de miles de compañías. Algunos de estos catálogos proporcionarán pronto la capacidad
de obtener un vídeo instantáneo de cualquier producto con sólo hacer clic en el nombre
de éste. Si un cliente compra un producto por vía electrónica y no sabe cómo usarlo, podrá consultar
el soporte técnico en línea.
Otra área en la que el comercio electrónico ya se está dando es en las instituciones financieras.
Mucha gente ya efectúa sus pagos, administra sus cuentas bancarias y maneja sus inversiones
de manera electrónica. Seguramente esto crecerá en cuanto las redes sean más seguras.
Un área que prácticamente nadie previó son los mercados de pulgas electrónicos. Las subastas
en línea de artículos de segunda mano se han convertido en una industria masiva. A diferencia
del comercio electrónico tradicional, que sigue el modelo cliente-servidor, las subastas en línea
son más que un sistema de igual a igual, un tipo de sistema de consumidor a consumidor. Algunas
de estas formas de comercio electrónico han adoptado una serie de etiquetas con base en que “to”
y “2” (en inglés) suenan igual. La figura 1-4 presenta una lista de las abreviaturas más comunes.
SEC. 1.1 USOS DE LAS REDES DE COMPUTADORAS 9
Etiqueta Nombre completo Ejemplo
·        B2C Negocio a consumidor Pedido de libros en línea
·        B2B Negocio a negocio La fábrica de automóviles hace un pedido de llantas al proveedor
·        G2C Gobierno a consumidor El gobierno distribuye formas fiscales electrónicamente
·        C2C Consumidor a consumidor Subasta en línea de productos de segunda mano
·        P2P Igual a igual Compartición de archivos

Sin duda, el rango de usos de las redes de computadoras crecerá con rapidez y probablemente
en formas que nadie puede prever ahora. Después de todo, ¿cuánta gente pudo predecir en 1990
que en diez años las personas podrían escribir mensajes breves en teléfonos celulares durante sus
viajes en autobús, lo cual podría ser una forma muy ventajosa para que las compañías telefónicas
ganaran dinero? Sin embargo, en la actualidad el servicio de mensajes breves es muy rentable.
Las redes de computadoras podrían llegar a ser sumamente importantes para la gente que no vive
en las grandes ciudades, pues les da el mismo acceso a servicios que a las personas que sí viven
en ellas. El teleaprendizaje podría afectar radicalmente la educación; las universidades podrían dar
servicio a estudiantes nacionales o internacionales. La telemedicina está en inicio (por ejemplo, se
utiliza para la supervisión remota de un paciente), pero puede llegar a ser muy importante. Sin embargo,
la aplicación clave podría ser algo mundano, como utilizar una webcam (cámara conectada
a Internet) en su refrigerador, para saber si tiene que comprar leche al regresar del trabajo.
1.1.3 Usuarios móviles
Las computadoras portátiles, como las notebook y los asistentes personales digitales
(PDAs), son uno de los segmentos de crecimiento más rápido de la industria de la computación.
Muchos propietarios de estas computadoras poseen máquinas de escritorio en la oficina y
desean estar conectados a su base doméstica cuando están de viaje o fuera de casa. Puesto que no
es posible tener una conexión alámbrica en autos y aviones, hay un gran interés en las redes inalámbricas.
En esta sección veremos brevemente algunos usos de ellas.
¿Por qué querría alguien una? Un argumento común es la oficina portátil. Con frecuencia, las
personas que están de viaje desean utilizar sus equipos portátiles para enviar y recibir llamadas telefónicas,
faxes y correo electrónico, navegar en Web, acceder a archivos remotos e iniciar sesión
en máquinas remotas. Y desean hacer esto desde cualquier punto, ya sea por tierra, mar o aire. Por
ejemplo, actualmente en las conferencias por computadora, los organizadores suelen configurar
una red inalámbrica en el área de la conferencia. Cualquiera que tenga una computadora portátil
y un módem inalámbrico puede conectarse a Internet, como si la computadora estuviera conectada
a una red alámbrica (cableada). Del mismo modo, algunas universidades han instalado redes
inalámbricas en sus campus para que los estudiantes se puedan sentar entre los árboles y consultar
los archivos de la biblioteca o leer su correo electrónico.
Las redes inalámbricas son de gran utilidad para las flotas de camiones, taxis, vehículos de entrega
y reparadores, para mantenerse en contacto con la casa. Por ejemplo, en muchas ciudades los
taxistas trabajan por su cuenta, más que para una empresa de taxis. En algunas de estas ciudades,
los taxis tienen una pantalla que el conductor puede ver. Cuando el cliente solicita un servicio, un
despachador central escribe los puntos en los que el chofer deberá recoger y dejar al cliente. Esta
información se despliega en las pantallas de los conductores y suena un timbre. El conductor que
oprima primero un botón en la pantalla recibe la llamada.
Las redes inalámbricas también son importantes para la milicia. Si tiene que estar disponible
en breve para pelear una guerra en cualquier parte de la Tierra, probablemente no sea bueno pensar
en utilizar la infraestructura de conectividad de redes local. Lo mejor sería tener la propia.
Aunque la conectividad inalámbrica y la computación portátil se relacionan frecuentemente, no
son idénticas, como se muestra en la figura 1-5, en la que vemos una diferencia entre inalámbrica
fija e inalámbrica móvil. Incluso en ocasiones las computadoras portátiles son alámbricas. Por
ejemplo, si un viajero conecta una portátil a una toma telefónica en su habitación del hotel, tiene
movilidad sin una red inalámbrica.
Inalámbrica Móvil Aplicaciones
No No Computadoras de escritorio en oficinas
No Sí Una computadora portátil usada en un cuarto de hotel
Sí No Redes en construcciones antiguas sin cableado
Sí Sí Oficina portátil; PDA para inventario de almacén

Por otra parte, algunas computadoras inalámbricas no son móviles. Un ejemplo representativo
sería una compañía que posee un edificio antiguo que no tiene cableado de redes y que desea
conectar sus computadoras. La instalación de una red inalámbrica podría requerir un poco más que
comprar una caja pequeña con algunos aparatos electrónicos, desempacarlos y conectarlos. Sin
embargo, esta solución podría ser mucho más barata que contratar trabajadores que coloquen ductos
de cable para acondicionar el edificio.
Desde luego, también existen las aplicaciones inalámbricas móviles, que van desde la oficina
portátil hasta las personas que pasean por una tienda con un PDA realizando un inventario. En
muchos aeropuertos, los empleados de alquiler de coches trabajan en los estacionamientos con
computadoras portátiles inalámbricas. Escriben el número de la placa de circulación de los autos
alquilados, y su computadora portátil, que tiene una impresora integrada, llama a la computadora
principal, obtiene la información del arrendamiento e imprime la factura en el acto.
Conforme se extienda la tecnología inalámbrica, es probable que surjan otras aplicaciones. Echemos
un vistazo a algunas de las posibilidades. Los parquímetros inalámbricos tienen ventajas para
los usuarios y las autoridades administrativas gubernamentales. Los medidores pueden aceptar tarjetas
de crédito o de débito y verificarlas de manera instantánea a través del vínculo inalámbrico. Cuando
un medidor expire, se podría verificar la presencia de un auto (emitiendo una señal) y reportar la
expiración a la policía. Se ha estimado que con esta medida, los gobiernos de las ciudades de Estados
Unidos podrían colectar $10 mil millones adicionales (Harte y cols., 2000). Además, la entrada
en vigor del aparcamiento ayudaría al ambiente, debido a que los conductores que al saber que podrían
ser detenidos al estacionarse de manera ilegal, utilizarían el transporte público.
Los expendedores automáticos de alimentos, bebidas, etcétera, se encuentran por todas partes.
Sin embargo, los alimentos no entran en las máquinas por arte de magia. Periódicamente, alguien
va con un camión y las llena. Si los expendedores automáticos emitieran informes periódicos una
vez al día en los que indicaran sus inventarios actuales, el conductor del camión sabría qué máquinas
necesitan servicio y qué cantidad de qué productos llevar. Esta información podría conducir a
una mayor eficiencia en la planeación de las rutas. Desde luego que esta información también se
podría enviar a través de un teléfono de línea común, pero proporcionar a cada expendedor automático
una conexión fija telefónica para que realice una llamada al día es costoso debido a los cargos
fijos mensuales.
Otra área en la que la tecnología inalámbrica podría ahorrar dinero es en la lectura de medidores
de servicios públicos. Si los medidores de electricidad, gas, agua y otros servicios domésticos
reportaran su uso a través de una red inalámbrica, no habría necesidad de enviar lectores de medidores.
Del mismo modo, los detectores inalámbricos de humo podrían comunicarse con el departamento
de bomberos en lugar de hacer tanto ruido (lo cual no sirve de nada si no hay nadie en
casa). Conforme baje el costo de los dispositivos de radio y el tiempo aire, más y más medidas e
informes se harán a través de redes inalámbricas.
Un área de aplicación totalmente diferente para las redes inalámbricas es la fusión esperada
de teléfonos celulares y PDAs en computadoras inalámbricas diminutas. Un primer intento fue
el de los diminutos PDAs que podían desplegar páginas Web reducidas al mínimo en sus pequeñas
pantallas. Este sistema, llamado WAP 1.0 (Protocolo de Aplicaciones Inalámbricas), falló
en gran parte debido a sus pantallas microscópicas, bajo ancho de banda y servicio deficiente.
Pero con WAP 2.0 serán mejores los dispositivos y servicios nuevos.
La fuerza que impulsa estos dispositivos es la llamada comercio móvil (m-commerce) (Senn,
2000). La fuerza que impulsa este fenómeno consiste en diversos fabricantes de PDAs inalámbricos
y operadores de redes que luchan por descubrir cómo ganar una parte del pastel del comercio
móvil. Una de sus esperanzas es utilizar los PDAs inalámbricos para servicios bancarios y de
compras. Una idea es utilizar los PDAs inalámbricos como un tipo de cartera electrónica, que
autorice pagos en tiendas como un reemplazo del efectivo y las tarjetas de crédito. De este modo,
el cargo aparecerá en la factura del teléfono celular. Desde el punto de vista de la tienda, este esquema
le podría ahorrar la mayor parte de la cuota de la empresa de tarjetas de crédito, que puede
ser un porcentaje importante. Desde luego, este plan puede resultar contraproducente, puesto que
los clientes que están en una tienda podrían utilizar los PDAs para verificar los precios de la competencia
antes de comprar. Peor aún, las compañías telefónicas podrían ofrecer PDAs con lectores
de códigos de barras que permitan a un cliente rastrear un producto en una tienda y obtener en forma
instantánea un informe detallado de dónde más se puede comprar y a qué precio.
Puesto que el operador de redes sabe dónde está el usuario, algunos servicios se hacen intencionalmente
dependientes de la ubicación. Por ejemplo, se podría preguntar por una librería cercana o un
restaurante chino. Los mapas móviles y los pronósticos meteorológicos muy locales (“¿Cuándo va a dejar de llover en mi traspatio?”) son otros candidatos. Sin duda, aparecerán otras muchas aplicaciones
en cuanto estos dispositivos se difundan más ampliamente.
Un punto muy importante para el comercio móvil es que los usuarios de teléfonos celulares
están acostumbrados a pagar por todo (en contraste con los usuarios de Internet, que esperan recibir
prácticamente todo sin costo). Si un sitio Web cobrara una cuota por permitir a sus clientes pagar
con tarjeta de crédito, provocaría una reclamación muy ruidosa de los usuarios. Si un operador
de telefonía celular permitiera que las personas pagaran artículos en una tienda utilizando el teléfono
celular y luego cargara una cuota por este servicio, probablemente sus clientes lo aceptarían
como algo normal. Sólo el tiempo lo dirá.
Un poco más lejanas están las redes de área personal y las microcomputadoras personales de
bolsillo. IBM ha desarrollado un reloj que ejecuta Linux (el cual incluye el sistema de ventanas
X11) y tiene conectividad inalámbrica a Internet para enviar y recibir correo electrónico (Narayanaswami
y cols., 2002). En el futuro, las personas podrían intercambiar tarjetas de presentación
con sólo exponer sus relojes entre sí. Las computadoras de bolsillo inalámbricas pueden dar acceso
a las personas a sitios seguros de la misma manera en que lo hacen las tarjetas de banda magnética
(posiblemente en combinación con un código de PIN o medición biométrica). Estos relojes
también podrían recuperar información relativa a la ubicación actual del usuario (por ejemplo, restaurantes
locales). Las posibilidades son infinitas.
Los relojes inteligentes con radio han sido parte de nuestro espacio mental desde que aparecieron
en las tiras cómicas de Dick Tracy, en 1946. Pero, ¿polvo inteligente? Los investigadores
en Berkeley han empaquetado una computadora inalámbrica en un cubo de 1 mm por lado (Warneke
y cols., 2001). Entre las aplicaciones potenciales se incluyen el seguimiento de inventarios,
paquetes e incluso pequeños pájaros, roedores e insectos.
1.1.4 Temas sociales
La amplia introducción de las redes ha presentado problemas sociales, éticos y políticos. Mencionemos
brevemente algunos de ellos; un estudio completo requeriría todo un libro, por lo menos.
Un rasgo popular de muchas redes son los grupos de noticias o boletines electrónicos
mediante los cuales las personas pueden intercambiar mensajes con individuos de los mismos intereses.
Siempre y cuando los asuntos se restrinjan a temas técnicos o pasatiempos como la jardinería,
no surgirán demasiados problemas.

El problema viene cuando los grupos de noticias se enfocan en temas que las personas en
realidad tocan con cuidado, como política, religión o sexo. Los puntos de vista enviados a tales
grupos podrían ser ofensivos para algunas personas. Peor aún, podrían no ser políticamente correctos.
Además, los mensajes no tienen que limitarse a texto. En la actualidad se pueden enviar
fotografías en alta resolución e incluso pequeños videoclips a través de redes de computadoras.
Algunas personas practican la filosofía de vive y deja vivir, pero otras sienten que enviar cierto
material (por ejemplo, ataques a países o religiones en particular, pornografía, etcétera) es sencillamente
inaceptable y debe ser censurado. Los diversos países tienen diferentes y conflictivas
leyes al respecto. De esta manera, el debate se aviva.
Las personas han demandado a los operadores de redes, afirmando que son responsables, como
sucede en el caso de los periódicos y las revistas, del contenido que transmiten. La respuesta
inevitable es que una red es como una compañía de teléfonos o la oficina de correos, por lo que
no se puede esperar que vigilen lo que dicen los usuarios. Más aún, si los operadores de redes censuraran
los mensajes, borrarían cualquier contenido que contuviera incluso la mínima posibilidad
de que se les demandara, pero con esto violarían los derechos de sus usuarios a la libre expresión.
Probablemente lo más seguro sería decir que este debate seguirá durante algún tiempo.
Otra área divertida es la de los derechos de los empleados en comparación con los de los empleadores.
Muchas personas leen y escriben correo electrónico en el trabajo. Muchos empleadores
han exigido el derecho a leer y, posiblemente, censurar los mensajes de los empleados, incluso
los enviados desde un equipo doméstico después de las horas de trabajo. No todos los empleados
están de acuerdo con esto.
Incluso si los empleadores tienen poder sobre los empleados, ¿esta relación también rige a las
universidades y los estudiantes? ¿Qué hay acerca de las escuelas secundarias y los estudiantes? En
1994, la Carnegie-Mellon University decidió suspender el flujo de mensajes entrantes de varios
grupos de noticias que trataban sexo porque la universidad sintió que el material era inapropiado
para menores (es decir, menores de 18 años). Tomó años recuperarse de este suceso.
Otro tema de importancia es el de los derechos del gobierno y los de los ciudadanos. El FBI
ha instalado un sistema en muchos proveedores de servicios de Internet para curiosear entre todos
los correos electrónicos en busca de fragmentos que le interesen (Blaze y Bellovin, 2000; Sobel,
2001; Zacks, 2001). El sistema se llamaba originalmente Carnivore pero la mala publicidad provocó
que se cambiara el nombre por uno menos agresivo que sonara como DCS1000. Pero su
objetivo sigue siendo el de espiar a millones de personas con la esperanza de encontrar información
acerca de actividades ilegales. Por desgracia, la Cuarta Enmienda de la Constitución de Estados
Unidos prohíbe que el gobierno realice investigaciones sin una orden de cateo. Decidir si
estas palabras, escritas en el siglo XVIII, aún son válidas en el siglo XXI es un asunto que podría
mantener ocupadas a las cortes hasta el siglo XXII.
El gobierno no tiene el monopolio de las amenazas contra la privacidad de una persona. El
sector privado también hace su parte. Por ejemplo, los archivos pequeños llamados cookies que los
navegadores Web almacenan en las computadoras de los usuarios permiten que las empresas rastreen
las actividades de éstos en el ciberespacio, y podrían permitir que los números de tarjeta
de crédito, del seguro social y otra información confidencial se divulguen por toda la Internet
(Berghel, 2001).
SEC. 1.1 USOS DE LAS REDES DE COMPUTADORAS 13
Las redes de computadoras ofrecen la posibilidad de enviar mensajes anónimos. En algunas situaciones
esta capacidad podría ser deseable. Por ejemplo, los estudiantes, soldados, empleados y
ciudadanos pueden denunciar el comportamiento ilegal de algunos profesores, oficiales, superiores
y políticos sin temor a represalias. Por otra parte, en Estados Unidos, y en la mayoría de las democracias,
la ley otorga específicamente a una persona acusada el derecho de poder confrontar y desafiar
a su acusador en la corte. Las acusaciones anónimas no se pueden usar como evidencia.
En resumen, las redes de computadoras, como la imprenta hace 500 años, permiten que el ciudadano
común distribuya sus puntos de vista en diversos modos y a audiencias diferentes, lo cual
antes no era posible. Este nuevo fondo de libertad ofrece consigo muchos temas sociales, políticos
y morales sin resolver.
Junto con lo bueno viene lo malo. Así parece ser la vida. Internet hace posible encontrar con
rapidez información, pero una gran cantidad de ella está mal documentada, es falsa o completamente
errónea. El consejo médico que obtuvo en Internet podría haber venido de un ganador del
Premio Nobel o de un desertor de la preparatoria. Las redes de computadoras también han introducido
nuevos tipos de comportamientos antisociales y criminales. La publicidad no deseada
(spam) se ha convertido en algo común debido a que algunas personas se dedican a reunir millones de direcciones de correo electrónico y las venden en CD-ROMs a comerciantes. Los mensajes por correo electrónico que contienen elementos activos (básicamente programas o macros que se ejecutan en la máquina del receptor) pueden contener virus potencialmente destructores.
El robo de identidad se ha convertido en un problema grave, ya que los ladrones ahora reúnen
información sobre una persona para obtener tarjetas de crédito y otros documentos a nombre de
ella. Por último, la capacidad de transmitir música y vídeo de manera digital ha abierto la puerta a violaciones masivas de derechos de autor, que son difíciles de detectar y castigar.
Muchos de estos problemas se podrían resolver si la industria de las computadoras tomara la
seguridad de las computadoras con seriedad. Si todos los mensajes se codificaran y autenticaran,
sería más difícil que se cometieran delitos. Esta tecnología está bien establecida y la estudiaremos en detalle en el capítulo 8. El problema es que los proveedores de hardware y software saben que poner funciones de seguridad cuesta dinero y que sus clientes no las solicitan. Además, una gran cantidad de los problemas proviene de un software con fallas, debido a que los proveedores saturan de funciones sus programas, lo que implica más código e, inevitablemente, más fallas. Un impuesto a las funciones nuevas podría ayudar, pero eso sería como vender un problema por centavos. Reponer el software defectuoso podría ser bueno, pero eso llevaría a la quiebra a toda la industria del software en el primer año.
1.2 HARDWARE DE REDES
Ya es tiempo de centrar nuevamente la atención en los temas técnicos correspondientes al diseño
de redes (la parte de trabajo) y dejar a un lado las aplicaciones y los aspectos sociales de la
conectividad (la parte divertida). Por lo general, no hay una sola clasificación aceptada en la que se ajusten todas las redes de computadoras, pero hay dos que destacan de manera importante: la tecnología de transmisión y la escala. Examinaremos cada una a la vez.

En un sentido amplio, hay dos tipos de tecnología de transmisión que se utilizan de manera
extensa.
 Son las siguientes:
·        Enlaces de difusión.
·        Enlaces de punto a punto.
Las redes de difusión (broadcast) tienen un solo canal de comunicación, por lo que todas las máquinas de la red lo comparten. Si una máquina envía un mensaje corto —en ciertos contextos conocido como paquete—, todas las demás lo reciben. Un campo de dirección dentro del paquete  especifica el destinatario. Cuando una máquina recibe un paquete, verifica el campo de dirección.
Si el paquete va destinado a esa máquina, ésta lo procesa; si va destinado a alguna otra, lo ignora.
En una analogía, imagine a alguien que está parado al final de un corredor con varios cuartos a los lados y que grita: “Jorge, ven. Te necesito”. Aunque en realidad el grito (paquete) podría haber sido escuchado (recibido), por muchas personas, sólo Jorge responde (lo procesa). Los demás simplemente lo ignoran. Otra analogía es la de los anuncios en un aeropuerto que piden a todos los pasajeros del vuelo 644 se reporten en la puerta 12 para abordar de inmediato.
Por lo general, los sistemas de difusión también permiten el direccionamiento de un paquete a todos los destinos utilizando un código especial en el campo de dirección. Cuando se transmite un paquete con este código, todas las máquinas de la red lo reciben y procesan. Este modo de operación se conoce como difusión (broadcasting). Algunos sistemas de difusión también soportan la transmisión a un subconjunto de máquinas, algo conocido como multidifusión (multicasting).
Un esquema posible es la reserva de un bit para indicar la multidifusión. Los bits de dirección n – 1 restantes pueden contener un número de grupo. Cada máquina puede “suscribirse” a alguno o a todos los grupos. Cuando se envía un paquete a cierto grupo, se distribuye a todas las máquinas que se suscriben a ese grupo.
En contraste, las redes punto a punto constan de muchas conexiones entre pares individuales de máquinas. Para ir del origen al destino, un paquete en este tipo de red podría tener que visitar primero una o más máquinas intermedias. A menudo es posible que haya varias rutas o longitudes
diferentes, de manera que encontrar las correctas es importante en redes de punto a punto. Por regla general (aunque hay muchas excepciones), las redes más pequeñas localizadas en una misma área geográfica tienden a utilizar la difusión, mientras que las más grandes suelen ser de punto a
punto. La transmisión de punto a punto con un emisor y un receptor se conoce como unidifusión (unicasting).
Un criterio alternativo para la clasificación de las redes es su escala. En la figura 1-6 clasificamo los sistemas de procesadores múltiples por tamaño físico. En la parte superior se muestran las redes de área personal, que están destinadas para una sola persona. Por ejemplo, una red inalámbrica que conecta una computadora con su ratón, teclado e impresora, es una red de área personal.
Incluso un PDA que controla el audífono o el marcapaso de un usuario encaja en esta categoría. A continuación de las redes de área personal se encuentran redes más grandes. Se pueden dividir en redes de área local, de área metropolitana y de área amplia. Por último, la conexión de dos o más redes se conoce como interred.
Internet es un ejemplo bien conocido de una interred. La distancia es importante como una clasificación en metros porque se utilizan diferentes técnicas en diferentes escalas. En este libro nos ocuparemos de las redes en todas estas escalas. A continuación se proporciona una breve introducción
al hardware de redes.
1.2.1 Redes de área local
Las redes de área local (generalmente conocidas como LANs) son redes de propiedad privada que se encuentran en un solo edificio o en un campus de pocos kilómetros de longitud. Se utilizan ampliamente para conectar computadoras personales y estaciones de trabajo en oficinas de una empresa y de fábricas para compartir recursos (por ejemplo, impresoras) e intercambiar información.
Las LANs son diferentes de otros tipos de redes en tres aspectos: 1) tamaño; 2) tecnología
de transmisión, y 3) topología.
Las LANs están restringidas por tamaño, es decir, el tiempo de transmisión en el peor de los
casos es limitado y conocido de antemano. El hecho de conocer este límite permite utilizar ciertos tipos de diseño, lo cual no sería posible de otra manera. Esto también simplifica la administración de la red.
Las LANs podrían utilizar una tecnología de transmisión que consiste en un cable al cual
están unidas todas las máquinas, como alguna vez lo estuvo parte de las líneas de las compañías telefónicas en áreas rurales. Las LANs tradicionales se ejecutan a una velocidad de 10 a 100 Mbps, tienen un retardo bajo (microsegundos o nanosegundos) y cometen muy pocos errores. Las LANs más nuevas funcionan hasta a 10 Gbps. En este libro continuaremos con lo tradicional y mediremos las velocidades de las líneas en megabits por segundo (1 Mbps es igual a 1,000,000 de bits por segundo) y gigabits por segundo (1 Gbps es igual a 1,000,000,000 de bits por segundo).
Para las LANs de difusión son posibles varias topologías. La figura 1-7 muestra dos de ellas.
En una red de bus (es decir, un cable lineal), en cualquier instante al menos una máquina es la maestra y puede transmitir. Todas las demás máquinas se abstienen de enviar. Cuando se presenta el conflicto de que dos o más máquinas desean transmitir al mismo tiempo, se requiere un mecanismo de arbitraje. Tal mecanismo podría ser centralizado o distribuido. Por ejemplo, el IEEE 802.3, popularmente conocido como Ethernet, es una red de difusión basada en bus con control descentralizado, que por lo general funciona de 10 Mbps a 10 Gbps. Las computadoras que están en una Ethernet pueden transmitir siempre que lo deseen; si dos o más paquetes entran en colisión, cada computadora espera un tiempo aleatorio y lo intenta de nuevo más tarde.
Un segundo tipo de sistema de difusión es el de anillo. En un anillo, cada bit se propaga por
sí mismo, sin esperar al resto del paquete al que pertenece. Por lo común, cada bit navega por todo
el anillo en el tiempo que le toma transmitir algunos bits, a veces incluso antes de que se haya
transmitido el paquete completo. Al igual que con todos los demás sistemas de difusión, se requieren
algunas reglas para controlar los accesos simultáneos al anillo. Se utilizan varios métodos, por
ejemplo, el de que las máquinas deben tomar su turno. El IEEE 802.5 (el token ring de IBM) es
una LAN basada en anillo que funciona a 4 y 16 Mbps. El FDDI es otro ejemplo de una red de
anillo.
Las redes de difusión se pueden dividir aún más en estáticas y dinámicas, dependiendo de cómo
se asigne el canal. Una asignación estática típica sería dividir el tiempo en intervalos discretos
y utilizar un algoritmo round-robin, permitiendo que cada máquina transmita sólo cuando llegue
su turno. La asignación estática desperdicia capacidad de canal cuando una máquina no tiene nada
que transmitir al llegar su turno, por lo que la mayoría de los sistemas trata de asignar el canal de
forma dinámica (es decir, bajo demanda).
Los métodos de asignación dinámica para un canal común pueden ser centralizados o descentralizados.
En el método centralizado hay una sola entidad, por ejemplo, una unidad de arbitraje
de bus, la cual determina quién sigue. Esto se podría hacer aceptando solicitudes y tomando decisiones
de acuerdo con algunos algoritmos internos. En el método descentralizado de asignación de
canal no hay una entidad central; cada máquina debe decidir por sí misma cuándo transmitir. Usted
podría pensar que esto siempre conduce al caos, pero no es así. Más adelante estudiaremos muchos
algoritmos designados para poner orden y evitar el caos potencial.
1.2.2 Redes de área metropolitana
Una red de área metropolitana (MAN) abarca una ciudad. El ejemplo más conocido de una
MAN es la red de televisión por cable disponible en muchas ciudades. Este sistema creció a partir
de los primeros sistemas de antena comunitaria en áreas donde la recepción de la televisión al
aire era pobre. En dichos sistemas se colocaba una antena grande en la cima de una colina cercana
y la señal se canalizaba a las casas de los suscriptores.
Al principio eran sistemas diseñados de manera local con fines específicos. Después las compañías
empezaron a pasar a los negocios, y obtuvieron contratos de los gobiernos de las ciudades
para cablear toda una ciudad. El siguiente paso fue la programación de televisión e incluso canales
designados únicamente para cable. Con frecuencia, éstos emitían programas de un solo tema,
como sólo noticias, deportes, cocina, jardinería, etcétera. Sin embargo, desde su inicio y hasta
finales de la década de 1990, estaban diseñados únicamente para la recepción de televisión.
A partir de que Internet atrajo una audiencia masiva, los operadores de la red de TV por cable
se dieron cuenta de que con algunos cambios al sistema, podrían proporcionar servicio de Internet
de dos vías en las partes sin uso del espectro. En ese punto, el sistema de TV por cable empezaba
a transformarse de una forma de distribución de televisión a una red de área metropolitana. Para
que se dé una idea, una MAN podría verse como el sistema que se muestra en la figura 1-8, donde
se aprecia que las señales de TV e Internet se alimentan hacia un amplificador head end para enseguida
transmitirse a las casas de las personas. En el capítulo 2 trataremos con detalle este tema.
La televisión por cable no es solamente una MAN. Desarrollos recientes en el acceso inalámbrico
a alta velocidad a Internet dieron como resultado otra MAN, que se estandarizó como IEEE
802.16. En el capítulo 2 veremos esta área.
1.2.3 Redes de área amplia
Una red de área amplia (WAN), abarca una gran área geográfica, con frecuencia un país o
un continente. Contiene un conjunto de máquinas diseñado para programas (es decir, aplicaciones)
de usuario. Seguiremos el uso tradicional y llamaremos hosts a estas máquinas. Los hosts están
conectados por una subred de comunicación, o simplemente subred, para abreviar. Los clientes
son quienes poseen a los hosts (es decir, las computadoras personales de los usuarios), mientras
que, por lo general, las compañías telefónicas o los proveedores de servicios de Internet poseen y
operan la subred de comunicación. La función de una subred es llevar mensajes de un host a otro,
como lo hace el sistema telefónico con las palabras del que habla al que escucha. La separación
de los aspectos de la comunicación pura de la red (la subred) de los aspectos de la aplicación (los
hosts), simplifica en gran medida todo el diseño de la red.
En la mayoría de las redes de área amplia la subred consta de dos componente distintos: líneas
de transmisión y elementos de conmutación. Las líneas de transmisión mueven bits entre máquinas.
Pueden estar hechas de cable de cobre, fibra óptica o, incluso, radioenlaces. Los elementos
de conmutación son computadoras especializadas que conectan tres o más líneas de transmisión.
Cuando los datos llegan a una línea de entrada, el elemento de conmutación debe elegir una línea
de salida en la cual reenviarlos. Estas computadoras de conmutación reciben varios nombres; conmutadores
y enrutadores son los más comunes.
En este modelo, que se muestra en la figura 1-9, cada host está conectado frecuentemente a
una LAN en la que existe un enrutador, aunque en algunos casos un host puede estar conectado
de manera directa a un enrutador. El conjunto de líneas de comunicación y enrutadores (pero no de
hosts) forma la subred.
Host
A continuación se presenta un breve comentario acerca del término “subred”. Originalmente,
su único significado era el conjunto de enrutadores y líneas de comunicación que movía paquetes
del host de origen al de destino. Sin embargo, algunos años más tarde también adquirió un segundo
significado junto con el direccionamiento de redes (que expondremos en el capítulo 5). Desgraciadamente,
no existe una alternativa de amplio uso con respecto a su significado inicial por lo
que, con algunas reservas, utilizaremos este término en ambos sentidos. El contexto dejará en claro
su significado.
En la mayoría de las WANs, la red contiene numerosas líneas de transmisión, cada una de las
cuales conecta un par de enrutadores. Si dos enrutadores que no comparten una línea de transmisión
quieren conectarse, deberán hacerlo de manera indirecta, a través de otros enrutadores. Cuando
un paquete es enviado desde un enrutador a otro a través de uno o más enrutadores intermedios,
el paquete se recibe en cada enrutador intermedio en su totalidad, se almacena ahí hasta que la línea
de salida requerida esté libre y, por último, se reenvía. Una subred organizada a partir de este
principio se conoce como subred de almacenamiento y reenvío (store and forward ) o de conmutación
de paquetes. Casi todas las redes de área amplia (excepto las que utilizan satélites) tienen
subredes de almacenamiento y reenvío. Cuando los paquetes son pequeños y tienen el mismo tamaño,
se les llama celdas.
El principio de una WAN de conmutación de paquetes es tan importante que vale la pena dedicarle
algunas palabras más. En general, cuando un proceso de cualquier host tiene un mensaje
que se va a enviar a un proceso de algún otro host, el host emisor divide primero el mensaje en paquetes,
los cuales tienen un número de secuencia. Estos paquetes se envían entonces por la red de
uno en uno en una rápida sucesión. Los paquetes se transportan de forma individual a través de la
red y se depositan en el host receptor, donde se reensamblan en el mensaje original y se entregan
al proceso receptor. En la figura 1-10 se ilustra un flujo de paquetes correspondiente a algún mensaje
inicial.
En esta figura todos los paquetes siguen la ruta ACE en vez de la ABDE o ACDE. En algunas
redes todos los paquetes de un mensaje determinado deben seguir la misma ruta; en otras, cada paquete
se enruta por separado. Desde luego, si ACE es la mejor ruta, todos los paquetes se podrían
enviar a través de ella, incluso si cada paquete se enruta de manera individual.
Las decisiones de enrutamiento se hacen de manera local. Cuando un paquete llega al enrutador
A, éste debe decidir si el paquete se enviará hacia B o hacia C. La manera en que el enrutador
A toma esa decisión se conoce como algoritmo de enrutamiento. Existen muchos de ellos. En el
capítulo 5 estudiaremos con detalle algunos.
No todas las WANs son de conmutación de paquetes. Una segunda posibilidad para una WAN
es un sistema satelital. Cada enrutador tiene una antena a través de la cual puede enviar y recibir.
Todos los enrutadores pueden escuchar la salida desde el satélite y, en algunos casos, también pueden
escuchar las transmisiones de los demás enrutadores hacia el satélite. Algunas veces los
enrutadores están conectados a una subred de punto a punto elemental, y sólo algunos de ellos tienen
una antena de satélite. Por naturaleza, las redes satelital son de difusión y son más útiles cuando
la propiedad de difusión es importante.
1.2.4 Redes inalámbricas
La comunicación inalámbrica digital no es una idea nueva. A principios de 1901, el físico italiano
Guillermo Marconi demostró un telégrafo inalámbrico desde un barco a tierra utilizando el
código Morse (después de todo, los puntos y rayas son binarios). Los sistemas inalámbricos digitales
de la actualidad tienen un mejor desempeño, pero la idea básica es la misma.
Como primera aproximación, las redes inalámbricas se pueden dividir en tres categorías principales:
1. Interconexión de sistemas.
2. LANs inalámbricas.
3. WANs inalámbricas.
La interconexión de sistemas se refiere a la interconexión de componentes de una computadora
que utiliza radio de corto alcance. La mayoría de las computadoras tiene un monitor, teclado, ratón
e impresora, conectados por cables a la unidad central. Son tantos los usuarios nuevos que tienen dificultades
para conectar todos los cables en los enchufes correctos (aun cuando suelen estar codificados
por colores) que la mayoría de los proveedores de computadoras ofrece la opción de enviar a
un técnico a la casa del usuario para que realice esta tarea. En consecuencia, algunas compañías se
reunieron para diseñar una red inalámbrica de corto alcance llamada Bluetooth para conectar sin cables
estos componentes. Bluetooth también permite conectar cámaras digitales, auriculares, escáneres
y otros dispositivos a una computadora con el único requisito de que se encuentren dentro del
alcance de la red. Sin cables, sin instalación de controladores, simplemente se colocan, se encienden
y funcionan. Para muchas personas, esta facilidad de operación es algo grandioso.
En la forma más sencilla, las redes de interconexión de sistemas utilizan el paradigma del
maestro y el esclavo de la figura 1-11(a). La unidad del sistema es, por lo general, el maestro que
trata al ratón, al teclado, etcétera, como a esclavos. El maestro le dice a los esclavos qué direcciones
utilizar, cuándo pueden difundir, durante cuánto tiempo pueden transmitir, qué frecuencias
pueden utilizar, etcétera. En el capítulo 4 explicaremos con más detalle el Bluetooth.
El siguiente paso en la conectividad inalámbrica son las LANs inalámbricas. Son sistemas en
los que cada computadora tiene un módem de radio y una antena mediante los que se puede comunicar
con otros sistemas. En ocasiones, en el techo se coloca una antena con la que las máquinas
se comunican, como se ilustra en la figura 1-11(b). Sin embargo, si los sistemas están lo
suficientemente cerca, se pueden comunicar de manera directa entre sí en una configuración de igual a igual. Las LANs inalámbricas se están haciendo cada vez más comunes en casas y oficinas
pequeñas, donde instalar Ethernet se considera muy problemático, así como en oficinas ubicadas
en edificios antiguos, cafeterías de empresas, salas de conferencias y otros lugares. Existe
un estándar para las LANs inalámbricas, llamado IEEE 802.11, que la mayoría de los sistemas
implementa y que se ha extendido ampliamente. Esto lo explicaremos en el capítulo 4.
El tercer tipo de red inalámbrica se utiliza en sistemas de área amplia. La red de radio utilizada
para teléfonos celulares es un ejemplo de un sistema inalámbrico de banda ancha baja. Este sistema
ha pasado por tres generaciones. La primera era analógica y sólo para voz. La segunda era
digital y sólo para voz. La tercera generación es digital y es tanto para voz como para datos. En
cierto sentido, las redes inalámbricas celulares son como las LANs inalámbricas, excepto porque
las distancias implicadas son mucho más grandes y las tasas de bits son mucho más bajas. Las
LANs inalámbricas pueden funcionar a tasas de hasta 50 Mbps en distancias de decenas de metros.
Los sistemas celulares funcionan debajo de 1 Mbps, pero la distancia entre la estación base
y la computadora o teléfono se mide en kilómetros más que en metros. En el capítulo 2 hablaremos
con mucho detalle sobre estas redes.
Además de estas redes de baja velocidad, también se han desarrollado las redes inalámbricas
de área amplia con alto ancho de banda. El enfoque inicial es el acceso inalámbrico a Internet a
alta velocidad, desde los hogares y las empresas, dejando a un lado el sistema telefónico. Este servicio
se suele llamar servicio de distribución local multipuntos. Lo estudiaremos más adelante.
También se ha desarrollado un estándar para éste, llamado IEEE 802.16. Examinaremos dicho
estándar en el capítulo 4.
La mayoría de las redes inalámbricas se enlaza a la red alámbrica en algún punto para proporcionar
acceso a archivos, bases de datos e Internet. Hay muchas maneras de efectuar estas conexiones,
dependiendo de las circunstancias. Por ejemplo, en la figura 1-12(a) mostramos un
aeroplano con una serie de personas que utilizan módems y los teléfonos de los respaldos para llamar
a la oficina. Cada llamada es independiente de las demás. Sin embargo, una opción mucho
más eficiente es la LAN dentro del avión de la figura 1-12(b), donde cada asiento está equipado
con un conector Ethernet al cual los pasajeros pueden acoplar sus computadoras. El avión tiene un
solo enrutador, el cual mantiene un enlace de radio con algún enrutador que se encuentre en tierra,
y cambia de enrutador conforme avanza el vuelo. Esta configuración es una LAN tradicional,
excepto porque su conexión al mundo exterior se da mediante un enlace por radio en lugar de una
línea cableada.
Muchas personas creen que lo inalámbrico es la onda del futuro (por ejemplo, Bi y cols., 2001;
Leeper, 2001; Varshey y Vetter, 2000) pero se ha escuchado una voz disidente. Bob Metcalfe, el inventor
de Ethernet, ha escrito: “Las computadoras inalámbricas móviles son como los baños portátiles
sin cañería: bacinicas portátiles. Serán muy comunes en los vehículos, en sitios en construcción
y conciertos de rock. Mi consejo es que coloque cables en su casa y se quede ahí” (Metcalfe, 1995).
La historia podría colocar esta cita en la misma categoría que la explicación de T.J. Watson, presidente
de IBM en 1945, de por qué esta empresa no entraba en el negocio de las computadoras: “Cuatro
o cinco computadoras deberán ser suficientes para todo el mundo hasta el año 2000”.
1.2.5 Redes domésticas
La conectividad doméstica está en el horizonte. La idea fundamental es que en el futuro la mayoría
de los hogares estarán preparados para conectividad de redes. Cualquier dispositivo del hogar
será capaz de comunicarse con todos los demás dispositivos y todos podrán accederse por
Internet. Éste es uno de esos conceptos visionarios que nadie solicitó (como los controles remotos
de TV o los teléfonos celulares), pero una vez que han llegado nadie se puede imaginar cómo habían
podido vivir sin ellos.
Muchos dispositivos son capaces de estar conectados en red. Algunas de las categorías más
evidentes (con ejemplos) son las siguientes:
1. Computadoras (de escritorio, portátiles, PDAs, periféricos compartidos).
2. Entretenimiento (TV, DVD, VCR, videocámara, cámara fotográfica, estereofónicos, MP3).
3. Telecomunicaciones (teléfono, teléfono móvil, intercomunicadores, fax).
4. Aparatos electrodomésticos (horno de microondas, refrigerador, reloj, horno, aire acondicionado,
luces).
5. Telemetría (metro utilitario, alarma contra fuego y robo, termostato, cámaras inalámbricas).
La conectividad de computadoras domésticas ya está aquí, aunque limitada. Muchas casas ya
cuentan con un dispositivo para conectar varias computadoras para una conexión rápida a Internet.
El entretenimiento por red aún no existe, pero cuanto más y más música y películas se puedan
descargar de Internet, habrá más demanda para que los equipos de audio y las televisiones se
conecten a Internet. Incluso las personas desearán compartir sus propios vídeos con amigos y familiares,
por lo que deberá haber una conexión en ambos sentidos. Los dispositivos de telecomunicaciones
ya están conectados al mundo exterior, pero pronto serán digitales y tendrán capacidad
de funcionar sobre Internet. Un hogar promedio tal vez tiene una docena de relojes (los de los aparatos
electrodomésticos), y todos se tienen que reajustar dos veces al año cuando inicia y termina
el tiempo de ahorro de luz de día (horario de verano). Si todos los relojes estuvieran conectados a
Internet, ese reajuste se haría en forma automática. Por último, el monitoreo remoto de la casa y
su contenido es el probable ganador. Es muy factible que muchos padres deseen invertir en monitorear
con sus PDAs a sus bebés dormidos cuando van a cenar fuera de casa, aun cuando contraten
a una niñera. Si bien podemos imaginar una red separada para cada área de aplicación, la
integración de todas en una sola red es probablemente una mejor idea.
La conectividad doméstica tiene algunas propiedades diferentes a las de otro tipo de redes. Primero,
la red y los dispositivos deben ser fáciles de instalar. El autor ha instalado numerosas piezas
de hardware y software en varias computadoras durante varios años con resultados diferentes. Al
realizar una serie de llamadas telefónicas al personal de soporte técnico del proveedor por lo general
recibió respuestas como: 1) Lea el manual; 2) Reinicie la computadora; 3) Elimine todo el
hardware y software, excepto los nuestros, y pruebe de nuevo; 4) Descargue de nuestro sitio Web
el controlador más reciente y, si todo eso falla, 5) Reformatee el disco duro y reinstale Windows
desde el CD-ROM. Decirle al comprador de un refrigerador con capacidad de Internet que descargue
e instale una nueva versión del sistema operativo del refrigerador, no conduce a tener clientes
contentos. Los usuarios de computadoras están acostumbrados a soportar productos que no funcionan;
los clientes que compran automóviles, televisiones y refrigeradores son mucho menos tolerantes.
Esperan productos que trabajen al 100% desde que se compran.
Segundo, la red y los dispositivos deben estar plenamente probados en operación. Los equipos
de aire acondicionado solían tener una perilla con cuatro parámetros: OFF, LOW, MEDIUM y
HIGH (apagado, bajo, medio, alto). Ahora tienen manuales de 30 páginas. Una vez que puedan
conectarse en red, no se le haga extraño que tan sólo el capítulo de seguridad tenga 30 páginas. Esto
estará más allá de la comprensión de prácticamente todos los usuarios.
Tercero, el precio bajo es esencial para el éxito. Muy pocas personas, si no es que ninguna, pagarán
un precio adicional de $50 por un termostato con capacidad de Internet, debido a que no
considerarán que monitorear la temperatura de sus casas desde sus trabajos sea algo importante.
Tal vez por $5 sí lo comprarían.
Cuarto, la principal aplicación podría implicar multimedia, por lo que la red necesita capacidad
suficiente. No hay mercado para televisiones conectadas a Internet que proyecten películas inseguras
a una resolución de 320 × 240 píxeles y 10 cuadros por segundo. Fast Ethernet, el caballo
de batalla en la mayoría de las oficinas, no es bastante buena para multimedia. En consecuencia,
para que las redes domésticas lleguen a ser productos masivos en el mercado, requerirán mejor desempeño
que el de las redes de oficina actuales, así como precios más bajos.
Quinto, se podría empezar con uno o dos dispositivos y expandir de manera gradual el alcance
de la red. Esto significa que no habrá problemas con el formato. Decir a los consumidores que
adquieran periféricos con interfaces IEEE 1394 (FireWire) y años después retractarse y decir
que USB 2.0 es la interfaz del mes, es hacer clientes caprichosos. La interfaz de red tendrá que
permanecer estable durante muchos años; el cableado (si lo hay) deberá permanecer estable durante
décadas.
Sexto, la seguridad y la confianza serán muy importantes. Perder algunos archivos por un virus
de correo electrónico es una cosa; que un ladrón desarme su sistema de seguridad desde su
PDA y luego saquee su casa es algo muy diferente.
Una pregunta interesante es si las redes domésticas serán alámbricas o inalámbricas. La mayoría
de los hogares ya tiene seis redes instaladas: electricidad, teléfono, televisión por cable, agua,
gas y alcantarillado. Agregar una séptima durante la construcción de una casa no es difícil, pero
acondicionar las casas existentes para agregar dicha red es costoso. Los costos favorecen la conectividad
inalámbrica, pero la seguridad favorece la conectividad alámbrica. El problema con la
conectividad inalámbrica es que las ondas de radio que utiliza traspasan las paredes con mucha
facilidad. No a todos les gusta la idea de que cuando vaya a imprimir, se tope con la conexión de su
vecino y pueda leer el correo electrónico de éste. En el capítulo 8 estudiaremos cómo se puede utilizar
la encriptación para proporcionar seguridad, pero en el contexto de una red doméstica la
seguridad debe estar bien probada, incluso para usuarios inexpertos. Es más fácil decirlo que
hacerlo, incluso en el caso de usuarios expertos.
Para abreviar, la conectividad doméstica ofrece muchas oportunidades y retos. La mayoría de
ellos se relaciona con la necesidad de que sean fáciles de manejar, confiables y seguros, en particular
en manos de usuarios no técnicos, y que al mismo tiempo proporcionen alto desempeño a
bajo costo.
1.2.6 Interredes
Existen muchas redes en el mundo, a veces con hardware y software diferentes. Con frecuencia,
las personas conectadas a una red desean comunicarse con personas conectadas a otra red diferente.
La satisfacción de este deseo requiere que se conecten diferentes redes, con frecuencia
incompatibles, a veces mediante máquinas llamadas puertas de enlace (gateways) para hacer la
conexión y proporcionar la traducción necesaria, tanto en términos de hardware como de software.
Un conjunto de redes interconectadas se llama interred.
Una forma común de interred es el conjunto de LANs conectadas por una WAN. De hecho, si
tuviéramos que reemplazar la etiqueta “subred” en la figura 1-9 por “WAN”, no habría nada más
que cambiar en la figura. En este caso, la única diferencia técnica real entre una subred y una WAN
es si hay hosts presentes. Si el sistema que aparece en el área gris contiene solamente enrutadores, es
una subred; si contiene enrutadores y hosts, es una WAN. Las diferencias reales se relacionan con
la propiedad y el uso.
Subredes, redes e interredes con frecuencia se confunden. La subred tiene más sentido en el
contexto de una red de área amplia, donde se refiere a un conjunto de enrutadores y líneas de
comunicación poseídas por el operador de redes. Como una analogía, el sistema telefónico consta
de oficinas de conmutación telefónica que se conectan entre sí mediante líneas de alta velocidad,
y a los hogares y negocios, mediante líneas de baja velocidad. Estas líneas y equipos, poseídas y
administradas por la compañía de teléfonos, forman la subred del sistema telefónico. Los teléfonos
mismos (los hosts en esta analogía) no son parte de la subred. La combinación de una subred y sus
hosts forma una red. En el caso de una LAN, el cable y los hosts forman la red. En realidad, ahí
no hay una subred.
Una interred se forma cuando se interconectan redes diferentes. Desde nuestro punto de vista,
al conectar una LAN y una WAN o conectar dos LANs se forma una interred, pero existe poco
acuerdo en la industria en cuanto a la terminología de esta área. Una regla de oro es que si varias
empresas pagaron por la construcción de diversas partes de la red y cada una mantiene su parte,
tenemos una interred más que una sola red. Asimismo, si la terminología subyacente es diferente
en partes diferentes (por ejemplo, difusión y punto a punto), probablemente tengamos dos redes.
1.3 SOFTWARE DE REDES
Las primeras redes de computadoras se diseñaron teniendo al hardware como punto principal
y al software como secundario. Esta estrategia ya no funciona. Actualmente el software de redes
está altamente estructurado. En las siguientes secciones examinaremos en detalle la técnica de estructuración
de software. El método descrito aquí es la clave de todo el libro y se presentará con
mucha frecuencia más adelante.
1.3.1 Jerarquías de protocolos
Para reducir la complejidad de su diseño, la mayoría de las redes está organizada como una pila
de capas o niveles, cada una construida a partir de la que está debajo de ella. El número de capas,
así como el nombre, contenido y función de cada una de ellas difieren de red a red. El
propósito de cada capa es ofrecer ciertos servicios a las capas superiores, a las cuales no se les
muestran los detalles reales de implementación de los servicios ofrecidos.
Este concepto es muy conocido y utilizado en la ciencia computacional, donde se conoce de
diversas maneras, como ocultamiento de información, tipos de datos abstractos, encapsulamiento
de datos y programación orientada a objetos. La idea básica es que una pieza particular de software
(o hardware) proporciona un servicio a sus usuarios pero nunca les muestra los detalles de su
estado interno ni sus algoritmos.
La capa n de una máquina mantiene una conversación con la capa n de otra máquina. Las
reglas y convenciones utilizadas en esta conversación se conocen de manera colectiva como protocolo
de capa n. Básicamente, un protocolo es un acuerdo entre las partes en comunicación sobre
cómo se debe llevar a cabo la comunicación. Como una analogía, cuando se presenta una mujer
con un hombre, ella podría elegir no darle la mano. Él, a su vez, podría decidir saludarla de mano
o de beso, dependiendo, por ejemplo, de si es una abogada americana o una princesa europea en una reunión social formal. Violar el protocolo hará más difícil la comunicación, si no es que imposible.
En la figura 1-13 se ilustra una red de cinco capas. Las entidades que abarcan las capas correspondientes
en diferentes máquinas se llaman iguales ( peers). Los iguales podrían ser procesos,
dispositivos de hardware o incluso seres humanos. En otras palabras, los iguales son los que
se comunican a través del protocolo.

En realidad, los datos no se transfieren de manera directa desde la capa n de una máquina a la
capa n de la otra máquina, sino que cada capa pasa los datos y la información de control a la capa
inmediatamente inferior, hasta que se alcanza la capa más baja. Debajo de la capa 1 se encuentra
el medio físico a través del cual ocurre la comunicación real. En la figura 1-13, la comunicación
virtual se muestra con líneas punteadas, en tanto que la física, con líneas sólidas.
Entre cada par de capas adyacentes está una interfaz. Ésta define qué operaciones y servicios
primitivos pone la capa más baja a disposición de la capa superior inmediata. Cuando los diseñadores
de redes deciden cuántas capas incluir en una red y qué debe hacer cada una, una de las
consideraciones más importantes es definir interfaces limpias entre las capas. Hacerlo así, a su vez,
requiere que la capa desempeñe un conjunto específico de funciones bien entendidas. Además de
minimizar la cantidad de información que se debe pasar entre las capas, las interfaces bien definidas
simplifican el reemplazo de la implementación de una capa con una implementación totalmente
diferente (por ejemplo, todas las líneas telefónicas se reemplazan con canales por satélite)
porque todo lo que se pide de la nueva implementación es que ofrezca exactamente el mismo conjunto
de servicios a su vecino de arriba, como lo hacía la implementación anterior. De hecho, es
muy común que diferentes hosts utilicen diferentes implementaciones.
Un conjunto de capas y protocolos se conoce como arquitectura de red. La especificación
de una arquitectura debe contener información suficiente para permitir que un implementador escriba
el programa o construya el hardware para cada capa de modo que se cumpla correctamente
con el protocolo apropiado. Ni los detalles de la implementación ni las especificaciones de las interfaces
son parte de la arquitectura porque están ocultas en el interior de las máquinas y no son
visibles desde el exterior. Incluso, tampoco es necesario que las interfaces de todas las máquinas
en una red sean las mismas, siempre y cuando cada máquina pueda utilizar correctamente todos
los protocolos. La lista de protocolos utilizados por un sistema, un protocolo por capa, se conoce
como pila de protocolos. Los aspectos de las arquitecturas de red, las pilas de protocolos y los
protocolos mismos son el tema principal de este libro.
Una analogía podría ayudar a explicar la idea de comunicación entre múltiples capas. Imagine
a dos filósofos (procesos de iguales en la capa 3), uno de los cuales habla urdu e inglés, y el
otro chino y francés. Puesto que no tienen un idioma común, cada uno contrata un traductor (proceso
de iguales en la capa 2) y cada uno a su vez contacta a una secretaria (procesos de iguales en
la capa 1). El filósofo 1 desea comunicar su afición por el oryctolagus cuniculus a su igual. Para
eso, le pasa un mensaje (en inglés) a través de la interfaz de las capas 2-3 a su traductor, diciendo:
“Me gustan los conejos”, como se ilustra en la figura 1-14. Los traductores han acordado un
idioma neutral conocido por ambos, el holandés, para que el mensaje se convierta en “Ik vind konijnen
leuk”. La elección del idioma es el protocolo de la capa 2 y los procesos de iguales de dicha
capa son quienes deben realizarla.
Entonces el traductor le da el mensaje a una secretaria para que lo transmita por, digamos, fax
(el protocolo de la capa 1). Cuando el mensaje llega, se traduce al francés y se pasa al filósofo 2
a través de la interfaz de las capas 2-3. Observe que cada protocolo es totalmente independiente
de los demás en tanto no cambien las interfaces. Los traductores pueden cambiar de holandés a,
digamos, finlandés, a voluntad, siempre y cuando los dos estén de acuerdo y no cambien su interfaz
con las capas 1 o 3. Del mismo modo, las secretarias pueden cambiar de fax a correo electrónico
o teléfono sin molestar (o incluso avisar) a las demás capas. Cada proceso podría agregar alguna
información destinada sólo a su igual. Esta información no se pasa a la capa superior.
Ahora veamos un ejemplo más técnico: cómo proporcionar comunicación a la capa superior
de la red de cinco capas de la figura 1-15. Un proceso de aplicación que se ejecuta en la capa 5
produce un mensaje, M, y lo pasa a la capa 4 para su transmisión.
La capa 4 pone un encabezado al frente del mensaje para identificarlo y pasa el resultado a
la capa 3. El encabezado incluye información de control, como números de secuencia, para que la
capa 4 de la máquina de destino entregue los mensajes en el orden correcto si las capas inferiores
no mantienen la secuencia. En algunas capas los encabezados también pueden contener tamaños,
medidas y otros campos de control.
En muchas redes no hay límites para el tamaño de mensajes transmitidos en el protocolo de la
capa 4, pero casi siempre hay un límite impuesto por el protocolo de la capa 3. En consecuencia,
la capa 3 debe desintegrar en unidades más pequeñas, paquetes, los mensajes que llegan, y a cada
paquete le coloca un encabezado. En este ejemplo, M se divide en dos partes, M1 y M2.
La capa 3 decide cuál de las líneas que salen utilizar y pasa los paquetes a la capa 2. Ésta no
sólo agrega un encabezado a cada pieza, sino también un terminador, y pasa la unidad resultante
a la capa 1 para su transmisión física. En la máquina receptora el mensaje pasa hacia arriba de capa
en capa, perdiendo los encabezados conforme avanza. Ninguno de los encabezados de las
capas inferiores a n llega a la capa n.
Lo que debe entender en la figura 1-15 es la relación entre las comunicaciones virtual y real,
y la diferencia entre protocolos e interfaces. Por ejemplo, los procesos de iguales en la capa 4 piensann conceptualmente de su comunicación como si fuera “horizontal”, y utilizan el protocolo de la
capa 4. Pareciera que cada uno tuviera un procedimiento llamado algo así como EnviadoalOtro-
Lado y RecibidoDesdeElOtroLado, aun cuando estos procedimientos en realidad se comunican
con las capas inferiores a través de la interfaz de las capas 3-4, no con el otro lado.
La abstracción del proceso de iguales es básica para todo diseño de red. Al utilizarla, la inmanejable
tarea de diseñar toda la red se puede fragmentar en varios problemas de diseño más
pequeños y manejables, es decir, el diseño de las capas individuales.
Aunque la sección 1.3 se llama “Software de redes”, vale la pena precisar que las capas inferiores
de una jerarquía de protocolos se implementan con frecuencia en el hardware o en el firmware.
No obstante, están implicados los algoritmos de protocolo complejos, aun cuando estén
integrados (en todo o en parte) en el hardware.
1.3.2 Aspectos de diseño de las capas
Algunos de los aspectos clave de diseño que ocurren en las redes de computadoras están presentes
en las diversas capas. Más adelante mencionaremos brevemente algunos de los más importantes.
Cada capa necesita un mecanismo para identificar a los emisores y a los receptores. Puesto
que una red por lo general tiene muchas computadoras —algunas de las cuales tienen varios procesos—,
se necesita un método para que un proceso en una máquina especifique con cuál de ellas
çCapa
Protocolo de la capa 5
Protocolo de la capa 4
Protocolo de
la capa 3
Máquina de origen Máquina de destino
Protocolo de
la capa 2
quiere hablar. Como consecuencia de tener múltiples destinos, se necesita alguna forma de direccionamiento
a fin de precisar un destino específico.
Otro conjunto de decisiones de diseño concierne a las reglas de la transferencia de datos. En
algunos sistemas, los datos viajan sólo en una dirección; en otros, pueden viajar en ambas direcciones.
El protocolo también debe determinar a cuántos canales lógicos corresponde la conexión
y cuáles son sus prioridades. Muchas redes proporcionan al menos dos canales lógicos por conexión,
uno para los datos normales y otro para los urgentes.
El control de errores es un aspecto importante porque los circuitos de comunicación física no
son perfectos. Muchos códigos de detección y corrección de errores son conocidos, pero los dos
extremos de la conexión deben estar de acuerdo en cuál es el que se va a utilizar. Además, el receptor
debe tener algún medio de decirle al emisor qué mensajes se han recibido correctamente y
cuáles no.
No todos los canales de comunicación conservan el orden en que se les envían los mensajes.
Para tratar con una posible pérdida de secuencia, el protocolo debe incluir un mecanismo que permita
al receptor volver a unir los pedazos en forma adecuada. Una solución obvia es numerar las
piezas, pero esta solución deja abierta la cuestión de qué se debe hacer con las piezas que llegan
sin orden.
Un aspecto que ocurre en cada nivel es cómo evitar que un emisor rápido sature de datos a un
receptor más lento. Se han propuesto varias soluciones que explicaremos más adelante. Algunas de
ellas implican algún tipo de retroalimentación del receptor al emisor, directa o indirectamente,
dependiendo de la situación actual del receptor. Otros limitan al emisor a una velocidad de transmisión
acordada. Este aspecto se conoce como control de flujo.
Otro problema que se debe resolver en algunos niveles es la incapacidad de todos los procesos
de aceptar de manera arbitraria mensajes largos. Esta propiedad conduce a mecanismos para
desensamblar, transmitir y reensamblar mensajes. Un aspecto relacionado es el problema de qué
hacer cuando los procesos insisten en transmitir datos en unidades tan pequeñas que enviarlas por
separado es ineficaz. La solución a esto es reunir en un solo mensaje grande varios mensajes pequeños
que vayan dirigidos a un destino común y desmembrar dicho mensaje una vez que llegue
a su destino.
Cuando es inconveniente o costoso establecer una conexión separada para cada par de procesos
de comunicación, la capa subyacente podría decidir utilizar la misma conexión para múltiples
conversaciones sin relación entre sí. Siempre y cuando esta multiplexión y desmultiplexión se
realice de manera transparente, cualquier capa la podrá utilizar. La multiplexión se necesita en la
capa física, por ejemplo, donde múltiples conversaciones comparten un número limitado de circuitos
físicos. Cuando hay múltiples rutas entre el origen y el destino, se debe elegir la mejor o las
mejores entre todas ellas. A veces esta decisión se debe dividir en dos o más capas. Por ejemplo,
para enviar datos de Londres a Roma, se debe tomar una decisión de alto nivel para pasar por Francia
o Alemania, dependiendo de sus respectivas leyes de privacidad. Luego se debe tomar una
decisión de bajo nivel para seleccionar uno de los circuitos disponibles dependiendo de la carga de
tráfico actual. Este tema se llama enrutamiento.
1.3.3 Servicios orientados a la conexión y no orientados a la conexión
Las capas pueden ofrecer dos tipos de servicios a las capas que están sobre ellas: orientados a
la conexión y no orientados a la conexión. En esta sección veremos estos dos tipos y examinaremos
las diferencias que hay entre ellos.
El servicio orientado a la conexión se concibió con base en el sistema telefónico. Para hablar
con alguien, usted levanta el teléfono, marca el número, habla y luego cuelga. Del mismo modo,
para usar un servicio de red orientado a la conexión, el usuario del servicio primero establece
una conexión, la utiliza y luego la abandona. El aspecto esencial de una conexión es que funciona
como un tubo: el emisor empuja objetos (bits) en un extremo y el receptor los toma en el otro extremo.
En la mayoría de los casos se conserva el orden para que los bits lleguen en el orden en que
se enviaron.
En algunos casos, al establecer la conexión, el emisor, el receptor y la subred realizan una negociación
sobre los parámetros que se van a utilizar, como el tamaño máximo del mensaje, la calidad
del servicio solicitado y otros temas. Por lo general, un lado hace una propuesta y el otro la
acepta, la rechaza o hace una contrapropuesta.
En contraste, el servicio no orientado a la conexión se concibió con base en el sistema postal.
Cada mensaje (carta) lleva completa la dirección de destino y cada una se enruta a través del
sistema, independientemente de las demás. En general, cuando se envían dos mensajes al mismo
destino, el primero que se envíe será el primero en llegar. Sin embargo, es posible que el que se
envió primero se dilate tanto que el segundo llegue primero.
Cada servicio se puede clasificar por la calidad del servicio. Algunos servicios son confiables
en el sentido de que nunca pierden datos. Por lo general, en un servicio confiable el receptor
confirma la recepción de cada mensaje para que el emisor esté seguro de que llegó. Este proceso
de confirmación de recepción introduce sobrecargas y retardos, que con frecuencia son valiosos
pero a veces son indeseables.
Una situación típica en la que un servicio orientado a la conexión es apropiado es en la transferencia
de archivos. El propietario del archivo desea estar seguro de que lleguen correctamente
todos los bits y en el mismo orden en que se enviaron. Muy pocos clientes que transfieren archivos
preferirían un servicio que revuelve o pierde ocasionalmente algunos bits, aunque fuera mucho
más rápido.
Un servicio orientado a la conexión confiable tiene dos variantes menores: secuencias de mensaje
y flujo de bytes. En la primera variante se conservan los límites del mensaje. Cuando se envían
dos mensajes de 1024 bytes, llegan en dos mensajes distintos de 1024 bytes, nunca en un solo
mensaje de 2048 bytes. En la segunda, la conexión es simplemente un flujo de bytes, sin límites
en el mensaje. Cuando llegan los 2048 bytes al receptor, no hay manera de saber si se enviaron como
un mensaje de 2048 bytes o dos mensajes de 1024 bytes o 2048 mensajes de un byte. Si se envían
las páginas de un libro en mensajes separados sobre una red a una fotocomponedora, podría
ser importante que se conserven los límites de los mensajes. Por otra parte, cuando un usuario inicia
sesión en un servidor remoto, todo lo que se necesita es un flujo de bytes desde la computadora
del usuario al servidor. Los límites del mensaje no son importantes.
Como lo mencionamos antes, para algunas aplicaciones, los retardos de tránsito ocasionados
por las confirmaciones de recepción son inaceptables. Una de estas aplicaciones es el tráfico de
voz digitalizada. Es preferible para los usuarios de teléfono escuchar un poco de ruido en la línea
de vez en cuando que experimentar un retardo esperando las confirmaciones de recepción. Del
mismo modo, tener algunos píxeles erróneos cuando se transmite una videoconferencia no es problema,
pero experimentar sacudidas en la imagen cuando se interrumpe el flujo para corregir errores
es muy molesto.
No todas las aplicaciones requieren conexiones. Por ejemplo, conforme el correo electrónico
se vuelve más común, la basura electrónica también se torna más común. Es probable que el emisor
de correo electrónico basura no desee enfrentarse al problema de configurar una conexión y
luego desarmarla sólo para enviar un elemento. Tampoco es 100 por ciento confiable enviar lo
esencial, sobre todo si eso es más costoso. Todo lo que se necesita es una forma de enviar un mensaje
único que tenga una alta, aunque no garantizada, probabilidad de llegar. Al servicio no orientado
a la conexión no confiable (es decir, sin confirmación de recepción) se le conoce como
servicio de datagramas, en analogía con el servicio de telegramas, que tampoco devuelve una
confirmación de recepción al emisor.
En otras situaciones se desea la conveniencia de no tener que establecer una conexión para enviar
un mensaje corto, pero la confiabilidad es esencial. Para estas aplicaciones se puede proporcionar
el servicio de datagramas confirmados. Es como enviar una carta certificada y solicitar
una confirmación de recepción. Cuando ésta regresa, el emisor está absolutamente seguro de que
la carta se ha entregado a la parte destinada y no se ha perdido durante el trayecto.
Otro servicio más es el de solicitud-respuesta. En este servicio el emisor transmite un solo
datagrama que contiene una solicitud; a continuación el servidor envía la respuesta. Por ejemplo,
una solicitud a la biblioteca local preguntando dónde se habla uighur cae dentro de esta categoría.
El esquema de solicitud-respuesta se usa comúnmente para implementar la comunicación en el
modelo cliente-servidor: el cliente emite una solicitud y el servidor la responde. La figura 1-16 resume
los tipos de servicios que se acaban de exponer.
El concepto del uso de la comunicación no confiable podría ser confuso al principio. Después
de todo, en realidad, ¿por qué preferiría alguien la comunicación no confiable a la comunicación
Servicio Ejemplo
Flujo confiable de mensajes Secuencia de páginas
Flujo confiable de bytes Inicio de sesión remoto
Conexión no confiable Voz digitalizada
Datagrama no confiable Correo electrónico basura
Datagrama confirmado Correo certificado
Solicitud-respuesta Consulta de base de datos
Figura 1-16. Seis tipos de servicio diferentes.
14424431442443
Orientado a
la conexión
No orientado a
la conexión
confiable? Antes que nada, la comunicación confiable (en nuestro sentido, es decir, con confirmación
de la recepción) podría no estar disponible. Por ejemplo, Ethernet no proporciona comunicación
confiable. Ocasionalmente, los paquetes se pueden dañar en el tránsito. Toca al
protocolo más alto enfrentar este problema. En segundo lugar, los retardos inherentes al servicio
confiable podrían ser inaceptables, en particular para aplicaciones en tiempo real como multimedia.
Éstas son las razones de que coexistan la comunicación no confiable y la confiable.
1.3.4 Primitivas de servicio
Un servicio se especifica formalmente como un conjunto de primitivas (operaciones) disponibles
a un proceso de usuario para que acceda al servicio. Estas primitivas le indican al servicio
que desempeñe alguna acción o reporte sobre una acción que ha tomado una entidad igual. Si la
pila de protocolos se ubica en el sistema operativo, como suele suceder, por lo general las primitivas
son llamadas al sistema. Estas llamadas provocan un salto al modo de kernel, que entonces
cede el control de la máquina al sistema operativo para enviar los paquetes necesarios.
El conjunto de primitivas disponible depende de la naturaleza del servicio que se va a proporcionar.
Las primitivas de servicio orientado a la conexión son diferentes de las del servicio no
orientado a la conexión. Como un ejemplo mínimo de las primitivas para servicio que se podrían
proporcionar para implementar un flujo de bytes confiable en un ambiente cliente-servidor, considere
las primitivas listadas en la figura 1-17.
34 INTRODUCCIÓN CAP. 1
Estas primitivas se podrían usar como sigue. En primer lugar, el servidor ejecuta LISTEN para
indicar que está preparado para aceptar las conexiones entrantes. Una manera común de implementar
LISTEN es hacer que bloquee la llamada al sistema. Después de ejecutar la primitiva, el
proceso del servidor se bloquea hasta que aparece una solicitud de conexión.
A continuación, el proceso del cliente ejecuta CONNECT para establecer una conexión con
el servidor. La llamada CONNECT necesita especificar a quién conecta con quién, así que podría
tener un parámetro que diera la dirección del servidor. El sistema operativo, en general, envía un
paquete al igual solicitándole que se conecte, como se muestra en (1) en la figura 1-18. El proceso
del cliente se suspende hasta que haya una respuesta. Cuando el paquete llega al servidor, es
procesado ahí por el sistema operativo. Cuando el sistema ve que el paquete es una solicitud de
Primitiva Significado
LISTEN Bloquea en espera de una conexión entrante
CONNECT Establece una conexión con el igual en espera
RECEIVE Bloquea en espera de un mensaje entrante
SEND Envía un mensaje al igual
DISCONNECT Da por terminada una conexión
Figura 1-17. Cinco primitivas de servicio para la implementación de un
servicio simple orientado a la conexión.
conexión, verifica si hay un escuchador. En ese caso hace dos cosas: desbloquea al escuchador y
envía de vuelta una confirmación de recepción (2). La llegada de esta confirmación libera entonces
al cliente. En este punto tanto el cliente como el servidor están en ejecución y tienen establecida
una conexión. Es importante observar que la confirmación de recepción (2) es generada por
el código del protocolo mismo, no en respuesta a una primitiva al nivel de usuario. Si llega una solicitud
de conexión y no hay un escuchador, el resultado es indefinido. En algunos sistemas el
paquete podría ser puesto en cola durante un breve tiempo en espera de un LISTEN.
La analogía obvia entre este protocolo y la vida real es un consumidor (cliente) que llama al
gerente de servicios a clientes de una empresa. El gerente de servicios empieza por estar cerca del
teléfono en caso de que éste suene. Entonces el cliente hace la llamada. Cuando el gerente levanta
el teléfono se establece la conexión.
SEC. 1.3 SOFTWARE DE REDES 35
Figura 1-18. Paquetes enviados en una interacción simple cliente-servidor sobre una red orientada
a la conexión.
Máquina cliente
Proceso
del cliente
Sistema
operativo
Kernel
Llamadas
de sistema
Proceso
del servidor
Controladores
Pila de
protocolos
Kernel
Controladores
Pila de
protocolos
Máquina servidor
(1) Solicitud de conexión
(2) ACK
(3) Solicitud de datos
(4) Respuesta
(5) Desconecta
(6) Desconecta
El paso siguiente es que el servidor ejecute RECEIVE para prepararse para aceptar la primera
solicitud. Normalmente, el servidor hace esto de inmediato en cuanto está libre de LISTEN, antes
de que la confirmación de recepción pueda volver al cliente. La llamada RECEIVE bloquea al
servidor.
Entonces el cliente ejecuta SEND para transmitir sus solicitudes (3) seguidas de la ejecución
de RECEIVE para obtener la respuesta.
La llegada del paquete de solicitud a la máquina servidor desbloquea el proceso del servidor para
que pueda procesar la solicitud. Una vez hecho su trabajo, utiliza SEND para devolver la respuesta
al cliente (4). La llegada de este paquete desbloquea al cliente, que ahora puede revisar la
respuesta. Si el cliente tiene solicitudes adicionales las puede hacer ahora. Si ha terminado, puede
utilizar DISCONNECT para finalizar la conexión. Por lo común, un DISCONNECT inicial es una
llamada de bloqueo, que suspende al cliente y envía un paquete al servidor en el cual le indica que
ya no es necesaria la conexión (5). Cuando el servidor recibe el paquete también emite un DISCONNECT,
enviando la confirmación de recepción al cliente y terminando la conexión. Cuando el paquete
del servidor (6) llega a la máquina cliente, el proceso del cliente se libera y finaliza la conexión.
En pocas palabras, ésta es la manera en que funciona la comunicación orientada a la conexión.
Desde luego, no todo es tan sencillo. Hay muchas cosas que pueden fallar. La temporización
puede estar mal (por ejemplo, CONNECT se hace antes de LISTEN), se pueden perder paquetes,
etcétera. Más adelante veremos en detalle estos temas, pero por el momento la figura 1-18 resume
cómo podría funcionar la comunicación cliente-servidor en una red orientada a la conexión.
Dado que se requieren seis paquetes para completar este protocolo, cabría preguntarse por qué
no se usa en su lugar un protocolo no orientado a la conexión. La respuesta es que en un mundo
perfecto podría utilizarse, en cuyo caso bastarían dos paquetes: uno para la solicitud y otro para la
respuesta. Sin embargo, en el caso de mensajes grandes en cualquier dirección (por ejemplo, en un
archivo de megabytes), errores de transmisión y paquetes perdidos, la situación cambia. Si la respuesta
constara de cientos de paquetes, algunos de los cuales se podrían perder durante la transmisión,
¿cómo sabría el cliente si se han perdido algunas piezas? ¿Cómo podría saber que el
último paquete que recibió fue realmente el último que se envió? Suponga que el cliente esperaba
un segundo archivo. ¿Cómo podría saber que el paquete 1 del segundo archivo de un paquete 1
perdido del primer archivo que de pronto apareció va en camino al cliente? Para abreviar, en el
mundo real un simple protocolo de solicitud-respuesta en una red no confiable suele ser inadecuado.
En el capítulo 3 estudiaremos en detalle una variedad de protocolos que soluciona éstos y otros
problemas. Por el momento, baste decir que a veces es muy conveniente tener un flujo de bytes ordenado
y confiable entre procesos.
1.3.5 Relación de servicios a protocolos
Servicios y protocolos son conceptos distintos, aunque con frecuencia se confunden. Sin embargo,
esta distinción es tan importante que por esa razón ponemos énfasis de nuevo en ese punto.
Un servicio es un conjunto de primitivas (operaciones) que una capa proporciona a la capa que
está sobre ella. El servicio define qué operaciones puede realizar la capa en beneficio de sus usuarios,
pero no dice nada de cómo se implementan tales operaciones. Un servicio está relacionado
con la interfaz entre dos capas, donde la capa inferior es la que provee el servicio y la superior,
quien lo recibe.
Un protocolo, en contraste, es un conjunto de reglas que rigen el formato y el significado de
los paquetes, o mensajes, que se intercambiaron las entidades iguales en una capa. Las entidades
utilizan protocolos para implementar sus definiciones del servicio. Son libres de cambiar sus protocolos
cuando lo deseen, siempre y cuando no cambie el servicio visible a sus usuarios. De esta
manera, el servicio y el protocolo no dependen uno del otro.
En otras palabras, los servicios se relacionan con las interacciones entre capas, como se ilustra
en la figura 1-19. En contraste, los protocolos se relacionan con los paquetes enviados entre
entidades iguales de máquinas diferentes. Es importante no confundir estos dos conceptos.
Vale la pena hacer una analogía con los lenguajes de programación. Un servicio es como un tipo
de datos abstractos o un objeto en un lenguaje orientado a objetos. Define operaciones que se
deben realizar en un objeto pero no especifica cómo se implementan estas operaciones. Un protocolo
se relaciona con la implementación del servicio y, como tal, el usuario del servicio no puede
verlo.
36 INTRODUCCIÓN CAP. 1
Muchos protocolos antiguos no distinguían el servicio del protocolo. En efecto, una capa típica
podría haber tenido una primitiva de servicio SEND PACKET y el usuario proveía un apuntador
a un paquete ensamblado totalmente. Este arreglo significa que el usuario podía ver de
inmediato todos los cambios del protocolo. En la actualidad, la mayoría de los diseñadores de redes
señalan a este tipo de diseño como un error grave.
1.4 MODELOS DE REFERENCIA
Ahora que hemos visto en teoría las redes con capas, es hora de ver algunos ejemplos. En las
dos secciones siguientes veremos dos arquitecturas de redes importantes: los modelos de referencia
OSI y TCP/IP. Aunque los protocolos asociados con el modelo OSI ya casi no se usan, el modelo
en sí es muy general y aún es válido, y las características tratadas en cada capa aún son muy
importantes. El modelo TCP/IP tiene las propiedades opuestas: el modelo en sí no se utiliza mucho
pero los protocolos sí. Por estas razones analizaremos con detalle ambos modelos. Además, a
veces podemos aprender más de las fallas que de los aciertos.
1.4.1 El modelo de referencia OSI
El modelo OSI se muestra en la figura 1-20 (sin el medio físico). Este modelo está basado en
una propuesta desarrollada por la ISO (Organización Internacional de Estándares) como un primer
paso hacia la estandarización internacional de los protocolos utilizados en varias capas (Day y
Zimmermann, 1983). Fue revisado en 1995 (Day, 1995). El modelo se llama OSI (Interconexión
de Sistemas Abiertos) de ISO porque tiene que ver con la conexión de sistemas abiertos, es decir,
sistemas que están abiertos a la comunicación con otros sistemas. Para abreviar, lo llamaremos
modelo OSI.
El modelo OSI tiene siete capas. Podemos resumir brevemente los principios que se aplicaron
para llegar a dichas capas:
1. Una capa se debe crear donde se necesite una abstracción diferente.
2. Cada capa debe realizar una función bien definida.
3. La función de cada capa se debe elegir con la intención de definir protocolos estandarizados
internacionalmente.
4. Los límites de las capas se deben elegir a fin de minimizar el flujo de información a través
de las interfaces.
5. La cantidad de capas debe ser suficientemente grande para no tener que agrupar funciones
distintas en la misma capa y lo bastante pequeña para que la arquitectura no se vuelva
inmanejable.
A continuación analizaremos una por una cada capa del modelo, comenzando con la capa inferior.
Observe que el modelo OSI no es en sí una arquitectura de red, debido a que no especifica
los servicios y protocolos exactos que se utilizarán en cada capa. Sólo indica lo que debe hacer cada
capa. Sin embargo, ISO también ha producido estándares para todas las capas, aunque éstos no
son parte del modelo de referencia mismo. Cada uno se ha publicado como un estándar internacional
separado.
La capa física
En esta capa se lleva a cabo la transmisión de bits puros a través de un canal de comunicación.
Los aspectos del diseño implican asegurarse de que cuando un lado envía un bit 1, éste se reciba
en el otro lado como tal, no como bit 0. Las preguntas típicas aquí son: ¿cuántos voltios se deben
emplear para representar un 1 y cuántos para representar un 0?, ¿cuántos nanosegundos dura un
bit?, ¿la transmisión se debe llevar a cabo en ambas direcciones al mismo tiempo?, ¿cómo se establece
la conexión inicial y cómo se finaliza cuando ambos lados terminan?, ¿cuántos pines tiene
un conector de red y para qué se utiliza cada uno? Los aspectos de diseño tienen que ver mucho
con interfaces mecánicas, eléctricas y de temporización, además del medio físico de transmisión,
que está bajo la capa física.
La capa de enlace de datos
La tarea principal de esta capa es transformar un medio de transmisión puro en una línea de
comunicación que, al llegar a la capa de red, aparezca libre de errores de transmisión. Logra esta
tarea haciendo que el emisor fragmente los datos de entrada en tramas de datos (típicamente, de
algunos cientos o miles de bytes) y transmitiendo las tramas de manera secuencial. Si el servicio
es confiable, el receptor confirma la recepción correcta de cada trama devolviendo una trama de
confirmación de recepción.
Otra cuestión que surge en la capa de enlace de datos (y en la mayoría de las capas superiores)
es cómo hacer que un transmisor rápido no sature de datos a un receptor lento. Por lo general
se necesita un mecanismo de regulación de tráfico que indique al transmisor cuánto espacio de búfer
tiene el receptor en ese momento. Con frecuencia, esta regulación de flujo y el manejo de errores
están integrados.

Las redes de difusión tienen un aspecto adicional en la capa de enlace de datos: cómo controlar
el acceso al canal compartido. Una subcapa especial de la capa de enlace de datos, la subcapa
de control de acceso al medio, se encarga de este problema.*
La capa de red
Esta capa controla las operaciones de la subred. Un aspecto clave del diseño es determinar cómo
se enrutan los paquetes desde su origen a su destino. Las rutas pueden estar basadas en tablas
estáticas (enrutamiento estático) codificadas en la red y que rara vez cambian.**

Si hay demasiados paquetes en la subred al mismo tiempo, se interpondrán en el camino unos
y otros, lo que provocará que se formen cuellos de botella. La responsabilidad de controlar esta
congestión también pertenece a la capa de red, aunque esta responsabilidad también puede ser
compartida por la capa de transmisión. De manera más general, la calidad del servicio proporcionado
(retardo, tiempo de tránsito, inestabilidad, etcétera) también corresponde a la capa de red.
Cuando un paquete tiene que viajar de una red a otra para llegar a su destino, pueden surgir
muchos problemas. El direccionamiento utilizado por la segunda red podría ser diferente del de la
primera.* La segunda podría no aceptar todo el paquete porque es demasiado largo. Los protocolos
podrían ser diferentes, etcétera. La capa de red tiene que resolver todos estos problemas para
que las redes heterogéneas se interconecten.
En las redes de difusión, el problema de enrutamiento es simple, por lo que la capa de red a
veces es delgada o, en ocasiones, ni siquiera existe.
La capa de transporte
La función básica de esta capa es aceptar los datos provenientes de las capas superiores, dividirlos
en unidades más pequeñas si es necesario, pasar éstas a la capa de red y asegurarse de que
todas las piezas lleguen correctamente al otro extremo. Además, todo esto se debe hacer con eficiencia
y de manera que aísle a las capas superiores de los cambios inevitables en la tecnología del
hardware.
La capa de transporte también determina qué tipo de servicio proporcionar a la capa de sesión
y, finalmente, a los usuarios de la red. El tipo de conexión de transporte más popular es un canal
punto a punto libre de errores que entrega mensajes o bytes en el orden en que se enviaron. Sin
embargo, otros tipos de servicio de transporte posibles son la transportación de mensajes aislados,
que no garantiza el orden de entrega, y la difusión de mensajes a múltiples destinos. El tipo de servicio
se determina cuando se establece la conexión. (Como observación, es imposible alcanzar un
canal libre de errores; lo que se quiere dar a entender con este término es que la tasa de error es
tan baja que se puede ignorar en la práctica.)
La capa de transporte es una verdadera conexión de extremo a extremo, en toda la ruta desde
el origen hasta el destino. En otras palabras, un programa en la máquina de origen lleva a cabo una
conversación con un programa similar en la máquina de destino, usando los encabezados de mensaje
y los mensajes de control. En las capas inferiores, los protocolos operan entre cada máquina
y sus vecinos inmediatos, y no entre las máquinas de los extremos, la de origen y la de destino, las
cuales podrían estar separadas por muchos enrutadores. En la figura 1-20 se muestra la diferencia
entre las capas 1 a 3, que están encadenadas, y las capas 4 a 7, que operan de extremo a extremo.
La capa de sesión
Esta capa permite que los usuarios de máquinas diferentes establezcan sesiones entre ellos. Las
sesiones ofrecen varios servicios, como el control de diálogo (dar seguimiento de a quién le toca
transmitir), administración de token (que impide que las dos partes traten de realizar la misma
operación crítica al mismo tiempo) y sincronización (la adición de puntos de referencia a transmisiones
largas para permitirles continuar desde donde se encontraban después de una caída).
La capa de presentación
A diferencia de las capas inferiores, a las que les corresponde principalmente mover bits, a la
capa de presentación le corresponde la sintaxis y la semántica de la información transmitida. A
fin de que las computadoras con diferentes representaciones de datos se puedan comunicar, las estructuras
de datos que se intercambiarán se pueden definir de una manera abstracta, junto con una
codificación estándar para su uso “en el cable”. La capa de presentación maneja estas estructuras
de datos abstractas y permite definir e intercambiar estructuras de datos de un nivel más alto (por
ejemplo, registros bancarios).
La capa de aplicación
Esta capa contiene varios protocolos que los usuarios requieren con frecuencia. Un protocolo
de aplicación de amplio uso es HTTP (Protocolo de Transferencia de Hipertexto), que es la base
de World Wide Web. Cuando un navegador desea una página Web, utiliza este protocolo para
enviar al servidor el nombre de dicha página. A continuación, el servidor devuelve la página. Otros
protocolos de aplicación se utilizan para la transferencia de archivos, correo electrónico y noticias
en la red.
1.4.2 El modelo de referencia TCP/IP
Tratemos ahora el modelo de referencia usado en la abuela de todas las redes de computadoras
de área amplia, ARPANET, y en su sucesora, la Internet mundial. Aunque daremos más adelante
una breve historia de ARPANET, es útil mencionar algunos de sus aspectos ahora. ARPANET
fue una red de investigación respaldada por el DoD (Departamento de Defensa de Estados Unidos).
Con el tiempo, conectó cientos de universidades e instalaciones gubernamentales mediante
líneas telefónicas alquiladas. Posteriormente, cuando se agregaron redes satelitales y de radio, los
protocolos existentes tuvieron problemas para interactuar con ellas, por lo que se necesitaba una nueva
arquitectura de referencia. De este modo, la capacidad para conectar múltiples redes en una
manera sólida fue una de las principales metas de diseño desde sus inicios. Más tarde, esta arquitectura
se llegó a conocer como el modelo de referencia TCP/IP, de acuerdo con sus dos protocolos
primarios. Su primera definición fue en (Cerf y Kahn, 1974). Posteriormente se definió en
(Leiner y cols., 1985). La filosofía del diseño que respalda al modelo se explica en (Clark, 1988).
Ante el temor del DoD de que algunos de sus valiosos hosts, enrutadores y puertas de enlace
de interredes explotaran en un instante, otro objetivo fue que la red pudiera sobrevivir a la pérdida
de hardware de la subred, sin que las conversaciones existentes se interrumpieran. En otras palabras,
el DoD quería que las conexiones se mantuvieran intactas en tanto las máquinas de origen
y destino estuvieran funcionando, aunque algunas de las máquinas o líneas de transmisión intermedias
quedaran fuera de operación repentinamente. Además, se necesitaba una arquitectura flexible
debido a que se preveían aplicaciones con requerimientos divergentes, desde transferencia de
archivos a transmisión de palabras en tiempo real.
La capa de interred
Todos estos requerimientos condujeron a la elección de una red de conmutación de paquetes
basada en una capa de interred no orientada a la conexión. Esta capa, llamada capa de interred,
es la pieza clave que mantiene unida a la arquitectura. Su trabajo es permitir que los hosts inyecten
paquetes dentro de cualquier red y que éstos viajen a su destino de manera independiente
(podría ser en una red diferente). Tal vez lleguen en un orden diferente al que fueron enviados,
en cuyo caso las capas más altas deberán ordenarlos, si se desea una entrega ordenada. Observe
que aquí el concepto “interred” se utiliza en un sentido genérico, aun cuando esta capa se presente
en Internet.
Aquí la analogía es con el sistema de correo tradicional. Una persona puede depositar una secuencia
de cartas internacionales en un buzón y, con un poco de suerte, la mayoría de ellas se entregará
en la dirección correcta del país de destino. Es probable que durante el trayecto, las cartas
viajen a través de una o más puertas de enlace de correo internacional, pero esto es transparente
para los usuarios. Además, para los usuarios también es transparente el hecho de que cada país
(es decir, cada red) tiene sus propios timbres postales, tamaños preferidos de sobre y reglas de
entrega.
La capa de interred define un paquete de formato y protocolo oficial llamado IP (Protocolo
de Internet). El trabajo de la capa de interred es entregar paquetes IP al destinatario. Aquí, el enrutamiento
de paquetes es claramente el aspecto principal, con el propósito de evitar la congestión.
Por estas razones es razonable decir que la capa de interred del modelo TCP/IP es similar en
funcionalidad a la capa de red del modelo OSI. La figura 1-21 muestra esta correspondencia.
La capa de transporte
La capa que está arriba de la capa de interred en el modelo TCP/IP se llama capa de transporte.
Está diseñada para permitir que las entidades iguales en los hosts de origen y destino puedan
llevar a cabo una conversación, tal como lo hace la capa de transporte OSI. Aquí se han
definido dos protocolos de transporte de extremo a extremo. El primero, TCP (Protocolo de Control
de Transmisión), es un protocolo confiable, orientado a la conexión, que permite que un flujo
de bytes que se origina en una máquina se entregue sin errores en cualquier otra máquina en la
interred. Divide el flujo de bytes entrantes en mensajes discretos y pasa cada uno de ellos a la capa
de interred. En el destino, el proceso TCP receptor reensambla en el flujo de salida los mensajes
recibidos. TCP también maneja el control de flujo para asegurarse de que un emisor rápido no
sature a un receptor lento con más mensajes de los que puede manejar.
42 INTRODUCCIÓN CAP. 1
El segundo protocolo de esta capa, UDP (Protocolo de Datagrama de Usuario), es un protocolo
no confiable y no orientado a la conexión para aplicaciones que no desean la secuenciación
o el control de flujo de TCP y que desean proporcionar el suyo. También tiene un amplio uso en
consultas únicas de solicitud-respuesta de tipo cliente-servidor en un solo envío, así como aplicaciones
en las que la entrega puntual es más importante que la precisa, como en la transmisión de
voz o vídeo. La relación de IP, TCP y UDP se muestra en la figura 1-22. Puesto que el modelo se
desarrolló, se ha implementado IP en muchas otras redes.

Arriba de la capa de transporte está la capa de aplicación. Contiene todos los protocolos de
nivel más alto. Los primeros incluyeron una terminal virtual (TELNET), transferencia de archivos
(FTP) y correo electrónico (SMTP), como se muestra en la figura 1-22. El protocolo de terminal
virtual permite que un usuario en una máquina se registre en una máquina remota y trabaje ahí. El
protocolo de transferencia de archivos proporciona una manera de mover con eficiencia datos de
una máquina a otra. El correo electrónico era originalmente sólo un tipo de transferencia de archivos,
pero más tarde se desarrolló un protocolo especializado (SMTP) para él. Con el tiempo, se
han agregado muchos otros protocolos: DNS (Sistema de Nombres de Dominio) para la resolución
de nombres de host en sus direcciones de red; NNTP, para transportar los artículos de noticias
de USENET; HTTP, para las páginas de World Wide Web, y muchos otros.
La capa host a red
Debajo de la capa de interred hay un gran vacío. El modelo de referencia TCP/IP en realidad
no dice mucho acerca de lo que pasa aquí, excepto que puntualiza que el host se tiene que conectar
a la red mediante el mismo protocolo para que le puedan enviar paquetes IP. Este protocolo no
está definido y varía de un host a otro y de una red a otra. Este tema rara vez se trata en libros y
artículos sobre TCP/IP.
1.4.3 Comparación entre los modelos de referencia OSI y TCP/IP
Los modelos de referencia OSI y TCP/IP tienen mucho en común. Los dos se basan en el concepto
de una pila de protocolos independientes. Asimismo, la funcionalidad de las capas es muy
parecida. Por ejemplo, en ambos modelos las capas que están arriba de, incluyendo a, la capa de
transporte están ahí para proporcionar un servicio de transporte independiente de extremo a extremo
a los procesos que desean comunicarse. Estas capas forman el proveedor de transporte. De
nuevo, en ambos modelos, las capas que están arriba de la de transporte son usuarias orientadas a
la aplicación del servicio de transporte.
A pesar de estas similitudes fundamentales, los dos modelos también tienen muchas diferencias.
En esta sección nos enfocaremos en las diferencias clave entre estos dos modelos de referencia.
Es importante tener en cuenta que estamos comparando los modelos de referencia, no las pilas de
protocolos correspondientes. Más adelante explicaremos los protocolos. Si desea un libro dedicado
a comparar y contrastar TCP/IP y OSI, vea (Piscitello y Chapin, 1993).
Tres conceptos son básicos para el modelo OSI:
1. Servicios.
2. Interfaces.
3. Protocolos.
Probablemente la contribución más grande del modelo OSI es que hace explícita la distinción
entre estos tres conceptos. Cada capa desempeña algunos servicios para la capa que está arriba de
ella. La definición de servicio indica qué hace la capa, no la forma en que la entidad superior tiene
acceso a ella, o cómo funciona dicha capa. Define el aspecto semántico de la capa.
La interfaz de una capa indica a los procesos que están sobre ella cómo accederla. Especifica
cuáles son los parámetros y qué resultados se esperan. Incluso, no dice nada sobre cómo funciona
internamente la capa.
Por último, una capa es quien debe decidir qué protocolos de iguales utilizar. Puede usar cualesquier
protocolos que desee, en tanto consiga que se haga el trabajo (es decir, proporcione los
servicios ofrecidos). También puede cambiarlos cuando desee sin afectar el software de las capas
superiores.
Estas ideas encajan muy bien con las ideas modernas sobre la programación orientada a objetos.
Un objeto, como una capa, cuenta con un conjunto de métodos (operaciones) que pueden ser
invocados por procesos que no estén en dicho objeto. La semántica de estos métodos define el conjunto
de servicios que ofrece el objeto. Los parámetros y resultados de los métodos forman la interfaz
del objeto. El código interno del objeto es su protocolo y no es visible o no tiene importancia
fuera del objeto.
Originalmente, el modelo TCP/IP no distinguía entre servicio, interfaz y protocolo, aunque las
personas han tratado de readaptarlo con el propósito de hacerlo más parecido al OSI. Por ejemplo,
los únicos servicios ofrecidos realmente por la capa de interred son SEND IP PACKET y
RECEIVE IP PACKET.
Como consecuencia, los protocolos del modelo OSI están mejor ocultos que los del modelo
TCPI/IP y se pueden reemplazar fácilmente conforme cambia la tecnología. La facilidad para realizar
tales cambios es uno de los objetivos principales de tener protocolos en capas.
El modelo de referencia OSI se vislumbró antes de que se inventaran los protocolos correspondientes.
Esta clasificación significa que el modelo no estaba diseñado para un conjunto particular
de protocolos, un hecho que lo hizo general. Una deficiencia de esta clasificación es
que los diseñadores no tenían mucha experiencia con el asunto y no tenían una idea concreta
de qué funcionalidad poner en qué capa.
Por ejemplo, originalmente la capa de enlace de datos sólo trataba con redes de punto a punto.
Cuando llegaron las redes de difusión, se tuvo que extender una nueva subcapa en el modelo.
Cuando las personas empezaron a construir redes reales utilizando el modelo OSI y los protocolos
existentes, se descubrió que estas redes no coincidían con las especificaciones de los servicios
solicitados (maravilla de maravillas), por lo que se tuvieron que integrar subcapas convergentes en
el modelo para proporcionar un espacio para documentar las diferencias. Por último, el comité esperaba
en un principio que cada país tuviera una red, controlada por el gobierno y que utilizara los
protocolos OSI, pero nunca pensaron en la interconectividad de redes. Para no hacer tan larga la
historia, las cosas no sucedieron como se esperaba.
Con TCP/IP sucedió lo contrario: los protocolos llegaron primero y el modelo fue en realidad
una descripción de los protocolos existentes. No había problemas para ajustar los protocolos al
modelo. Encajaban a la perfección. El único problema era que el modelo no aceptaba otras pilas
de protocolos. Como consecuencia, no era útil para describir otras redes que no fueran TCP/IP.
Volviendo de los asuntos filosóficos a los más específicos, una diferencia patente entre los dos
modelos es el número de capas: el modelo OSI tiene siete y el TCP/IP sólo cuatro. Los dos tienen
capas de (inter)red, transporte y aplicación, pero las otras capas son diferentes.
Otra diferencia está en el área de la comunicación orientada a la conexión comparada con la
no orientada a la conexión. El modelo OSI soporta ambas comunicaciones en la capa de red, pero
sólo la de comunicación orientada a la conexión en la capa de transporte, donde es importante
(porque el servicio de transporte es transparente para los usuarios). El modelo TCP/IP sólo tiene
un modo en la capa de red (no orientado a la conexión) pero soporta ambos modos en la capa
de transporte, lo que da a los usuarios la oportunidad de elegir. Esta elección es importante especialmente
para protocolos sencillos de solicitud-respuesta.
1.4.4 Crítica al modelo OSI y los protocolos
Ni el modelo OSI y sus protocolos ni el modelo TCP/IP y sus protocolos son perfectos. Se les
pueden hacer, y se les han hecho, críticas. En ésta y en la siguiente sección veremos algunas de
estas críticas. Empezaremos con el modelo OSI y más adelante examinaremos el modelo TCP/IP.
En la época en la que se publicó la segunda edición de este libro (1989), a muchos expertos
en el campo les pareció que el modelo OSI y sus protocolos iban a dominar el mundo y a desplazar
a todos los demás. Eso no sucedió. ¿Por qué? Sería útil echar un vistazo a algunas lecciones.
Éstas se pueden resumir así:
1. Aparición inoportuna.
2. Mala tecnología.
3. Malas implementaciones.
4. Malas políticas.
Aparición inoportuna
Primero veamos la razón número uno: aparición inoportuna. El tiempo en que se establece un
estándar es absolutamente crítico para el éxito. David Clark, del M.I.T., tiene una teoría de estándares
que llama apocalipsis de los dos elefantes, la cual se ilustra en la figura 1-23.
Esta figura muestra la cantidad de actividad que rodea a un sujeto nuevo. Cuando se descubre
primero el sujeto, hay una explosión de actividad de investigación en forma de exposiciones, documentos
y reuniones. Después de un tiempo esta actividad disminuye, las empresas descubren el
sujeto y surge la ola de miles de millones de dólares de inversión.
Es esencial que los estándares se escriban en el punto intermedio entre los dos “elefantes”. Si
los estándares se escriben demasiado pronto, antes de que se termine la investigación, el tema podría
no estar entendido por completo; el resultado son malos estándares. Si se escriben demasiado
tarde, varias empresas podrían haber hecho ya inversiones importantes en diversas maneras de hacer
las cosas que los estándares han ignorado. Si el intervalo entre los dos elefantes es muy corto
(porque cada cual tiene prisa por empezar), las personas que están desarrollando los estándares podrían
fracasar.
Al parecer, los protocolos OSI estándar han sido vencidos. Los protocolos TCP/IP competidores
ya eran ampliamente utilizados por las universidades investigadoras al momento en que aparecieron
los protocolos OSI. Mientras la ola de los miles de millones de inversión aún no golpeaba, el
mercado académico era bastante grande para que los proveedores empezaran a hacer ofertas cautas
de los productos TCP/IP. Cuando OSI llegó, no quisieron soportar una segunda pila de protocolos
hasta que se vieran forzados, por lo que no hubo ofertas iniciales. Puesto que cada empresa
esperaba que la otra diera el primer paso, ninguna lo hizo y OSI nunca prosperó.
Mala tecnología
La segunda razón por la que OSI no tuvo éxito es que tanto el modelo como los protocolos
tienen defectos. La elección de las siete capas fue más política que técnica, y dos de las capas (la
de sesión y la de presentación) están casi vacías, mientras que las otras dos (la de enlace de datos
y la de red) están saturadas.
El modelo OSI, junto con el servicio asociado de definiciones y protocolos, es extraordinariamente
complejo. Si se apilan, los estándares impresos ocupan una fracción importante de un metro
de papel. Incluso son difíciles de implementar y de operación deficiente. En este contexto, nos
viene a la mente un enigma propuesto por Paul Mockapetris y citado en (Rose, 1993):
P: ¿Qué obtiene cuando cruza un gángster con un estándar internacional?
R: Alguien que le hace una oferta que usted no entiende.
Además de ser incomprensible, otro problema con OSI es que algunas funciones, como direccionamiento,
control de flujo y control de errores, reaparecen una y otra vez en cada capa. Por
ejemplo, Saltzer y cols. (1984) han apuntado que para ser efectivo el control de errores, se debe
hacer en la capa superior, puesto que repetirlo una y otra vez en cada una de las capas inferiores
suele ser innecesario e ineficaz.
Malas implementaciones
Ante la enorme complejidad del modelo y los protocolos, no es de sorprender que las implementaciones
iniciales fueran grandes, pesadas y lentas. Todos los que lo intentaron fracasaron. No
le tomó mucho tiempo a las personas asociar OSI con “baja calidad”. Aunque los productos mejoraron
con el paso del tiempo, la imagen persistió.
En contraste, una de las primeras implementaciones de TCP/IP era parte de UNIX de Berkeley
y fue bastante buena (sin mencionar que era gratis). Las personas pronto empezaron a utilizarla,
lo que la llevó a un uso mayor por la comunidad, y esto a su vez condujo a mejoras que la llevaron
a un mayor uso en la comunidad. Aquí la espiral fue ascendente en vez de descendente.
Malas políticas
A causa de la implementación inicial, muchas personas, sobre todo en el nivel académico, pensaban
que TCP/IP era parte de UNIX, y en la década de 1980, UNIX no parecía tener paternidad
alguna en la universidad.
Por otra parte, se tenía la idea de que OSI sería la criatura de los ministerios de telecomunicación
de Europa, de la comunidad europea y más tarde del gobierno de los Estados Unidos. Esta
creencia era cierta en parte, pero no ayudaba mucho la idea de un manojo de burócratas gubernamentales
intentando poner en marcha un estándar técnicamente inferior al mando de los investigadores
y programadores pobres que estaban en las trincheras desarrollando realmente redes de
computadoras. Algunas personas compararon este desarrollo con la ocasión en que IBM anunció,
en la década de 1960, que PL/I era el lenguaje del futuro, o cuando más tarde el DoD corregía esto
anunciando que en realidad era Ada.
1.4.5 Crítica del modelo de referencia TCP/IP
El modelo de referencia TCP/IP y los protocolos también tienen sus problemas. En primer lugar,
el modelo no distingue claramente los conceptos de servicio, interfaz y protocolo. Una buena
ingeniería de software requiere la diferenciación entre la especificación y la implementación, algo
que OSI hace con mucho cuidado y que TCP/IP no hace. En consecuencia, el modelo TCP/IP
no es una guía para diseñar redes nuevas mediante tecnologías nuevas.
En segundo lugar, el modelo TCP/IP no es general del todo y no está bien ajustado para describir
ninguna pila de protocolos más que de TCP/IP. Por ejemplo, es completamente imposible
tratar de utilizar el modelo TCP/IP para describir Bluetooth.
En tercer lugar, la capa host a red no es en realidad una capa del todo en el sentido normal del
término, como se utiliza en el contexto de los protocolos de capas. Es una interfaz (entre la capa
de red y la de enlace de datos). La distinción entre una interfaz y una capa es crucial y nadie debe
ser descuidado al respecto.
En cuarto lugar, el modelo TCP/IP no distingue (ni menciona) las capas física y de enlace de
datos. Son completamente diferentes. La capa física tiene que ver con las características de transmisión
de comunicación por cable de cobre, por fibra óptica e inalámbrica. El trabajo de la capa
de enlace de datos es delimitar el inicio y fin de las tramas y captarlas de uno a otro lado con el
grado deseado de confiabilidad. Un modelo adecuado debería incluir ambas como capas separadas.
El modelo TCP/IP no hace esto.
Por último, aunque los protocolos IP y TCP se idearon e implementaron con sumo cuidado,
muchos de los demás protocolos fueron hechos con fines específicos, producidos por lo general
por estudiantes de licenciatura que los mejoraban hasta que se aburrían. Posteriormente, las implementaciones
de tales protocolos se distribuyeron de manera gratuita, lo que dio como resultado
un uso amplio y profundo y, por lo tanto, que fueran difíciles de reemplazar. Algunos de ellos
ahora están en apuros. Por ejemplo, el protocolo de terminal virtual, TELNET, se diseñó para una
terminal de teletipo mecánica de 10 caracteres por segundo. No sabe nada de interfaces gráficas
de usuario ni de ratones. No obstante, 25 años más tarde aún tiene un amplio uso.
En resumen, a pesar de sus problemas, el modelo OSI (excepto las capas de sesión y presentación)
ha probado ser excepcionalmente útil en la exposición de redes de computadoras. En contraste,
los protocolos OSI no han sido muy populares. Sucede lo contrario con TCP/IP: el modelo
es prácticamente inexistente, pero los protocolos tienen un amplio uso. En este libro utilizaremos
un modelo OSI modificado pero nos concentraremos principalmente en el modelo TCP/IP y los
protocolos relacionados, así como en los novísimos 802, SONET y Bluetooth. En efecto, utilizaremos
el modelo híbrido de la figura 1-24 como marco de trabajo para este libro.
1.5 REDES DE EJEMPLO
El tema de las redes de computadoras cubre muchos y diversos tipos de redes, grandes y pequeñas,
bien conocidas y no tan bien conocidas. Tiene diferentes objetivos, escalamientos y tecnologías.
En las siguientes secciones veremos algunos ejemplos para tener una idea de la variedad
que se puede encontrar en el área de la conectividad de redes.
Empezaremos con Internet, que es probablemente la red más conocida y veremos su historia,
evolución y tecnología. Luego consideraremos ATM, cuyo uso es frecuente en el núcleo de redes
(telefónicas) grandes. Desde el punto de vista técnico difiere muy poco de Internet, y contrasta
gratamente. Después presentaremos Ethernet, la red de área local dominante. Y, por último, veremos
el IEEE 802.11, el estándar para las LANs inalámbricas.
1.5.1 Internet
Internet no es del todo una red, sino un inmenso conjunto de redes diferentes que usan ciertos
protocolos comunes y proporcionan ciertos servicios comunes. Es un sistema poco común porque
nadie lo planeó y nadie lo controla. Para entenderlo mejor, empecemos desde el principio y veamos
cómo se desarrolló y por qué. Si desea leer una historia maravillosa sobre Internet, recomendamos
ampliamente el libro de John Naughton (2000). Es uno de esos raros libros cuya lectura no
sólo es divertida, sino que también contiene 20 páginas de ibídems y op. cits. para el historiador
serio. Parte del material que se muestra a continuación se basa en dicho libro.
Desde luego, se ha escrito una infinidad de libros técnicos sobre Internet y sus protocolos. Para
más información, vea (Maufer, 1999).
ARPANET
Nuestro relato empieza a fines de la década de 1950. Durante el auge de la Guerra Fría, el
DoD quería una red de control y comando que pudiera sobrevivir a una guerra nuclear. En esa época
todas las comunicaciones militares usaban la red telefónica pública, que se consideraba vulnerable.
La razón de esta creencia se puede entresacar de la figura 1-25(a). Los puntos negros
representan las oficinas de conmutación telefónica, a cada una de las cuales se conectaban miles
de teléfonos. Estas oficinas de conmutación estaban, a su vez, conectadas a oficinas de conmutación
de más alto nivel (oficinas interurbanas), para conformar una jerarquía nacional con sólo una
mínima redundancia. La vulnerabilidad del sistema estaba en que la destrucción de algunas de las
oficinas interurbanas clave podía fragmentar el sistema en muchas islas incomunicadas.
Hacia 1960, el DoD firmó un contrato con RAND Corporation para encontrar una solución.
Uno de sus empleados, Paul Baran, presentó el diseño de amplia distribución y tolerancia a fallas
que se muestra en la figura 1-25(b). Puesto que las trayectorias entre cualquiera de las oficinas de
conmutación eran ahora más grandes de lo que las señales análogas podían viajar sin distorsión,
Baran propuso que se utilizara la tecnología digital de conmutación de paquetes a través del sistema.
Baran escribió varios informes al DoD describiendo en detalle sus ideas. A los oficiales del
Pentágono les agradó el concepto y pidieron a AT&T, en ese entonces el monopolio telefónico estadounidense,
que construyera un prototipo. AT&T desechó las ideas de Baran. La corporación
más grande y rica del mundo no iba a permitir que un jovenzuelo le dijera cómo construir un sistema
telefónico. Dijeron que la red de Baran no se podía construir y la idea se desechó.
Pasaron varios años y el DoD aún no tenía un mejor sistema de control y comando. Para entender
qué sucedió a continuación, tenemos que volver al 7 de octubre de 1957, cuando la Unión
soviética lanzó el Sputnik, su primer satélite artificial, con lo cual se le adelantó a Estados Unidos.
Cuando el presidente Eisenhower trató de encontrar quién estaba dormido en sus laureles, se espantó
al encontrarse con que la armada, el ejército y la fuerza aérea se peleaban por el presupuesto
de investigación del Pentágono. Su respuesta inmediata fue crear una organización única de investigación
para la defensa, ARPA (Agencia de Proyectos de Investigación Avanzada). Ésta no tenía
científicos ni laboratorios; de hecho, no tenía más que una oficina y un presupuesto pequeño
(por normas del Pentágono). Hacía su trabajo otorgando subvenciones y contratos a universidades
y empresas cuyas ideas le parecían prometedoras.
Durante los primeros años, ARPA trataba de imaginarse cuál sería su misión, pero en 1967 la
atención de su entonces director, Larry Roberts, se volvió hacia las redes. Se puso en contacto con
varios expertos para decidir qué hacer. Uno de ellos, Wesley Clark, sugirió la construcción de una
subred de conmutación de paquetes, dando a cada host su propio enrutador
Después del escepticismo inicial, Roberts aceptó la idea y presentó un documento algo vago
al respecto en el Simposio sobre Principios de Sistemas Operativos ACM SIGOPS que se llevó a
cabo en Gatlinburg, Tennessee, a fines de 1967 (Roberts, 1967). Para mayor sorpresa de Roberts,
otro documento en la conferencia describía un sistema similar que no sólo había sido diseñado,
sino que ya estaba implementado bajo la dirección de Donald Davies en el National Physical
Laboratory en Inglaterra. El sistema del NPL no era un sistema a nivel nacional (sólo conectaba
algunas computadoras en el campus del NPL), pero demostró que era posible hacer que la conmutación
de paquetes funcionara. Además, citaba el trabajo anterior de Baran, el cual había sido descartado.
Roberts salió de Gatlinburg determinado a construir lo que más tarde se conocería como
ARPANET.
La subred constaría de minicomputadoras llamadas IMPs (Procesadores de Mensajes de Interfaz),
conectadas por líneas de transmisión de 56 kbps. Para alta confiabilidad, cada IMP estaría
conectado al menos a otros dos IMPs. La subred iba a ser de datagramas, de manera que si
se destruían algunos IMPs, los mensajes se podrían volver a enrutar de manera automática a otras
rutas alternativas.
Cada nodo de la red iba a constar de un IMP y un host, en el mismo cuarto, conectados por
un cable corto. Un host tendría la capacidad de enviar mensajes de más de 8063 bits a su IMP, el
cual los fragmentaría en paquetes de, a lo sumo, 1008 bits y los reenviaría de manera independiente
hacia el destino. Cada paquete se recibiría íntegro antes de ser reenviado, por lo que la subred
sería la primera red electrónica de conmutación de paquetes de almacenamiento y reenvío.
Entonces ARPA lanzó una convocatoria para construir la subred. Doce empresas licitaron.
Después de evaluar las propuestas, ARPA seleccionó a BBN, una empresa de consultoría de Cambridge,
Massachusetts, y en diciembre de 1968 le otorgó el contrato para construir la subred y
escribir el software de ésta. BBN eligió utilizar como IMPs minicomputadoras Honeywell DDP-316
especialmente modificadas con palabras de 16 bits y 12 KB de memoria central. Los IMPs no tenían
discos, ya que las partes móviles se consideraban no confiables. Estaban interconectadas por
líneas de 56 kbps alquiladas a las compañías telefónicas. Aunque 56 kbps ahora es la elección de
las personas que no pueden permitirse ADSL o cable, entonces era la mejor opción.
El software estaba dividido en dos partes: subred y host. El software de la subred constaba del
extremo IMP de la conexión host a IMP, del protocolo IMP a IMP y de un protocolo de IMP origen
a IMP destino diseñado para mejorar la confiabilidad. En la figura 1-26 se muestra el diseño
original de ARPANET.
Fuera de la subred también se necesitaba software, es decir, el extremo host de la conexión
host a IMP, el protocolo host a host y el software de aplicación. Pronto quedó claro que BBN sintió
que cuando se aceptaba un mensaje en un cable host a IMP y se ponía en un cable host a IMP
en el destino, el trabajo estaba hecho.
Roberts tenía un problema: los hosts también necesitaban software. Para resolverlo convocó a
una reunión de investigadores de red —en su mayoría estudiantes de licenciatura de Snowbird,
Utah— durante el verano de 1969. Los estudiantes esperaban que algún experto en redes les explicara
el gran diseño de la red y su software y que luego les asignara el trabajo de escribir parte
de él. Se quedaron asombrados al descubrir que no había ningún experto ni un gran diseño. Tenían
que averiguar qué era lo que se tenía que hacer.
No obstante, en diciembre de 1969 de alguna manera surgió una red experimental con cuatro
nodos: en UCLA, UCSB, SRI y la Universidad de Utah. Se eligieron estas cuatro porque todas tenían
un gran número de contratos de ARPA y todas tenían computadoras host diferentes incompatibles
en su totalidad (precisamente para hacerlo más divertido). La red creció con rapidez a
medida que se entregaban e instalaban más IMPs; pronto abarcó Estados Unidos. muestra qué tan rápido creció ARPANET en los primeros tres años.

Además de ayudar al crecimiento de la novel ARPANET, ARPA también proporcionó fondos
para la investigación sobre el uso de redes satelitales y redes de radio de paquetes móviles. En una
demostración, ahora famosa, un camión que viajaba por California utilizó la red de radio de
paquetes para enviar mensajes a SRI, que luego los reenvió por ARPANET a la Costa Este, donde
se expidieron al University College en Londres a través de una red satelital. Esto permitió que el
investigador que iba en el camión usara una computadora que se encontraba en Londres mientras
manejaba por California.
Este experimento también demostró que los protocolos existentes de ARPANET no eran adecuados
para ejecutarse a través de varias redes. Esta observación condujo a más investigación sobre
los protocolos, culminando con la invención del modelo y los protocolos de TCP/IP (Cerf y
Kahn, 1974). TCP/IP está diseñado de manera específica para manejar comunicación por interredes,
aspecto cuya importancia se acrecentó conforme cada vez más y más redes se adhirieron a
ARPANET.
Para alentar la adopción de estos nuevos protocolos, ARPA concedió varios contratos a BBN
y a la Universidad de California en Berkeley para integrarlos en UNIX de Berkeley. Los investigadores
en Berkeley desarrollaron una interfaz de programa adecuada para la red (sockets) y
escribieron muchos programas de aplicación, utilería y administración para hacer más fácil la conectividad.
El momento era perfecto. Muchas universidades habían adquirido recientemente una segunda
o tercera computadora VAX y una LAN para conectarlas, pero no tenían software de redes. Cuando
llegó 4.2BSD junto con TCP/IP, sockets y muchas utilerías de red, el paquete completo se adoptó
de inmediato. Además, con TCP/IP, fue fácil para las LANs conectarse a ARPANET y muchas
lo hicieron.
Durante la década de 1980, se conectaron redes adicionales, en particular LANs, a ARPANET.
Conforme crecía el escalamiento, encontrar hosts llegó a ser muy costoso, por lo que se creó el
DNS (Sistema de Nombres de Dominio) para organizar máquinas dentro de dominios y resolver
nombres de host en direcciones IP. Desde entonces, el DNS ha llegado a ser un sistema de base de
datos distribuido generalizado para almacenar una variedad de información relacionada con la
elección de un nombre. En el capítulo 7 estudiaremos en detalle este tema.
NSFNET
A finales de la década de 1970, la NFS (Fundación Nacional para las Ciencias, de Estados
Unidos) vio el enorme impacto que ARPANET estaba teniendo en la investigación universitaria,
permitiendo que científicos de todo el país compartieran datos y colaboraran en proyectos de investigación.
Sin embargo, para estar en ARPANET, una universidad debía tener un contrato de
investigación con el DoD, lo cual muchas no tenían. La respuesta de la NSF fue diseñar un sucesor
de ARPANET que pudiera estar abierto a todos los grupos de investigación de las universidades.
Para tener algo concreto con que empezar, la NSF decidió construir una red dorsal (o troncal)
para conectar sus seis centros de supercomputadoras en San Diego, Boulder, Champaign, Pittsburgh,
Ithaca y Princeton. A cada supercomputadora se le dio un hermano menor, que consistía en
una microcomputadora LSI-11 llamada fuzzball. Estas computadoras estaban conectadas a líneas
alquiladas de 56 kbps y formaban una subred, utilizando la misma tecnología de hardware que ARPANET.
Sin embargo, la tecnología de software era diferente: las fuzzball utilizan TCP/IP desde
el inicio, creando así la primera WAN TCP/IP.
La NSF también fundó algunas redes regionales (alrededor de 20) que se conectaban a la red
dorsal para que los usuarios en miles de universidades, laboratorios de investigación, bibliotecas
y museos, tuvieran acceso a cualquiera de las supercomputadoras y se comunicaran entre sí.
Toda la red, incluyendo la red dorsal y las redes regionales, se llamó NSFNET. Ésta se conectó a
ARPANET a través de un enlace entre un IMP y una fuzzball en el cuarto de máquinas de Carnegie-
Mellon. En la figura 1-28 se muestra la primera red dorsal NSFNET.
NSFNET fue un éxito instantáneo y pronto se saturó. Inmediatamente, la NSF empezó a planear
su sucesor y otorgó un contrato al consorcio MERIT de Michigan para que lo creara. Se alquilaron
a MCI (puesto que se fusionó con WorldCom) canales de fibra óptica a 448 kbps para
establecer la versión 2 de la red dorsal. Se utilizaron PC-RTs de IBM como enrutadores. Esta segunda
red dorsal también se sobrecargó pronto, y en 1990 se escaló a 1.5 Mbps.
Al continuar el crecimiento, la NSF se percató de que el gobierno no podría financiar por
siempre el uso de redes. Además, las empresas comerciales se querían unir, pero los estatutos de
la NSF les prohibían utilizar las redes por las que la NSF había pagado. En consecuencia, la NSF
alentó a MERIT, MCI e IBM a que formaran una corporación no lucrativa, ANS (Redes y Servicios
Avanzados), como el primer paso hacia la comercialización. En 1990, ANS adquirió NSFNET
y escaló los enlaces de 1.5 Mbps a 45 Mbps para formar ANSNET. Esta red operó durante
cinco años y luego fue vendida a America Online. Pero para entonces varias empresas estaban
ofreciendo servicios IP comerciales y fue evidente que el gobierno se debía retirar del negocio de
las redes.
Para facilitar la transición y hacer que todas las redes regionales se pudieran comunicar con
las demás redes regionales, la NSF concedió contratos a cuatro diferentes operadores de redes para
establecer un NAP (Punto de Acceso a la Red). Estos operadores eran PacBell (San Francisco),
Ameritech (Chicago), MFS (Washington, D.C.) y Sprint (Nueva York, donde para efectos de NAP,
Pennsauken, Nueva Jersey se toma en cuenta como si fuera la ciudad de Nueva York). Todo operador
de red que quisiera proporcionar el servicio de red dorsal a las redes regionales de la NSF
se tenía que conectar a todos los NAPs.
Este arreglo significaba que un paquete que se originara en cualquier red regional tenía la opción
de contar con operadores de red dorsal desde su NAP al NAP de destino.
En consecuencia, los operadores de red dorsal se vieron forzados a competir por el negocio de
las redes regionales con base en el servicio y el precio, que, desde luego, era la idea. Como resultado,
el concepto de una única red dorsal predeterminada fue reemplazado por una infraestructura
competitiva orientada a la comercialización. A muchas personas les gusta criticar al gobierno
federal por no ser innovador, pero en el área de redes, el DoD y la NSF fueron los creadores de la
infraestructura que cimentó la base para Internet y luego dejaron que la industria la operara.
Durante la década de 1990, muchos otros países y regiones también construyeron redes nacionales
de investigación, con frecuencia siguiendo el patrón de ARPANET y NSFNET. Éstas incluían
EuropaNET y EBONE en Europa, que empezaron con líneas de 2 Mbps y luego las
escalaron a 34 Mbps. Finalmente, en Europa la infraestructura de redes quedó en manos de la industria.
Uso de Internet
El número de redes, máquinas y usuarios conectados a ARPANET creció rápidamente luego
de que TCP/IP se convirtió en el protocolo oficial el 1o. de enero de 1983. Cuando NSFNET y
ARPANET estaban interconectadas, el crecimiento se hizo exponencial. Muchas redes regionales
se unieron y se hicieron conexiones a redes en Canadá, Europa y el Pacífico.
En algún momento a mediados de la década de 1980, las personas empezaron a ver el conjunto
de redes como una interred y más tarde como Internet, aunque no hubo una inauguración oficial
con algún político rompiendo una botella de champaña sobre una fuzzball.
El aglutinante que mantiene unida la Internet es el modelo de referencia TCP/IP y la pila de
protocolos de TCP/IP. TCP/IP hace posible el servicio universal y se puede comparar con la adopción
de la medida estándar para el ancho de vía del ferrocarril en el siglo XIX o la adopción de
los protocolos de señalización comunes para las compañías telefónicas.
¿Qué significa en realidad estar en Internet? Nuestra definición es que una máquina está en
Internet si ejecuta la pila de protocolos de TCP/IP, tiene una dirección IP y puede enviar paquetes
IP a todas las demás máquinas en Internet. La sola capacidad para enviar y recibir correo electrónico
no basta, puesto que el correo electrónico es la puerta de entrada a muchas redes fuera de Internet.
Sin embargo, el aspecto se nubla de alguna manera por el hecho de que millones de
computadoras personales pueden llamar a un proveedor de servicios de Internet mediante un módem,
recibir direcciones IP temporales y enviar paquetes IP a otros hosts de Internet. Tiene sentido
decir que tales máquinas están en Internet en tanto estén conectadas al enrutador del proveedor de
servicios.
Tradicionalmente (es decir, de 1970 a 1990) Internet y sus predecesores tenían cuatro aplicaciones
principales:
56 INTRODUCCIÓN CAP. 1
1. Correo electrónico. La capacidad para redactar, enviar y recibir correo electrónico ha sido
posible desde los inicios de ARPANET y su gran popularidad. Muchas personas obtienen
docenas de mensajes al día y consideran esto como su primer medio de interactuar
con el mundo exterior, más allá del teléfono y el correo caracol que se han quedado atrás.
Hoy en día los programas de correo electrónico están disponibles en prácticamente todo
tipo de computadora.
2. Noticias. Los grupos de noticias son foros especializados en los que los usuarios con un
interés común pueden intercambiar mensajes. Existen miles de grupos de noticias, dedicados
a temas técnicos y no técnicos, entre ellos computadoras, ciencia, recreación y política.
Cada grupo de noticias tiene su propia etiqueta, estilo, hábitos y penas en que se
incurre al violarlas.
3. Inicio remoto de sesión. Mediante los programas telnet, rlogin o ssh, los usuarios de
cualquier parte en Internet pueden iniciar sesión en cualquier otra máquina en la que tengan
una cuenta.
4. Transferencia de archivos. Con el programa FTP, los usuarios pueden copiar archivos de
una máquina en Internet a otra. Por este medio se encuentra disponible una vasta cantidad
de artículos, bases de datos y otra información.
Hasta principios de la década de 1990, Internet era muy visitada por investigadores académicos,
del gobierno e industriales. Una nueva aplicación, WWW (World Wide Web) cambió todo
eso y trajo millones de usuarios nuevos no académicos a la red. Esta aplicación —inventada por
Tim Berners-Lee, físico del CERN— no cambió ninguna de las características subyacentes pero
las hizo más fáciles de usar. Junto con el navegador Mosaic, escrito por Marc Andreessen en el
Centro Nacional para Aplicaciones de Supercómputo en Urbana, Illinois, WWW hizo posible que
un sitio estableciera páginas de información que contienen texto, imágenes, sonido e incluso vídeo,
y vínculos integrados a otras páginas. Al hacer clic en un vínculo, el usuario es transportado
de inmediato a la página a la que apunta dicho vínculo. Por ejemplo, muchas compañías tienen una
página de inicio con entradas que apuntan a otras páginas que contienen información de productos,
listas de precios, ventas, soporte técnico, comunicación con empleados, información para los
accionistas y más.
En muy poco tiempo han aparecido páginas de otro tipo, incluyendo mapas, tablas del mercado
accionario, catálogos de fichas bibliográficas, programas de radio grabados e incluso una página
que apunta al texto completo de muchos libros cuyos derechos de autor han expirado (Mark
Twain, Charles Dickens, etcétera). Muchas personas también tienen páginas personales (páginas
de inicio).
Gran parte de su crecimiento durante la década de 1990 estuvo alimentado por empresas llamadas
ISPs (proveedores de servicios de Internet). Hay compañías que ofrecen a los usuarios
individuales domésticos la capacidad de llamar a una de sus máquinas y conectarse a Internet, obteniendo
así acceso al correo electrónico, WWW y otros servicios de Internet. Estas compañías
suscribieron contratos con decenas de millones de usuarios nuevos por un año durante el final de la década de 1990, cambiando por completo el carácter de la red de ser un campo de recreo para
académicos y militares a uno de utilidad pública, muy semejante al sistema telefónico. Ahora el
número de usuarios de Internet se desconoce, pero lo cierto es que son cientos de millones en todo
el mundo y tal vez pronto lleguen a rebasar los mil millones.
Arquitectura de Internet
En esta sección trataremos de dar un breve panorama de lo que es Internet hoy. Debido a las
muchas fusiones entre compañías telefónicas (telcos) e ISPs, las aguas se han enturbiado y a veces
es difícil decir quién hace qué. En consecuencia, la siguiente descripción será, por necesidad,
algo más sencilla que la realidad. En la figura 1-29 se muestra el panorama general. Ahora examinemos
esta figura parte por parte.
Un buen lugar para empezar es con un cliente en casa. Supongamos que nuestro cliente llama
a su ISP desde una conexión de línea telefónica conmutada, como se muestra en la figura 1-29. El
módem es una tarjeta dentro de su PC que convierte las señales digitales que la computadora produce
en señales análogas que pueden pasar sin obstáculos a través del sistema telefónico. Estas señales
se transfieren al POP (Punto de Presencia) del ISP, donde se retiran del sistema telefónico
y se inyectan en la red regional del ISP. A partir de este punto, el sistema es totalmente digital y
de conmutación de paquetes. Si el ISP es la telco local, es probable que el POP esté ubicado en la
oficina de conmutación telefónica, donde termina el cableado de teléfono de los clientes. Si el ISP
no es la telco local, el POP podría ser alguna de las oficinas de conmutación en el camino.
La red regional de ISPs consta de enrutadores interconectados en las diversas ciudades en las
que el ISP opera o da servicio. Si el paquete está destinado a un host servido directamente por el
ISP, el paquete se entrega al host. En caso contrario, se entrega al operador de la red dorsal del ISP.
En la cima de la cadena alimenticia están los operadores de las principales redes dorsales, empresas
como AT&T y Sprint. Éstas operan grandes redes de redes dorsales internacionales, con miles
de enrutadores conectados por fibra óptica de banda ancha. Grandes corporaciones y servicios
de hosting que ejecutan granjas de servidores (máquinas que pueden servir miles de páginas Web
por segundo) con frecuencia se conectan de manera directa a la red dorsal. Los operadores de redes
dorsales alientan esta conexión directa rentando espacio en lo que se llama hoteles de portadores,
que son básicamente gabinetes de equipos en el mismo cuarto que el enrutador para
conexiones cortas y rápidas entre las granjas de servidores y la red dorsal.
Si un paquete dado a la red dorsal se destina a un ISP o a una compañía servida por la red dorsal,
se envía al enrutador más cercano y se pierde cualquier responsabilidad por este paquete. Sin
embargo, en el mundo hay muchas redes dorsales, de varios tamaños, de manera que un paquete
podría tener que ir a una red dorsal competidora. Para que los paquetes viajen entre redes dorsales,
todas las redes principales se conectan a los NAPs explicados antes. Básicamente, un NAP es
un cuarto lleno de enrutadores, al menos uno por red dorsal. Una LAN en el cuarto conecta todos
los enrutadores, de modo que los paquetes se pueden reenviar desde una red dorsal hacia cualquier
otra. Además de estar conectadas en los NAPs, las redes dorsales más grandes tienen numerosas
conexiones directas entre sus enrutadores, una técnica conocida como igualdad privada ( private
peering). Una de las muchas paradojas de Internet es que los ISPs que compiten en público entre
sí por clientes, con frecuencia cooperan estableciendo igualdades privadas entre ellos (Metz,
2001).
Aquí termina nuestro rápido viaje por Internet. En los siguientes capítulos tendremos mucho
que decir sobre los componentes individuales y su diseño, algoritmos y protocolos. También vale
la pena mencionar de paso que algunas empresas tienen interconectadas todas sus redes internas
existentes, utilizando con frecuencia la misma tecnología que Internet. Por lo general, estas intranets
son accesibles sólo dentro de la empresa pero, por otra parte, funcionan del mismo modo que
Internet.
1.5.2 Redes orientadas a la conexión:
X.25, Frame Relay y ATM
Desde el inicio de la conectividad surgió una guerra entre aquellos que apoyan a las subredes
no orientadas a la conexión (es decir, de datagramas) y quienes apoyan a las subredes orientadas
a la conexión. Los principales defensores de las subredes no orientadas a la conexión vienen de
la comunidad ARPANET/Internet. Recuerde que el deseo original del DoD al fundar y construir
ARPANET era tener una red que pudiera funcionar incluso después de que varios impactos de armas
nucleares destruyeran numerosos enrutadores y líneas de transmisión. Por lo tanto, la tolerancia a
errores era importante en su lista de prioridades, no tanto lo que pudieran cobrar a los clientes. Este
enfoque condujo a un diseño no orientado a la conexión en el que cada paquete se enruta independientemente
de cualquier otro paquete. Por lo tanto, si algunos enrutadores se caen durante una
sesión, no hay daño puesto que el sistema puede reconfigurarse a sí mismo de manera dinámica
para que los paquetes subsiguientes puedan encontrar alguna ruta a su destino, aun cuando sea diferente
de la que utilizaron los paquetes anteriores.
El campo orientado a la conexión viene del mundo de las compañías telefónicas. En el sistema
telefónico, quien llama debe marcar el número de la parte a la que desea llamar y esperar la
conexión antes de poder hablar o enviar los datos. Esta configuración de conexión establece una
ruta a través del sistema telefónico que se mantiene hasta que se termina la llamada. Todas las palabras
o paquetes siguen la misma ruta. Si una línea o conmutador se cae en el trayecto, la llamada
se cancela. Esta propiedad es precisamente lo que al DoD no le gustaba.
Entonces, ¿por qué le gustaba a las compañías telefónicas? Por dos razones:
1. Calidad en el servicio.
2. Facturación.
Al establecer de antemano una conexión, la subred puede reservar recursos como espacio de
búfer y capacidad de procesamiento (CPU) en los enrutadores. Si se intenta establecer una llamada
y los recursos disponibles son insuficientes, la llamada se rechaza y el invocador recibe una
señal de ocupado. De esta manera, una vez que se establece una conexión, ésta da un buen servicio.
Con una red no orientada a la conexión, si llegan demasiados paquetes al mismo enrutador al
mismo tiempo, el enrutador se saturará y tal vez pierda algunos paquetes. Tal vez el emisor advierta
esto y los envíe de nuevo, pero la calidad del servicio será accidentada e inadecuada para audio
o vídeo a menos que la red tenga poca carga. No es necesario decir que proveer una calidad de audio
adecuada es algo en lo que las compañías telefónicas ponen mucho cuidado, de ahí su preferencia
por las conexiones.
La segunda razón por la que las compañías telefónicas prefieren el servicio orientado a la conexión
es que están acostumbradas a cobrar por el tiempo de conexión. Cuando hace una llamada
de larga distancia (sea nacional o internacional) se le cobra por minuto. Cuando llegaron las redes,
se vieron atraídas precisamente hacia un modelo en el que el cobro por minuto fuera fácil de hacer.
Si se tiene que establecer una conexión antes de enviar los datos, en ese momento es cuando
el reloj de la facturación empieza a correr. Si no hay conexión, no hay cobro.
Irónicamente, mantener registros de facturación es muy costoso. Si una compañía telefónica
adoptara una tarifa mensual plana sin límite de llamadas y sin facturación o mantenimiento de un
registro, probablemente ahorraría una gran cantidad de dinero, a pesar del incremento en llamadas
que generaría esta política. Sin embargo, hay políticas, regulaciones y otros factores que pesan en
contra de hacer esto. Curiosamente, el servicio de tarifa plana existe en otros sectores. Por ejemplo,
la TV por cable se factura en una tasa mensual plana, independientemente de cuántos programas
vea. Podría haberse diseñado con pago por evento como concepto básico, pero no fue así, en
parte por lo costoso de la facturación (y dada la calidad de la mayoría de los programas televisivos,
la vergüenza no se puede descontar del todo). Asimismo, muchos parques de diversiones
cobran una cuota de admisión por día con acceso ilimitado a los juegos, en contraste con las
ferias ambulantes que cobran por juego.
Dicho esto, no nos debería sorprender que todas las redes diseñadas por la industria de la telefonía
hayan sido subredes orientadas a la conexión. Lo que sí es de sorprender es que Internet
también se está inclinado en esa dirección, a fin de proporcionar un mejor servicio de audio y vídeo,
un tema al que volveremos en el capítulo 5. Por ahora examinaremos algunas redes orientadas
a la conexión.
X.25 y Frame Relay
Nuestro primer ejemplo de red orientada a la conexión es la X.25, que fue la primera red de
datos pública. Se desplegó en la década de 1970, cuando el servicio telefónico era un monopolio
en todas partes y la compañía telefónica de cada país esperaba que hubiera una red de datos por
país —la propia. Para utilizar X.25, una computadora establecía primero una conexión con la computadora
remota, es decir, hacía una llamada telefónica. Esta conexión daba un número de conexión
para utilizarlo en los paquetes de transferencia de datos (ya que se podían abrir muchas conexiones
al mismo tiempo). Los paquetes de datos eran muy sencillos, consistían en un encabezado de 3 bytes
y hasta 128 bytes de datos. El encabezado constaba de un número de conexión de 12 bits, un número
de secuencia de paquete, un número de confirmación de recepción y algunos bits diversos.
Las redes X.25 funcionaron por casi diez años con resultados mixtos.
En la década de 1980, las redes X.25 fueron reemplazadas ampliamente por un nuevo tipo de
red llamada Frame Relay. Ésta es una red orientada a la conexión sin controles de error ni de flujo.
Como era orientada a la conexión, los paquetes se entregaban en orden (en caso de que se entregaran
todos). Las propiedades de entrega en orden, sin control de errores ni de flujo hicieron el
Frame Relay parecido a la LAN de área amplia. Su aplicación más importante es la interconexión
de LANs en múltiples oficinas de una empresa. Frame Relay disfrutó de un éxito modesto y aún
se sigue utilizando en algunas partes.
Modo de Transferencia Asíncrona
Otro tipo de red orientada a la conexión, tal vez el más importante, es ATM (Modo de Transferencia
Asíncrona). La razón de tan extraño nombre se debe a que en el sistema telefónico la mayor
parte de la transmisión es síncrona (lo más parecido a un reloj), y en ATM no sucede así.
ATM se diseñó a principios de la década de 1990 y se lanzó en medio de una increíble exageración
(Ginsburg, 1996; Goralski, 1995; Ibe, 1997; Kimn y cols., 1994, y Stallings, 2000). ATM
iba a resolver todos los problemas de conectividad y telecomunicaciones fusionando voz, datos,
televisión por cable, télex, telégrafo, palomas mensajeras, botes conectados por cordón, tambores,
señales de humo y todo lo demás, en un solo sistema integrado que pudiera proporcionar todos los
servicios para todas las necesidades. Eso no sucedió. En gran parte, los problemas fueron semejantes
a los ya descritos en el tema de OSI, es decir, una aparición inoportuna, junto con tecnología,
implementación y políticas equivocadas. Habiendo noqueado a las compañías telefónicas en
el primer asalto, gran parte de la comunidad de Internet vio a ATM como cuando Internet era el
contrincante de las telcos: la segunda parte. Pero no fue así en realidad y esta vez incluso los intransigentes fanáticos de los datagramas se dieron cuenta de que la calidad de servicio de Internet
dejaba mucho que desear. Para no alargar la historia, ATM tuvo mucho más éxito que OSI y actualmente
tiene un uso profundo dentro del sistema telefónico, con frecuencia en el transporte de
los paquetes IP. Como en la actualidad las empresas portadoras la utilizan principalmente para su
transporte interno, los usuarios no se percatan de su existencia pero, definitivamente, vive y goza
de salud.
Circuitos virtuales de ATM
Puesto que las redes ATM están orientadas a la conexión, el envío de datos requiere que primero
se envíe un paquete para establecer la conexión. Conforme el mensaje de establecimiento sigue
su camino a través de la subred, todos los conmutadores que se encuentran en la ruta crean
una entrada en sus tablas internas tomando nota de la existencia de la conexión y reservando cualesquier
recursos que necesite la conexión. Con frecuencia a las conexiones se les conoce como
circuitos virtuales, en analogía con los circuitos físicos utilizados en el sistema telefónico. La mayoría
de las redes ATM soportan también circuitos virtuales permanentes, que son conexiones
permanentes entre dos hosts (distantes). Son similares a las líneas alquiladas del mundo telefónico.
Cada conexión, temporal o permanente, tiene un solo identificador de conexión. En la figura
1-30 se ilustra un circuito virtual.
Una vez establecida la conexión, cada lado puede empezar a transmitir datos. La idea básica
en que se fundamenta ATM es transmitir toda la información en paquetes pequeños, de tamaño fijo,
llamados celdas. Las celdas tienen un tamaño de 53 bytes, de los cuales cinco son del encabezado
y 48 de carga útil, como se muestra en la figura 1-31. Parte del encabezado es el identificador
de la conexión, por lo que los hosts emisor y receptor y todos los conmutadores intermedios pueden
saber qué celdas pertenecen a qué conexiones. Esta información permite que cada conmutador sepa
cómo enviar cada celda entrante. La conmutación de celdas se hace en el hardware, a alta velocidad.
De hecho, el principal argumento para tener celdas de tamaño fijo es que así es fácil
construir conmutadores de hardware para manejar celdas pequeñas, de longitud fija. Los paquetes
de longitud variable de IP se tienen que enrutar mediante software, que es un proceso más lento.
Otro punto a favor de ATM es que el hardware se puede configurar para enviar una celda entrante
a múltiples líneas de salida, una propiedad necesaria para el manejo de un programa de televisión
que se va a difundir a varios receptores. Por último, las celdas pequeñas no bloquean ninguna
línea por mucho tiempo, lo que facilita la garantía en la calidad del servicio.
Todas las celdas siguen la misma ruta al destino. La entrega de celdas no está garantizada, pero
el orden sí. Si las celdas 1 y 2 se envían en ese orden, entonces deben arribar en el mismo orden,
nunca primero la 2 y luego la 1. No obstante, una de las dos o ambas se pueden perder en el
trayecto. A los niveles más altos de protocolos les corresponde la recuperación de celdas perdidas.
Observe que aunque esta garantía no es perfecta, es mejor que la de Internet. Ahí los paquetes no
sólo se pierden, sino que además se entregan en desorden. ATM, en contraste, garantiza que las
celdas nunca se entregarán en desorden.
Las redes ATM se organizan como las WANs tradicionales, con líneas y conmutadores (enrutadores).
Las velocidades más comunes para las redes ATM son de 155 y 622 Mbps, aunque también
se soportan velocidades más altas. Se eligió la velocidad de 155 Mbps porque ésta es la que
se requiere para transmitir televisión de alta definición. La elección exacta de 155.52 Mbps se hizo
por compatibilidad con el sistema de transmisión SONET de AT&T, punto que estudiaremos en
el capítulo 2. La velocidad de 622 Mbps se eligió para que se pudieran enviar cuatro canales de
155 Mbps.
El modelo de referencia ATM
ATM tiene su propio modelo de referencia, el cual es diferente del OSI y también del TCP/IP.
En la figura 1.32 se muestra el modelo de referencia ATM. Consta de tres capas: la física, la ATM
y la de adaptación ATM, además de lo que el usuario desee poner arriba de ellas.
La capa física tiene que ver con el medio físico: voltajes, temporización de bits y otros aspectos
más. ATM no prescribe un conjunto particular de reglas, tan sólo especifica que las celdas
ATM se pueden enviar tal cual por cable o fibra, pero también se pueden empacar dentro de la carga
útil de otros sistemas de transporte. En otras palabras, ATM se ha diseñado para ser independiente
del medio de transmisión.
La capa ATM se encarga de las celdas y su transporte. Define la disposición de una celda e
indica qué significan los campos del encabezado. También tiene que ver con el establecimiento y
la liberación de los circuitos virtuales. El control de congestión también se ubica aquí.
Puesto que la mayoría de las aplicaciones no necesita trabajar de manera directa con las celdas
(aunque algunas podrían hacerlo), se ha definido una capa superior a la capa ATM para que
Figura 1-31. Una celda ATM.
Bytes 5 48
Encabezado Datos de usuario
los usuarios envíen paquetes más grandes que una celda. La interfaz de ATM segmenta estos paquetes,
transmite de forma individual las celdas y las reensambla en el otro extremo. Esta capa es
la AAL (Capa de Adaptación ATM).
A diferencia de los primeros modelos de referencia bidimensionales, el modelo ATM se define
como si fuera tridimensional, lo que se puede apreciar en la figura 1-32. El plano de usuario
trata con el transporte de datos, control de flujo, corrección de errores y otras funciones de usuario.
En contraste, el plano de control se ocupa de la administración de la conexión. Las funciones
de administración del plano y de la capa se relacionan con la administración de recursos y
coordinación entre capas.
Cada una de las capas física y AAL se dividen en dos subredes, una en la parte inferior que
hace el trabajo y en la subcapa de convergencia en la parte superior que proporciona la interfaz
propia de la capa superior inmediata. En la figura 1-33 se muestran las funciones de las capas y
subcapas.
La subcapa PMD (Dependiente del Medio Físico) interactúa con el cable real. Mueve los bits
dentro y fuera y maneja la temporización de bits, es decir, el tiempo que existe entre cada bit al
transmitirlos. Esta capa será diferente para diferentes transportadoras y cables.
La otra subcapa de la capa física es la subcapa TC (Convergencia de Transmisión). Cuando
se transmiten las celdas, la capa TC las envía como una cadena de bits a la capa PMD. Esto es sencillo.
En el otro extremo, la subcapa TC recibe una serie de bits de entrada de la subcapa PMD. Su
trabajo es convertir este flujo de bits en un flujo de celdas para la capa ATM. Maneja todos los aspectos
relacionados con las indicaciones de dónde empiezan y terminan las celdas en el flujo de
bits. En el modelo ATM, esta funcionalidad se da en la capa física. En el modelo OSI y en gran
parte de las demás redes, el trabajo de entramado, es decir, convertir una serie de bits en bruto en
una secuencia de tramas o celdas, es la tarea de la capa de enlace de datos.
Como mencionamos antes, la capa ATM maneja celdas, incluyendo su generación y transporte.
La mayoría de los aspectos interesantes de ATM se encuentra ubicada aquí. Es una combinación
de las capas de enlace de datos y de red del modelo OSI; no hay una división en subcapas.
La capa AAL se divide en una subcapa SAR (Segmentación y Reensamble) y una CS (Subcapa
de Convergencia). La subcapa inferior fragmenta paquetes en celdas en el lado de transmisión
y los une de nuevo en el destino. La subcapa superior permite que los sistemas ATM ofrezcan
diversos tipos de servicios a diferentes aplicaciones (por ejemplo, la transferencia de archivos y el
vídeo bajo demanda tienen diferentes requerimientos respecto a manejo de errores, temporización,
etcétera).
Puesto que quizá ATM esté en declive, no lo explicaremos más en este libro. No obstante,
puesto que existe una base instalada considerable, es probable que aún siga en uso durante algunos
años. Para más información sobre ATM, vea (Dobrowsky y Grise, 2001, y Gadecki y Heckart,
1997).
1.5.3 Ethernet
Internet y ATM se diseñaron para conectividad de área amplia. Sin embargo, muchas empresas,
universidades y otras organizaciones tienen un gran número de computadoras que requieren
interconexión. Esta necesidad dio origen a la red de área local. En esta sección diremos algo sobre
la LAN más popular: Ethernet.
La historia empieza en la prístina Hawaii a principios de la década de 1970. En este caso,
“prístina” se puede interpretar como “que no tiene un sistema telefónico funcional”. En tanto los
días son más agradables para los vacacionistas cuando no son interrumpidos por el teléfono, no
fue así para el investigador Norman Abramson y sus colegas de la Universidad de Hawaii, quienes
estuvieron tratando de conectar usuarios de las islas remotas a la computadora principal de Honolulu. Conectar sus propios cables bajo el Océano Pacífico parecía imposible, de modo que buscaron
una solución diferente.
La primera que encontraron fueron los radios de onda corta. Cada terminal estaba equipada
con un radio pequeño de dos frecuencias: un canal ascendente (a la computadora central) y otro
descendente (desde la computadora central). Cuando el usuario deseaba conectarse con la computadora,
sólo transmitía por el canal ascendente un paquete que contenía los datos. Si en ese instante
nadie más estaba transmitiendo, probablemente el paquete saldría y su recepción sería confirmada
en el canal descendente. Si había contención por el canal ascendente, la terminal detectaría la
falta de confirmación de recepción y haría otro intento. Puesto que sólo habría un emisor en el canal
descendente (la computadora central), nunca habría colisiones ahí. Este sistema, llamado
ALOHANET, trabajaba muy bien en condiciones de bajo tráfico pero se caía cuando el flujo de
tráfico ascendente era pesado.
En esa misma época, un estudiante llamado Bob Metcalfe hizo su licenciatura en el M.I.T. y
luego se mudó para obtener su doctorado en Harvard. Durante sus estudios, conoció el trabajo de
Abramson. Se interesó tanto en él que después de graduarse en Harvard decidió pasar el verano
en Hawaii trabajando con Abramson antes de empezar a trabajar en el Centro de Investigación de
Palo Alto de Xerox (PARC). Cuando llegó al PARC, vio que los investigadores de ahí habían diseñado
y construido lo que más tarde se llamarían computadoras personales. Pero las máquinas estaban
aisladas. Aplicando su conocimiento del trabajo de Abramson, junto con su colega David
Boggs, diseñó e implementó la primera red de área local (Metcalfe y Boggs, 1976).
Llamaron Ethernet al sistema, por lo de luminiferous ether, a través del cual se pensó alguna
vez que se propagaba la radiación electromagnética. (Cuando, en el siglo XIX, el físico inglés James
Clerk Maxwell descubrió que la radiación electromagnética se podía describir mediante una
ecuación de onda, los científicos supusieron que el espacio debía estar lleno de algún medio etéreo
en el cual se propagaba la radiación. Sólo después del famoso experimento de Michelson-Morley
en 1887, los físicos descubrieron que la radiación electromagnética se podía propagar por el
vacío.)
Aquí el medio de transmisión no era el vacío, sino un cable coaxial grueso (el éter) de más de
2.5 km de largo (con repetidoras cada 500 metros). El sistema podía contener hasta 256 máquinas
por medio de transceptores acoplados al cable. Un cable con múltiples máquinas en paralelo se llama
cable de derivación múltiple (multidrop). El sistema se ejecutaba a 2.94 Mbps. En la figura
1-34 se presenta un esbozo de su arquitectura. Ethernet tenía una mejora importante respecto de
ALOHANET; antes de transmitir, una computadora tenía que escuchar el cable para ver si había
alguien más transmitiendo. En caso de que ya lo hubiera, la computadora se mantenía en espera
de que la transmisión actual terminara. Al hacerlo así se evitaba interferir con las transmisiones
existentes, dando una mayor eficiencia. ALOHANET no trabajaba de este modo porque para una
terminal en una isla era imposible detectar la transmisión de otra terminal en una isla distante. El
problema se resolvía con un cable único.
A pesar de que la computadora escucha antes de transmitir, surge un problema: ¿qué sucede
si dos o más computadoras esperan hasta que se complete la transmisión actual y luego empiezan a transmitir al mismo tiempo? La solución es que cada computadora escuche durante su propia
transmisión y, si detecta interferencia, mande una señal para poner en alerta a todos los transmisores.
Después espera un tiempo aleatorio antes de reintentarlo. Si sucede una colisión, el tiempo
aleatorio de espera se duplica y así sucesivamente, para separar las transmisiones que están en
competencia y dar a alguna la oportunidad de transmitir primero.
La Ethernet de Xerox fue tan exitosa que DEC, Intel y Xerox diseñaron un estándar en 1978
para una Ethernet de 10 Mbps, llamado estándar DIX. Con dos cambios menores, en 1983 el estándar
DIX se convirtió en el estándar IEEE 802.3.
Por desgracia para Xerox, ya tenía fama de hacer inventos originales (como el de las computadoras
personales) y luego fallar en la comercialización de los mismos, como se menciona en un
relato titulado Fumbling the Future (Smith y Alexander, 1988). Cuando Xerox mostró poco interés
en hacer algo con Ethernet aparte de ayudar a estandarizarlo, Metcalfe formó su propia empresa,
3Com, con el propósito de vender adaptadores Ethernet para PCs. Ha vendido más de 100
millones.
Ethernet continuó su desarrollo y aún está en desarrollo. Han salido nuevas versiones a 100 y
1000 Mbps, e incluso más altas. También se ha mejorado el cableado y se han agregado conmutación
y otras características. En el capítulo 4 explicaremos Ethernet en detalle.
De paso, vale la pena mencionar que Ethernet (IEEE 802.3) no es el único estándar de LAN.
El comité también estandarizó Token Bus (802.4) y Token Ring (802.5). La necesidad de tres
estándares más o menos incompatibles tiene poco que ver con la tecnología y mucho con la política.
En el momento de la estandarización, General Motors estaba impulsando una LAN en la que
la topología era la misma que la usada en Ethernet (un cable linear), pero las computadoras transmitían
por turnos pasando un pequeño paquete de computadora a computadora, llamado token.
Una computadora podía transmitir sólo si poseía el token, lo que evitaba colisiones. General Motors
anunció que este esquema era esencial para la manufactura de automóviles y que no estaba preparado
para cambiar su postura. No obstante este anuncio, el 802.4 prácticamente desapareció.
Del mismo modo, IBM tenía su favorito: su Token Ring patentado. En este esquema el token
se pasaba a través del anillo y la computadora que poseyera el token podía transmitir antes de poner
el token de nuevo en el anillo. A diferencia del 802.4, este esquema, estandarizado como 802.5,aún se usa en algunos sitios de IBM, pero prácticamente en ninguna parte más. Sin embargo, se
está desarrollando una versión de 1 gigabit (802.5v), pero parece poco probable que alcance a
Ethernet. Resumiendo, había una guerra entre Ethernet, Token Bus y Token Ring, pero Ethernet
ganó, en gran medida porque fue la primera y los retadores no pudieron superarlo.

Comentarios