jueves, 3 de abril de 2014

MODELO OSI

MODELO OSI (Open System Interconnection)

Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones de hardware y software diferentes. Como resultado, muchas de las redes eran incompatibles y se volvió muy difícil para las redes que utilizaban especificaciones distintas poder comunicarse entre sí. Para solucionar este problema, la Organización
Internacional para la Normalización (ISO) realizó varias investigaciones acerca de los esquemas de red. La ISO reconoció que era necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a implementar redes que pudieran comunicarse y trabajar en conjunto (interoperabilidad) y por lo tanto, elaboraron el modelo de referencia OSI en 1984.

El modelo de referencia OSI

El modelo de referencia OSI es el modelo principal para las comunicaciones por red. Aunque existen otros modelos, en la actualidad la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia OSI, especialmente cuando desean enseñar a los usuarios cómo utilizar sus productos. Los fabricantes consideran que es la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. El modelo de referencia OSI permite que los usuarios vean las funciones de red que se producen en cada capa.
Más importante aún, el modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. Además, puede usar el modelo de referencia OSI para visualizar cómo la información o los paquetes de datos viajan desde los programas de aplicación (por ej., hojas de cálculo, documentos, etc.), a través de un medio de red (por ej., cables, etc.), hasta otro programa de aplicación ubicado en otro computador de la red, aun cuando el transmisor y el receptor tengan distintos tipos de medios de red. En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. Esta división de las funciones de networking se denomina división en capas.


 FUNCIONES DE CADA CAPA

Cada capa individual del modelo OSI tiene un conjunto de funciones que debe realizar para que los paquetes de datos puedan viajar en la red desde el origen hasta el destino. A continuación, presentamos una breve descripción de cada capa del modelo de referencia OSI tal como aparece en la figura.

Capa 7: La capa de aplicación
La capa de aplicación es la capa del modelo OSI más cercana al usuario; suministra servicios de red a las aplicaciones del usuario. Difiere de las demás capas debido a que no proporciona servicios a ninguna otra capa OSI, sino solamente a aplicaciones que se encuentran fuera del modelo OSI. Algunos ejemplos de aplicaciones son los
Programas de hojas de cálculo, de procesamiento de texto y los de las terminales bancarias. La capa de aplicación establece la disponibilidad de los potenciales socios de comunicación, sincroniza y establece acuerdos sobre los procedimientos de recuperación de errores y control de la integridad de los datos. Si desea recordar a la Capa 7 en la menor cantidad de palabras posible, piense en los navegadores de Web.
Capa 6: La capa de presentación
La capa de presentación garantiza que la información que envía la capa de aplicación de un sistema pueda ser leída por la capa de aplicación de otro. De ser necesario, la capa de presentación traduce entre varios formatos de datos utilizando un formato común. Si desea recordar la Capa 6 en la menor cantidad de palabras posible, piense en un formato de datos común.
Capa 5: La capa de sesión
Como su nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones entre dos hosts que se están comunicando. La capa de sesión proporciona sus servicios a la capa de presentación. También sincroniza el diálogo entre las capas de presentación de los dos hosts y administra su intercambio de datos. Además de regular la sesión, la capa de sesión ofrece disposiciones para una eficiente transferencia de datos, clase de servicio y un registro de excepciones acerca de los problemas de la capa de sesión, presentación y aplicación. Si desea recordar la Capa 5 en la menor cantidad de palabras posible, piense en diálogos y conversaciones.
Capa 4: La capa de transporte
La capa de transporte segmenta los datos originados en el host emisor y los reensambla en una corriente de datos dentro del sistema del host receptor. El límite entre la capa de transporte y la capa de sesión puede imaginarse como el límite entre los protocolos de aplicación y los protocolos de flujo de datos. Mientras que las capas de aplicación, presentación y sesión están relacionadas con asuntos de Aplicaciones, las cuatro capas inferiores se encargan del transporte de datos.
La capa de transporte intenta suministrar un servicio de transporte de datos que aísla las capas superiores de los detalles de implementación del transporte. Específicamente, temas como la confiabilidad del transporte entre dos hosts es responsabilidad de la capa de transporte. Al proporcionar un servicio de comunicaciones, la capa de transporte establece, mantiene y termina adecuadamente los circuitos virtuales. Al proporcionar un servicio confiable, se utilizan dispositivos de detección y recuperación de errores de transporte. Si desea recordar a la Capa 4 en la menor cantidad de palabras posible, piense en calidad de servicio y confiabilidad.
Capa 3: La capa de red
La capa de red es una capa compleja que proporciona conectividad y selección de ruta entre dos sistemas de hosts que pueden estar ubicados en redes geográficamente distintas. Si desea recordar la Capa 3 en la menor cantidad de palabras posible, piense en selección de ruta, direccionamiento y enrutamiento.
Capa 2: La capa de enlace de datos
La capa de enlace de datos proporciona tránsito de datos confiable a través de un enlace físico. Al hacerlo, la capa de enlace de datos se ocupa del direccionamiento físico (comparado con el lógico), la topología de red, el acceso a la red, la notificación de errores, entrega ordenada de tramas y control de flujo. Si desea recordar la Capa 2 en la menor cantidad de palabras posible, piense en tramas y control de acceso al medio.
Capa 1: La capa física


La capa física define las especificaciones eléctricas, mecánicas, de procedimiento y funcionales para activar, mantener y desactivar el enlace físico entre sistemas finales. Las características tales como niveles de voltaje, temporización de cambios de voltaje, velocidad de datos físicos, distancias de transmisión máximas, conectores físicos y otros atributos similares son definidas por las especificaciones de la capa física. Si desea recordar la Capa 1 en la menor cantidad de palabras posible, piense en señales y medios.

jueves, 6 de febrero de 2014

Redes de Intercambio

REDES DE INTERCAMBIO 

¿Qué es?

Compartir archivos es la práctica de distribuir o facilitar el acceso a la información almacenada digitalmente, tales como programas informáticos, multimedia, documentos o libros electrónicos. Se puede implementar a través de una variedad de maneras. Los métodos comunes de almacenamiento, transmisión y dispersión incluyen intercambio manual de utilización de los medios extraíbles, servidores centralizados en las redes de computadoras, la World Wide Web basados en documentos con hipervínculos, y el uso de pares distribuidos to peer networking.

Historia

Los archivos se intercambiaron por primera vez en un medio extraíble. Las computadoras eran capaces de acceder a los archivos remotos utilizando un montaje del sistema de archivos, sistemas de tablón de anuncios, Usenet, y los servidores FTP. Internet Relay Chat y Línea Directa permitieron a los usuarios comunicarse a distancia a través del chat y el intercambio de archivos. La codificación de MP3, que se estandarizó en 1991 y que reduce sustancialmente el tamaño de los archivos de audio, creció a un uso generalizado en la década de 1990. En 1998, se establecieron MP3.com y Audiogalaxy, la Digital Millennium Copyright Act fue aprobada por unanimidad, y se pusieron en marcha los primeros dispositivos de reproductor de mp3.

En junio de 1999, Napster fue lanzado como un compañero no estructurado centralizado para sistema de pares, lo que requiere un servidor central para la indexación y el descubrimiento de pares. En general, se acredita como el primer punto a punto del sistema de intercambio de archivos.

Gnutella, eDonkey 2000 y Freenet fueron puestos en libertad en 2000, como Napster y MP3.com se enfrentan a litigios. Gnutella, publicado en marzo, fue la primera red de intercambio de archivos descentralizada. En la red Gnutella, todo el software de conexión se consideran iguales, y por lo tanto la red no tenía punto central de fallo. En julio de Freenet fue puesto en libertad y se convirtió en la primera red de anonimato. En septiembre, el software cliente y servidor de eDonkey2000 fue puesto en libertad.

En 2001, Kazaa y envenenado para la Mac fue lanzado. Su red FastTrack se distribuyó, aunque a diferencia de Gnutella, asignó más tráfico a 'supernodos' para aumentar la eficiencia de enrutamiento. La red era propietaria y cifrada, y el equipo de Kazaa hizo grandes esfuerzos para mantener otros clientes tales como Morpheus fuera de la red FastTrack.

En julio de 2001, Napster fue demandado por varias compañías discográficas y se pierde en A y M Records, Inc. v Napster, Inc... En el caso de Napster, se ha establecido que un proveedor de servicios en línea no podría utilizar la "red de transmisión transitoria" puerto seguro en la DMCA si tenían el control de la red con un servidor.

Poco después de su derrota en la corte, Napster fue cerrado para cumplir con una orden judicial. Esto llevó a los usuarios a otras aplicaciones P2P y compartir archivos continuó su crecimiento. El cliente Satélite Audiogalaxy creció en popularidad, y el cliente LimeWire y el protocolo BitTorrent fueron puestos en libertad. Hasta su caída en 2004, Kazaa fue el programa de intercambio de archivos más popular a pesar de malware incluido y las batallas legales en los Países Bajos, Australia y Estados Unidos. En 2002, un fallo de la corte de distrito de Tokio cerró Rogue del archivo, y la Asociación de la Industria Discográfica de Estados Unidos presentó una demanda que efectivamente cerró Audiogalaxy.

Desde 2002 hasta 2003, se establecieron una serie de servicios de BitTorrent, incluyendo Suprnova.org, isoHunt, TorrentSpy y The Pirate Bay. En 2002, la RIAA estaba presentando demandas contra usuarios de Kazaa. Como resultado de estas demandas, muchas universidades añaden normas de intercambio de archivos en sus códigos administrativos escolares. Con el cierre de eDonkey, en 2005, se convirtió en el cliente eMule dominante de la red eDonkey. En 2006, las redadas policiales se hizo con el servidor eDonkey Razorback2 y temporal llevó a The Pirate Bay.

En 2009, el juicio de The Pirate Bay terminó en un veredicto de culpabilidad de los fundadores principales del rastreador. La decisión fue apelada, lo que lleva a un segundo veredicto de culpable en noviembre de 2010 - En octubre de 2010, Limewire se vio obligado a cerrar después de una orden judicial en Arista Records LLC v Lime Group LLC, pero la red Gnutella permanece activa a través de clientes de código abierto como Frostwire y gtk-Gnutella. Además, multi-protocolo de software de intercambio de archivos como MLDonkey y Shareaza adaptado con el fin de apoyar a todos los principales protocolos de intercambio de archivos, por lo que los usuarios ya no tienen que instalar y configurar varios programas para compartir archivos.


El 19 de enero de 2012, el Departamento de Justicia de Estados Unidos cerró el dominio popular de Megaupload. El sitio de intercambio de archivos ha reclamado tener más de 50 millones de personas al día. Kim dotcom fue detenido en Nueva Zelanda y está en espera de la extradición. El caso de la caída del sitio de intercambio de archivos más grande y popular del mundo, no fue bien recibido, con el grupo de hackers Anonymous derribar varios sitios relacionados con el desmontaje. En los días siguientes, otros sitios de intercambio de archivos comenzaron a cesar los servicios; Filesonic bloqueado descargas público el 22 de enero, con Fileserve siguiendo su ejemplo, el 23 de enero.

P2P

Peer to peer para compartir archivos es la distribución y el intercambio de documentos digitales y archivos informáticos que utilizan la tecnología de punto a punto de red.

Intercambio de archivos P2P permite a los usuarios acceder a los archivos de medios tales como libros, música, películas y juegos con un programa especializado de software P2P que buscará otros ordenadores conectados en una red y localiza el contenido deseado P2P. Los nodos de dichas redes son sistemas de ordenador de usuario final que están interconectadas a través de Internet.

Tecnología peer to peer para compartir archivos ha evolucionado a través de varias etapas de diseño desde las primeras redes como Napster, que popularizó la tecnología, a los modelos posteriores como el protocolo BitTorrent.

Varios factores contribuyeron a la adopción generalizada y facilitación de peer to peer para compartir archivos. Estos incluyen el aumento de ancho de banda de Internet, la digitalización generalizada de los medios físicos, y el aumento de capacidades de las computadoras personales residenciales. Los usuarios fueron capaces de transferir uno o más archivos de un ordenador a otro a través de Internet a través de diversos sistemas de transferencia de archivos y otras redes de intercambio de archivos.

Historia


Peer to peer para compartir archivos se hizo popular en 1999 con la introducción de Napster, una aplicación de intercambio de archivos y un conjunto de servidores centrales que las personas vinculadas que tenía los archivos con los que pidieron archivos. El servidor de índice central indexados a los usuarios y el contenido compartido. Cuando alguien busca un archivo, el servidor de búsquedas en todas las copias de ese archivo y presentarlos al usuario. Los archivos se transfieren directamente 
entre los dos equipos privados. Una limitación es que sólo los archivos de música pueden ser compartidos. Debido a que este proceso se produjo en un servidor central, sin embargo, Napster fue considerado responsable de la infracción de copyright y cerró en julio de 2001 - Más tarde se volvió a abrir como servicio de pago.

Después de Napster fue clausurado, el peer to peer más populares servicios eran Gnutella y Kazaa. Estos servicios permiten a los usuarios descargar archivos que no sean de música, como películas y juegos.

LA EVOLUCIÓN TECNOLÓGICA

Napster y eDonkey2000, que tanto utiliza un modelo basado en servidor central, se pueden clasificar como la primera generación de sistemas P2P. Estos sistemas se basaron en la operación de los respectivos servidores centrales, y por lo tanto eran susceptibles a la parada centralizada. La segunda generación de intercambio de archivos P2P abarca redes como Kazaa, Gnutella y Gnutella2, que son capaces de operar sin ningún tipo de servidores centrales, lo que elimina la vulnerabilidad central mediante la conexión de los usuarios a distancia entre sí.

La tercera generación de redes de intercambio de archivos son los llamados darknets, incluidas las redes como Freenet, que proporcionan el anonimato del usuario, además de la independencia de los servidores centrales.

El protocolo BitTorrent es un caso especial. En principio, se trata de un protocolo de intercambio de archivos de la primera generación, las retransmisiones en servidores centrales llamados rastreadores para coordinar los usuarios, aunque no forma una red en el sentido tradicional, en lugar de crear una nueva red para cada conjunto de archivos, llamado un torrent . Sin embargo nuevas extensiones del protocolo permiten el uso de un servidor de red, independiente descentralizada para fines de identificación de origen, a que se refiere como el Mainline DHT. Esto permite BitTorrent para abarcar ciertos aspectos de una red de intercambio de archivos de la segunda generación. Los usuarios crean un archivo de índice que contiene los metadatos de los archivos que desea compartir, y cargar los archivos de índice a sitios web donde se comparten con los demás.

¿Qué fue NAPSTER?


Napster fue un servicio de distribución de archivos de música (en formato MP3). Creado por Shawn Fanning.

Cansado de escuchar quejas de sus amigos por la imposibilidad de encontrar ficheros MP3, arde en su cabeza la idea de crear un nuevo sistema que permita encontrar aquella música que uno busca sin recurrir a complejos sistemas y a enlaces que al poco tiempo presionados por la RIAA dejan de funcionar.

Napster, sistema que permite compartir música de forma gratuita a través de la Red fue creado por Shawn Fanning y liberado al mundo de la red en Junio de 1999.

La mayor parte de sus usuarios erán jóvenes menores de 25 años que tan sólo tenían que teclear el nombre de la canción que buscaban y recibían la versión digital en el formato denominado MP3.

El año 2000 Napster se convierte en una auténtica fiebre, logrando en tan solo un año 20 millones de usuarios. Ese mismo año, el grupo músical "Metallica" los demanda, y en una respuesta inmediata Napster bloquea a 300,000 usuarios que descargaron música de este grupo músical.


ARCHIVOS TORRENT

Un archivo torrent almacena metadatos usados por BitTorrent. Está definido en la especificación de BitTorrent. Simplemente, un torrent es información acerca de un archivo de destino, aunque no contiene información acerca del contenido del archivo. La única información que contiene el torrent es la localización de diferentes piezas del archivo de destino. Los torrents funcionan dividiendo el archivo de destino en pequeños fragmentos de información, localizados en un número ilimitado de hosts diferentes. Por medio de este método, los torrents son capaces de descargar archivos grandes rápidamente. Cuando un cliente (el receptor del archivo de destino) ha iniciado una descarga por torrent, los fragmentos del archivo de destino que son necesitados pueden ser encontrados fácilmente, basados en la información del torrent. Una vez que todos los fragmentos son descargados, el cliente puede ensamblarlos en una forma utilizable. Nota: la descarga debe ser completada antes de que pueda ensamblarse en una forma utilizable.
Un archivo torrent contiene las URLs de muchos trackers y la integridad de los metadatos de todos los fragmentos. También puede contener metadatos adicionales definidos en extensiones de la especificación de BitTorrent. Estos son conocidos como "Propuestas de Mejora BitTorrent".


BitTorrent

BitTorrent es un protocolo diseñado para el intercambio de archivos peer-to-peer en Internet. Es uno de los protocolos más comunes para la transferencia de archivos grandes.
El programador Bram Cohen diseñó el protocolo en abril de 2001 y publicó su primera implementación el 2 de julio de 2001. Actualmente es mantenido por la empresa de Cohen, BitTorrent, Inc. Existen numerosos clientes BitTorrent disponibles para varios sistemas operativos.
En enero de 2012, BitTorrent tenía 150 millones de usuarios activos de acuerdo con BitTorrent, Inc., basándose en esto, estimaban que el número total de usuarios mensuales de BitTorrent era mayor de 250 millones. En cualquier instante de tiempo BitTorrent tiene, en promedio, más usuarios activos que YouTube y Facebook juntos (en un instante de tiempo, no en número total de usuarios únicos específicamente de BitTorrent). Por otro lado, tras el cierre de la web Megaupload, el uso de esta plataforma se ha incrementado considerablemente.

Descripción

El protocolo BitTorrent puede ser usado para reducir el impacto que tiene la distribución de archivos grandes en los servidores. En lugar de descargar el archivo desde un único servidor, el protocolo BitTorrent permite a los usuarios unirse entre ellos en un "enjambre" (swarm) para descargar y subir el archivo de forma simultánea. El protocolo es una alternativa al sistema basado en servidores, que consiste en disponer de varios servidores espejo (mirror) desde donde el usuario descarga el archivo completo, y puede funcionar en redes con poco ancho de banda, de esta forma, dispositivos pequeños como los smartphone, son capaces de distribuir archivos grandes o vídeo en streaming a muchos receptores.
Un usuario que quiere subir un archivo, primero crea un archivo torrent y lo distribuye de forma convencional (páginas web, correo electrónico, etc). Después hace que el archivo esté disponible en la red a través de un nodo BitTorrent que actúa como semilla (seed). Los usuarios que quieren descargar el archivo, obtienen el archivo torrent y crean otro nodo BitTorrent que actúa como cliente o "sanguijuela" (leecher), intercambiando partes del archivo con la semilla y con otros clientes.
El archivo que está siendo distribuido se divide en partes pequeñas (pieces). Cada vez que un usuario recibe una parte nueva del archivo, puede a su vez compartirla con otros usuarios, liberando a la semilla original de tener que enviar una copia de esa parte a todos los usuarios que quieren el archivo. En BitTorrent, la tarea de distribuir un archivo es compartida por todos aquellos que desean tener el archivo. Es perfectamente posible que la semilla solo envíe una copia del archivo y el archivo sea distribuido a un número ilimitado de usuarios.
Cada parte del archivo está protegida por un hash criptográfico contenido dentro del archivo torrent. Esto asegura que cualquier modificación que se produzca en una parte puede ser detectada, y por lo tanto evita que tanto las modificaciones accidentales como las maliciosas sean recibidas en otros nodos. Si un nodo tiene el archivo torrent autentico, puede verificar la autenticidad del archivo completo que ha recibido.


Conclusión 
Muchos sostienen que el intercambio de archivos ha obligado a los propietarios de contenido de entretenimiento para que sea más accesible legalmente mediante tarifa o la publicidad en la demanda en Internet, en lugar de permanecer estático con TV, radio, DVD, CD, y el teatro. Contenido para su compra ha sido mayor que el tráfico ilegal en el norte árido internet Latina desde al menos 2009.


BIBLIoGRAFÍA