jueves, 3 de abril de 2014

MODELO OSI

MODELO OSI (Open System Interconnection)

Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones de hardware y software diferentes. Como resultado, muchas de las redes eran incompatibles y se volvió muy difícil para las redes que utilizaban especificaciones distintas poder comunicarse entre sí. Para solucionar este problema, la Organización
Internacional para la Normalización (ISO) realizó varias investigaciones acerca de los esquemas de red. La ISO reconoció que era necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a implementar redes que pudieran comunicarse y trabajar en conjunto (interoperabilidad) y por lo tanto, elaboraron el modelo de referencia OSI en 1984.

El modelo de referencia OSI

El modelo de referencia OSI es el modelo principal para las comunicaciones por red. Aunque existen otros modelos, en la actualidad la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia OSI, especialmente cuando desean enseñar a los usuarios cómo utilizar sus productos. Los fabricantes consideran que es la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. El modelo de referencia OSI permite que los usuarios vean las funciones de red que se producen en cada capa.
Más importante aún, el modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. Además, puede usar el modelo de referencia OSI para visualizar cómo la información o los paquetes de datos viajan desde los programas de aplicación (por ej., hojas de cálculo, documentos, etc.), a través de un medio de red (por ej., cables, etc.), hasta otro programa de aplicación ubicado en otro computador de la red, aun cuando el transmisor y el receptor tengan distintos tipos de medios de red. En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. Esta división de las funciones de networking se denomina división en capas.


 FUNCIONES DE CADA CAPA

Cada capa individual del modelo OSI tiene un conjunto de funciones que debe realizar para que los paquetes de datos puedan viajar en la red desde el origen hasta el destino. A continuación, presentamos una breve descripción de cada capa del modelo de referencia OSI tal como aparece en la figura.

Capa 7: La capa de aplicación
La capa de aplicación es la capa del modelo OSI más cercana al usuario; suministra servicios de red a las aplicaciones del usuario. Difiere de las demás capas debido a que no proporciona servicios a ninguna otra capa OSI, sino solamente a aplicaciones que se encuentran fuera del modelo OSI. Algunos ejemplos de aplicaciones son los
Programas de hojas de cálculo, de procesamiento de texto y los de las terminales bancarias. La capa de aplicación establece la disponibilidad de los potenciales socios de comunicación, sincroniza y establece acuerdos sobre los procedimientos de recuperación de errores y control de la integridad de los datos. Si desea recordar a la Capa 7 en la menor cantidad de palabras posible, piense en los navegadores de Web.
Capa 6: La capa de presentación
La capa de presentación garantiza que la información que envía la capa de aplicación de un sistema pueda ser leída por la capa de aplicación de otro. De ser necesario, la capa de presentación traduce entre varios formatos de datos utilizando un formato común. Si desea recordar la Capa 6 en la menor cantidad de palabras posible, piense en un formato de datos común.
Capa 5: La capa de sesión
Como su nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones entre dos hosts que se están comunicando. La capa de sesión proporciona sus servicios a la capa de presentación. También sincroniza el diálogo entre las capas de presentación de los dos hosts y administra su intercambio de datos. Además de regular la sesión, la capa de sesión ofrece disposiciones para una eficiente transferencia de datos, clase de servicio y un registro de excepciones acerca de los problemas de la capa de sesión, presentación y aplicación. Si desea recordar la Capa 5 en la menor cantidad de palabras posible, piense en diálogos y conversaciones.
Capa 4: La capa de transporte
La capa de transporte segmenta los datos originados en el host emisor y los reensambla en una corriente de datos dentro del sistema del host receptor. El límite entre la capa de transporte y la capa de sesión puede imaginarse como el límite entre los protocolos de aplicación y los protocolos de flujo de datos. Mientras que las capas de aplicación, presentación y sesión están relacionadas con asuntos de Aplicaciones, las cuatro capas inferiores se encargan del transporte de datos.
La capa de transporte intenta suministrar un servicio de transporte de datos que aísla las capas superiores de los detalles de implementación del transporte. Específicamente, temas como la confiabilidad del transporte entre dos hosts es responsabilidad de la capa de transporte. Al proporcionar un servicio de comunicaciones, la capa de transporte establece, mantiene y termina adecuadamente los circuitos virtuales. Al proporcionar un servicio confiable, se utilizan dispositivos de detección y recuperación de errores de transporte. Si desea recordar a la Capa 4 en la menor cantidad de palabras posible, piense en calidad de servicio y confiabilidad.
Capa 3: La capa de red
La capa de red es una capa compleja que proporciona conectividad y selección de ruta entre dos sistemas de hosts que pueden estar ubicados en redes geográficamente distintas. Si desea recordar la Capa 3 en la menor cantidad de palabras posible, piense en selección de ruta, direccionamiento y enrutamiento.
Capa 2: La capa de enlace de datos
La capa de enlace de datos proporciona tránsito de datos confiable a través de un enlace físico. Al hacerlo, la capa de enlace de datos se ocupa del direccionamiento físico (comparado con el lógico), la topología de red, el acceso a la red, la notificación de errores, entrega ordenada de tramas y control de flujo. Si desea recordar la Capa 2 en la menor cantidad de palabras posible, piense en tramas y control de acceso al medio.
Capa 1: La capa física


La capa física define las especificaciones eléctricas, mecánicas, de procedimiento y funcionales para activar, mantener y desactivar el enlace físico entre sistemas finales. Las características tales como niveles de voltaje, temporización de cambios de voltaje, velocidad de datos físicos, distancias de transmisión máximas, conectores físicos y otros atributos similares son definidas por las especificaciones de la capa física. Si desea recordar la Capa 1 en la menor cantidad de palabras posible, piense en señales y medios.

jueves, 6 de febrero de 2014

Redes de Intercambio

REDES DE INTERCAMBIO 

¿Qué es?

Compartir archivos es la práctica de distribuir o facilitar el acceso a la información almacenada digitalmente, tales como programas informáticos, multimedia, documentos o libros electrónicos. Se puede implementar a través de una variedad de maneras. Los métodos comunes de almacenamiento, transmisión y dispersión incluyen intercambio manual de utilización de los medios extraíbles, servidores centralizados en las redes de computadoras, la World Wide Web basados en documentos con hipervínculos, y el uso de pares distribuidos to peer networking.

Historia

Los archivos se intercambiaron por primera vez en un medio extraíble. Las computadoras eran capaces de acceder a los archivos remotos utilizando un montaje del sistema de archivos, sistemas de tablón de anuncios, Usenet, y los servidores FTP. Internet Relay Chat y Línea Directa permitieron a los usuarios comunicarse a distancia a través del chat y el intercambio de archivos. La codificación de MP3, que se estandarizó en 1991 y que reduce sustancialmente el tamaño de los archivos de audio, creció a un uso generalizado en la década de 1990. En 1998, se establecieron MP3.com y Audiogalaxy, la Digital Millennium Copyright Act fue aprobada por unanimidad, y se pusieron en marcha los primeros dispositivos de reproductor de mp3.

En junio de 1999, Napster fue lanzado como un compañero no estructurado centralizado para sistema de pares, lo que requiere un servidor central para la indexación y el descubrimiento de pares. En general, se acredita como el primer punto a punto del sistema de intercambio de archivos.

Gnutella, eDonkey 2000 y Freenet fueron puestos en libertad en 2000, como Napster y MP3.com se enfrentan a litigios. Gnutella, publicado en marzo, fue la primera red de intercambio de archivos descentralizada. En la red Gnutella, todo el software de conexión se consideran iguales, y por lo tanto la red no tenía punto central de fallo. En julio de Freenet fue puesto en libertad y se convirtió en la primera red de anonimato. En septiembre, el software cliente y servidor de eDonkey2000 fue puesto en libertad.

En 2001, Kazaa y envenenado para la Mac fue lanzado. Su red FastTrack se distribuyó, aunque a diferencia de Gnutella, asignó más tráfico a 'supernodos' para aumentar la eficiencia de enrutamiento. La red era propietaria y cifrada, y el equipo de Kazaa hizo grandes esfuerzos para mantener otros clientes tales como Morpheus fuera de la red FastTrack.

En julio de 2001, Napster fue demandado por varias compañías discográficas y se pierde en A y M Records, Inc. v Napster, Inc... En el caso de Napster, se ha establecido que un proveedor de servicios en línea no podría utilizar la "red de transmisión transitoria" puerto seguro en la DMCA si tenían el control de la red con un servidor.

Poco después de su derrota en la corte, Napster fue cerrado para cumplir con una orden judicial. Esto llevó a los usuarios a otras aplicaciones P2P y compartir archivos continuó su crecimiento. El cliente Satélite Audiogalaxy creció en popularidad, y el cliente LimeWire y el protocolo BitTorrent fueron puestos en libertad. Hasta su caída en 2004, Kazaa fue el programa de intercambio de archivos más popular a pesar de malware incluido y las batallas legales en los Países Bajos, Australia y Estados Unidos. En 2002, un fallo de la corte de distrito de Tokio cerró Rogue del archivo, y la Asociación de la Industria Discográfica de Estados Unidos presentó una demanda que efectivamente cerró Audiogalaxy.

Desde 2002 hasta 2003, se establecieron una serie de servicios de BitTorrent, incluyendo Suprnova.org, isoHunt, TorrentSpy y The Pirate Bay. En 2002, la RIAA estaba presentando demandas contra usuarios de Kazaa. Como resultado de estas demandas, muchas universidades añaden normas de intercambio de archivos en sus códigos administrativos escolares. Con el cierre de eDonkey, en 2005, se convirtió en el cliente eMule dominante de la red eDonkey. En 2006, las redadas policiales se hizo con el servidor eDonkey Razorback2 y temporal llevó a The Pirate Bay.

En 2009, el juicio de The Pirate Bay terminó en un veredicto de culpabilidad de los fundadores principales del rastreador. La decisión fue apelada, lo que lleva a un segundo veredicto de culpable en noviembre de 2010 - En octubre de 2010, Limewire se vio obligado a cerrar después de una orden judicial en Arista Records LLC v Lime Group LLC, pero la red Gnutella permanece activa a través de clientes de código abierto como Frostwire y gtk-Gnutella. Además, multi-protocolo de software de intercambio de archivos como MLDonkey y Shareaza adaptado con el fin de apoyar a todos los principales protocolos de intercambio de archivos, por lo que los usuarios ya no tienen que instalar y configurar varios programas para compartir archivos.


El 19 de enero de 2012, el Departamento de Justicia de Estados Unidos cerró el dominio popular de Megaupload. El sitio de intercambio de archivos ha reclamado tener más de 50 millones de personas al día. Kim dotcom fue detenido en Nueva Zelanda y está en espera de la extradición. El caso de la caída del sitio de intercambio de archivos más grande y popular del mundo, no fue bien recibido, con el grupo de hackers Anonymous derribar varios sitios relacionados con el desmontaje. En los días siguientes, otros sitios de intercambio de archivos comenzaron a cesar los servicios; Filesonic bloqueado descargas público el 22 de enero, con Fileserve siguiendo su ejemplo, el 23 de enero.

P2P

Peer to peer para compartir archivos es la distribución y el intercambio de documentos digitales y archivos informáticos que utilizan la tecnología de punto a punto de red.

Intercambio de archivos P2P permite a los usuarios acceder a los archivos de medios tales como libros, música, películas y juegos con un programa especializado de software P2P que buscará otros ordenadores conectados en una red y localiza el contenido deseado P2P. Los nodos de dichas redes son sistemas de ordenador de usuario final que están interconectadas a través de Internet.

Tecnología peer to peer para compartir archivos ha evolucionado a través de varias etapas de diseño desde las primeras redes como Napster, que popularizó la tecnología, a los modelos posteriores como el protocolo BitTorrent.

Varios factores contribuyeron a la adopción generalizada y facilitación de peer to peer para compartir archivos. Estos incluyen el aumento de ancho de banda de Internet, la digitalización generalizada de los medios físicos, y el aumento de capacidades de las computadoras personales residenciales. Los usuarios fueron capaces de transferir uno o más archivos de un ordenador a otro a través de Internet a través de diversos sistemas de transferencia de archivos y otras redes de intercambio de archivos.

Historia


Peer to peer para compartir archivos se hizo popular en 1999 con la introducción de Napster, una aplicación de intercambio de archivos y un conjunto de servidores centrales que las personas vinculadas que tenía los archivos con los que pidieron archivos. El servidor de índice central indexados a los usuarios y el contenido compartido. Cuando alguien busca un archivo, el servidor de búsquedas en todas las copias de ese archivo y presentarlos al usuario. Los archivos se transfieren directamente 
entre los dos equipos privados. Una limitación es que sólo los archivos de música pueden ser compartidos. Debido a que este proceso se produjo en un servidor central, sin embargo, Napster fue considerado responsable de la infracción de copyright y cerró en julio de 2001 - Más tarde se volvió a abrir como servicio de pago.

Después de Napster fue clausurado, el peer to peer más populares servicios eran Gnutella y Kazaa. Estos servicios permiten a los usuarios descargar archivos que no sean de música, como películas y juegos.

LA EVOLUCIÓN TECNOLÓGICA

Napster y eDonkey2000, que tanto utiliza un modelo basado en servidor central, se pueden clasificar como la primera generación de sistemas P2P. Estos sistemas se basaron en la operación de los respectivos servidores centrales, y por lo tanto eran susceptibles a la parada centralizada. La segunda generación de intercambio de archivos P2P abarca redes como Kazaa, Gnutella y Gnutella2, que son capaces de operar sin ningún tipo de servidores centrales, lo que elimina la vulnerabilidad central mediante la conexión de los usuarios a distancia entre sí.

La tercera generación de redes de intercambio de archivos son los llamados darknets, incluidas las redes como Freenet, que proporcionan el anonimato del usuario, además de la independencia de los servidores centrales.

El protocolo BitTorrent es un caso especial. En principio, se trata de un protocolo de intercambio de archivos de la primera generación, las retransmisiones en servidores centrales llamados rastreadores para coordinar los usuarios, aunque no forma una red en el sentido tradicional, en lugar de crear una nueva red para cada conjunto de archivos, llamado un torrent . Sin embargo nuevas extensiones del protocolo permiten el uso de un servidor de red, independiente descentralizada para fines de identificación de origen, a que se refiere como el Mainline DHT. Esto permite BitTorrent para abarcar ciertos aspectos de una red de intercambio de archivos de la segunda generación. Los usuarios crean un archivo de índice que contiene los metadatos de los archivos que desea compartir, y cargar los archivos de índice a sitios web donde se comparten con los demás.

¿Qué fue NAPSTER?


Napster fue un servicio de distribución de archivos de música (en formato MP3). Creado por Shawn Fanning.

Cansado de escuchar quejas de sus amigos por la imposibilidad de encontrar ficheros MP3, arde en su cabeza la idea de crear un nuevo sistema que permita encontrar aquella música que uno busca sin recurrir a complejos sistemas y a enlaces que al poco tiempo presionados por la RIAA dejan de funcionar.

Napster, sistema que permite compartir música de forma gratuita a través de la Red fue creado por Shawn Fanning y liberado al mundo de la red en Junio de 1999.

La mayor parte de sus usuarios erán jóvenes menores de 25 años que tan sólo tenían que teclear el nombre de la canción que buscaban y recibían la versión digital en el formato denominado MP3.

El año 2000 Napster se convierte en una auténtica fiebre, logrando en tan solo un año 20 millones de usuarios. Ese mismo año, el grupo músical "Metallica" los demanda, y en una respuesta inmediata Napster bloquea a 300,000 usuarios que descargaron música de este grupo músical.


ARCHIVOS TORRENT

Un archivo torrent almacena metadatos usados por BitTorrent. Está definido en la especificación de BitTorrent. Simplemente, un torrent es información acerca de un archivo de destino, aunque no contiene información acerca del contenido del archivo. La única información que contiene el torrent es la localización de diferentes piezas del archivo de destino. Los torrents funcionan dividiendo el archivo de destino en pequeños fragmentos de información, localizados en un número ilimitado de hosts diferentes. Por medio de este método, los torrents son capaces de descargar archivos grandes rápidamente. Cuando un cliente (el receptor del archivo de destino) ha iniciado una descarga por torrent, los fragmentos del archivo de destino que son necesitados pueden ser encontrados fácilmente, basados en la información del torrent. Una vez que todos los fragmentos son descargados, el cliente puede ensamblarlos en una forma utilizable. Nota: la descarga debe ser completada antes de que pueda ensamblarse en una forma utilizable.
Un archivo torrent contiene las URLs de muchos trackers y la integridad de los metadatos de todos los fragmentos. También puede contener metadatos adicionales definidos en extensiones de la especificación de BitTorrent. Estos son conocidos como "Propuestas de Mejora BitTorrent".


BitTorrent

BitTorrent es un protocolo diseñado para el intercambio de archivos peer-to-peer en Internet. Es uno de los protocolos más comunes para la transferencia de archivos grandes.
El programador Bram Cohen diseñó el protocolo en abril de 2001 y publicó su primera implementación el 2 de julio de 2001. Actualmente es mantenido por la empresa de Cohen, BitTorrent, Inc. Existen numerosos clientes BitTorrent disponibles para varios sistemas operativos.
En enero de 2012, BitTorrent tenía 150 millones de usuarios activos de acuerdo con BitTorrent, Inc., basándose en esto, estimaban que el número total de usuarios mensuales de BitTorrent era mayor de 250 millones. En cualquier instante de tiempo BitTorrent tiene, en promedio, más usuarios activos que YouTube y Facebook juntos (en un instante de tiempo, no en número total de usuarios únicos específicamente de BitTorrent). Por otro lado, tras el cierre de la web Megaupload, el uso de esta plataforma se ha incrementado considerablemente.

Descripción

El protocolo BitTorrent puede ser usado para reducir el impacto que tiene la distribución de archivos grandes en los servidores. En lugar de descargar el archivo desde un único servidor, el protocolo BitTorrent permite a los usuarios unirse entre ellos en un "enjambre" (swarm) para descargar y subir el archivo de forma simultánea. El protocolo es una alternativa al sistema basado en servidores, que consiste en disponer de varios servidores espejo (mirror) desde donde el usuario descarga el archivo completo, y puede funcionar en redes con poco ancho de banda, de esta forma, dispositivos pequeños como los smartphone, son capaces de distribuir archivos grandes o vídeo en streaming a muchos receptores.
Un usuario que quiere subir un archivo, primero crea un archivo torrent y lo distribuye de forma convencional (páginas web, correo electrónico, etc). Después hace que el archivo esté disponible en la red a través de un nodo BitTorrent que actúa como semilla (seed). Los usuarios que quieren descargar el archivo, obtienen el archivo torrent y crean otro nodo BitTorrent que actúa como cliente o "sanguijuela" (leecher), intercambiando partes del archivo con la semilla y con otros clientes.
El archivo que está siendo distribuido se divide en partes pequeñas (pieces). Cada vez que un usuario recibe una parte nueva del archivo, puede a su vez compartirla con otros usuarios, liberando a la semilla original de tener que enviar una copia de esa parte a todos los usuarios que quieren el archivo. En BitTorrent, la tarea de distribuir un archivo es compartida por todos aquellos que desean tener el archivo. Es perfectamente posible que la semilla solo envíe una copia del archivo y el archivo sea distribuido a un número ilimitado de usuarios.
Cada parte del archivo está protegida por un hash criptográfico contenido dentro del archivo torrent. Esto asegura que cualquier modificación que se produzca en una parte puede ser detectada, y por lo tanto evita que tanto las modificaciones accidentales como las maliciosas sean recibidas en otros nodos. Si un nodo tiene el archivo torrent autentico, puede verificar la autenticidad del archivo completo que ha recibido.


Conclusión 
Muchos sostienen que el intercambio de archivos ha obligado a los propietarios de contenido de entretenimiento para que sea más accesible legalmente mediante tarifa o la publicidad en la demanda en Internet, en lugar de permanecer estático con TV, radio, DVD, CD, y el teatro. Contenido para su compra ha sido mayor que el tráfico ilegal en el norte árido internet Latina desde al menos 2009.


BIBLIoGRAFÍA

martes, 12 de noviembre de 2013

Supercomputadoras

SUPERCOMPUTADORAS

Las supercomputadoras son el tipo de computadoras más potentes y más rápidas que existen en un momento dado. Son de gran tamaño, las más grandes entre sus pares. Pueden procesar enormes cantidades de información en poco tiempo pudiendo ejecutar millones de instrucciones por segundo, están destinadas a una tarea específica y poseen una capacidad de almacenamiento muy grande. Además son los más caros teniendo un costo que puede superar los 30 millones de dólares. Por su alto costo se fabrican muy pocas durante un año, incluso existen algunas que se fabrican solo por pedido.

Cuentan con un control de temperatura especial para poder disipar el calor que algunos de sus componentes pueden llegar a alcanzar. Actúa como árbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de entrada y salida. El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.
 Están diseñados para sistemas de multiprocesamiento, la CPU es el centro del procesamiento y pueden soportar a miles de usuarios en línea. La cantidad de procesadores que puede llegar a tener un supercomputador depende principalmente del modelo, pueden tener desde alrededor de 16 procesadores hasta 512.

UN POCO DE HISTORIA
MANCHESTER MARK (1948)
El primer supercomputador británico sentó las bases de muchos conceptos todavía usados hoy en día.
En términos modernos tenía una RAM (memoria de acceso aleatorio) de sólo 32 posiciones o 'palabras'. Cada palabra constaba de 32 bits (dígitos binarios), lo que quiere decir que la máquina tenía una cantidad total de 1024 bits de memoria.
La RAM se basó en la tecnología del tubo de rayos catódicos (CRT). Los CRTs fueron usados para almacenar bits de datos como áreas cargadas sobre el fósforo de la pantalla, mostrándose como una serie de puntos incandescentes sobre ella. El haz de electrones del CRT podría controlar esta carga y eficientemente escribir un 1 o 0 y leerlo posteriormente según se solicitase.

Características:

Las principales son:
·         Velocidad de proceso: miles de millones de instrucciones de coma flotante por segundo.
·         Usuarios a la vez: hasta miles, en entorno de redes amplias.
·         Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
·         Dificultad de uso: solo para especialistas.
·         Clientes usuales: grandes centros de investigación.
·         Penetración social: prácticamente nula.
·         Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
·         Parques instalados: menos de un millar en todo el mundo.
·         Hardware: Principal funcionamiento operativo.

PRINCIPALES USOS
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:
·    Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro.
·     Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.
   Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
·         Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
·         Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
·   Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.
·       Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.

SUPERCOMPUTADORAS MÁS POTENTES DE LA HISTORIA

Tianhe-2(2013)
Tianhe-2 o Milky Way-2 es una supercomputadora desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) e Inspur, estará ubicada para finales de año en el Centro Nacional de Supercomputación en Guangzho (NSCC-GZ), República Popular China. Tiene un rendimiento de 33,86 petaFLOPS por segundo (33.860.000.000.000.000 operaciones de coma flotante por segundo), con un pico teórico de 54,9 petaFLOPS por segundo que la convierte en la supercomputadora más rápida del mundo.
Está equipada con 16.000 nodos, cada uno con dos procesadores Intel Xeon IvyBridge E5-2692 (12 núcleos, 2,2 GHz) y tres procesadores Intel Xeon Phi 31S1P (57 núcleos, 1,1 GHz), cuya combinación da un total de 3.120.000 núcleos de computación. Es capaz de almacenar 12,4 PB, tiene una memoria del sistema de 1.375 TiB (1.34 PiB) y utiliza el sistema operativo Kylin Linux. Ocupa una superficie de 720 m² y se calcula que ha costado entre 200 y 300 millones de dólares.

Cray Titan
La Cray Titan es una supercomputadora Cray XK7, creada por la firma Cray Inc. Es una actualización del Cray Jaguar, la anterior supercomputadora del Oak Ridge National Laboratory, para usar GPUs agregados a las CPUs. Titan fue anunciado en octubre de 2011 y se volvió operacional en octubre de 2012. Se espera que supere los 20 petaFLOPS, es decir veinte mil billones de FLOPS, con un pico teórico de 24,8 petaFLOPS. Sin embargo, la velocidad real alcanzada es de 17,59 petaFLOPS, lo que la convierte en la segunda supercomputadora más rápida del mundo.

Está equipada con CPUs AMD x86-64 Opteron 6274 de 16 núcleos y GPUs Nvidia Tesla K20. Hay 18 688 nodos, cada uno conteniendo un CPU de 16 núcleos con 32 GiB de RAM un GPU con 6 GiB de RAM.7 8 El total de núcleos de procesador es de 299 008 y el tamaño total de la memoria RAM es de más de 710 TiB, con 10 PB de almacenamiento (conformado por más de 10 000 discos rígidos de 1 TB y 7200 rpm) con una velocidad de transferencia de 240 GB/s. Próximamente se actualizará el almacenamiento entre 20 y 30 PB con una velocidad de transferencia de aproximadamente 1 TB/s.

Computadora K
La computadora K (llamada así por la palabra japonesa "kei" (?), que significa diez mil billones (1016), la cifra de operaciones de coma flotante por segundo que es capaz de ejecutar) es una supercomputadora, producida por la compañía Fujitsu, ubicada en el RIKEN Advanced Institute for Computational Science en la ciudad de Kobe, Japón.

Características:
·         Operaciones de coma flotante por segundo: 8,162 petaflops (Rmáx). En noviembre de 2011 alcanzó los 10 petaflops1
·         Sistema operativo: Linux.
·         Consumo: N/D megawatts.
·         Memoria: N/D GBs
·         Procesadores: 68.544 SPARC64 VIIIfx (8 núcleos por procesador) a 2,0 Ghz, un total de 548.352 núcleos. Se encuentran instalados en 672 compartimentos, y se prevé una ampliación a 800 compartimentos, lo que elevaría su poder de cálculo. En noviembre de 2011 se incrementó a 88.128 procesadores.
·         Propósitos: simulación de terremotos, modelación del clima, investigación nuclear, otros.
·         Costo: N/D


Las 10 supercomputadoras más potentes de la historia.

La siguiente tabla muestra las 10 primeras posiciones de las supercomputadoras más potentes de la historia.

Pos.
Rmax
Rpeak
(
Pflops)
Nombre
Computadora
tipo de procesador, interconexión
Vendedor
Sitio
País, año
Sistema Operativo
1
33,86
54,90
Tianhe-2
NUDT
Intel Xeon
IBM
National Supercomputing Center en Guangzhou
 China, 2013
GNU/Linux
2
17,6
24,8
Titan
Cray XK7
Opteron 6274 + Tesla K20
Cray
Oak Ridge National Laboratory
  Estados Unidos, 2012
GNU/Linux (CLE)
3
16,3
20,1
Sequoia
Blue Gene/Q
PowerPC A2, propio
IBM
Lawrence Livermore National Laboratory
  Estados Unidos, 2011
GNU/Linux (RHEL y CNL)
4
10,5
11,3
Computadora K
RIKEN
SPARC64 VIIIfx, Tofu
Fujitsu
RIKEN
  Japón, 2011
GNU/Linux
5
8,2
10,1
Mira
Blue Gene/Q
PowerPC A2, propio
IBM
Argonne National Laboratory
  Estados Unidos, 2012
GNU/Linux
6
4,1
5,0
JuQUEEN
Blue Gene/Q
PowerPC A2, Custom
IBM
Forschungszentrum Jülich
  Alemania, 2012
GNU/Linux
7
2,9
3,2
SuperMUC
iDataPlex DX360M4
Xeon E5–2680, Infiniband
IBM
Leibniz-Rechenzentrum
  Alemania, 2012
GNU/Linux
8
2,6
3,9
Stampede
Dell PowerEdge
Intel E5-2680
Dell
Texas Advanced Computing Center/Univ. of Texas
 
 Estados Unidos, 2012
GNU/Linux
9
2,5
4,7
Tianhe-1A
NUDT YH Cluster
Xeon 5670 + Tesla 2050, Arch
NUDT
National Supercomputing Center of Tianjin
 
 China, 2010
GNU/Linux
10
1,7
2,1
Fermi
Blue Gene/Q
PowerPC A2, Custom
IBM
CINECA
  Italia, 2012
GNU/Linux

·        

      Ranking - Posición en el ranking Top500. En la tabla TOP500, los equipos están ordenados primero por su valor Rmax. En el caso de prestaciones equivalentes (valor Rmax) para equipos diferentes, hemos optado por ordenar por Rpeak. Para los sitios que tienen el mismo equipo, el orden es por el tamaño de la memoria y, a continuación en orden alfabético.
·         Rmax - La más alta puntuación medida usando el benchmark Linpack. Este es el número que se utiliza para clasificar a las computadoras. Se mide en billones de operaciones de punto de flotante por segundo, es decir, Teraflops.
·         Rpeak - Este es el rendimiento máximo teórico del sistema. Medido en TFLOPS.
·         Nombre - Algunos supercomputadoras son únicos, al menos en su ubicación, y por lo tanto bautizado por su propietario.
·         Computadora - La plataforma de la computadora que se comercializa.
·         Núcleos de procesador - El número de núcleos activos utilizados activamente ejecutando Linpack. Después de este dato se menciona la arquitectura del procesador. Si la interconexión entre los nodos de cálculo es de interés, también se incluye aquí.
·         Vendedor - El fabricante de la plataforma y el hardware.
·         Sitio - El nombre de la instalación de la supercomputadora de funcionamiento.
·         País - El país donde tenga su sede el equipo.
·         Año - El año de instalación /última actualización importante.
·         Sistema Operativo - El sistema operativo que utiliza el equipo.