viernes, 13 de septiembre de 2013

Componentes de la PC

Introducción

La informática cada día se hace mas indispensable para la vida diaria, desde la casa hasta en las mas grandes empresas pero para saberlas manejar se debe de tener práctica sobre ella y saber sobre los componentes que la conforman para así hacer un mejor manejo de ellas.

Procesador

El procesador es un término relativamente moderno. Se refiere a lo que en los grandes ordenadores de antaño se conocía como Unidad Central de Proceso  UCP (CPU “Central Processin Unit" en la literatura inglesa). Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en una placa de unas 15 x 15 pulgadas.

1.-Intel 4004 
El Intel 4004 fue lanzado por Intel en 1971, y  es considerado el primer microprocesador en un único chip. Se trató del primer procesador diseñado y fabricado por Intel, que previamente sólo hacía semiconductores de chips de memoria.

Características del Intel 4004

a)      Fue diseñado por Marcian "Ted" Hoff  y Federico Faggin de Intel, y Masatoshi Shimade Busicom.
b)      Microprocesador de 4 bits. 
c)      Fue diseñado originalmente para calculadoras.
d)             Emplea la arquitectura Harvard (almacenamiento separado de datos y programas).
e)      El conjunto de instrucciones contiene 46 instrucciones.
f)       16 registros de 4 bits cada uno.
g)      2.300 transistores.
h)      16 pines.
Que es el Procesador
El procesador, también conocido como CPU o micro, Se encarga de hacer funcionar a las aplicaciones y el sistema operativo dando respuesta a las órdenes que le envías a través de los periféricos de entrada como el teclado o el ratón.
Físicamente, el micro, no es más que una pastilla de silicio. En un PC se coloca sobre la placa base en un conector que se denomina socket. En un laptop es normal que te lo encuentres soldado. La placa permite la conexión con los restantes dispositivos de tu equipo como son la memoria RAM, la tarjeta gráfica o el disco duro usando para ello un conjunto de circuitos y chips denominado chipset.
Es uno de los elementos del PC que más ha evolucionado a lo largo del tiempo. Cada nueva generación ha permitido reducir el tamaño de los transistores que se encuentran en su interior permitiendo integrar un mayor número de bloques funcionales. Puedes ver los transistores como pequeños ladrillos que unidos dan forma al micro.
Estas mejoras han permitido aumentar la integración permitiendo incluir más bloques funcionales en su interior. En un principio fue el controlador de memoria, después la tarjeta gráfica y en un futuro muy cercano, pasaremos del concepto de procesador a lo que se denomina SOC, es decir, un chip con todos los elementos de la placa base integrados.

¿Qué partes internas tiene un procesador?

Ten en cuenta que no todos son iguales pero la mayoría de ellos incluyen entre otros elementos:
Núcleos. Un núcleo no es más que un procesador en miniatura. Tener varios integrados permite trabajar con más de una aplicación al mismo tiempo y además puedes acelerar ciertos tipos de procesamiento.
Cache. Uno de los sistemas más importantes dentro de un PC es su sistema de memoria el cual está compuesto por varios elementos. La memoria cache, interna al procesador, se usa para mejorar la velocidad de los accesos a la memoria RAM. Si un dato está en la cache ya no tendremos que ir a buscarlo y por lo tanto el procesado es mucho más rápido.
Esta organizada en varios niveles. Será tarea del micro dejar los datos que más se usen lo más cerca del micro.
Controlador de memoria. Al incorporar el controlador de memoria en el interior del procesador y quitarlo de la placa base se consigue que el acceso a la memoria RAM sea más eficiente. Esto tiene un inconveniente y es que sólo puedes usar el tipo de memoria para la que tu procesador esté preparado.
Tarjeta gráfica. Si integran este componente ya no hablamos de CPUs sino de APUs. Ya no estaríamos ante un micro convencional si no ante un hibrido entre procesador y tarjeta gráfica.
Otros elementos. Los micros han incorporado otros elementos que se encontraban antes sobre la placa base. Por ejemplo, el controlador de PCI Express, aumentando la velocidad con la que el micro es capaz de comunicarse con una tarjeta gráfica discreta.

¿Cómo funciona de forma interna un procesador?

El funcionamiento de un procesador se puede dividir en las siguientes etapas:


Se lee una instrucción de memoria. Para que te puedas hacer una idea de la complejidad de un procesador actual su conjunto de instrucciones está compuesto por más de mil diferentes y va creciendo con el tiempo. Se busca siempre mejorar las prestaciones.
Se buscan los datos necesarios. No todas las instrucciones son iguales y algunas necesitaran de datos, los cuales normalmente estarán en la memoria RAM, para poder llevar a cabo su trabajo. Si este es el caso hay que esperar a tenerlos disponibles. Es muy importante que el flujo de datos y de instrucciones sea lo más rápido posible para que no se produzcan bloqueos.
Se realiza la operación. Una vez que se tiene todo se ejecuta la operación, para esto puede ser necesario el trabajo de varios bloques dentro del propio procesador como puede ser la unidad aritmética lógica o la de punto flotante.
Se pasa a la siguiente instrucción. Que no es siempre es la que se encuentra a continuación en la memoria. Muchas instrucciones pueden cambiar el flujo del programa y permitir saltos o repetir ciertas acciones hasta que se cumpla una condición.

Tipos de procesadores

Procesador 8080: El Intel 8080 fue un microprocesador temprano diseñado y fabricado por Intel. El CPU de 8 bits fue lanzado en abril de 1974. Corría a 2 MHz, y generalmente se le considera el primer diseño de CPU microprocesador verdaderamente usable.
Procesador 8085: El Intel 8085 es un procesador de 8 bits fabricado por Intel a mediados de los 70. Era binariamente compatible con el anterior Intel 8080 pero exigía menos soporte de hardware, así permitía unos sistemas de microordenadores más simples y más baratos de hacer.
El número 5 de la numeración del procesador proviene del hecho que solamente requería una alimentación de 5 voltios, no como el 8080 que necesitaba unas alimentaciones de 5 y 12 voltios. Ambos procesadores fueron usados alguna vez en ordenadores corriendo el sistema operativo CP/M, y el procesador 8085 fue usado como un microcontrolador.

Procesador 80286: El Intel 802861 (llamado oficialmente iAPX 286, también conocido como i286 o 286) es un microprocesador de 16 bits de la familia x86, que fue lanzado al mercado por Intel el 1 de febrero de 1982. Cuenta con 134.000 transistores. Al igual que su primo contemporáneo, el 80186, puede correctamente ejecutar la mayor parte del software escrito para el Intel 8086 y el Intel 8088.2 Las versiones iniciales del i286 funcionaban a 6 y 8 MHz, pero acabó alcanzando una velocidad de hasta 25 MHz. Fue el microprocesador elegido para equipar al IBM Personal Computer/AT, introducido en 1984, lo que causó que fuera el más empleado en los compatibles AT hasta principios de los 1990.

Procesador 80386: El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura x86. Durante su diseño se lo llamó 'P3', debido a que era el prototipo de la tercera generación x86. El i386 fue empleado como la unidad central de proceso de muchos ordenadores personales desde mediados de los años 80 hasta principios de los 90.
Fabricado y diseñado por Intel, el procesador i386 fue lanzado al mercado el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa fecha debido a que los costes de producción lo hubieran hecho poco rentable. Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo modo, las placas base para ordenadores basados en el i386 eran al principio muy elaboradas y caras, pero con el tiempo su diseño se racionalizó.

Procesador 80486: La arquitectura del 80486DX es casi idéntica a la del 80386 más el coprocesador matemático 80387 y un caché interno de 8 K bytes.
El 80486SX es casi idéntico a un 80386 con un caché de 8K bytes. La figura Nro. 3.5.b muestra la estructura básica interna del microprocesador 80486. Si esto se compara a la arquitectura del 80386, no se observan diferencias. La diferencia más notable entre el 80386 y el 80486, es que casi la mitad de las instrucciones del 80486 se ejecutarán en un periodo de reloj en vez de los dos periodos que el 80386 requiere para ejecutarlos.
PENTIUM: El procesador Pentium es un miembro de la familia Intel de procesadores de propósito general de 32 bits. Al igual que los miembros de esta familia, el 386 y el 486, su rango de direcciones es de 4 Goctetos de memoria física y 64 Toctetos de memoria virtual. Proporciona unas prestaciones más elevadas gracias a una arquitectura mucho más optimizada. Su bus de datos es de 64 bits. Las distintas unidades funcionales con las que cuenta el procesador Pentium son entre otras cosas dos caches denominadas data cache y code cache, el prefetcher, unidad de paginación, etc.

PENTIUM II: En este procesador se combinan los avances de la arquitectura Intel P6 con las extensiones del conjunto de instrucciones de la tecnología MMX™ para ofrecer un rendimiento excelente en las aplicaciones de PC actuales y del futuro.
Además, el procesador Pentium II proporciona un notable rendimiento para el software avanzado de comunicados y multimedia, incluidas potentes funciones de tratamiento de imágenes y gráficos realistas, videoconferencias y la posibilidad de ejecutar vídeo de pleno movimiento y a toda pantalla.
La combinación de estas tecnologías hace del procesador Pentium II la opción ideal para la ejecución de cargas de trabajo de modernas aplicaciones con funciones multimedia y un uso intensivo de datos en sistemas operativos avanzados.

PENTIUM III: El procesador Intel Pentium III, el procesador de Intel más avanzado y potente para PC de sobremesa, presenta varias funciones nuevas para un rendimiento, productividad y capacidad de gestión máximos. Para los usuarios que interactúan con Internet o que trabajan con aplicaciones multimedia con muchos datos, las innovaciones más importantes son las extensiones "Streaming SIMD" del procesador Pentium III, 70 instrucciones nuevas que incrementan notablemente el rendimiento y las posibilidades de las aplicaciones 3D, de tratamiento de imágenes, de vídeo, sonido y de reconocimiento de la voz.
Althon AMD: Empezaremos por decir que los nuevos modelos utilizan un nuevo zócalo totalmente incompatible con todo lo conocido hasta ahora en el mundo PC, aunque está basado en el EV6 de los Alpha de Digital, y su conector, conocido como Slot A, es idéntico físicamente al Slot1 de Intel.

Este bus trabaja a velocidades de 200 Mhz, en contra de los 100 de los modelos actuales, y están previstos modelos futuros a 400 Mhz. La memoria de primer nivel cuenta con 128 KB (cuatro veces la de los Pentium III) y la L2 es programable, lo que permite adaptar la cantidad de caché a distintas necesidades, contando en un principio con 512 KB, pero estando previstos modelos con hasta 8 MB.
En el 2010, Intel anunció los modelos Core i3, i5 e i7, de cuatro núcleos, familia de procesadores que cubren los requerimientos de proceso de todos los niveles de usuario, dependiendo de su perfil y estilo de vida.




    *En enero de 2011, Intel lanzó la segunda generación de la familia CORE, tecnología que posee cambios en la memoria cache, mejorías en el modo Turbo Boost y perfeccionamientos en la propia arquitectura.
     Esta nueva familia tiene motor gráfico integrado para aumentar el desempeño de procesamiento y gráficos de un dispositivo al tiempo que mantienen la eficiencia energética, así posee el gran balance entre diseño, performance y durabilidad.


Tarjeta Madre

En 1941 comenzó a funcionar el primer ordenador electrónico, el Colossus. Desde aquel primer ordenador hasta nuestros días, son muchos los aspectos que han cambiado en el mundo de la informática y computación, sin embargo, desde la creación de la E.N.I.A.C. se sigue manteniendo la arquitectura Von Neumann. Básicamente, esta arquitectura hace de la computadora la máquina que todos conocemos, una entrada de información, un procesamiento de la información con las instrucciones almacenadas en una memoria, y una salida de la información procesada.
Las primeras tarjetas madre, o computadoras en una tarjeta, como se les llamaba en aquel entonces, integraban la funcionalidad elemental para su propio funcionamiento, y generalmente eran ingenios de laboratorio. La primera computadora en una tarjeta que llegó al mercado fue la MITS Altair 8800 en 1974, que contaba con una tarjeta base para incorporar el procesador, la RAM y su circuitería de soporte, en un transporte de datos S-100. En 1975 la Mycron 1 llega al mercado, con algunas mejoras. 

¿Que es la Tarjeta Madre?
La tarjeta madre es el componente más importante de un computador. Es el dispositivo que funciona como la plataforma o circuito principal de una computadora, integra y coordina todos los sus demás elementos. También es conocida como placa base, placa central, placa madre, tarjeta madre o Board (en inglés motherboard, mainboard).
       La tarjeta madre es un tablero que contiene todos los conectores que se necesitan para conectar las demás tarjetas del computador.



¿Cómo funciona la tarjeta madre?
Funciona a través de corriente eléctrica, a través de esto la tarjeta madre cumple distintas funciones.
     La tarjeta madre fue diseñada básicamente para realizar labores específicos vitales para el funcionamiento de la computadora, como por ejemplo las de:
*Conexión física.
*Administración, control y distribución de energía eléctrica.
*Comunicación de datos.
*Temporización.
*Sincronismo.
*Control y monitoreo.
    Para que la placa base cumpla con su trabajo, lleva instalado un software muy básico denominado “BIOS” (Sistema básico de entrada y salida).


Una placa base típica admite los siguientes componentes:
Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.
El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de componentes a través de la placa base.
Las ranuras de memoria RAM, en número de 2 a 6 en las placas base comunes.
El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (northbridge) y el puente sur (southbridge). El primero gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio
controlador de memoria en el interior del procesador.
Un reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
La CMOS: Una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.
La pila de la CMOS: Proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.
La BIOS: Un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema operativo.
El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath.
El bus de memoria conecta el chipset a la memoria temporal.
El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las ranuras de expansión.
Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:
Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
Los puertos serie, por ejemplo para conectar dispositivos antiguos.
Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
Los conectores RJ45, para conectarse a una red informática.
Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros, unidades de estado sólido y unidades de disco óptico.
Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, una tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect) y, los más recientes, PCI Express.



¿Qué son los slots?

 Es una ranura de expansión (también llamada slot de expansión) es un elemento de la placa base de un computador que permite conectar a esta una tarjeta adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco.

Tipos de ranuras:

         *ISA8 (XT).- es una de las ranuras más antiguas y trabaja con una velocidad muy inferior a las ranuras modernas (8 bits) y a una frecuencia de 4,77 megahercios.

     *ISA16 (AT).- es una ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8 megahercios. Los componentes diseñados para la ranura ISA eran muy grandes y fueron de las primeras ranuras en usarse en las computadoras personales.

     *VESA.- en 1992 el comité VESA de la empresa NEC crea esta ranura para dar soporte a las nuevas placas de vídeo.

     *PCI.- es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores.

     *AMR (Audio/módem rise).- es una ranura de expansión en la placa madre para dispositivos de audio (como tarjetas de sonido) o módems lanzada en 1998 y presente en placas de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por Intel como una interfaz con los diversos chipsets para proporcionar funcionalidad analógica de entrada/salida permitiendo que esos componentes fueran reutilizados en placas posteriores sin tener que pasar por un nuevo proceso de certificación de la Comisión Federal de Comunicaciones (con los costes en tiempo y económicos que conlleva).

     *CNR (Comunication and Networking Riser).- es una ranura de expansión en la placa base para dispositivos de comunicaciones como módems o tarjetas de red. Un poco más grande que la ranura audio/módem rise, CNR fue introducida en febrero de 2000 por Intel en sus placas madre para procesadores Pentium y se trataba de un diseño propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel, que más tarde fue implementada en placas madre con otros chipset.

     *AGP.- es una especificación de bus que proporciona una conexión directa entre el adaptador de gráficos y la memoria.
Después con el paso de los años fueron surgiendo más, hasta llegar a las actuales.

Tipos de tarjetas madre

Placa AT: esta placa es la utilizada por IBM AT INC  y fue creada en el año 1984. Su tamaño es de aproximadamente 305 mm de ancho por 300 a 330 mm de profundidad. Esta tarjeta resulta ser de gran
tamaño para las unidades de disco más avanzadas, por lo que no puede introducirse en ellas. Otra desventaja que presenta es que suele inducir errores por medio de su conector con la fuente de alimentación. En la actualidad, este tipo de placas madre no se utiliza para la producción de ninguna computadora.
Placa Baby AT: esta placa fue creada en el año 1985 y si bien es de menor tamaño que la AT, su funcionalidad es muy similar. Mide 216 mm de ancho por 244 a 330 mm de profundidad esto lo que permite es una mayor facilidad para introducirlas en las cajas más pequeñas, por lo que tuvieron mucho éxito en el mercado. De todas maneras, este modelo presenta fallas muy similares al anterior. Entre ellas, el tener un gran número de cables que no permiten una correcta ventilación así como también presentar el micro distanciado de la entrada de alimentación.
Placa ATX: esta es creada en el año 1995 por Intel. Su tamaño es de 305 mm de ancho por 204 mm de profundidad. Este modelo logró superar las desventajas presentes en los otros dos. En esta placa, los puertos más utilizados se ubican de forma opuesta al de los slots de aplicación. El puerto DIN 5 del teclado se vio reemplazado por las tomas TS/2 de mouse y teclado, y se lo ubicó en mismo lado que los otros puertos. Lo que esto permitió fue que numerosas tarjetas puedan ser introducidas en la placa madre, disminuyendo costos y optimizando la ventilación.
Placa micro AXT: este formato presenta un tamaño reducido, que no supera los 244 mm de ancho por los 244 mm de profundidad. Al ser tan pequeña, solo presenta espacio para 1 o 2 slots AGP y/o PCI. Es por esto que suelen agregarse puertos USB o FireWire. Esta es la placa más moderna que existe actualmente.

Disco Duro


El primer disco duro lo inventó la compañía IBM a principios de 1956 por encargo de las Fuerzas Aéreas de Estados Unidos. Se le llamó RAMAC 305 (nombre que significa Método de acceso aleatorio de contabilidad y control) y estaba compuesto por un grupo de 50 discos de aluminio, cada uno de 61 cm de diámetro, que giraban a 3.600 revoluciones por minuto y que estaban recubiertos de una fina capa magnética. Podía almacenar hasta 5 millones de caracteres (5 megabytes). Este disco tenía una velocidad de transferencia de 8,8 Kbps ¡y pesaba ¡más de una tonelada! El 10 de febrero de 1954, el disco duro bautizado RAMAC 305 podía leer y escribir datos en sucesión, y se convirtió en el primero de lo que hoy llamamos Dispositivo de almacenamiento de acceso directo o DASD.
En 1962, IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una velocidad de transferencia y una densidad de área 10 veces mayor que el RAMAC 305. La distancia entre los cabezales y la superficie del disco había descendido desde 20,32 µm a 6,35 µm.
¿Qué es el Disco Duro?
El Disco Duro es un dispositivo magnético que almacena todos los programas y datos de la computadora. Su capacidad de almacenamiento se mide en gigabytes (GB). Suelen estar integrados en la placa base donde se pueden conectar más de uno, aunque también hay discos duros externos que se conectan al PC mediante un conector USB.

¿Cómo se organiza?

La organización de un disco duro es responsabilidad del sistema operativo. Este se encarga de dar servicio y soporte al resto de programas.
La mayoría de sistemas, utilizan el concepto de archivo o fichero, donde ambos términos significan lo mismo. Un archivo puede ser por ejemplo una canción, una foto o un programa. Estos ficheros los puedes organizar en carpetas que a su vez pueden contener otras subcarpetas.

¿Qué distingue a unos de otros?
La característica más importante de un disco duro es su capacidad de almacenaje. Esta se suele medir en Gigabytes. A mayor cantidad de ellos, mayor número de canciones, películas, documentos, y programas podrá contener.
Otro dato a tener en cuenta es su velocidad de transferencia. Esta define cuanto tardaremos en acceder a los datos que tiene almacenados.

 

¿Qué tipos existen?

Según su tecnología interna
Magnéticos. Tienen varios discos rígidos que están magnetizados. Estos discos giran y un cabezal se encarga de leer la información. Su funcionamiento es muy parecido a los tocadiscos. De aquí viene el concepto de disco duro.
Estado sólido. También conocidos como SSD. En este caso no se usan discos giratorios sino matrices de transistores. Cada transistor se encarga de guardar una unidad de información. No existen partes móviles, con lo cual el acceso a la información es más rápido, son más resistentes a golpes, consumen menos, no hacen ruido. Su único problema es que son mucho más caros.
Según su interfaz
La interfaz es el tipo de conector usado para conectarse a otros dispositivos. Los más usados en las computadoras actuales son IDE y SATA.
IDE es una tecnología antigua y es el estándar SATA el que más velocidad puede darte.
Según su localización
Internos. Como su propio nombre indica se encuentran en el interior de la caja del PC.
Externos. Se conectan al PC a través de una conexión USB o SATA externa. Son más lentos y se usan para almacenar información que no utilicemos de forma continua.

Componentes del disco duro

 Los componentes físicos de una unidad de disco duro son: 

  CABEZA DE LECTURA / ESCRITURA:  
  Es la parte de la unidad de disco que escribe y lee los datos del disco. Su  funcionamiento consiste en una bobina de hilo que se  acciona  según  el  campo  magnético  que  detecte  sobre  el soporte magnético,  produciendo  una  pequeña  corriente  que  es detectada y amplificada por la electrónica de la unidad de disco. 

  DISCO:   Convencionalmente  los  discos  duros  están  compuestos  por varios  platos,  es  decir  varios
  discos  de  material  magnético montados  sobre  un  eje  central.  Estos  discos  normalmente  tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control.

   EJE:   Es  la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco. 
   
  IMPULSOR DE CABEZA:   Es  el  mecanismo  que  mueve  las  cabezas  de  lectura  / escritura  radialmente a  través de  la  superficie de  los platos de  la unidad de disco.


Los componentes lógicos de una unidad de disco duro son: 


  CILINDRO: 
  Es una pila  tridimensional de pistas verticales de  los múltiples platos. El número de cilindros de un disco corresponde al número de  posiciones  diferentes  en  las  cuales  las  cabezas  de lectura/escritura pueden moverse. 
   
  CLUSTER: 
  Es un grupo de  sectores que es  la unidad más pequeña de almacenamiento reconocida por el DOS. 4

sectores constituyen un Cluster  (racimo), y uno o más Cluster forman una pista. 

  PISTA: 
  Es  la  trayectoria  circular  trazada  a  través  de  la  superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster. 
   
  SECTOR: 
  Es  la  unidad  básica  de  almacenamiento  de  datos  sobre discos duros. 4 sectores constituyen un Cluster.

                Evolución Del Disco Duro

1935
    AEG inventa el primer dispositivo de almacenamiento de audio en soporte magnético (analógico)

1953
    IBM construye su primera unidad de cinta.

1956
    IBM desarrolla el primer sistema de almacenamiento en disco magnético.

 RAMAC
    Podía almacenar 5 Mc (Megacaracteres no MegaBytes) en 50 platos de 24 pulgadas cada uno. Se empleaban 7 bits y no 8 para almacenar la información.


1961
    IBM inventa el primer disco duro en el que las cabezas no entran en contacto con los platos.
Se conoce a este sistema como “air bearing”, algo así como rodamiento de aire. Alarga la vida del sistema al no existir rozamiento entre cabezas y el disco.


1963
    IBM introduce el primer sistema de discos extraibles


1970
   Aparece el “disquete” o floppy de 8 pulgadas


1973
   IBM crea el disco “Winchester hard disk drive”, el precursor de los discos duros actuales. Tenía 2 platos con una capacidad de 30MB


1976
    Shugart inventa el disquete de 5 y ¼ “


1980
    Seagate Technology presenta el primer disco duro para microordenadores, el ST506, que puede almacenar hasta 5 MB.
Phillips presenta su tecnología de almacenamiento óptica, crea el CD o compact disc

 1986
    Aparece el standard “Integrated Drive Electronics (IDE)”.Se definen entre otros la forma en la que fluyen los datos entre la cpu y el disco.Más tarde sería ampliado y superado por ATA.
ATA define juegos de registros y comandos que permiten hacer más cosas con el interface IDE, como manejar unidades de cinta.


1988
  Aparecen las especificaciones RAID ”Redundant Arrays of Inexpensive Disks” Inicialmente apareció como el método para agrupar muchos discos duros pequeños simulando ser un único disco lógico de mayor tamaño. Este Array de discos tenía un rendimiento mejor que un único disco. Los desarrollos posteriores de RAID han llevado a varios tipos de arrays que se conocen como niveles RAID que ofrecen distinto rendimiento y/o protección contra fallos físicos en los discos.


    RAID 0: Data Striping (Stripped volume). Distribuye bloques de cada fichero en múltiples discos, aumenta mucho el rendimiento pero no da ninguna tolerancia a fallos. Diferentes partes (stripes) de un fichero pueden ser accedidas en paralelo lo que da una mejora del rendimiento.


    RAID 1: (MIRROR) Mediante esta técnica se escriben los datos en dos discos que son básicamente idénticos. Si uno falla se puede conmutar el sistema al otro disco. Existe una mejora de rendimiento en la lectura ya que se pueden leer los datos de 2 discos simultáneamente. Se aprovecha ½ del espacio de almacenamiento con tal de tener el “fault tolerance”.


  RAID 3: (Stripping+Parity) Similar al 0 pero además de mejora de rendimiento proporciona tolerancia a fallo de uno de los discos.
Emplea un disco dedicado para la paridad (redundacia)


  RAID 5: (Byte Stripping+Parity) Es uno de los más implementados en entornos profesionales. Proporciona “Striping” de los datos y la información de paridad a nivel de byte. Tiene un excelente rendimiento y es tolerante a error en cualquiera de los discos. Como inconveniente tiene que la recuperación de datos en caso de corrupción lógica es extremadamente compleja.


1991
    Aparece el primer disco con cabezales de tecnología MagnetoResistiva (MR)
Aparecen los primeros HDs de 2.5 pulgadas.


1992
   Se crea la tecnología SMART (Self-Monitoring, Analysis and Reporting Technology) una tecnología que incorporarán todos los discos desde entonces que permite a éstos hacer un análisis de su propio estado.


1993
    Western Digital presenta “Enhanced IDE” (EIDE). El nuevo standard se fundirá con ATA en un futuro.
Soporta velocidades de transferencia más rápidas y discos de mayor capacidad.Por supuesto manteniendo compaibilidad con ATAPI.


1996
    Seagate introduce el primer disco de 10,000 RPM –la familia Cheetah
IBM presenta los primeros HDs con cabezales GMR (Giant Magneto Resistive)


1997
    Aparece Ultra ATA con una velocidad máxima de transferencia de hasta 33 MBps, dejando obsoleto a EIDE.


1999
    IBM lanza el Microdrive el disco duro más pequeño del mundo con un diámetro de plato de 1”

 2000
    Seagate presenta el primer disco duro a 15,000 RPM.


2002
    Se supera el límite que permitía hasta ahora el standard ATA de 137GB


2003
    Aparece el standard S-ATA (Serial ATA)


2005
   Toshiba introduce el registro perpendicular (perpendicular recording) en discos duros comerciales


2007
    Hitachi rompe el record en almacenamiento por disco duro, creando un disco de 1    TB ( 1TB = 1000 GB = 1 Millon de Megabytes).


    Posteriormente fueron surgiendo más discos duros, hasta llegar al más moderno.


Memoria RAM


Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

¿Qué es la Memoria RAM?

Es una memoria que se utiliza para el trabajo del sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo.

RAM son las siglas en inglés de Random Access Memory o Memoria de Acceso Aleatorio, es un tipo de memoria que permite almacenar y/o extraer información (Lectura/Escritura), accesando aleatoriamente; es decir, puede acceder a cualquier punto o dirección del mismo y en cualquier momento (no secuencial).
La memoria RAM, se compone de uno o más chips y se utiliza como memoria de trabajo para guardar o
borrar nuestros programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando el computador se queda sin energía.
En analogías humanas, la RAM de la PC es donde se encuentran todos los "pensamientos" o datos mientras piensa en ellos o los procesa. La RAM se expresa en megabytes (MB). Así, por ejemplo si posees 32MB de RAM, entonces tu computadora puede mantener 32000kilobytes de datos en su memoria. Y por supuesto, como buenos jugadores, sabemos que no hay nada mejor que tener mucha RAM, cuanto más tienes, más datos podrá tu computadora almacenar en su memoria rápida y más veloces se verán los juegos cuando los ejecutes.
 Hay dos tipos básicos de memoria RAM:

 Memoria RAM dinámica.- necesita actualizarse miles de veces por minuto.
Memoria RAM estática.- no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.
Tipos De RAM

DRAM: Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerda: siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos).

Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos

Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ó 60 ns.

EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos).

Muy común en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168.

SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de menos de 350 MHz y en los Celeron.

PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100 MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos; teóricamente se trata de unas especificaciones mínimas que se deben cumplir para funcionar correctamente a dicha velocidad, aunque no todas las memorias vendidas como "de 100 MHz" las cumplen. SIMMs y DIMMs

Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para conectarse a la placa base de la computadora. Son unas plaquitas alargadas con conectores en un extremo; al conjunto se le llama módulo. El número de conectores depende del bus de datos del microprocesador, que es la autopista por la que viajan los datos; el número de carriles de dicha autopista representaría el número de bits de información que puede manejar cada vez.

SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm ó 10,5 cm y sus zócalos suelen ser de color blanco.
Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium es el doble de grande (64 bits).

DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3 V).
Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando toda o parte de la memoria viene soldados en la placa (caso de algunas PCs de marca).
Componentes de la Memoria RAM:




Unidades Ópticas

¿Que son las unidades ópticas?
Es una unidad de disco que usa una luz láser u ondas electromagnéticas cercanas al espectro de la luz como parte del proceso de lectura o escritura de datos desde o a discos ópticos. Para referirse a estas unidades con ambas capacidades se conocen como unidad lectograbadora. Estas unidades de disco pueden lectoescribir tres tipos de disco actuales como lo son:
1.       Disco Compacto “CD”
2.       Disco Versátil Digital “DVD”
3.       BluRay Disc “BluRay”
Las unidades de disco óptico son parte integrante de los aparatos de consumo autónomos como los reproductores de audio (Equipos de sonido, Grabadoras, entre otros), reproductores de DVD (Unidades de DVD, Televisores de última tecnología, entre otros).
También usados en las computadoras para leer software y medios de consumo distribuidos en formato de disco, y para grabar discos para el intercambio y archivo de datos. Estas unidades han desplazad o a las disqueteras y a las unidades de cintas magnéticas ya que son construidas para almacenamiento de mayor tamaño a las ya nombradas “disqueteras”.

Además cada vez han ido avanzando más y más ya que no solo se han quedado en el almacenamiento de 700Mb con los CD’s sino que han llegado hasta los 50 Gb con los BluRay Disc algo muy bueno al ser por medio de rayos magnéticos el montaje en su construcción facilita el trabajo de estas unidades ya que entre más estrechas sean las pistas mejor es la capacidad de lectoescritura en estos discos.
A continuación se muestran los siguientes tres tipos de unidades opticas actuales:

CD

El disco compacto fue creado por el holandés Kees Immink de Philips  y el japonés Toshí Tada Doi de Sony en 1979. Al año siguiente, Sony y Philips comenzaron a distribuir discos compactos, pero las ventas no fueron exitosas por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad musical. En el año 1984 salieron al mundo de la informática, permitiendo almacenar hasta 600 MB. El diámetro de la perforación central de los discos compactos fue determinado en 15 mm, cuando entre comidas, los creadores se inspiraron en el diámetro de la moneda de 10 centavos de florín de Holanda. En cambio, el diámetro de los discos compactos, que es de 5" (12.7 cm), corresponde a la anchura de los bolsillos superiores de las camisas para hombres, porque según la filosofía de Sony, todo debía caber allí...
Detalles físicos 

Lente óptica de un lector. 
A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 milímetros, de policarbonato de plástico, al que se le añade una capa refractante de aluminio, utilizada para obtener más longevidad de los datos, que reflejará la luz del láser (en el rango espectro infrarrojo y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora que lo cubre y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la Serigrafia e Impresión Offset.
Un CD de audio se reproduce a una velocidad tal, que se leen 150 kB por segundo.
En un CD la información se almacena en formato digital, es decir, utiliza un sistema binario para guardar los datos. Estos datos se graban en una única espiral que comienza desde el interior del disco (próximo al centro), y finaliza en la parte externa. Los datos binarios se almacenan en forma de llanuras y salientes (cada una de ellas es casi del tamaño de una bacteria), de tal forma que al incidir el haz del láser, el ángulo de reflexión es distinto en función de si se trata de una saliente o de una llanura.

DVD

A comienzo de los años 1990, dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose: uno era el multimedia compact disc (MMCD), apoyado por Philips y Sony; el otro era el super density (SD), apoyado por Toshiba, Time Warner, Panasonic, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC.
Philips y Sony se unieron y su formato MMCD y acordaron con Toshiba adoptar el SD, pero con una
modificación: la adopción del EFM Plus de Philips, creado por Kees Immink, que a pesar de ser un 6% menos eficiente que el sistema de codificación de Toshiba (de ahí que la capacidad sea de 4,7 GB en lugar de los 5 GB del SD original), cuenta con la gran ventaja de que EFM Plus posee gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la creación del Consorcio del DVD, fundada por las compañías anteriores, y la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum) con los siguientes miembros:
·         Hitachi, Ltd.
·         Panasonic
·         Mitsubishi Electric Corporation
·         Pioneer Electronic Corporation
·         Royal Philips Electronics N.V.
·         Sony Corporation
·         Thomson
·         Time Warner Inc.
·         Toshiba Corporation
·         Victor Company of Japan, Ltd. (JVC)

¿Qué es el DVD?

El DVD es un disco de almacenamiento de datos cuyo estándar surgió en 1995. Sus siglas corresponden con Digital Versatile Disc en inglés, (Disco versátildigital traducido al español), de modo que ambos acrónimos (en español e inglés) coinciden. En sus inicios, la v intermedia hacía referencia a video (digital videodisk), debido a su desarrollo como reemplazo del formato VHS para la distribución de vídeo a los hogares.
Unidad de DVD: el nombre de este dispositivo hace referencia a la multitud de maneras en las que se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y luego borrar). También difieren en la capacidad de almacenamiento de cada uno de los tipos.

Los DVD se dividen en dos categorías: los de capa simple y los de doble capa. Además el disco puede tener
una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina la capacidad del disco. Los formatos de dos caras apenas se utilizan fuera del ámbito de DVD-Video.
Los DVD de capa simple pueden guardar hasta 4,7 gigabytes según los fabricantes en base decimal, y aproximadamente 4,38 gigabytes en base binaria o gibibytes (se lo conoce como DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3.
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFM Plus, con las mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.
A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.

Tipos de DVD

Los DVD se pueden clasificar:
Según su contenido:
·        DVD-Video: películas (vídeo y audio).
·        DVD-Audio: audio de alta fidelidad. Por ejemplo: 24 bits por muestra, una velocidad de muestreo de 48 000 Hz y un rango dinámico de 144 dB.
·        DVD-Data: todo tipo de datos.
·        Según su capacidad de regrabado (La mayoría de las grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos, «+RW» y «DVD-R/RW»):
·        DVD-ROM: solo lectura, manufacturado con prensa.
·        DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en los –R los agujeros son 0 lógicos.
·        DVD-RW y DVD+RW: regrabable.
·        DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura.
·        DVD+R DL: grabable una sola vez de doble capa.
·        El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
Según su número de capas o caras:
·        DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB. Discos DVD±R/RW.
·        DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB. Discos DVD+R DL. La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por disco, comparado con los 4,7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa semitransparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos. Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.
·        DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB. Discos DVD±R/RW.
·        DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB. Raramente utilizado.
·        DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB. Discos DVD+R.
·        También existen DVD de 8 cm que son llamados miniDVD (no confundir con cDVD, que son CD que contienen información de tipo DVD video) que tienen una capacidad de 1,5 GB.

 

Velocidad

La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1350 KB/s.
Las primeras unidades lectoras CD y DVD leían datos a velocidad constante (velocidad lineal constante o CLV). Los datos en el disco pasaban bajo el láser de lectura a velocidad constante. Como la velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejados esté del centro del disco (de manera proporcional al radio), la velocidad rotacional del disco se ajustaba de acuerdo a qué porción del disco se estaba leyendo. Actualmente, la mayor parte de unidades de CD y DVD tienen una velocidad de rotación constante (velocidad angular constante o CAV). La máxima velocidad de transferencia de datos especificada para una cierta unidad y disco se alcanza solamente en los extremos del disco. Por tanto, la velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco. Aunque esto puede parecer una desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben cambiar la velocidad de rotación del disco.

¿Qué es el Blu Ray?

El BLU RAY es una especificación  de CD con mayor capacidad. El desarrollo de esta tecnología se remonta a investigaciones conjuntas de Sony y Pioneer, presentándose un primer prototipo en el año 2000, en el año 2002 se fundó una asociación entre varias empresas para desarrollar la tecnología conocida como Blu-Ray Disc Association. Paralelamente y con Toshiba a la cabeza se comenzó a desarrollar la tecnología Hd-Dvd. Se realizaron varios intentos de unificar los formatos para evitar una guerra de formatos, pero no se pudieron resolver las diferencias inherentes al software a utilizar, mientras que Blu Ray opto por Java, Hd-dvd opto por un sistema basado en software Microsoft. En 2005 TDK logro desarrollar un disco Blu Ray con un recubrimiento de polímero mejorado lo cual permitió que en 2006 se lanzaran al mercado los primeros reproductores de Blu Ray al mismo tiempo que se comenzaron a lanzar películas al mercado.
Blu Ray es el más nuevo formato de disco óptico de la actualidad, siendo para muchos, el sucesor del DVD. Si bien existen otros proyectos con la intención de reemplazarlo, como el disco holográfico
versátil, el cual es capaz de almacenar hasta casi 4 Tb de información.
El Blu Ray no es otra cosa que un disco de almacenamiento óptico de 12 cm. de diámetro, el mismo tamaño que el DVD o el CD, y que fue desarrollado por un consorcio llamado Blu-Ray Disc Association con el fin de obtener un medio de almacenamiento capaz de contener la gran cantidad de datos requeridos por las películas realizadas en la espectacular alta definición, además de otros actores inherentes a la reducción de costes.
Este medio de almacenamiento puede contener hasta 50 Gb. de información, pero en la actualidad se están desarrollando técnicas para elevar esta cantidad hasta casi 70 Gb.
Cabe destacar que el Blu-Ray es un soporte de una sola capa que puede contener 25 Gb de información, que traducidos significan cerca de 6 horas de vídeo de alta definición más los audios correspondientes. El soporte de más capacidad es el Blu Ray de doble capa, que sí puede almacenar aproximadamente 50 GB.

Características técnicas del Blu Ray

Mientras el DVD usa un láser de 650 de nanómetros, el Blu Ray utiliza uno de 405, posibilitando grabar más información en un disco del mismo tamaño.
El nombre Blu Ray (Blue= azul; Ray= rayo) proviene de la tecnología utilizada: un láser azul para leer y grabar datos. El "e" de "blue" fue retirado del nombre del producto debido a que en algunas regiones del mundo no es posible registrar una palabra común como nombre comercial.
Como mencionamos, este estándar de disco óptico fue desarrollado por la Blu-ray Disc Association (BDA), pero se trabajó  en conjunto con un grupo de empresas del ámbito electrónico, de la informática y el
entretenimiento como Sony, Apple, Samsung y Walt Disney Pictures, entre otras.
El Blu Ray dejó en el camino a sus principales contendientes como el DVD o el HD DVD, si bien el primero todavía es un firme competidor, ya que ofrece una resolución de 720x480 en NTSC o 720x576 en PAL, apta para la reproducción en la mayoría de los equipamientos presentes en hogares de todo el mundo, mientras que el formato HD DVD prácticamente ha desaparecido.
En cuanto a la calidad, Blu Ray, ofrece una calidad de visualización de alta definición, es decir de 1920x1080, también llamada 1080p, un salto increíblemente alto con respecto al DVD.

Blu-ray 3D

Una de las aplicaciones más impresionantes que se puede obtener del disco Blu Ray es la capacidad de reproducir contenidos en 3D, una característica muy solicitada en su momento por los más importantes desarrolladores de software, estudios y productoras de cine.
Además de las obvias ventajas en cuanto a su capacidad de almacenamiento y visualización en alta-definición, una de las características más destacadas del Blu Ray es la protección física que este le brinda a sus contenidos, ya que se encuentra provisto de un sustrato que le sirve como barrera ante arañazos y rayaduras, una técnica que evita desperfectos y asegura la buena reproducción del disco durante muchos años.

Fuente de Poder

La fuente de poder ha ido evolucionando discretamente, con las primeras computadoras como la ENIAC en 1947 y la MARK I en 1944 que utilizaban válvulas o tubos al vacío; el gran problema que estos presentaban, era la cantidad de calor que generaban, por lo cual fue tratado de contrarrestar con la adaptación de aire acondicionado. La invención del transistor en 1955 fue la gran revolución de la electrónica por la cual el coste y tamaño de los componentes fue mucho menor, la fuente de poder tal y como la conocemos tuvo su primera aparición en el año 1976 con la Apple II.
Básicamente la fuente de poder lo que hace es convertir la corriente alterna (AC) de nuestros hogares, a corriente directa (DC) que necesita nuestro PC. 
Dentro de este cambio de corriente, además se produce una reducción de voltaje, en donde los valores típicos utilizados son 3.3 volts, 5 volts y 12 volts. La línea de 3.3 y 5 volts es utilizada principalmente por circuitos, RAM, CPU y otros componentes, mientras la de 12 volts es para hacer correr los motores de los discos duros, ventiladores, lectores, tarjetas de video de gama alta etc. 
Para los que han tenido PC desde hace tiempo, probablemente se acordaran que antiguamente la manera de encenderlos no era mediante un botón, sino que a través de un switch rojo, el cual lo único que hacía era hacer pasar la corriente hacia la fuente de poder. 
En cambio hoy en día solo presionamos un botón para encender nuestra computadora, y por lo general solo lo usamos con ese fin, porque para apagarla lo hacemos a través del menú de apagado de nuestro sistema operativo. Esta característica fue añadida hace ya varios años y lo que hace es que el sistema operativo envía una señal a la fuente de poder para ordenarle que apague el equipo. Sin embargo la fuente nunca se apaga en realidad porque siempre deja activa una línea de 5 volts que va hacia el botón de encendido, la cual se llama VSB (voltage stand by).
¿ Qué es la fuente de Poder?
Es aquello que hace referencia al sistema que otorga la electricidad imprescindible para alimentar a equipos como ordenadores o computadoras. Generalmente, en las PC de escritorio, la ya citada fuente de poder se localiza en la parte posterior del gabinete y es complementada por un ventilador que impide que el
dispositivo se recaliente.

   
    La fuente de poder, por lo tanto, puede describirse como una fuente de tipo eléctrico que logra transmitir corriente eléctrica por la generación de una diferencia de potencial entre sus bornes. Se desarrolla en base a una fuente ideal, un concepto contemplado por la teoría de circuitos que permite describir y entender el comportamiento de las piezas electrónicas y los circuitos reales.


Aquí se ve un pequeño ejemplo de como se transforma  la energía



Fuentes De Poder ATX y AT

Fuente de poder ATX
ATX son las siglas de (Advanced Technology extended) o tecnología avanzada extendida, que es la segunda generación de fuentes de alimentación introducidas al mercado. A la fuente ATX se le puede llamar fuente de poder ATX, fuente de alimentación ATX, fuente digital, fuente de encendido digital, fuentes de pulsador,  etc. ATX es el estándar actual de fuentes que sustituyeron a las fuentes de alimentación AT.

Entre las características que posee están:
·         Es de encendido digital, es decir, tiene un pulsador que al activarse regresa a su estado inicial, sin embargo ya generó la función deseada de encender o apagar.
·         Algunos modelos integran un interruptor trasero para evitar consumo innecesario de energía eléctrico durante el estado de reposo "Stand By",
·         Es una fuente que se queda en "Stand By" o en estado de espera, por lo que consumen electricidad aun cuando el equipo este "apagado", lo que también le da la capacidad de ser manipulada con software.

Fuente de poder AT
AT son las siglas de (Advanced Technology) o tecnología avanzada. Se le puede llamar fuente de poder AT, fuente de alimentación AT, fuente analógica, fuente de encendido mecánico. La fuente AT actualmente está en desuso y fue sustituida por la tecnología de fuentes de alimentación ATX.
Entre las características que posee están:
·          Es de encendido mecánico, es decir, tiene un interruptor que al oprimirse cambia de posición y no regresa a su estado inicial hasta que se vuelva a pulsar.
·          Algunos modelos integraban un conector de tres terminales para alimentar directamente el monitor CRT desde la misma fuente.
·          Es una fuente ahorradora de electricidad, ya que no se queda en "Stand by" o en estado de espera; esto porque al oprimir el interruptor se corta totalmente el suministro.
·           Es segura, ya que al oprimir el botón de encendido se interrumpe la electricidad dentro de los circuitos, evitando problemas de cortos.






Partes internas y externas de una fuente de poder de una computadora:

PARTES EXTERNAS DE UNA FUENTE DE PODER
Internamente cuenta con una serie de circuitos encargados de transformar la electricidad para que esta sea suministrada de manera correcta a los dispositivos. Externamente consta de los siguientes elementos:
1.       Ventilador: expulsa el aire caliente del interior de la fuente y del gabinete, para mantener frescos los circuitos.
2.       Conector de alimentación: recibe el cable de corriente desde el enchufe doméstico.
3.       Selector de voltaje: permite seleccionar el voltaje americano de 127V ó el europeo de 240V.
4.       Conector de suministro: permite alimentar cierto tipo de monitores CRT.
5.       Conector AT o ATX: alimenta de electricidad a la tarjeta principal.
6.       Conector de 4 terminales IDE: utilizado para alimentar los discos duros y las unidades ópticas.
7.       Conector de 4 terminales FD: alimenta las disqueteras.
8.       Interruptor manual: permite encender la fuente de manera mecánica.
Partes y funciones externas de la fuente de AT o ATX.
PARTES INTERNAS DE UNA FUENTE DE PODER
En la imagen se aprecia una fuente de poder ATX destapada pudiéndose identificar fácilmente el transformador de conmutación así como los transistores de potencia (conmutadores) los cuales se caracterizan por estar acoplados a un disipador de aluminio, también son claramente visibles los capacitares de filtrado notorios por su gran tamaño (en la parte izquierda parcialmente cubiertos por el disipador). Vemos también el ventilador, en este caso es uno de 8 centímetros de diámetro. El conjunto de cables “amarrados” son los que llevan los voltajes de salida hacia el computador. Los cables negros corresponden a 0 volts, los naranjos a 3.3 volts, los rojos a 5 volts y los amarillos a 12 volts. El cable verde (aunque se ve más bien azul en la foto) es el cable de control del sistema “soft-power”.

Tarjeta de video

Todo parte a los finales de los años 60, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Estas primeras tarjetas visualizaban texto a 40x25 u 80x25. 
La primera tarjeta de vídeo, que se presentó junto al primer PC, fue desarrollada por IBM en 1980, recibió el nombre de MDA (Monochrome Display Adapter), sólo era capaz de trabajar en modo texto, representando 25x80 líneas en pantalla. Apenas disponía de RAM de vídeo (4 Kbytes) lo que hacía que sólo pudiera trabajar con una página en memoria. Para este tipo de tarjetas se usaban monitores monocromo (normalmente de tonalidad verde) de ahí el nombre que recibe esta tarjeta. Durante muchos años esta tarjeta, fue tomada como el estándar en tarjetas de vídeo monocromo. 
Los primeros gráficos y colores llegaron a los ordenadores en 1981 con la CGA (Color Graphics Adapter), ésta era capaz de trabajar tanto en modo texto como en modo gráfico. 

¿Qué es la tarjeta de video?
La tarjeta de video es la encargada de realizar todas las instrucciones que envíe tu procesador para sacar información o gráficos al monitor. Las más avanzadas tienen soporte para instrucciones de aceleración gráfica de las cuales toman ventaja las librerías DirectX y OpenGL las cuales son usadas por la mayoría de los productos de software que tengan que ver con procesamientos gráficos ya sean 2D o 3D (juegos, cad, multimedia, Windows utiliza DirectX, en Linux casi todo es OpenGL). 

La memoria se utiliza para almacenar los datos que van a ser procesados tales como son las texturas y los polígonos. Esta memoria es reservada específicamente para la tarjeta y entre más memoria tenga más datos va a almacenar dándole un mejor rendimiento a tu computadora. 

Sin embargo también tienes que tomar en cuenta si la tarjeta utiliza memoria compartida es decir si la memoria que utiliza la toma de la RAM de tu sistema o tiene memoria integrada. En este caso las de memoria integrada son las mejores debido a que el tiempo de transferir los datos de la memoria al procesador gráfico son menores dando una mayor velocidad de respuesta además que te deja libre la RAM de tu computadora para otras tareas.

Componentes de la tarjeta de video
PCB: En electrónica, un circuito impreso o PCB (del inglés printed circuit board), es un medio para sostener mecánicamente y conectar eléctricamente componentes electrónicos, a través de rutas o pistas de material conductor, grabados en hojas de cobre laminadas sobre un sustrato no conductor, comúnmente baquelita o fibra de vidrio.
GPU: Unidad Gráfica de procesamiento. Se encarga de todos los cálculos gráficos, en juegos: Calcula millones de polígonos por segundo, controla los efectos: antialiasing, mipmaping, shaders, renderizado 3D, librería DirectX 6, 7, 8, 9, 10,11 OpenGL. 
Memorias: chip de silicio que se encarga de almacenar texturas, datos, a gran velocidad, GDDR 5 duplica el ancho de banda que una memoria GDDR3.
Fases de poder: Se encarga de regular la tensión que recibe desde la fuente. Por ejemplo el GPU cuando está en reposo la fase de alimentación no requiere tanto poder VCORE, y al cargar algún juego estas fases suministran más voltaje a los componentes y al GPU cuando se requiere mucho procesamiento. 
Transistores: Los transistores son unos elementos que han facilitado, en gran medida, el diseño de circuitos
electrónicos de reducido tamaño, gran versatilidad y facilidad de control. Conmutación, actuando de interruptores (control de relés, fuentes de alimentación conmutadas, modulación por anchura de impulsos PWM)
Condensadores Sólidos: Es un condensador de larga vida útil compuesto de polímero, moderar el voltaje de salida y las fluctuaciones de corriente en la salida rectificada.
PCIex: El bus PCIEX (Interconexión de Componentes Periféricos Express, también escrito PCI-E) es un bus de interconexión entre la placa madre y la tarjeta de vídeo.

Entrada de Alimentación: Es por donde alimentamos con energía la tarjeta de vídeo directamente desde la fuente de poder.

Resistencias: pequeños componentes se encargan de elevar o disminuir la tensión eléctrica entre memoria, transistores, fases etc.

Tipos de tarjeta de video
MDA
MDA, el IBM Monochrome Display Adapter, representada junto la tarjeta CGA, a uno de los adaptadores más antiguos del PC. En 1980 se presentó junto con el primer PC, y durante muchos años fue tomado como el estándar en tarjetas de vídeo monocromas. Soportaba solo un modo de funcionamiento, con 25 líneas y 80 columnas en pantalla, apenas disponía de RAM de vídeo lo que hacía que solo se pudiera trabajar con una página de pantalla en memoria.
A pesar de que no se podían crear gráficos lo usuarios preferían está a la CGA que tenía una resolución menor y cansaba más los ojos. En el ámbito de las tarjetas monocromas se dio paso al Hércules que daba la posibilidad de mostrar gráficos monocromos.
CGA
CGA, el Color Graphics Adapter surgió como alternativa a la MDA en 1981. Su ventaja era que daba la posibilidad de crear gráficos, por otra parte el precio de la tarjeta era elevadísimo, aunque como contrapunto esta tarjeta daba la posibilidad de conectarse a una televisión normal, eliminando así la compra del monitor. Además se disponía de salida RGB, lo que hacía se dividía el color de un punto de la pantalla en sus partes proporcionales de Rojo, Azul y Verde. La imagen creada comparada con la MDA era de calidad inferior, lo que no se debía a la resolución menor, sino a que la distancia entre puntos del monitor CGA era mayor.
La tarjeta CGA al igual que la MDA representa en modo texto 25 líneas y 80 columnas en pantalla, pero los diferentes caracteres se basan en una matriz de puntos más pequeña que en el caso de las tarjetas MDA. Pero a cambio se pueden representar gráficos de 320x200 puntos, donde la posibilidad de elección de color queda muy limitada, con tan solo cuatro. En el modo de mayor resolución sólo quedan dos colores de los que disponemos para construir la pantalla. A pesar de las diferencias entre la MDA y la CGA, las dos se basan en el mismo controlador de vídeo, el MC6845 de Motorola.
HGC
HGC, Hércules Graphics Card. Un año después de la introducción en el mercado Del PC, apareció la hasta entonces totalmente desconocida empresa Hércules, con una tarjeta gráfica para el PC, y consiguió un éxito devastador. También estaba basada en el controlador de Motorola y era prácticamente compatible con la tarjeta MDA e IBM. Sus posibilidades con respecto a las anteriores eran abrumadoras puesto que además del modo de texto, la tarjeta HGC puede gestionar dos páginas gráficas con una resolución de 720x348 puntos en pantalla. Con ello combina la estupenda legibilidad de la MDA con las capacidades gráficas de la CGA, ampliando incluso la resolución. La tarjeta Hércules está considerada como el estándar de las tarjetas monocromas.
Tanto el original como sus imitaciones tienen el fallo de que les falta soporte para la BIOS, ya que IBM siempre se ha negado a soportar tarjetas de vídeo externas por su BIOS. La Hércules al ser compatible con la MDA de IBM, en modo texto no tiene ningún problema mientras que en modo gráfico el programador no se ve realmente soportado por el BIOS, pero esto no representa realmente un problema, ya que las rutinas del BIOS correspondientes, a causa de su deficiente velocidad, normalmente no se emplean nunca. La tecnología va avanzando y mientras que en las primeras tarjetas Hércules se montaban en placas largas puesto que contenían sobre 40 circuitos integrados, las tarjetas Hércules más modernas se montan en placas más cortas y habitualmente tienen menos de 10 circuitos integrados.
La empresa Hércules sacó otras tarjetas pero que apenas tuvieron tanto éxito.
EGA
EGA. IBM tras ver la fuerte incursión en el mercado del Hércules, se puso a trabajar hasta que en 1985 se presentó la Enhaced Graphics Adapter.
El precio de entrada de esta tarjeta fue un tanto elevado dado a la tecnología que utilizaba, esto produjo que se hasta que no bajo el precio de la tarjeta no se comenzaran a comprar y llegar a estándar. La EGA era totalmente compatible con la MDA y la CGA, además la EGA era semejante a la Hércules Graphics Card, disponía de la posibilidad de reproducir gráficos monocromos en un monitor monocromo, representando con ello la primera tarjeta gráfica que se podía utilizar tanto en monitores monocromos como en los de color.
Pero la EGA desplegaba todo su esplendor en unión de un monitor EGA especial, que va más allá de las características de un monitor CGA. A pesar de que su resolución en el modo gráfico más alto, 640x350 puntos no era más alto que el de la CGA, se podían representar 16 colores diferentes, de una paleta de 64 colores. También se aumentó la RAM de vídeo hasta 256 Kbytes, para tener espacio para varias páginas gráficas. Para conseguir estas resoluciones y colores la EGA se basaba en varios circuitos VLSI (Very Large Scale Integration) altamente integrados, que se encargaban de todas las tareas en el marco de generación de la imagen.
Eligiendo una distancia menor entre los puntos en los monitores EGA, la tarjeta EGA brilla con respecto a la CGA con una imagen más nítida. Además la EGA daba la posibilidad de trabajar con juegos de caracteres variables, además la EGA disponía de una ROM-BIOS propia, cosa de la que no disponían ni la CGA ni la MDA.
VGA
VGA. La tarjeta VGA junto con los primeros sistemas PS/2 de IBM, se presentó en la primavera de 1987, empalma perfectamente a la tradición de la tarjeta EGA, es decir: compatibilidad a todos sus antecesores, más colores, más resolución y mejor representación de texto.
El estándar VGA solo estaba pensado para los sistemas PS/2 de IBM, y con ellos para el nuevo Micro Channel que hasta hoy no ha podido imponerse. Rápidamente aparecieron muchos fabricantes con tarjetas VGA para el bus ISA en el mercado, de modo que los sistemas convencionales se podían equiparar con tarjetas VGA.
Las tarjetas VGA se diferenciaban de las EGA por su densidad de integración mayor, que hace posible la colocación de toda la lógica de control en un solo circuito. La señal enviada al monitor cambia de la anteriormente digital a ser analógica haciendo posible más de 260.000 colores.
La resolución alcanzada por esta tarjeta pasa a los 640x480 puntos y 16 colores. Dadas estas altas prestaciones la memoria RAM de la tarjeta salía con un mínimo de 256 Kbytes y pudiendo llegas hasta los 512 Kbytes.
SuperVGA
SuperVGA. Estar tarjetas corresponden en lo que a hardware básico se refiere, con las tarjetas VGA normales, pero trabajan más rápido, para poder visualizar más puntos en pantalla en el mismo tiempo y con ello obtener una resolución más alta. La SVGA es totalmente compatible con la VGA esto supone que se pueden mostrar las resoluciones de la VGA pero con muchos más colores. La SVGA da la posibilidad de mostrar hasta 1024x768 puntos en pantalla.
En un principio no existía uniformidad en cuanto a cómo se han de inicializar o direccionar este tipo de modos gráficos a través de los registro de paleta. Por ello los fabricantes más importantes de juegos de chips compatibles VGA (Tsang, Paradise y Video Seven) han formado un consorcio que lleva el nombre de Video Electronic Standard Association (VESA). Juntos han determinado un estándar para el acceso a los modos ampliados de la SVGA a través del BIOS, y que en un futuro se empleará en los BIOS sobre las que se basan las tarjetas de estos fabricantes.
MCGA
MCGA. Mientras que IBM provee para sus modelos altos PS/2 una tarjeta VGA, los modelos más pequeños se ofrecen con una tarjeta MCGA (Memory Controller Gate Array).
En lo que se refiere a modo texto, estas tarjetas se comportan igual que una CGA con sus 25 x 80 caracteres en modo texto, donde se puede elegir el color de texto y fondo de una paleta de 16 colores, pero al contrario que la tarjeta CGA estos colores no están predeterminados, sino que al igual que la VGA se pueden elegir libremente del total de 262.000 colores. Y al contrario que en la tarjeta CGA su resolución horizontal no es de 200 líneas, sino de 400 líneas, por lo que la definición de los caracteres es mucho mejor.
La tarjeta MCGA además de soportar los modos de la VGA también soporta los de la CGA, pero como esta tarjeta ha de trabajar con una resolución horizontal de 400 puntos, las diferentes líneas de puntos se duplican, lo que mejora la imagen, pero a cambio da la mitad de la resolución. Aun peor es el asunto de los modos VGA, que alcanzan la resolución VGA normal, pero se encuentran limitados en cuanto a colores.
8514/A
8514/A. Para no permitir que alguien le robara la batuta en el campo de las tarjetas de vídeo, IBM presento en el año 1987 un heredero para su estándar VGA. Esta tarjeta supuso una auténtica revolución. Mientras que los controladores de vídeo comparados con el procesador, hasta ahora no eran otra cosa que controladores tontos, ahora la tarjeta de vídeo misma se equipara con un procesador, al que se le pueden comunicar ordenes externas. La ventaja está clara, ya no es el procesador el que ha de calcular los puntos de las líneas o los círculos, sino que puede delegar esta tarea al procesador gráfico, que procesa, paralelamente a la ejecución del resto del programa, la línea deseada u otro objeto gráfico. De esta forma no se sobrecarga el procesador. Pero dada la estrategia de IBM con esta tarjeta, y que el rendimiento por hardware de esta tarjeta queda muy por detrás de sus posibilidades y que el precio alto de esta tarjeta no es ningún milagro que la tarjeta 8514/A haya encontrado muy pocos adeptos.



http://html.rincondelvago.com/tarjetas-de-video.html

2 comentarios: