Introducción
La informática cada día se hace mas indispensable para la vida diaria, desde la casa hasta en las mas grandes empresas pero para saberlas manejar se debe de tener práctica sobre ella y saber sobre los componentes que la conforman para así hacer un mejor manejo de ellas.
Procesador
El
procesador es un término relativamente moderno. Se refiere a lo que en los
grandes ordenadores de antaño se conocía como Unidad Central de Proceso
UCP (CPU “Central Processin Unit" en la literatura
inglesa). Comenzó siendo del tamaño de un armario, posteriormente se
redujo al de una gran caja, después se construyó en una placa de unas 15 x 15
pulgadas.
1.-Intel
4004
El
Intel 4004 fue lanzado
por Intel en 1971, y es considerado el primer
microprocesador en un único chip. Se trató del primer procesador diseñado y
fabricado por Intel, que previamente sólo hacía semiconductores de chips de memoria.
Características
del Intel 4004
a) Fue
diseñado por Marcian "Ted" Hoff
y Federico Faggin de Intel, y Masatoshi Shimade Busicom.
b) Microprocesador de 4 bits.
c) Fue diseñado originalmente para
calculadoras.
d)
Emplea
la arquitectura Harvard (almacenamiento separado
de datos y programas).
e) El conjunto de instrucciones contiene
46 instrucciones.
f) 16 registros de 4 bits cada uno.
g) 2.300 transistores.
h) 16 pines.
Que es el Procesador
El procesador,
también conocido como CPU o micro, Se encarga de hacer funcionar a las
aplicaciones y el sistema operativo dando respuesta a las órdenes que le envías
a través de los periféricos de entrada como el teclado o el ratón.
Físicamente, el
micro, no es más que una pastilla de silicio. En un PC se coloca sobre la placa base en un conector que
se denomina socket. En un laptop es normal que te lo encuentres soldado. La placa
permite la conexión con los restantes dispositivos de tu equipo como son la
memoria RAM, la tarjeta gráfica o el disco duro usando para ello un conjunto de circuitos y chips
denominado chipset.
Es uno de los
elementos del PC que más ha evolucionado a lo largo del tiempo. Cada nueva
generación ha permitido reducir el tamaño de los transistores que se encuentran en su interior permitiendo
integrar un mayor número de bloques funcionales. Puedes ver los transistores
como pequeños ladrillos que unidos dan forma al micro.
Estas mejoras han
permitido aumentar la integración permitiendo incluir más bloques funcionales
en su interior. En un principio fue el controlador de memoria, después la
tarjeta gráfica y en un futuro muy cercano, pasaremos del concepto de
procesador a lo que se denomina SOC, es decir, un
chip con todos los elementos de la placa base integrados.
¿Qué
partes internas tiene un procesador?
Ten en cuenta que no todos son iguales pero la
mayoría de ellos incluyen entre otros elementos:
Núcleos. Un núcleo no es más que un
procesador en miniatura. Tener varios integrados permite trabajar con más de
una aplicación al mismo tiempo y además puedes acelerar ciertos tipos de
procesamiento.
Cache. Uno de los sistemas
más importantes dentro de un PC es su sistema de memoria el cual está compuesto
por varios elementos. La memoria cache, interna al
procesador, se usa para mejorar la velocidad de los accesos a la memoria RAM.
Si un dato está en la cache ya no tendremos que ir a buscarlo y por lo tanto el
procesado es mucho más rápido.
Esta organizada en varios niveles. Será tarea del
micro dejar los datos que más se usen lo más cerca del micro.
Controlador de memoria. Al incorporar el controlador de memoria en el interior del procesador y quitarlo de la placa
base se consigue que el acceso a la memoria RAM sea más eficiente. Esto tiene
un inconveniente y es que sólo puedes usar el tipo de memoria para la que tu
procesador esté preparado.
Tarjeta gráfica. Si integran este componente ya no hablamos de CPUs
sino de APUs. Ya no estaríamos ante un micro convencional si
no ante un hibrido entre procesador y tarjeta gráfica.
Otros elementos. Los micros han incorporado otros elementos que se
encontraban antes sobre la placa base. Por ejemplo, el controlador de PCI Express, aumentando la velocidad con la que el
micro es capaz de comunicarse con una tarjeta gráfica
discreta.
¿Cómo funciona de forma interna un
procesador?
El funcionamiento de un procesador se puede dividir en las siguientes
etapas:
Se lee una
instrucción de memoria. Para que te puedas
hacer una idea de la complejidad de un procesador actual su conjunto de instrucciones está compuesto por más de mil diferentes y va creciendo
con el tiempo. Se busca siempre mejorar las prestaciones.
Se buscan los datos necesarios. No todas las instrucciones son iguales y algunas
necesitaran de datos, los cuales normalmente estarán en la memoria RAM, para
poder llevar a cabo su trabajo. Si este es el caso hay que esperar a tenerlos
disponibles. Es muy importante que el flujo de datos y de instrucciones sea lo
más rápido posible para que no se produzcan bloqueos.
Se realiza la
operación. Una vez que se
tiene todo se ejecuta la operación, para esto puede ser necesario el trabajo de
varios bloques dentro del propio procesador como puede ser la unidad aritmética
lógica o la de punto flotante.
Se pasa a la siguiente instrucción. Que no es siempre es la que se encuentra a
continuación en la memoria. Muchas instrucciones pueden cambiar el flujo del
programa y permitir saltos o repetir ciertas acciones hasta que se cumpla una
condición.
Tipos de procesadores
Procesador 8080: El Intel 8080 fue un
microprocesador temprano diseñado y fabricado por Intel. El CPU de 8 bits fue
lanzado en abril de 1974. Corría a 2 MHz, y generalmente se le considera el
primer diseño de CPU microprocesador verdaderamente usable.
Procesador 8085: El Intel 8085 es un procesador de 8 bits fabricado por Intel a mediados
de los 70. Era binariamente compatible con el anterior Intel 8080 pero exigía
menos soporte de hardware, así permitía unos sistemas de microordenadores más
simples y más baratos de hacer.
El
número 5 de la numeración del procesador proviene del hecho que solamente
requería una alimentación de 5 voltios, no como el 8080 que necesitaba unas
alimentaciones de 5 y 12 voltios. Ambos procesadores fueron usados alguna vez
en ordenadores corriendo el sistema operativo CP/M, y el procesador 8085 fue
usado como un microcontrolador.
Procesador
80286: El Intel 802861 (llamado
oficialmente iAPX 286, también conocido como i286 o 286) es un microprocesador
de 16 bits de la familia x86, que fue lanzado al mercado por Intel el 1 de
febrero de 1982. Cuenta con 134.000 transistores. Al igual que su primo
contemporáneo, el 80186, puede correctamente ejecutar la mayor parte del
software escrito para el Intel 8086 y el Intel 8088.2 Las versiones iniciales
del i286 funcionaban a 6 y 8 MHz, pero acabó alcanzando una velocidad de hasta
25 MHz. Fue el microprocesador elegido para equipar al IBM Personal Computer/AT,
introducido en 1984, lo que causó que fuera el más empleado en los compatibles
AT hasta principios de los 1990.
Procesador 80386: El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura
x86. Durante su diseño se lo llamó 'P3', debido a que era el prototipo de la
tercera generación x86. El i386 fue empleado como la unidad central de proceso
de muchos ordenadores personales desde mediados de los años 80 hasta principios
de los 90.
Fabricado y diseñado por Intel, el procesador i386 fue lanzado al mercado
el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa
fecha debido a que los costes de producción lo hubieran hecho poco rentable.
Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo
modo, las placas base para ordenadores basados en el i386 eran al principio muy
elaboradas y caras, pero con el tiempo su diseño se racionalizó.
Procesador 80486: La arquitectura del
80486DX es casi idéntica a la del 80386 más el coprocesador matemático 80387 y un
caché interno de 8 K bytes.
El 80486SX es casi idéntico a un 80386 con un caché de 8K bytes. La
figura Nro. 3.5.b muestra la estructura básica interna del microprocesador
80486. Si esto se compara a la arquitectura del 80386, no se observan
diferencias. La diferencia más notable entre el 80386 y el 80486, es que casi
la mitad de las instrucciones del 80486 se ejecutarán en un periodo de reloj en
vez de los dos periodos que el 80386 requiere para ejecutarlos.
PENTIUM: El procesador Pentium es un miembro de la familia Intel de procesadores
de propósito general de 32 bits. Al igual que los miembros de esta familia, el
386 y el 486, su rango de direcciones es de 4 Goctetos de memoria física y 64
Toctetos de memoria virtual. Proporciona unas prestaciones más elevadas gracias
a una arquitectura mucho más optimizada. Su bus de datos es de 64 bits. Las
distintas unidades funcionales con las que cuenta el procesador Pentium son
entre otras cosas dos caches denominadas data cache y code cache, el
prefetcher, unidad de paginación, etc.
PENTIUM
II: En este procesador se combinan los avances de la arquitectura Intel P6
con las extensiones del conjunto de instrucciones de la tecnología MMX™ para
ofrecer un rendimiento excelente en las aplicaciones de PC actuales y del futuro.
Además, el procesador Pentium II proporciona un notable rendimiento para
el software avanzado de comunicados y multimedia, incluidas potentes funciones
de tratamiento de imágenes y gráficos realistas, videoconferencias y la
posibilidad de ejecutar vídeo de pleno movimiento y a toda pantalla.
La combinación de estas tecnologías hace del procesador Pentium II la
opción ideal para la ejecución de cargas de trabajo de modernas aplicaciones
con funciones multimedia y un uso intensivo de datos en sistemas operativos
avanzados.
PENTIUM
III: El procesador Intel Pentium III, el procesador de Intel más avanzado y
potente para PC de sobremesa, presenta varias funciones nuevas para un
rendimiento, productividad y capacidad de gestión máximos. Para los usuarios que
interactúan con Internet o que trabajan con aplicaciones multimedia con muchos
datos, las innovaciones más importantes son las extensiones
"Streaming SIMD" del procesador Pentium III, 70 instrucciones
nuevas que incrementan notablemente el rendimiento y las posibilidades de las
aplicaciones 3D, de tratamiento de imágenes, de vídeo, sonido y de
reconocimiento de la voz.
Althon
AMD: Empezaremos por decir que los nuevos modelos utilizan un nuevo zócalo
totalmente incompatible con todo lo conocido hasta ahora en el mundo PC, aunque
está basado en el EV6 de los Alpha de Digital, y su conector, conocido como
Slot A, es idéntico físicamente al Slot1 de Intel.
Este bus trabaja a velocidades de 200 Mhz, en
contra de los 100 de los modelos actuales, y están previstos modelos futuros a
400 Mhz. La memoria de primer nivel cuenta con 128 KB (cuatro veces la de los
Pentium III) y la L2 es programable, lo que permite adaptar la cantidad de
caché a distintas necesidades, contando en un principio con 512 KB, pero estando
previstos modelos con hasta 8 MB.
En el 2010, Intel anunció los modelos Core i3, i5 e i7, de
cuatro núcleos, familia de procesadores que cubren los requerimientos de
proceso de todos los niveles de usuario, dependiendo de su perfil y estilo de
vida.
*En enero de 2011, Intel lanzó la segunda generación de
la familia CORE, tecnología que posee cambios en la memoria cache, mejorías en
el modo Turbo Boost y perfeccionamientos en la propia arquitectura.
Esta nueva familia tiene
motor gráfico integrado para aumentar el desempeño de procesamiento y gráficos
de un dispositivo al tiempo que mantienen la eficiencia energética, así posee
el gran balance entre diseño, performance y durabilidad.
http://es.scribd.com/doc/37300620/Historia-del-Procesador http://computadoras.about.com/od/conoce-procesadores/a/Que-Es-Un-Procesador.htm
Tarjeta Madre
En 1941 comenzó a
funcionar el primer ordenador electrónico, el Colossus. Desde aquel
primer ordenador hasta nuestros días, son muchos los aspectos que han cambiado
en el mundo de la informática y computación, sin embargo, desde la creación de
la E.N.I.A.C. se sigue manteniendo la arquitectura Von Neumann. Básicamente,
esta arquitectura hace de la computadora la máquina que todos conocemos, una
entrada de información, un procesamiento de la información con las
instrucciones almacenadas en una memoria, y una salida de la información
procesada.
Las primeras tarjetas madre, o computadoras
en una tarjeta, como se les llamaba en aquel entonces, integraban la
funcionalidad elemental para su propio funcionamiento, y generalmente eran
ingenios de laboratorio. La primera computadora en una tarjeta que llegó al
mercado fue la MITS Altair 8800 en 1974, que contaba con una tarjeta base para
incorporar el procesador, la RAM y su circuitería de soporte, en un transporte
de datos S-100. En 1975 la Mycron 1 llega al mercado, con algunas
mejoras.
¿Que es la Tarjeta Madre?
La tarjeta madre es el componente más importante de un computador. Es el dispositivo que funciona como la plataforma o circuito principal de una computadora, integra y coordina todos los sus demás elementos. También es conocida como placa base, placa central, placa madre, tarjeta madre o Board (en inglés motherboard, mainboard).
La tarjeta madre es un tablero que contiene todos los conectores que se necesitan para conectar las demás tarjetas del computador.
¿Cómo funciona la tarjeta madre?
Funciona a través de corriente eléctrica, a través de esto la tarjeta madre cumple distintas funciones.
La tarjeta madre fue diseñada básicamente para realizar labores específicos vitales para el funcionamiento de la computadora, como por ejemplo las de:
*Conexión física.
*Administración, control y distribución de energía eléctrica.
*Comunicación de datos.
*Temporización.
*Sincronismo.
*Control y monitoreo.
Para que la placa base cumpla con su trabajo, lleva instalado un software muy básico denominado “BIOS” (Sistema básico de entrada y salida).
Una placa base
típica admite los siguientes componentes:
Uno o varios
conectores de alimentación: por estos conectores, una alimentación eléctrica
proporciona a la placa base los diferentes voltajes e intensidades necesarios
para su funcionamiento.
El zócalo de CPU es un receptáculo que recibe el microprocesador y lo
conecta con el resto de componentes a través de la placa base.
Las ranuras de memoria RAM, en número de 2 a 6 en las placas base
comunes.
El chipset: una serie de
circuitos electrónicos, que gestionan las transferencias de datos entre los
diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica,
unidad de almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (northbridge) y el
puente sur (southbridge). El primero gestiona la interconexión entre el
microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el
segundo entre los periféricos y los dispositivos de almacenamiento, como los
discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores
de escritorio tienden a integrar el propio
controlador de memoria en el
interior del procesador.
Un reloj: regula la
velocidad de ejecución de las instrucciones del microprocesador y de los
periféricos internos.
La CMOS: Una pequeña
memoria que preserva cierta información importante (como la configuración del
equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.
La pila de la
CMOS: Proporciona la electricidad necesaria para operar el circuito
constantemente y que éste último no se apague perdiendo la serie de
configuraciones guardadas.
La BIOS: Un programa
registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde
hace tiempo se emplean memorias flash). Este programa es específico de la placa
base y se encarga de la interfaz de bajo nivel entre el microprocesador y
algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master
Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema
operativo.
El bus (también
llamado bus interno o en inglés front-side bus'): conecta el
microprocesador al chipset, está cayendo en desuso frente a
HyperTransport y Quickpath.
El bus de memoria conecta el chipset a la memoria
temporal.
El bus de
expansión (también llamado bus I/O): une el microprocesador a los conectores
entrada/salida y a las ranuras de expansión.
Los conectores
de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores
incluyen:
Los puertos PS2 para conectar el teclado o el ratón, estas interfaces
tienden a desaparecer a favor del USB
Los puertos serie, por ejemplo para conectar dispositivos antiguos.
Los puertos paralelos, por ejemplo para la conexión de antiguas
impresoras.
Los puertos USB (en inglés Universal Serial Bus), por ejemplo
para conectar periféricos recientes.
Los conectores RJ45, para conectarse a una red informática.
Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor
de la computadora.
Los conectores IDE o Serial ATA, para conectar dispositivos de
almacenamiento, tales como discos duros, unidades de estado sólido y unidades
de disco óptico.
Los conectores de audio, para conectar dispositivos de audio, tales como
altavoces o micrófonos.
Las ranuras de
expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas
tarjetas se utilizan para agregar características o aumentar el rendimiento de
un ordenador; por ejemplo, una tarjeta gráfica se puede añadir a un ordenador
para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz
antigua), PCI (en inglés Peripheral Component Interconnect) y, los
más recientes, PCI Express.
¿Qué son los slots?
Es
una ranura de expansión (también llamada slot de expansión) es un elemento de
la placa base de un computador que permite conectar a esta una tarjeta
adicional o de expansión, la cual suele realizar funciones de control de
dispositivos periféricos adicionales, tales como monitores, impresoras o
unidades de disco.
Tipos de ranuras:
*ISA8 (XT).- es
una de las ranuras más antiguas y trabaja con una velocidad muy inferior a las
ranuras modernas (8 bits) y a una frecuencia de 4,77 megahercios.
*ISA16 (AT).- es
una ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8
megahercios. Los componentes diseñados para la ranura ISA eran muy grandes y
fueron de las primeras ranuras en usarse en las computadoras personales.
*VESA.- en 1992
el comité VESA de la empresa NEC crea esta ranura para dar soporte a las nuevas
placas de vídeo.
*PCI.- es un
bus de ordenador estándar para conectar dispositivos periféricos directamente a
su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en
ésta (los llamados "dispositivos planares" en la especificación PCI)
o tarjetas de expansión que se ajustan en conectores.
*AMR (Audio/módem
rise).- es una ranura de expansión en la placa madre para dispositivos
de audio (como tarjetas de sonido) o módems lanzada en 1998 y presente en
placas de Intel Pentium III, Intel Pentium IV y AMD Athlon. Fue diseñada por
Intel como una interfaz con los diversos chipsets para proporcionar
funcionalidad analógica de entrada/salida permitiendo que esos componentes
fueran reutilizados en placas posteriores sin tener que pasar por un nuevo
proceso de certificación de la Comisión Federal de Comunicaciones (con los
costes en tiempo y económicos que conlleva).
*CNR (Comunication and
Networking Riser).- es una ranura de expansión en la placa base para
dispositivos de comunicaciones como módems o tarjetas de red. Un poco más
grande que la ranura audio/módem rise, CNR fue introducida en febrero de 2000
por Intel en sus placas madre para procesadores Pentium y se trataba de un
diseño propietario por lo que no se extendió más allá de las placas que
incluían los chipsets de Intel, que más tarde fue implementada en placas madre
con otros chipset.
*AGP.- es una
especificación de bus que proporciona una conexión directa entre el adaptador
de gráficos y la memoria.
Después con el paso de los años fueron surgiendo
más, hasta llegar a las actuales.
Tipos de tarjetas madre
Placa AT: esta placa es la utilizada
por IBM AT INC y fue creada en el año 1984. Su tamaño es de
aproximadamente 305 mm de ancho por 300 a 330 mm de profundidad. Esta tarjeta
resulta ser de gran
tamaño para las unidades de disco más avanzadas, por lo que
no puede introducirse en ellas. Otra desventaja que presenta es que suele
inducir errores por medio de su conector con la fuente de alimentación. En la
actualidad, este tipo de placas madre no se utiliza para la producción de
ninguna computadora.
Placa Baby AT: esta placa fue creada en el
año 1985 y si bien es de menor tamaño que la AT, su funcionalidad es muy
similar. Mide 216 mm de ancho por 244 a 330 mm de profundidad esto lo que
permite es una mayor facilidad para introducirlas en las cajas más pequeñas,
por lo que tuvieron mucho éxito en el mercado. De todas maneras, este modelo
presenta fallas muy similares al anterior. Entre ellas, el tener un gran número
de cables que no permiten una correcta ventilación así como también presentar
el micro distanciado de la entrada de alimentación.
Placa ATX: esta es creada en el año
1995 por Intel. Su tamaño es de 305 mm de ancho por 204 mm de profundidad. Este
modelo logró superar las desventajas presentes en los otros dos. En esta placa,
los puertos más utilizados se ubican de forma opuesta al de los slots de
aplicación. El puerto DIN 5 del teclado se vio reemplazado por las tomas TS/2
de mouse y teclado, y se lo ubicó en mismo lado que los otros puertos. Lo que
esto permitió fue que numerosas tarjetas puedan ser introducidas en la placa
madre, disminuyendo costos y optimizando la ventilación.
Placa micro AXT: este formato presenta un
tamaño reducido, que no supera los 244 mm de ancho por los 244 mm de
profundidad. Al ser tan pequeña, solo presenta espacio para 1 o 2 slots AGP y/o
PCI. Es por esto que suelen agregarse puertos USB o FireWire. Esta es la placa
más moderna que existe actualmente.
Disco Duro
El primer disco duro lo inventó la compañía IBM a principios de 1956 por
encargo de las Fuerzas Aéreas de Estados Unidos. Se le llamó RAMAC 305 (nombre
que significa Método de acceso aleatorio de contabilidad y control)
y estaba compuesto por un grupo de 50 discos de aluminio, cada uno de 61 cm de
diámetro, que giraban a 3.600 revoluciones por minuto y que estaban recubiertos
de una fina capa magnética. Podía almacenar hasta 5 millones de caracteres (5
megabytes). Este disco tenía una velocidad de transferencia de 8,8 Kbps ¡y
pesaba ¡más de una tonelada! El 10 de febrero de 1954, el disco duro bautizado
RAMAC 305 podía leer y escribir datos en sucesión, y se convirtió en el primero
de lo que hoy llamamos Dispositivo de almacenamiento de acceso directo o DASD.
En 1962,
IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una
velocidad de transferencia y una densidad de área 10 veces mayor que el RAMAC
305. La distancia entre los cabezales y la superficie del disco había
descendido desde 20,32 µm a 6,35 µm.
¿Qué es el Disco Duro?
El Disco Duro es un dispositivo magnético que almacena todos los programas y datos de la computadora. Su capacidad de almacenamiento se mide en gigabytes (GB). Suelen estar integrados en la placa base donde se pueden conectar más de uno, aunque también hay discos duros externos que se conectan al PC mediante un conector USB.
¿Cómo
se organiza?
La organización de un disco duro es
responsabilidad del sistema operativo. Este se encarga de dar servicio y
soporte al resto de programas.
La mayoría de sistemas, utilizan el
concepto de archivo o fichero, donde ambos términos significan lo mismo. Un
archivo puede ser por ejemplo una canción, una foto o un programa. Estos
ficheros los puedes organizar en carpetas que a su vez pueden contener otras
subcarpetas.
¿Qué
distingue a unos de otros?
La característica más importante de
un disco duro es su capacidad de almacenaje. Esta se suele medir en Gigabytes.
A mayor cantidad de ellos, mayor número de canciones, películas, documentos, y
programas podrá contener.
Otro dato a tener en cuenta es su
velocidad de transferencia. Esta define cuanto tardaremos en acceder a los
datos que tiene almacenados.
¿Qué
tipos existen?
Según su tecnología interna
Magnéticos. Tienen varios discos rígidos que están
magnetizados. Estos discos giran y un cabezal se encarga de leer la
información. Su funcionamiento es muy parecido a los tocadiscos. De aquí viene
el concepto de disco duro.
Estado sólido. También conocidos como SSD. En este caso no se usan discos
giratorios sino matrices de transistores. Cada transistor se encarga de guardar
una unidad de información. No existen partes móviles, con lo cual el acceso a
la información es más rápido, son más resistentes a golpes, consumen menos, no
hacen ruido. Su único problema es que son mucho más caros.
Según su interfaz
La interfaz es el tipo de conector
usado para conectarse a otros dispositivos. Los más usados en las computadoras
actuales son IDE y SATA.
IDE es una tecnología antigua y es el estándar SATA
el que más velocidad puede darte.
Según su localización
Internos. Como
su propio nombre indica se encuentran en el interior de la caja del PC.
Externos. Se conectan al PC a través de una conexión USB o SATA externa. Son más lentos
y se usan para almacenar información que no utilicemos de forma continua.
Componentes del disco duro
Los componentes físicos de una unidad de disco
duro son:
CABEZA DE LECTURA / ESCRITURA:
Es la parte de la unidad de disco que escribe y lee los datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.
DISCO: Convencionalmente los discos duros están compuestos por varios platos, es decir varios
discos
de material magnético montados sobre un eje
central. Estos discos normalmente tienen dos caras que
pueden usarse para el almacenamiento de datos, si bien suele reservarse una
para almacenar información de control.CABEZA DE LECTURA / ESCRITURA:
Es la parte de la unidad de disco que escribe y lee los datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.
DISCO: Convencionalmente los discos duros están compuestos por varios platos, es decir varios
EJE: Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.
IMPULSOR DE CABEZA: Es el mecanismo que mueve las cabezas de lectura / escritura radialmente a través de la superficie de los platos de la unidad de disco.
Los componentes lógicos de una unidad de disco duro son:
CILINDRO:
Es una pila tridimensional de pistas verticales de los múltiples platos. El número de cilindros de un disco corresponde al número de posiciones diferentes en las cuales las cabezas de lectura/escritura pueden moverse.
CLUSTER:
Es un grupo de sectores que es la unidad más pequeña de almacenamiento reconocida por el DOS. 4
sectores constituyen un Cluster (racimo), y uno o más Cluster forman una pista.
PISTA:
Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.
SECTOR:
Es la unidad básica de almacenamiento de datos sobre discos duros. 4 sectores constituyen un Cluster.
Evolución
Del Disco Duro
1935
AEG inventa el
primer dispositivo de almacenamiento de audio en soporte magnético (analógico)
1953
IBM construye su
primera unidad de cinta.
1956
IBM desarrolla el
primer sistema de almacenamiento en disco magnético.
RAMAC
Podía almacenar 5
Mc (Megacaracteres no MegaBytes) en 50 platos de 24 pulgadas cada uno. Se
empleaban 7 bits y no 8 para almacenar la información.
1961
IBM inventa el
primer disco duro en el que las cabezas no entran en contacto con los platos.
Se conoce a este sistema como
“air bearing”, algo así como rodamiento de aire. Alarga la vida del sistema al
no existir rozamiento entre cabezas y el disco.
1963
IBM introduce el
primer sistema de discos extraibles
1970
Aparece el
“disquete” o floppy de 8 pulgadas
1973
IBM crea el disco
“Winchester hard disk drive”, el precursor de los discos duros actuales. Tenía
2 platos con una capacidad de 30MB
1976
Shugart inventa el
disquete de 5 y ¼ “
1980
Seagate Technology
presenta el primer disco duro para microordenadores, el ST506, que puede
almacenar hasta 5 MB.
Phillips presenta su tecnología
de almacenamiento óptica, crea el CD o compact disc
1986
Aparece el
standard “Integrated Drive Electronics (IDE)”.Se definen entre otros la forma
en la que fluyen los datos entre la cpu y el disco.Más tarde sería ampliado y
superado por ATA.
ATA define juegos de registros y
comandos que permiten hacer más cosas con el interface IDE, como manejar
unidades de cinta.
1988
Aparecen las
especificaciones RAID ”Redundant Arrays of Inexpensive Disks” Inicialmente
apareció como el método para agrupar muchos discos duros pequeños simulando ser
un único disco lógico de mayor tamaño. Este Array de discos tenía un
rendimiento mejor que un único disco. Los desarrollos posteriores de RAID han
llevado a varios tipos de arrays que se conocen como niveles RAID que ofrecen
distinto rendimiento y/o protección contra fallos físicos en los discos.
RAID 0: Data Striping (Stripped volume). Distribuye bloques
de cada fichero en múltiples discos, aumenta mucho el rendimiento pero no da
ninguna tolerancia a fallos. Diferentes partes (stripes) de un fichero pueden
ser accedidas en paralelo lo que da una mejora del rendimiento.
RAID 1: (MIRROR)
Mediante esta técnica se escriben los datos en dos discos que son básicamente
idénticos. Si uno falla se puede conmutar el sistema al otro disco. Existe una
mejora de rendimiento en la lectura ya que se pueden leer los datos de 2 discos
simultáneamente. Se aprovecha ½ del espacio de almacenamiento con tal de tener
el “fault tolerance”.
RAID 3: (Stripping+Parity)
Similar al 0 pero además de mejora de rendimiento proporciona tolerancia a
fallo de uno de los discos.
Emplea un disco dedicado para la
paridad (redundacia)
RAID 5: (Byte
Stripping+Parity) Es uno de los más implementados en entornos profesionales.
Proporciona “Striping” de los datos y la información de paridad a nivel de
byte. Tiene un excelente rendimiento y es tolerante a error en cualquiera de
los discos. Como inconveniente tiene que la recuperación de datos en caso de
corrupción lógica es extremadamente compleja.
1991
Aparece el primer
disco con cabezales de tecnología MagnetoResistiva (MR)
Aparecen los primeros HDs de 2.5
pulgadas.
1992
Se crea la
tecnología SMART (Self-Monitoring, Analysis and Reporting Technology) una
tecnología que incorporarán todos los discos desde entonces que permite a éstos
hacer un análisis de su propio estado.
1993
Western Digital
presenta “Enhanced IDE” (EIDE). El nuevo standard se fundirá con ATA en un
futuro.
Soporta velocidades de
transferencia más rápidas y discos de mayor capacidad.Por supuesto manteniendo
compaibilidad con ATAPI.
1996
Seagate introduce
el primer disco de 10,000 RPM –la familia Cheetah
IBM presenta los primeros HDs
con cabezales GMR (Giant Magneto Resistive)
1997
Aparece Ultra ATA
con una velocidad máxima de transferencia de hasta 33 MBps, dejando obsoleto a
EIDE.
1999
IBM lanza el
Microdrive el disco duro más pequeño del mundo con un diámetro de plato de 1”
2000
Seagate presenta
el primer disco duro a 15,000 RPM.
2002
Se supera el
límite que permitía hasta ahora el standard ATA de 137GB
2003
Aparece el
standard S-ATA (Serial ATA)
2005
Toshiba introduce
el registro perpendicular (perpendicular recording) en discos duros comerciales
2007
Hitachi rompe el record en
almacenamiento por disco duro, creando un disco de 1 TB ( 1TB =
1000 GB = 1 Millon de Megabytes).
Posteriormente fueron surgiendo más
discos duros, hasta llegar al más moderno.
Memoria RAM
Uno de los primeros
tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada
entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de
circuitos integrados a finales de los años 60 y principios de los 70. Esa
memoria requería que cada bit estuviera almacenado en un toroide de
material ferromagnético de algunos milímetros de diámetro, lo que resultaba en
dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las
computadoras usaban relés y líneas de retardo de varios
tipos construidas para implementar las funciones de memoria principal con o sin
acceso aleatorio.
En 1969 fueron
lanzadas una de las primeras memorias RAM basadas en semiconductores
de silicio por parte de Intel con el integrado 3101 de 64
bits de memoria y para el siguiente año se presentó una
memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en
un hito, ya que fue la primera en ser comercializada con éxito, lo que
significó el principio del fin para las memorias de núcleo magnético. En comparación
con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios
aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
¿Qué
es la Memoria RAM?
Es
una memoria que se utiliza para el trabajo del sistema
operativo, los programas y la mayoría del software. Es allí donde se cargan
todas las instrucciones que ejecutan el procesador y otras unidades de cómputo.
RAM son las siglas en inglés de
Random Access Memory o Memoria de Acceso Aleatorio, es un tipo de memoria que
permite almacenar y/o extraer información (Lectura/Escritura), accesando
aleatoriamente; es decir, puede acceder a cualquier punto o dirección del mismo
y en cualquier momento (no secuencial).
La
memoria RAM, se compone de uno o más chips y se utiliza como memoria de trabajo
para guardar o
En
analogías humanas, la RAM de la PC es donde se encuentran todos los
"pensamientos" o datos mientras piensa en ellos o los procesa. La RAM
se expresa en megabytes (MB). Así, por ejemplo si
posees 32MB de RAM, entonces tu computadora puede mantener 32000kilobytes de datos en su memoria. Y por supuesto, como
buenos jugadores, sabemos que no hay nada mejor que tener mucha RAM, cuanto más
tienes, más datos podrá tu computadora almacenar en su memoria rápida y más
veloces se verán los juegos cuando los ejecutes.
Hay dos tipos básicos de memoria RAM:
Memoria RAM dinámica.- necesita actualizarse miles de veces por minuto.
Memoria RAM estática.- no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.
Tipos
De RAM
DRAM: Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerda: siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos).
Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos
Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ó 60 ns.
EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos).
Muy común en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168.
SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de menos de 350 MHz y en los Celeron.
PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100 MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos; teóricamente se trata de unas especificaciones mínimas que se deben cumplir para funcionar correctamente a dicha velocidad, aunque no todas las memorias vendidas como "de 100 MHz" las cumplen. SIMMs y DIMMs
Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para conectarse a la placa base de la computadora. Son unas plaquitas alargadas con conectores en un extremo; al conjunto se le llama módulo. El número de conectores depende del bus de datos del microprocesador, que es la autopista por la que viajan los datos; el número de carriles de dicha autopista representaría el número de bits de información que puede manejar cada vez.
SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm ó 10,5 cm y sus zócalos suelen ser de color blanco.
Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium es el doble de grande (64 bits).
DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3 V).
Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando toda o parte de la memoria viene soldados en la placa (caso de algunas PCs de marca).
Componentes de la Memoria RAM:
Unidades Ópticas
¿Que son las unidades ópticas?
Es una
unidad de disco que usa una luz láser u ondas electromagnéticas cercanas al
espectro de la luz como parte del proceso de lectura o escritura de datos desde
o a discos ópticos. Para referirse a estas unidades con ambas capacidades se
conocen como unidad lectograbadora. Estas unidades de disco pueden
lectoescribir tres tipos de disco actuales como lo son:
1.
Disco Compacto “CD”
2.
Disco Versátil Digital “DVD”
3.
BluRay Disc “BluRay”
Las unidades
de disco óptico son parte integrante de los aparatos de consumo autónomos como
los reproductores de audio (Equipos de sonido, Grabadoras, entre otros),
reproductores de DVD (Unidades de DVD, Televisores de última tecnología, entre
otros).
También
usados en las computadoras para leer software y medios de consumo distribuidos
en formato de disco, y para grabar discos para el intercambio y archivo de
datos. Estas unidades han desplazad o a las disqueteras y a las unidades de
cintas magnéticas ya que son construidas para almacenamiento de mayor tamaño a
las ya nombradas “disqueteras”.
Además cada
vez han ido avanzando más y más ya que no solo se han quedado en el
almacenamiento de 700Mb con los CD’s sino que han llegado hasta los 50 Gb con
los BluRay Disc algo muy bueno al ser por medio de rayos magnéticos el montaje
en su construcción facilita el trabajo de estas unidades ya que entre más
estrechas sean las pistas mejor es la capacidad de lectoescritura en estos
discos.
A
continuación se muestran los siguientes tres tipos de unidades opticas
actuales:
CD
El disco compacto
fue creado por el holandés Kees Immink de Philips y el japonés Toshí Tada Doi de
Sony en 1979. Al año siguiente, Sony y Philips comenzaron a distribuir discos
compactos, pero las ventas no fueron exitosas por la depresión económica de
aquella época. Entonces decidieron abarcar el mercado de la música clásica, de
mayor calidad musical. En el año 1984 salieron al mundo de la informática,
permitiendo almacenar hasta 600 MB. El diámetro de la perforación central de
los discos compactos fue determinado en 15 mm, cuando entre comidas, los
creadores se inspiraron en el diámetro de la moneda de 10 centavos de florín de
Holanda. En cambio, el diámetro de los discos compactos, que es de 5"
(12.7 cm), corresponde a la anchura de los bolsillos superiores de las camisas
para hombres, porque según la filosofía de Sony, todo debía caber allí...
Detalles físicos
Lente óptica de un lector.
A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 milímetros, de policarbonato de plástico, al que se le añade una capa refractante de aluminio, utilizada para obtener más longevidad de los datos, que reflejará la luz del láser (en el rango espectro infrarrojo y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora que lo cubre y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la Serigrafia e Impresión Offset.
Lente óptica de un lector.
A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 milímetros, de policarbonato de plástico, al que se le añade una capa refractante de aluminio, utilizada para obtener más longevidad de los datos, que reflejará la luz del láser (en el rango espectro infrarrojo y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora que lo cubre y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la Serigrafia e Impresión Offset.
Un CD de audio
se reproduce a una velocidad tal, que se leen 150 kB por segundo.
En un CD la
información se almacena en formato digital, es decir, utiliza un sistema
binario para guardar los datos. Estos datos se graban en una única espiral que
comienza desde el interior del disco (próximo al centro), y finaliza en la
parte externa. Los datos binarios se almacenan en forma de llanuras y salientes
(cada una de ellas es casi del tamaño de una bacteria), de tal forma que al
incidir el haz del láser, el ángulo de reflexión es distinto en función de si
se trata de una saliente o de una llanura.
DVD
A comienzo de los años
1990, dos estándares de almacenamiento óptico de alta densidad estaban
desarrollándose: uno era el multimedia compact disc (MMCD), apoyado por Philips y Sony; el otro era el super density (SD), apoyado
por Toshiba, Time Warner, Panasonic, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC.
Philips y Sony se unieron y
su formato MMCD y acordaron con Toshiba adoptar el SD, pero con una
modificación: la adopción del EFM Plus de Philips, creado por Kees Immink, que a pesar de ser un 6% menos eficiente que el
sistema de codificación de Toshiba (de ahí que la capacidad sea de 4,7 GB
en lugar de los 5 GB del SD original), cuenta con la gran ventaja de que
EFM Plus posee gran resistencia a los daños físicos en el disco, como arañazos
o huellas. El resultado fue la creación del Consorcio del DVD, fundada por las
compañías anteriores, y la especificación de la versión 1.5 del DVD, anunciada
en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD
(DVD Consortium) fue reemplazado por el foro DVD (DVD Forum) con los siguientes
miembros:
·
Hitachi, Ltd.
·
Panasonic
·
Mitsubishi Electric Corporation
·
Pioneer Electronic Corporation
·
Royal Philips Electronics N.V.
·
Sony Corporation
·
Thomson
·
Time Warner Inc.
·
Toshiba Corporation
·
Victor Company of Japan, Ltd. (JVC)
¿Qué es el DVD?
El DVD es un disco de almacenamiento de datos cuyo estándar surgió en
1995. Sus siglas corresponden con Digital Versatile Disc en inglés, (Disco versátildigital traducido al español), de modo que ambos acrónimos (en español e inglés)
coinciden. En sus inicios, la v intermedia hacía referencia a video (digital videodisk),
debido a su desarrollo como reemplazo del formato VHS para la distribución de
vídeo a los hogares.
Unidad de DVD: el nombre de
este dispositivo hace referencia a la multitud de maneras en las que se
almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una
vez), DVD-RW y DVD+RW (permiten grabar y luego
borrar). También difieren en la capacidad de almacenamiento de cada uno de los tipos.
Los DVD se dividen en dos categorías: los de capa simple y los de doble capa. Además el disco puede
tener
una o dos caras, y una o dos capas de datos por cada cara; el número de
caras y capas determina la capacidad del disco. Los formatos de dos caras
apenas se utilizan fuera del ámbito de DVD-Video.
Los DVD de capa simple pueden guardar hasta 4,7 gigabytes según los fabricantes en base decimal, y aproximadamente
4,38 gigabytes en base binaria o gibibytes (se lo conoce como DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es
de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se
incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que
la densidad de datos física real se incrementa en un factor de 3,3.
El DVD usa un método de codificación más eficiente en la capa
física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una
versión más eficiente, EFM Plus, con las mismas características que el EFM clásico. El
subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más
eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.
A diferencia de los discos compactos, donde el sonido (CDDA) se
guarda de manera fundamentalmente distinta que los datos, un DVD correctamente
creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.
Tipos de DVD
Los DVD se pueden clasificar:
Según su contenido:
·
DVD-Video: películas (vídeo y audio).
·
DVD-Audio: audio de alta
fidelidad. Por ejemplo: 24 bits por muestra, una velocidad de muestreo de
48 000 Hz y un rango dinámico de 144 dB.
·
DVD-Data: todo tipo de datos.
·
Según su capacidad de regrabado (La mayoría de las grabadoras de
DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos, «+RW» y
«DVD-R/RW»):
·
DVD-ROM: solo lectura, manufacturado con prensa.
·
DVD-R y DVD+R: grabable una sola vez. La
diferencia entre los tipos +R y -R radica en la forma de grabación y de
codificación de la información. En los +R los agujeros son 1 lógicos mientras
que en los –R los agujeros son 0 lógicos.
·
DVD-RW y DVD+RW:
regrabable.
·
DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una
comprobación de la integridad de los datos siempre activa tras completar la
escritura.
·
DVD+R DL: grabable una sola vez de doble capa.
·
El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
Según su número de capas o caras:
·
DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB. Discos
DVD±R/RW.
·
DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB. Discos DVD+R DL. La grabación de doble capa
permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos,
hasta 8,5 GB por disco, comparado con los 4,7 GB que permiten los
discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para
DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R
Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere
de un DVD convencional en que emplea una segunda capa física ubicada en el
interior del disco. Una unidad lectora con capacidad de doble capa accede a la
segunda capa proyectando el láser a través de la primera capa semitransparente.
El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de
hasta un par de segundos. Los discos grabables soportan esta tecnología
manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM.
Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es
comparable con las unidades de una capa, aunque el medio continúa siendo
considerablemente más caro.
·
DVD-10: dos caras, capa simple en ambas; 9,4 GB o
8,75 GiB. Discos DVD±R/RW.
·
DVD-14: dos caras, capa doble en una, capa simple en la otra;
13,3 GB o 12,3 GiB. Raramente utilizado.
·
DVD-18: dos caras, capa doble en ambas; 17,1 GB o
15,9 GiB. Discos DVD+R.
·
También existen DVD de 8 cm que son llamados miniDVD (no confundir con cDVD, que son CD que
contienen información de tipo DVD video) que tienen una capacidad de
1,5 GB.
Velocidad
La velocidad de transferencia de
datos de una unidad DVD está dada en múltiplos de 1350 KB/s.
Las primeras unidades lectoras CD
y DVD leían datos a velocidad constante (velocidad lineal constante o CLV). Los datos en el disco pasaban bajo el
láser de lectura a velocidad constante. Como la velocidad lineal
(metros/segundo) de la pista es tanto mayor cuanto más alejados esté del centro
del disco (de manera proporcional al radio), la velocidad rotacional del disco
se ajustaba de acuerdo a qué porción del disco se estaba leyendo. Actualmente, la
mayor parte de unidades de CD y DVD tienen una velocidad de rotación constante
(velocidad angular constante o CAV). La
máxima velocidad de transferencia de datos especificada para una cierta unidad
y disco se alcanza solamente en los extremos del disco. Por tanto, la velocidad
media de la unidad lectora equivale al 50-70% de la velocidad máxima para la
unidad y el disco. Aunque esto puede parecer una desventaja, tales unidades
tienen un menor tiempo de
búsqueda, pues nunca deben cambiar la velocidad de rotación del disco.
¿Qué es el Blu Ray?
El BLU RAY es
una especificación de CD con mayor capacidad. El desarrollo de esta tecnología
se remonta a investigaciones conjuntas de Sony y Pioneer, presentándose un
primer prototipo en el año 2000, en el año 2002 se fundó una asociación entre
varias empresas para desarrollar la tecnología conocida como Blu-Ray Disc
Association. Paralelamente y con Toshiba a la cabeza se comenzó a desarrollar
la tecnología Hd-Dvd. Se realizaron varios intentos de unificar los formatos
para evitar una guerra de formatos, pero no se pudieron resolver las
diferencias inherentes al software a utilizar, mientras que Blu Ray opto por
Java, Hd-dvd opto por un sistema basado en software Microsoft. En 2005 TDK
logro desarrollar un disco Blu Ray con un recubrimiento de polímero mejorado lo
cual permitió que en 2006 se lanzaran al mercado los primeros reproductores de
Blu Ray al mismo tiempo que se comenzaron a lanzar películas al mercado.
Blu Ray es el más nuevo formato de disco óptico
de la actualidad, siendo para muchos, el sucesor del DVD. Si bien
existen otros proyectos con la intención de reemplazarlo, como el disco holográfico
versátil, el cual es capaz de almacenar hasta casi 4 Tb de información.
El Blu Ray no es otra cosa que un disco de
almacenamiento óptico de 12 cm. de diámetro, el mismo tamaño que el DVD o el CD, y que fue desarrollado por un
consorcio llamado Blu-Ray Disc Association con el fin de obtener un medio de
almacenamiento capaz de contener la gran cantidad de datos requeridos por las
películas realizadas en la espectacular alta definición,
además de otros actores inherentes a la reducción de costes.
Este medio
de almacenamiento puede contener hasta 50 Gb. de información, pero en
la actualidad se están desarrollando técnicas para elevar esta cantidad hasta
casi 70 Gb.
Cabe
destacar que el Blu-Ray es un soporte de una sola capa que
puede contener 25 Gb de información, que traducidos significan cerca de
6 horas de vídeo de alta definición más los audios correspondientes. El
soporte de más capacidad es el Blu Ray de doble capa, que sí puede
almacenar aproximadamente 50 GB.
Características técnicas del Blu Ray
Mientras el
DVD usa un láser de 650 de nanómetros, el Blu Ray utiliza uno
de 405, posibilitando grabar más información en un disco del mismo tamaño.
El
nombre Blu Ray (Blue= azul; Ray= rayo) proviene de la
tecnología utilizada: un láser azul para leer y grabar datos. El "e"
de "blue" fue retirado del nombre del producto debido a que en
algunas regiones del mundo no es posible registrar una palabra común como
nombre comercial.
Como mencionamos, este estándar de disco óptico fue desarrollado por la Blu-ray Disc Association (BDA),
pero se trabajó en conjunto con un grupo de empresas del ámbito
electrónico, de la informática y el
entretenimiento como Sony, Apple, Samsung y Walt
Disney Pictures, entre
otras.
El Blu Ray dejó en el camino a sus
principales contendientes como el DVD o el HD DVD, si bien el primero
todavía es un firme competidor, ya que ofrece una resolución de 720x480 en NTSC
o 720x576 en PAL, apta para la reproducción en la mayoría de los equipamientos
presentes en hogares de todo el mundo, mientras que el formato HD DVD
prácticamente ha desaparecido.
En cuanto a la calidad, Blu Ray, ofrece una calidad de visualización de alta definición, es decir de 1920x1080, también llamada
1080p, un salto increíblemente alto con
respecto al DVD.
Blu-ray 3D
Una de las aplicaciones más
impresionantes que se puede obtener del disco Blu Ray es la capacidad de reproducir
contenidos en 3D, una característica muy solicitada en su
momento por los más importantes desarrolladores de software, estudios y
productoras de cine.
Además de las obvias ventajas
en cuanto a su capacidad de almacenamiento y visualización en alta-definición, una de las características
más destacadas del Blu Ray es la protección física que este le brinda a sus
contenidos, ya
que se encuentra provisto de un sustrato que le sirve como barrera ante
arañazos y rayaduras, una técnica que evita desperfectos y asegura la buena reproducción
del disco durante muchos años.
Fuente de Poder
La fuente de
poder ha ido evolucionando discretamente, con las primeras computadoras como la ENIAC en 1947 y la MARK I en 1944 que utilizaban válvulas o
tubos al vacío; el gran problema que estos presentaban, era la cantidad de calor que
generaban, por lo cual fue tratado de contrarrestar con la
adaptación de aire acondicionado. La invención del transistor en 1955 fue la gran revolución de la
electrónica por la cual el coste y tamaño de los componentes fue mucho menor,
la fuente de poder tal y como la conocemos tuvo su primera aparición en el año
1976 con la Apple II.
Básicamente la fuente de poder lo que
hace es convertir la corriente alterna (AC) de nuestros hogares, a corriente
directa (DC) que necesita nuestro PC.
Dentro de este cambio de corriente, además se produce una reducción de voltaje, en donde los valores típicos utilizados son 3.3 volts, 5 volts y 12 volts. La línea de 3.3 y 5 volts es utilizada principalmente por circuitos, RAM, CPU y otros componentes, mientras la de 12 volts es para hacer correr los motores de los discos duros, ventiladores, lectores, tarjetas de video de gama alta etc.
Para los que han tenido PC desde hace tiempo, probablemente se acordaran que antiguamente la manera de encenderlos no era mediante un botón, sino que a través de un switch rojo, el cual lo único que hacía era hacer pasar la corriente hacia la fuente de poder.
En cambio hoy en día solo presionamos un botón para encender nuestra computadora, y por lo general solo lo usamos con ese fin, porque para apagarla lo hacemos a través del menú de apagado de nuestro sistema operativo. Esta característica fue añadida hace ya varios años y lo que hace es que el sistema operativo envía una señal a la fuente de poder para ordenarle que apague el equipo. Sin embargo la fuente nunca se apaga en realidad porque siempre deja activa una línea de 5 volts que va hacia el botón de encendido, la cual se llama VSB (voltage stand by).
Dentro de este cambio de corriente, además se produce una reducción de voltaje, en donde los valores típicos utilizados son 3.3 volts, 5 volts y 12 volts. La línea de 3.3 y 5 volts es utilizada principalmente por circuitos, RAM, CPU y otros componentes, mientras la de 12 volts es para hacer correr los motores de los discos duros, ventiladores, lectores, tarjetas de video de gama alta etc.
Para los que han tenido PC desde hace tiempo, probablemente se acordaran que antiguamente la manera de encenderlos no era mediante un botón, sino que a través de un switch rojo, el cual lo único que hacía era hacer pasar la corriente hacia la fuente de poder.
En cambio hoy en día solo presionamos un botón para encender nuestra computadora, y por lo general solo lo usamos con ese fin, porque para apagarla lo hacemos a través del menú de apagado de nuestro sistema operativo. Esta característica fue añadida hace ya varios años y lo que hace es que el sistema operativo envía una señal a la fuente de poder para ordenarle que apague el equipo. Sin embargo la fuente nunca se apaga en realidad porque siempre deja activa una línea de 5 volts que va hacia el botón de encendido, la cual se llama VSB (voltage stand by).
La fuente de poder, por lo tanto, puede describirse como una fuente de tipo eléctrico que logra transmitir corriente eléctrica por la generación de una diferencia de potencial entre sus bornes. Se desarrolla en base a una fuente ideal, un concepto contemplado por la teoría de circuitos que permite describir y entender el comportamiento de las piezas electrónicas y los circuitos reales.
Aquí se ve un pequeño ejemplo de como se transforma la energía
Fuentes
De Poder ATX y AT
Fuente de poder ATX
ATX son las siglas de (Advanced
Technology extended) o tecnología avanzada extendida, que es la segunda
generación de fuentes de alimentación introducidas al mercado. A la fuente ATX
se le puede llamar fuente de poder ATX, fuente de alimentación ATX, fuente
digital, fuente de encendido digital, fuentes de pulsador, etc. ATX
es el estándar actual de fuentes que sustituyeron a las fuentes
de alimentación AT.
Entre las características que posee
están:
·
Es de encendido digital, es decir, tiene un pulsador que al
activarse regresa a su estado inicial, sin embargo ya generó la función deseada
de encender o apagar.
·
Algunos
modelos integran un interruptor trasero para evitar consumo innecesario de
energía eléctrico durante el estado de reposo "Stand By",
·
Es una
fuente que se queda en "Stand By" o en estado de espera, por
lo que consumen electricidad aun cuando el equipo este "apagado", lo
que también le da la capacidad de ser manipulada con software.
Fuente de poder AT
AT son las siglas de (Advanced Technology) o tecnología
avanzada. Se le puede llamar fuente de poder AT, fuente de alimentación AT,
fuente analógica, fuente de encendido mecánico. La fuente AT actualmente está
en desuso y fue sustituida por la tecnología de fuentes de alimentación ATX.
Entre las características que posee están:
·
Es
de encendido mecánico, es decir, tiene un interruptor que al oprimirse cambia
de posición y no regresa a su estado inicial hasta que se vuelva a pulsar.
·
Algunos
modelos integraban un conector de tres terminales para alimentar directamente
el monitor CRT desde la misma fuente.
·
Es
una fuente ahorradora de electricidad, ya que no se queda en "Stand
by" o en estado de espera; esto porque al oprimir el interruptor se corta
totalmente el suministro.
·
Es segura, ya que al
oprimir el botón de encendido se interrumpe la electricidad dentro de los
circuitos, evitando problemas de cortos.
Partes internas y externas de una fuente de poder de una computadora:
PARTES
EXTERNAS DE UNA FUENTE DE PODER
Internamente
cuenta con una serie de circuitos encargados de transformar la electricidad
para que esta sea suministrada de manera correcta a los dispositivos.
Externamente consta de los siguientes elementos:
1. Ventilador: expulsa el aire
caliente del interior de la fuente y del gabinete, para mantener frescos los
circuitos.
2. Conector de alimentación:
recibe el cable de corriente desde el enchufe doméstico.
3. Selector de voltaje: permite
seleccionar el voltaje americano de 127V ó el europeo de 240V.
4. Conector de suministro:
permite alimentar cierto tipo de monitores CRT.
5. Conector AT o ATX: alimenta de
electricidad a la tarjeta principal.
6. Conector de 4 terminales IDE:
utilizado para alimentar los discos duros y las unidades ópticas.
7. Conector de 4 terminales FD:
alimenta las disqueteras.
8. Interruptor manual: permite
encender la fuente de manera mecánica.
Partes
y funciones externas de la fuente de AT o ATX.
PARTES INTERNAS DE UNA FUENTE
DE PODER
En
la imagen se aprecia una fuente de poder ATX destapada pudiéndose identificar
fácilmente el transformador de conmutación así como los transistores de
potencia (conmutadores) los cuales se caracterizan por estar acoplados a un
disipador de aluminio, también son claramente visibles los capacitares de
filtrado notorios por su gran tamaño (en la parte izquierda parcialmente
cubiertos por el disipador). Vemos también el ventilador, en este caso es uno
de 8 centímetros de diámetro. El conjunto de cables “amarrados” son los que
llevan los voltajes de salida hacia el computador. Los cables negros
corresponden a 0 volts, los naranjos a 3.3 volts, los rojos a 5 volts y los
amarillos a 12 volts. El cable verde (aunque se ve más bien azul en la foto) es
el cable de control del sistema “soft-power”.
Tarjeta de video
Todo parte a los finales de los años 60,
cuando se pasa de usar impresoras como elemento de visualización a utilizar
monitores. Estas primeras tarjetas visualizaban texto a 40x25 u 80x25.
La primera tarjeta de vídeo, que se presentó junto al primer PC, fue desarrollada por IBM en 1980, recibió el nombre de MDA (Monochrome Display Adapter), sólo era capaz de trabajar en modo texto, representando 25x80 líneas en pantalla. Apenas disponía de RAM de vídeo (4 Kbytes) lo que hacía que sólo pudiera trabajar con una página en memoria. Para este tipo de tarjetas se usaban monitores monocromo (normalmente de tonalidad verde) de ahí el nombre que recibe esta tarjeta. Durante muchos años esta tarjeta, fue tomada como el estándar en tarjetas de vídeo monocromo.
Los primeros gráficos y colores llegaron a los ordenadores en 1981 con la CGA (Color Graphics Adapter), ésta era capaz de trabajar tanto en modo texto como en modo gráfico.
La primera tarjeta de vídeo, que se presentó junto al primer PC, fue desarrollada por IBM en 1980, recibió el nombre de MDA (Monochrome Display Adapter), sólo era capaz de trabajar en modo texto, representando 25x80 líneas en pantalla. Apenas disponía de RAM de vídeo (4 Kbytes) lo que hacía que sólo pudiera trabajar con una página en memoria. Para este tipo de tarjetas se usaban monitores monocromo (normalmente de tonalidad verde) de ahí el nombre que recibe esta tarjeta. Durante muchos años esta tarjeta, fue tomada como el estándar en tarjetas de vídeo monocromo.
Los primeros gráficos y colores llegaron a los ordenadores en 1981 con la CGA (Color Graphics Adapter), ésta era capaz de trabajar tanto en modo texto como en modo gráfico.
¿Qué es la tarjeta de video?
La tarjeta de video es la encargada de realizar
todas las instrucciones que envíe tu procesador para sacar información o
gráficos al monitor. Las más avanzadas tienen soporte para instrucciones de
aceleración gráfica de las cuales toman ventaja las librerías DirectX y OpenGL
las cuales son usadas por la mayoría de los productos de software que tengan
que ver con procesamientos gráficos ya sean 2D o 3D (juegos, cad, multimedia,
Windows utiliza DirectX, en Linux casi todo es OpenGL).
La memoria se utiliza para almacenar los datos que van a ser procesados tales como son las texturas y los polígonos. Esta memoria es reservada específicamente para la tarjeta y entre más memoria tenga más datos va a almacenar dándole un mejor rendimiento a tu computadora.
Sin embargo también tienes que tomar en cuenta si la tarjeta utiliza memoria compartida es decir si la memoria que utiliza la toma de la RAM de tu sistema o tiene memoria integrada. En este caso las de memoria integrada son las mejores debido a que el tiempo de transferir los datos de la memoria al procesador gráfico son menores dando una mayor velocidad de respuesta además que te deja libre la RAM de tu computadora para otras tareas.
La memoria se utiliza para almacenar los datos que van a ser procesados tales como son las texturas y los polígonos. Esta memoria es reservada específicamente para la tarjeta y entre más memoria tenga más datos va a almacenar dándole un mejor rendimiento a tu computadora.
Sin embargo también tienes que tomar en cuenta si la tarjeta utiliza memoria compartida es decir si la memoria que utiliza la toma de la RAM de tu sistema o tiene memoria integrada. En este caso las de memoria integrada son las mejores debido a que el tiempo de transferir los datos de la memoria al procesador gráfico son menores dando una mayor velocidad de respuesta además que te deja libre la RAM de tu computadora para otras tareas.
Componentes de la tarjeta de video
PCB: En electrónica,
un circuito impreso o PCB (del inglés printed circuit board), es un medio
para sostener mecánicamente y conectar eléctricamente componentes electrónicos,
a través de rutas o pistas de material conductor, grabados en
hojas de cobre laminadas sobre un sustrato no conductor,
comúnmente baquelita o fibra de vidrio.
GPU: Unidad Gráfica de procesamiento. Se encarga de todos los cálculos gráficos, en juegos: Calcula millones de polígonos por segundo, controla los efectos: antialiasing, mipmaping, shaders, renderizado 3D, librería DirectX 6, 7, 8, 9, 10,11 OpenGL.
Memorias: chip de silicio que se encarga de almacenar texturas, datos, a gran velocidad, GDDR 5 duplica el ancho de banda que una memoria GDDR3.
Fases de poder: Se encarga de regular la tensión que recibe desde la fuente. Por ejemplo el GPU cuando está en reposo la fase de alimentación no requiere tanto poder VCORE, y al cargar algún juego estas fases suministran más voltaje a los componentes y al GPU cuando se requiere mucho procesamiento.
Transistores: Los transistores son unos elementos que han facilitado, en gran medida, el diseño de circuitos
electrónicos de reducido
tamaño, gran versatilidad y facilidad de control. Conmutación, actuando de
interruptores (control de relés, fuentes de alimentación conmutadas, modulación
por anchura de impulsos PWM)GPU: Unidad Gráfica de procesamiento. Se encarga de todos los cálculos gráficos, en juegos: Calcula millones de polígonos por segundo, controla los efectos: antialiasing, mipmaping, shaders, renderizado 3D, librería DirectX 6, 7, 8, 9, 10,11 OpenGL.
Memorias: chip de silicio que se encarga de almacenar texturas, datos, a gran velocidad, GDDR 5 duplica el ancho de banda que una memoria GDDR3.
Fases de poder: Se encarga de regular la tensión que recibe desde la fuente. Por ejemplo el GPU cuando está en reposo la fase de alimentación no requiere tanto poder VCORE, y al cargar algún juego estas fases suministran más voltaje a los componentes y al GPU cuando se requiere mucho procesamiento.
Transistores: Los transistores son unos elementos que han facilitado, en gran medida, el diseño de circuitos
Condensadores Sólidos: Es un condensador de larga vida útil compuesto de polímero, moderar el voltaje de salida y las fluctuaciones de corriente en la salida rectificada.
PCIex: El bus PCIEX (Interconexión de Componentes Periféricos Express, también escrito PCI-E) es un bus de interconexión entre la placa madre y la tarjeta de vídeo.
Entrada de Alimentación: Es por donde alimentamos con energía la tarjeta de vídeo directamente desde la fuente de poder.
Resistencias: pequeños componentes se encargan de elevar o disminuir la tensión eléctrica entre memoria, transistores, fases etc.
Tipos de tarjeta de video
MDA
MDA, el IBM
Monochrome Display Adapter, representada junto la tarjeta CGA, a uno de los
adaptadores más antiguos del PC. En 1980 se presentó junto con el primer PC, y
durante muchos años fue tomado como el estándar en tarjetas de vídeo
monocromas. Soportaba solo un modo de funcionamiento, con 25 líneas y 80
columnas en pantalla, apenas disponía de RAM de vídeo lo que hacía que solo se
pudiera trabajar con una página de pantalla en memoria.
A pesar de que no
se podían crear gráficos lo usuarios preferían está a la CGA que tenía una
resolución menor y cansaba más los ojos. En el ámbito de las tarjetas monocromas
se dio paso al Hércules que daba la posibilidad de mostrar gráficos monocromos.
CGA
CGA, el Color
Graphics Adapter surgió como alternativa a la MDA en 1981. Su ventaja era que
daba la posibilidad de crear gráficos, por otra parte el precio de la tarjeta era
elevadísimo, aunque como contrapunto esta tarjeta daba la posibilidad de
conectarse a una televisión normal, eliminando así la compra del monitor.
Además se disponía de salida RGB, lo que hacía se dividía el color de un punto
de la pantalla en sus partes proporcionales de Rojo, Azul y Verde. La imagen
creada comparada con la MDA era de calidad inferior, lo que no se debía a la
resolución menor, sino a que la distancia entre puntos del monitor CGA era
mayor.
La tarjeta CGA al
igual que la MDA representa en modo texto 25 líneas y 80 columnas en pantalla,
pero los diferentes caracteres se basan en una matriz de puntos más pequeña que
en el caso de las tarjetas MDA. Pero a cambio se pueden representar gráficos de
320x200 puntos, donde la posibilidad de elección de color queda muy limitada,
con tan solo cuatro. En el modo de mayor resolución sólo quedan dos colores de
los que disponemos para construir la pantalla. A pesar de las diferencias entre
la MDA y la CGA, las dos se basan en el mismo controlador de vídeo, el MC6845
de Motorola.
HGC
HGC, Hércules Graphics Card. Un año después de la introducción en el mercado Del PC, apareció la
hasta entonces totalmente desconocida empresa Hércules, con una tarjeta gráfica
para el PC, y consiguió un éxito devastador. También estaba basada en el
controlador de Motorola y era prácticamente compatible con la tarjeta MDA e
IBM. Sus posibilidades con respecto a las anteriores eran abrumadoras puesto
que además del modo de texto, la tarjeta HGC puede gestionar dos páginas gráficas
con una resolución de 720x348 puntos en pantalla. Con ello combina la estupenda
legibilidad de la MDA con las capacidades gráficas de la CGA, ampliando incluso
la resolución. La tarjeta Hércules está considerada como el estándar de las
tarjetas monocromas.
Tanto el original
como sus imitaciones tienen el fallo de que les falta soporte para la BIOS, ya
que IBM siempre se ha negado a soportar tarjetas de vídeo externas por su BIOS.
La Hércules al ser compatible con la MDA de IBM, en modo texto no tiene ningún
problema mientras que en modo gráfico el programador no se ve realmente
soportado por el BIOS, pero esto no representa realmente un problema, ya que
las rutinas del BIOS correspondientes, a causa de su deficiente velocidad,
normalmente no se emplean nunca. La tecnología va avanzando y mientras que en
las primeras tarjetas Hércules se montaban en placas largas puesto que
contenían sobre 40 circuitos integrados, las tarjetas Hércules más modernas se
montan en placas más cortas y habitualmente tienen menos de 10 circuitos
integrados.
La empresa Hércules
sacó otras tarjetas pero que apenas tuvieron tanto éxito.
EGA
EGA. IBM tras ver
la fuerte incursión en el mercado del Hércules, se puso a trabajar hasta que en
1985 se presentó la Enhaced Graphics Adapter.
El precio de
entrada de esta tarjeta fue un tanto elevado dado a la tecnología que
utilizaba, esto produjo que se hasta que no bajo el precio de la tarjeta no se
comenzaran a comprar y llegar a estándar. La EGA era totalmente compatible con
la MDA y la CGA, además la EGA era semejante a la Hércules Graphics Card,
disponía de la posibilidad de reproducir gráficos monocromos en un monitor
monocromo, representando con ello la primera tarjeta gráfica que se podía
utilizar tanto en monitores monocromos como en los de color.
Pero la EGA
desplegaba todo su esplendor en unión de un monitor EGA especial, que va más
allá de las características de un monitor CGA. A pesar de que su resolución en
el modo gráfico más alto, 640x350 puntos no era más alto que el de la CGA, se
podían representar 16 colores diferentes, de una paleta de 64 colores. También
se aumentó la RAM de vídeo hasta 256 Kbytes, para tener espacio para varias
páginas gráficas. Para conseguir estas resoluciones y colores la EGA se basaba
en varios circuitos VLSI (Very Large Scale Integration) altamente integrados,
que se encargaban de todas las tareas en el marco de generación de la imagen.
Eligiendo una
distancia menor entre los puntos en los monitores EGA, la tarjeta EGA brilla
con respecto a la CGA con una imagen más nítida. Además la EGA daba la
posibilidad de trabajar con juegos de caracteres variables, además la EGA
disponía de una ROM-BIOS propia, cosa de la que no disponían ni la CGA ni la
MDA.
VGA
VGA. La tarjeta VGA
junto con los primeros sistemas PS/2 de IBM, se presentó en la primavera de
1987, empalma perfectamente a la tradición de la tarjeta EGA, es decir:
compatibilidad a todos sus antecesores, más colores, más resolución y mejor
representación de texto.
El estándar VGA
solo estaba pensado para los sistemas PS/2 de IBM, y con ellos para el nuevo
Micro Channel que hasta hoy no ha podido imponerse. Rápidamente aparecieron
muchos fabricantes con tarjetas VGA para el bus ISA en el mercado, de modo que
los sistemas convencionales se podían equiparar con tarjetas VGA.
Las tarjetas VGA se
diferenciaban de las EGA por su densidad de integración mayor, que hace posible
la colocación de toda la lógica de control en un solo circuito. La señal
enviada al monitor cambia de la anteriormente digital a ser analógica haciendo
posible más de 260.000 colores.
La resolución
alcanzada por esta tarjeta pasa a los 640x480 puntos y 16 colores. Dadas estas
altas prestaciones la memoria RAM de la tarjeta salía con un mínimo de 256
Kbytes y pudiendo llegas hasta los 512 Kbytes.
SuperVGA
SuperVGA. Estar
tarjetas corresponden en lo que a hardware básico se refiere, con las tarjetas
VGA normales, pero trabajan más rápido, para poder visualizar más puntos en
pantalla en el mismo tiempo y con ello obtener una resolución más alta. La SVGA
es totalmente compatible con la VGA esto supone que se pueden mostrar las
resoluciones de la VGA pero con muchos más colores. La SVGA da la posibilidad
de mostrar hasta 1024x768 puntos en pantalla.
En un principio no
existía uniformidad en cuanto a cómo se han de inicializar o direccionar este
tipo de modos gráficos a través de los registro de paleta. Por ello los
fabricantes más importantes de juegos de chips compatibles VGA (Tsang, Paradise
y Video Seven) han formado un consorcio que lleva el nombre de Video Electronic
Standard Association (VESA). Juntos han determinado un estándar para el acceso
a los modos ampliados de la SVGA a través del BIOS, y que en un futuro se
empleará en los BIOS sobre las que se basan las tarjetas de estos fabricantes.
MCGA
MCGA. Mientras que
IBM provee para sus modelos altos PS/2 una tarjeta VGA, los modelos más
pequeños se ofrecen con una tarjeta MCGA (Memory Controller Gate Array).
En lo que se
refiere a modo texto, estas tarjetas se comportan igual que una CGA con sus 25
x 80 caracteres en modo texto, donde se puede elegir el color de texto y fondo
de una paleta de 16 colores, pero al contrario que la tarjeta CGA estos colores
no están predeterminados, sino que al igual que la VGA se pueden elegir
libremente del total de 262.000 colores. Y al contrario que en la tarjeta CGA
su resolución horizontal no es de 200 líneas, sino de 400 líneas, por lo que la
definición de los caracteres es mucho mejor.
La tarjeta MCGA
además de soportar los modos de la VGA también soporta los de la CGA, pero como
esta tarjeta ha de trabajar con una resolución horizontal de 400 puntos, las
diferentes líneas de puntos se duplican, lo que mejora la imagen, pero a cambio
da la mitad de la resolución. Aun peor es el asunto de los modos VGA, que alcanzan
la resolución VGA normal, pero se encuentran limitados en cuanto a colores.
8514/A
8514/A. Para no
permitir que alguien le robara la batuta en el campo de las tarjetas de vídeo,
IBM presento en el año 1987 un heredero para su estándar VGA. Esta tarjeta
supuso una auténtica revolución. Mientras que los controladores de vídeo
comparados con el procesador, hasta ahora no eran otra cosa que controladores
tontos, ahora la tarjeta de vídeo misma se equipara con un procesador, al que
se le pueden comunicar ordenes externas. La ventaja está clara, ya no es el
procesador el que ha de calcular los puntos de las líneas o los círculos, sino
que puede delegar esta tarea al procesador gráfico, que procesa, paralelamente
a la ejecución del resto del programa, la línea deseada u otro objeto gráfico.
De esta forma no se sobrecarga el procesador. Pero dada la estrategia de IBM
con esta tarjeta, y que el rendimiento por hardware de esta tarjeta queda muy
por detrás de sus posibilidades y que el precio alto de esta tarjeta no es
ningún milagro que la tarjeta 8514/A haya encontrado muy pocos adeptos.