lunes, 15 de noviembre de 2010


Disco duro


En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1.956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60. Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC’s y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando un interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.
Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean los mismos interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.

Estructura física


Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.
Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).


Los componentes físicos de una unidad de disco duro son:

LOS DISCOS (Platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control.

LAS CABEZAS (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin embargo algunos discos de alto desempeño tienen dos o más cabezas sobre cada superficie, de manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial. Las cabezas de Lectura/Escritura no tocan el disco cuando este esta girando a toda velocidad; por el contrario, flotan sobre una capa de aire extremadamente delgada (10 millonésima de pulgada). Esto reduce el desgaste en la superficie del disco durante la operación normal, cualquier polvo o impureza en el aire puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.

EL EJE
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.

"ACTUADOR" (actuator)
Es un motor que mueve la estructura que contiene las cabezas de lectura entre el centro y el borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto empujado contra magnetos fijos, para mover las cabezas a través del disco. La controladora manda más corriente a través del electromagneto para mover las cabezas cerca del borde del disco. En caso de una perdida de poder, un resorte mueve la cabeza nuevamente hacia el centro del disco sobre una zona donde no se guardan datos. Dado que todas las cabezas están unidas al mismo "rotor" ellas se mueven al unísono. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros:




Cilindros (cylinders)
El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las pistas del cilindro sin mover el rotor. Como resultado los HD de múltiples discos se desempeñan levemente más rápido que los HD de un solo disco.

Pistas (tracks)
Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre la pista más externa ó pista cero a la mas interna. Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.

Sectores (sectors)
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La controladora del H D determina el tamaño de un sector en el momento en que el disco es formateado. Algunos modelos de HD le permiten especificar el tamaño de un sector. Cada pista del disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores son más grandes que las interiores, las exteriores contienen más sectores.

Distribución de un disco duro



Cluster
Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla nos muestra esta relación.
  
Tamaño del Drive MB
Tipo de FAT
bits
Sectores por Cluster
Tamaño del Cluster Kb
0 –15
12
8
4
16-127
16
4
2
128-255
16
8
4
256-511
16
16
8
512-1023
16
32
16
1024-2048
16
64
32

MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD
Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en las especificaciones. Tiempo de acceso ( access time) Termino frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación de tres factores:

1- Tiempo de Búsqueda (seek time)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo entre la pista más interna y la más externa) cercano a 15 milisegundos .

2- Latencia (latency)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más reduciendo la latencia.

3- Command Overhead
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador.

Transferencia
Los HD también son evaluados por su transferencia, la cual generalmente se refiere al tiempo en la cual los datos pueden ser leídos o escritos en el drive, el cual es afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La mayoría de los HD actuales incluyen una cantidad pequeña de RAM que es usada como cache o almacenamiento temporal. Dado que los computadores y los HD se comunican por un bus de Entrada/Salida, el tiempo de transferencia actual entre ellos esta limitado por el máximo tiempo de transferencia del bus, el cual en la mayoría de los casos es mucho más lento que el tiempo de transferencia del drive.


COMO FUNCIONA UN DISCO DURO
1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número de discos y la composición del material magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente la trillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del controlador de disco alineando las partículas magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce al siguiente Cluster que contiene otra parte más del archivo. Una vez que los datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los Cluster del archivo.

INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE)
La norma IDE fue desarrollada por Western Digital y Compaq Computers a partir de una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daban problemas, pero como se han mejorado los procesadores y han salido programas más complejos, ya se notan.
Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores ATA.
ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de periférico que prestan las E/S); según su esquema de translación de direcciones se pueden encontrar dos métodos en ATA-2:
- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se transforman los parámetros de CHS de la Bios en los de la unidad. Como ventaja tiene su sencillez.
- Mediante LBA (Logical Block Address). Consiste en transformar los parámetros CHS en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos, etc.
En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb.

 Ventajas De Enhanced IDE:
*Máximo cuatro dispositivos conectados
*Soporta CD-ROM y cinta
*Transparencia de hasta 16.6 Mbps
*Capacidad máxima de 8.4 Gbytes
Velocidades en ATA-2
*11.1 con PIO Modo3
*13.3 Mbps con DMA Modo1
*16.6 Mbps con PIO Modo4

DEFINICIONES DE TERMINOS

ATA (AT Attachment), dispositivo de AT. Es el dispositivo IDE que más se usa en la actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits.

ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA para conseguir una serie de comandos y registros que controlen el funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup.

DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El acceso se realiza por bloque de datos.</ P>

 PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato.

Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre.
Se encuentran gobernados por una controladora y un determinado interface que puede ser:

· ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface.

· ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar.

· IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:

* El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco.

* El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad.
Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite la solución CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes.

· SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es:

INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo.

INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema.

Distribución de la Información : Grabación y Acceso.

Para grabar información en la superficie, se siguen una serie de códigos, que transforman un patrón de bits en una secuencia de celdas con diferentes estados de magnetización.

Procesos de grabación

· GCR (Group Coding Recording - Codificación de grupo de grabación) Es un proceso de almacenamiento en el que los bits se empaquetan como grupos y son almacenados bajo un determinado código.

· ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las pistas exteriores del disco que son más largas, pero mantienen un valor constante de rotación. Está diseñado para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes.

Proceso de Codificación

· FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada uno, y el omitir el cambio de flujo para cada cero. Este procedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad del disco.

· MFM (Modified Frequency Modulation - Modulación de frecuencia modificada) Método de codificación magnética de la información que crea una correspondencia 1 a 1 entre los bits de datos y transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densidad de almacenamiento y presenta una velocidad más baja de transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es almacenado sobre una región física lo suficientemente grande para contener 2 posibles posiciones 00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de "reloj" y que se usa para validar las lecturas, así como para sincronizarlas. Este bit hace que sea uno cuando está situado entre 2 bits de datos a cero y se hace cero cuando está situado entre cualquier otra combinación de bits de datos. Así se hace imposible que se puedan leer más de 3 bits consecutivos con un valor de cero, o mas de un bit seguido a uno. Esto es cierto para todas las informaciones almacenadas en el disco excepto para las áreas de control del mismo cuyas marcas de comienzo de pista, sector y datos tienen 4 bits consecutivos a cero en su "adress mark". Evidentemente, estos sistemas, aunque fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la mitad del espacio en bits de reloj.

· RLL: (Run Length Limited - Longitud recorrido limitado) Método de codificar la información magnéticamente que usa GCR para almacenar bloques en vez de bits individuales de datos. Permite densidades mayores de almacenamiento y velocidades mas altas de transferencia que MFM. En la práctica, permite incrementar en un 50% la capacidad de un disco respecto al sistema de grabación MFM. Los métodos de grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de pulsos para cada bit basado en los valores de los bits precedentes. Este sistema se puede clasificar dependiendo de la distancia máxima y mínima de silencios entre dos pulsos, por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una máxima de 7.

Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control.

Entre la información que se encuentran dentro de un sector:
· Numero de sector y cilindro
· El ECC (Error Correction Code) DATA.
· La zona de datos
· Zonas de separación entre zonas o entre pistas
También existen pistas extra donde se recogen otras informaciones como:

· Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.

· Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.

· Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.

Tiempos de acceso, Velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.

· Tiempo de búsqueda de pista a pista: intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.

· Tiempo medio de acceso: tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos.

· Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.

· Latencia Promedio: Es el promedio de tiempo para que el disco una vez en la pista correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia: velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores: la velocidad de rotación y la densidad de almacenamiento de los datos en una pista
3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos
Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados anteriormente sería: 


T.Pista
T.MAcceso
Rotación
Latencia
V.Transfrencia
FD 360k
HD AT 30
6-12 mls
8-10 mls
93 mls
40-28 mls
300 rpm
3600 rpm
100 mls
8,3 mls
125-250 Kb / seg
1-5 Mb / seg

El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR.
Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 rpm (un 50% más rápidas) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos energía.

RPM
1 Vuelta cada
Latencia
3600
16,66 mseg.
8,33 mseg.
4500
13,33 mseg.
6,66 mseg.
5400
11,11 mseg.
5,55 mseg.
7200
8,33 mseg.
4,16 mseg.
10000
6,00 mseg.
3,00 mseg.

El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido.
Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés.
· Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving.
· Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:
· Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg.
· Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.
· DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.
· Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un cotrolador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.

Estructura Lógica De Los Discos Duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:
Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de volumen).
Zona de datos para archivos y subdirectorios.

Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente

El Sector de Arranque: Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).

La Tabla de Asignación de Ficheros (File Allocation Table) (FAT): Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información.

Una o más copias de la FAT: El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos.

El directorio Raíz: La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen.
· 
La Zona de Datos: Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.



domingo, 7 de noviembre de 2010

TARJETA GRAFICA


 

Antecedentes

Inicialmente los ordenadores solo se limitaban a ingresar y mostrar datos por tarjetas perforadas, mediante teclado o primitivas impresoras, hasta que un día alguien pensó: ¿Por qué no juntamos de alguna manera, una especie de televisor al computador para observar la evolución de los procesos? Y es así que surgen los monitores, pero estos debían recibir la información de un dispositivo llamado: tarjeta de video.

Definición

Una tarjeta gráfica o tarjeta de vídeo es una tarjeta de circuito impreso encargada de transformar las señales eléctricas que llegan desde el microprocesador en información comprensible y representable por la pantalla del ordenador.
Normalmente lleva chips o incluso un procesador de apoyo para poder realizar operaciones gráficas con la máxima eficiencia posible, así como memoria para almacenar tanto la imagen como otros datos que se usan en esas operaciones.
Dos aspectos importantes al considerar el potencial de una tarjeta gráfica son la resolución que soporta la tarjeta y el número de colores que es capaz de mostrar simultáneamente.



Las tarjetas gráficas pueden ser de dos tipos:

Integradas.- También llamadas OnBoard, están integradas en la misma Placa base.

No integradas.- Que se conectan a la placa base mediante un puerto.

Dependiendo del tipo de puerto utilizado, las tarjetas gráficas pueden ser:

- ISA.- Van conectadas a un puerto ISA (hace bastantes años que no se utilizan).
- EISA.- Van conectadas a un puerto EISA (hace bastantes años que no se utilizan).
- VESA.- Van conectadas a un puerto VESA (hace bastantes años que no se utilizan).
- PCI.- Van conectadas a un puerto PCI. Hace bastante que no se utilizan, aunque aun es posible encontrarlas, ya que algunos fabricantes mantienen un par de modelos en producción.
- AGP.- Ha sido el estándar utilizado hasta hace bien poco (de hecho aun siguen en producción), aunque están desapareciendo poco a poco.
- PCIe.- O PCIexpress, es el estándar utilizado en la actualidad.


Para las tarjetas gráficas la principal métrica es la velocidad, obteniendo mejor capacidad gráfica, entonces esta métrica sería del tipo mas-es-mejor ya que a mayor velocidad menos limitaciones tendremos.
Pero esto es como todo, dependiendo del sistema que utilicemos cambiará las métricas, por ejemplo si se usa por medio de un sistema remoto la métrica cambia totalmente ya que lo que buscamos es mas fiabilidad y disponibilidad en el sistema, por lo que la velocidad pasa a un segundo plano, en este caso estaríamos en un tipo de menor-es-mejor por que lo que nos interesa en este caso seria tener menos fallos posibles en el sistema.

Características

Procesador Gráfico: El encargado de hacer los cálculos y las figuras, debe tener potencia para que actúe más rápido y de mejor rendimiento.
Disipador: Muy importante para no quemar el procesador, ya que es necesario un buen sistema de disipación del calor. Sin un buen disipador el procesador gráfico no aguantaría las altas temperaturas y perdería rendimiento incluso llegando a quemarse.
Memoria de video: La memoria de video, es lo que almacena la información de lo que se visualiza en la pantalla. Depende de la resolución que queramos utilizar y de la cantidad de colores que deseemos presentar en pantalla, a mayor resolución y mayor número de colores más memoria es necesaria.

RAMDAC: Conversor analógico-digital (DAC) de la memoria RAM, empleado en las tarjetas gráficas para transformar la señal digital con que trabaja el ordenador en una salida analógica que pueda entender el monitor.

miércoles, 3 de noviembre de 2010


Partes de la computadora

Cualquier computadora funciona externamente de una forma muy sencilla, a través de unos periféricos de entrada (teclado, ratón, scanner, micrófono, etc.),  podemos introducirles los datos. Luego estos datos son guardados en memorias que luego se procesaran en la unidad central de procesamiento de la computadora. El resultado de todo este proceso se envía a periféricos de salida de información como son el monitor, impresora, etc. Así podríamos resumir el funcionamiento de una computadora.


Por lo que podemos decir que las partes de la computadora son: el monitor o pantalla, el teclado y la caja que contiene la CPU. Esta caja que contiene la CPU (siglas que provienen del inglés y que significan unidad central de proceso), es conocida con varios nombres como torre o gabinete.

 



Vamos a ver las partes de la computadora primero internamente lo que encontramos dentro de la torre o gabinete:
1º. Nos encontramos con la Master Board, se le conoce también como placa o tarjeta madre. Es una parte de la computadora y es la mayor de las tarjetas electrónicas que podemos entrar dentro del gabinete de la computadora y en la que van montados el procesador, la memoria RAM, las tarjetas de video, las tarjetas que controlan diferentes periféricos, estas tarjetas que actualmente pueden ser del tipo PCI o las más modernas del tipo PCI Express, que son muchísimo mas rápidas.


Esta placa madre tiene salidas para conexiones de impresoras, cámaras fotográficas, etc. que pueden ser del tipo puerto serial, paralelo, o los más usados del tipo USB o FireWire (IEEE 1394). Normalmente se usa la conexión FireWire para enchufar a la computara de cámaras o videocámaras digitales por su gran velocidad en este tipo de transmisión de datos, fue inventado por Apple Computer a mediados de los años 90. Mientras que el USB (del inglés Bus de Serie Universal) esta mucho más extendido para todo tipo de conexiones y todas las placas madre trae más de uno, en cambio FireWire pueden no traer. El USB se usa actualmente muchísimo más que el FireWire en su velocidad más alta, excepto en lo referente a las cámaras o videocámaras digitales donde se sigue usando el FireWire.
Todo este tipo de conexiones de salida y entrada de datos se conoce con el nombre de puertos, que son partes de la computadora. Así la placa madre también tiene conexiones o puertos para conectar el teclado, el ratón o mouse, y algunas disponen de conectores para el monitor, que por lo general va conectado al terminal que trae la propia tarjeta gráfica.
2º. Otra parte de la computadora muy importante es la CPU (Unidad Central de Proceso). Es el procesador de la computadora que se encarga de interpretar y ejecutar todas las instrucciones, esta formado por varios circuitos electrónicos microscópicos que forman lo que se conoce como microchips fabricado en un trozo de silicio que contienen millones de circuitos electrónicos. La principal función de la CPU es gestionar toda la información que pasa por la computadora. Actualmente los microchips mas conocidos son los que fabrica Intel, AMD o los de Apple, entre otros.


3º. La BIOS (del inglés Sistema Básico de Entrada y Salida de la Computadora), esta parte de la computadora es la que permite establecer conexión entre todos los periféricos de entrada y salida, como por ejemplo el poder leer un CD, DVD o reconocer un nuevo Disco Duro que le instalemos a nuestra computadora. En definitiva la BIOS es la que se comunica con todos y cada uno de los elementos que conectemos a la computadora.


4º.La Memoria RAM (Random Acces Memory o memoria de acceso aleatorio). Esta parte de la computadora es la memoria de trabajo de la computadora porque cuando esta en funcionamiento en ella es donde se guarda la información, los datos que se están procesando de las distintas aplicaciones, toda esta información desaparece si la computadora se apaga por cualquier razón.



5º. Otra de las partes de la computadora que podemos encontrar dentro del gabinete o torre de la computadora es el Disco Duro. En este dispositivo es donde se almacena la información, el sistema operativo (Por ejemplo el Windows, o el Linux, etc.), los diferentes programas como: procesadores de texto (Word), hojas de cálculo (Excel), y los archivos que creamos y guardamos con estos programas. También se puede guardar esta información en disquetes, discos compactos “CD”, o en otras unidades como discos duros externos, cintas magnéticas, etc.


Ahora veremos las partes de la computadora externamente:
1º. La parte mas importe es la Torre o Gabinete que contiene la CPU, que ya hemos visto con todos sus componentes.









2º. Otra parte de la computadora es el Monitor o Pantalla, en ella es donde podemos ver el resultado de la información que la computadora nos muestra. Esta parte de la computadora es un periférico de salida de información, otro periférico de salida de información importante es la impresora.





Actualmente podemos elegir entre muchísimo tipos y tamaños de monitores. Están los conocidos como CRT(Tubo de Rayos Catódicos) son mucho más baratos y más extendido su uso, los TFT (Thin Flim Transistor o Transistor de Película Fina), han bajado su precio pero siguen siendo un poco más caros que los monitores de CRT, los monitores de TFT se les denomina monitores planos. En la actualidad su uso es muy común por varias razones: consumen menos energía, dañan menos la vista, y ocupan menor espacio. El tamaño de los monitores actuales va desde las 15 a 23 o más pulgadas.
Otra característica importante de esta parte de la computadora, el monitor, es la resolución. La resolución de un monitor se mide por píxel, es la unidad más pequeña en la que se divide una imagen digital. Así, podemos definir a la resolución de un monitor en la cantidad de píxeles que forman el ancho y alto de la pantalla del monitor. Cuanto mayor sea esta mayor será la resolución y mejor calidad tendrá la imagen que veamos en el monitor. Hace unos años la mejor resolución de un monitor era de 800 píxeles horizontalmente y 600 verticalmente. En la actualidad se han superado estas cifras con creces y es muy fácil encontrar monitores con resoluciones de 1280 x 1024 píxeles.
3º. El teclado y el ratón son otra parte de la computadora, son periféricos de entrada de información que junto con el scanner son los más importantes periféricos de entrada de información en una computadora.


Otro aspecto importante en cualquier computadora actual es la conexión a Internet, hace unos años la conexión se establecía a través de un moden, pero actualmente esta en desuso porque la conexión que se establecía con el era lenta, con facilidad nos podía desconectar, los archivos que podríamos mover eran pequeños y de baja calidad. Mientras que ahora la mayoría de los usuarios de Internet se conectan con adsl o más conocida como banda ancha. Este tipo de conexión mueve un volumen de datos mayor que con el moden se establece con un Router que se conecta a la red telefónica permitiendo navegar a varias computadoras a la vez.


Para poder conectarnos a Internet con un Router necesitamos que nuestra computadora tenga una tarjeta de red, y estas ya vienen integradas en la placa madre, por lo que no vamos a tener ningún problema.


En el aspecto externo podríamos seguir enumerando más componentes de la computadora pero no serían tan fundamentales en el funcionamiento de la computadora como los que hemos mencionado anteriormente. Con el presente artículo se trata de resumir de forma clara y sencilla las partes de la computadora, las fundamentales para su funcionamiento.

BIOS



El BIOS (siglas en inglés de basic input/output system) es un firmware que se ejecuta al encender la computadora, y que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la memoria RAM; es un software muy básico instalado en la placa base que permite que esta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona una salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador ejecutable en la memoria de solo lectura, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al BIOS de CP/M.


El BIOS es un sistema básico de entrada/salida, que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en la memoria RAM. Posee un componente de hardware y otro de software; este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Microsoft Windows, GNU/Linux, Mac OS X, etc.).





El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo.
El BIOS reside en una memoria EPROM. Es un programa tipo firmware. El BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantes de la máquina.


lunes, 25 de octubre de 2010


Memoria RAM

RAM son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresoras.

Hay dos tipos básicos de memoria RAM

  • RAM dinámica (DRAM)
  • RAM estática (SRAM)
Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la memoria RAM dinámica es la más común.
La memoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.
Actualmente, las memorias RAM pueden ser, según los tipos de conectores, SIMM, DIMM o RIMM.

Coloquialmente

Coloquialmente el término RAM se utiliza como sinónimo de memoria principal, la memoria que está disponible para los programas, por ejemplo, un ordenador con 8M de RAM tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar.

jueves, 21 de octubre de 2010


Historia de la computación

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1.823 el gobierno Británico lo apoyó para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.


Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.


En 1.944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo, encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.


En 1.947 se construyó, en la universidad de Pennsylvania la ENIAC, (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica. El equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la universidad: tenía más de 18.000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado aunque, tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después cuando se integró a ese equipo el ingeniero y matemático húngaro John Von Neumann (1.903 – 1.957). Las ideas de Von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.


La idea fundamental de Von Neumann fue: permitir que en la memoria coexistan datos con instrucciones para que entonces, la computadora pueda ser programada en un lenguaje y no por medio de alambres que, eléctricamente interconectaban varias secciones de control como en la ENIAC.
Primera Generación
En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que, con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.
Esta generación abarco la década de los cincuenta y se conoce como la primera generación. Característicamente, estas máquinas estaban construidas por medio de tubos de vacío y eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1.951 aparece la UNIVAC, (UNIVersal Automatic Computer  - Computadora Automática Universal) que fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas. Se utilizó para procesar el censo de 1.950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1.860 – 1.929), quien además fundó una compañía que, con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1.953 y 1.957.


Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria. Debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético,  es el antecesor de los discos actuales.



Segunda Generación
Cerca, en la década de 1.960, las computadoras seguían evolucionando. Se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores y se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación se produjo en un principio, en las primeras computadoras personales; pues se requería saberlas programar,  por lo que su uso estaba limitado a aquellos audaces pioneros a los que les gustaran pasar un buen número de horas escribiendo instrucciones. Además, para no perder el programa resultante, había que almacenarlo en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para los PC’s; este procedimiento podía tardar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales; con mejores circuitos, más memoria, unidades de disco flexible y sobre todo, con la aparición de programas de aplicación general, en donde el usuario compraba el programa y se ponía a trabajar.
Aparecen los programas procesadores de palabras como el célebre Word Star; la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen del PC. El software empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes, el PC pasa a ser pieza clave en el diseño tanto, del hardware como del software. Aparece el concepto de human interface, que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software, se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose, para dedicar más tiempo a producir. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones, con la consiguiente desorientación de los usuarios novatos. Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema constante es que ninguna solución para el uso de los programas es constante. Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y el PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1.964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación, son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación, las computadoras, en la década de los 60’, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1.964.


Las características de esta generación fueron las siguientes:
Su fabricación electrónica esta basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándar (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360 se llamó OS, que contaba con varias configuraciones, e incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándar.
En 1.964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.


En la década de 1.970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite con los modelos 1108 y 1110 en gran escala, mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década IBM, de su serie 370 produce los modelos 3031, 3033, 4341.
Burroughs, con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000.
Honey - Well participa con su computadora DPS y con varios modelos de esta.
A mediados de la década de 1.970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes, que significa también gran sistema), y disponen de gran capacidad de procesamiento.
Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation; la VAX (Virtual Address eXtended), de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra.
En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generación
Aquí aparecen los microprocesadores que son un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada revolución informática.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800.000 computadoras personales; al siguiente subió a 1.400.000. Entre 1.984 y 1.987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda, que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales el software, y los sistemas que con ellas se manejan, han tenido un considerable avance porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software; de las computadoras personales, crece con gran rapidez.
Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura, el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes, que sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1.983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
MODELO DE VON NEUMANN
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con él, una característica importante de este modelo es que, tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.