lunes, 25 de octubre de 2010


Memoria RAM

RAM son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresoras.

Hay dos tipos básicos de memoria RAM

  • RAM dinámica (DRAM)
  • RAM estática (SRAM)
Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la memoria RAM dinámica es la más común.
La memoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.
Actualmente, las memorias RAM pueden ser, según los tipos de conectores, SIMM, DIMM o RIMM.

Coloquialmente

Coloquialmente el término RAM se utiliza como sinónimo de memoria principal, la memoria que está disponible para los programas, por ejemplo, un ordenador con 8M de RAM tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar.

jueves, 21 de octubre de 2010


Historia de la computación

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1.823 el gobierno Británico lo apoyó para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.


Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.


En 1.944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo, encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.


En 1.947 se construyó, en la universidad de Pennsylvania la ENIAC, (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica. El equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la universidad: tenía más de 18.000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado aunque, tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después cuando se integró a ese equipo el ingeniero y matemático húngaro John Von Neumann (1.903 – 1.957). Las ideas de Von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.


La idea fundamental de Von Neumann fue: permitir que en la memoria coexistan datos con instrucciones para que entonces, la computadora pueda ser programada en un lenguaje y no por medio de alambres que, eléctricamente interconectaban varias secciones de control como en la ENIAC.
Primera Generación
En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que, con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.
Esta generación abarco la década de los cincuenta y se conoce como la primera generación. Característicamente, estas máquinas estaban construidas por medio de tubos de vacío y eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1.951 aparece la UNIVAC, (UNIVersal Automatic Computer  - Computadora Automática Universal) que fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas. Se utilizó para procesar el censo de 1.950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1.860 – 1.929), quien además fundó una compañía que, con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1.953 y 1.957.


Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria. Debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético,  es el antecesor de los discos actuales.



Segunda Generación
Cerca, en la década de 1.960, las computadoras seguían evolucionando. Se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores y se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación se produjo en un principio, en las primeras computadoras personales; pues se requería saberlas programar,  por lo que su uso estaba limitado a aquellos audaces pioneros a los que les gustaran pasar un buen número de horas escribiendo instrucciones. Además, para no perder el programa resultante, había que almacenarlo en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para los PC’s; este procedimiento podía tardar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales; con mejores circuitos, más memoria, unidades de disco flexible y sobre todo, con la aparición de programas de aplicación general, en donde el usuario compraba el programa y se ponía a trabajar.
Aparecen los programas procesadores de palabras como el célebre Word Star; la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen del PC. El software empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes, el PC pasa a ser pieza clave en el diseño tanto, del hardware como del software. Aparece el concepto de human interface, que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software, se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose, para dedicar más tiempo a producir. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones, con la consiguiente desorientación de los usuarios novatos. Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema constante es que ninguna solución para el uso de los programas es constante. Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y el PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1.964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación, son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación, las computadoras, en la década de los 60’, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1.964.


Las características de esta generación fueron las siguientes:
Su fabricación electrónica esta basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándar (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360 se llamó OS, que contaba con varias configuraciones, e incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándar.
En 1.964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.


En la década de 1.970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite con los modelos 1108 y 1110 en gran escala, mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década IBM, de su serie 370 produce los modelos 3031, 3033, 4341.
Burroughs, con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000.
Honey - Well participa con su computadora DPS y con varios modelos de esta.
A mediados de la década de 1.970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes, que significa también gran sistema), y disponen de gran capacidad de procesamiento.
Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation; la VAX (Virtual Address eXtended), de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra.
En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generación
Aquí aparecen los microprocesadores que son un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada revolución informática.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800.000 computadoras personales; al siguiente subió a 1.400.000. Entre 1.984 y 1.987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda, que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales el software, y los sistemas que con ellas se manejan, han tenido un considerable avance porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software; de las computadoras personales, crece con gran rapidez.
Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura, el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes, que sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1.983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
MODELO DE VON NEUMANN
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con él, una característica importante de este modelo es que, tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

domingo, 17 de octubre de 2010


Placa base

La placa base, placa madre, tarjeta madre (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.
Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Gráfico esquemático de la arquitectura de una placa madre típica






Imagen de una placa madre


Componentes de la placa base


Una placa madre típica en PC’s consiste en un gran circuito impreso que incluye como mínimo:

* Zócalo de la CPU (en inglés Socket’s), en donde uno o más CPU’s son instalados.

*Ranuras de memoria RAM (en inglés memory slot), en donde la memoria principal es instalada (generalmente módulos DIMM’s con memoria DRAM).

* Un chipset: gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etc). Se divide en dos secciones, Northbridge (puente norte) y Southbridge (puente sur): El primero gestiona la interconexión entre el procesador, la memoria RAM y la GPU; y el segundo entre los periféricos y los dispositivos de almacenamiento.
Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria en el interior del procesador.

* Chip’s de memoria no volátil (antiguamente memorias ROM, pero desde hace tiempo se emplean memorias flash), que contiene la BIOS o el firmware del sistema. Estos programas son específicos de la placa base y se encargan de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recuperan, y después ejecutan, las instrucciones del MBR (Master Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema operativo.

* Un reloj: regula y sincroniza la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.

*  La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.
* La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.

* Bahías o zócalos para tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador).

* El bus (también llamado bus interno o en inglés front-side bus): conecta el microprocesador al chipset. Está cayendo en desuso frente a HyperTransport y Quickpath.

* El bus de memoria conecta el chipset a la memoria temporal.

* El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las ranuras de expansión.

* Conectores de energía para distribuirla entre los distintos dispositivos de la computadora. La electricidad se recibe desde la fuente eléctrica.

* Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:
* Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
* Los puertos serie, por ejemplo para conectar dispositivos antiguos.
* Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
* Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
* Los conectores RJ45, para conectarse a una red informática.
* Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
* Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros, unidades de estado sólido y lectores ópticos.
* Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
* Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, una tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D).
Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect) y, los más recientes, PCI Express.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes (10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión.


Muchas placas madres incluyen dispositivos que antes sólo existían como placas o tarjetas separadas y debían conectarse a la placa madre empleando zócalos libres en la misma. Por ejemplo, muchas placas madres vienen integradas con placa de sonido, de aceleración de video, módem, etc.
* También algunas placas madres incluyen dispositivos de enfriamiento como ventiladores.

Tipos de Bus

Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora. Los Buses Generales son los siguientes:
* Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador.
* Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia.
* Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos.
* Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
* Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.

Placa multiprocesador

Este tipo de placa base puede acoger a varios procesadores (generalmente de 2, 4, 8 o más). Estas placas base multiprocesador tienen varios zócalos de micro-procesador (socket), lo que les permite conectar varios micro-procesadores físicamente distintos (a diferencia de los de procesador de doble núcleo).
Cuando hay dos procesadores en una placa base, hay dos formas de manejarlos:
  • El modo asimétrico, donde a cada procesador se le asigna una tarea diferente. Este método no acelera el tratamiento, pero puede asignar una tarea a una CPU, mientras que la otra lleva a cabo a una tarea diferente.
  • El modo simétrico, llamado PSM (en inglés Symmetric MultiProcessing), donde cada tarea se distribuye de forma simétrica entre los dos procesadores.
Linux fue el primer sistema operativo en gestionar la arquitectura de doble procesador en x86. Sin embargo, la gestión de varios procesadores existía ya antes en otras plataformas y otros sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no uniformemente distribuida
Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon)
Factores de forma de las placas madres (formatos)

Existen múltiples factores de forma para las placas madres. En general, la mayoría de los fabricantes se adaptan a los factores de forma que toman las placas madres de las computadoras compatibles con IBM (incluso las Macintosh y las Sun).

Algunos factores de forma son:

* PC/XT - fue creada por IBM para las primeras computadoras hogareñas. La especificación era abierta, por lo tanto múltiples desarrolladores se basaron en esta convirtiéndose así en un estándar de facto. Tamaño: 8,5 × 11" | 216 × 279 mm.

* AT (Advanced Technology) - fue creada por IBM para las sucesoras de las PC/XT. Las AT fueron muy populares en el tiempo de los microprocesadores 80386. Tamaño: 12 × 11"–13" | 305 × 279–330 mm.

* Baby AT - fue desarrollada por IBM en 1985 como sucesora de las AT. Fueron muy populares por su reducido tamaño. Tamaño: 8,5" × 10"–13" | 216 mm × 254-330 mm.

* ATX - fue desarrollado por Intel en 1995. Hasta hoy (2007) es el factor de forma más popular para las placas madre. Tamaño: 12" × 9,6" | 305 mm × 244 mm (Intel 1996).

* EATX - Tamaño: 12" × 13" | 305mm × 330 mm

* microATX - versión pequeña de la ATX (un 25% más pequeñas). Soporta menos tarjetas de expansión y es muy popular en computadoras pequeñas. Tamaño en 1996: 9,6" × 9,6" | 244 mm × 244 mm.

* FlexATX - subconjunto de las microATX desarrollada por Intel en 1999. Tamaño: 9,6" × 9,6" | 244 × 244 mm max.

* LPX - Tamaño: 9" × 11"–13" | 229 mm × 279–330 mm.

* NLX - Tamaño: 8"–9" × 10"-13,6" | 203–229 mm × 254–345 mm

* BTX (Balanced Technology Extended) - estándar propuesto por Intel a principios de 2000 para ser sucesor de las ATX.

* Mini-ITX - factor de forma muy pequeño y altamente integrado desarrollado por VIA en 2001 para pequeños dispositivos. Tamaño: 6,7" × 6,7" | 170 mm × 170 mm max.

* WTX - factor de forma creado por Intel en 1998 para servidores y estaciones de trabajo con múltiples CPUs y discos duros. Tamaño: 14" × 16,75" | 355,6 mm × 425,4 mm




Fabricantes de placas madres

Los tres principales fabricantes de placas madres son ASUS, Foxconn e Intel. Luego existen otros como AOpen, ASRock, BFG Technologies, Biostar, Chaintech, DFI, ECS, EPoX, eVGA, FIC, Gigabyte, Jetway, Mach Speed, Magic-Pro, MSI, Mercury, Shuttle, Soyo, Supermicro, Tyan, Universal abit (ABIT), VIA y XFX.


jueves, 14 de octubre de 2010

El microprocesador

¿Qué es un microprocesador?
Desde el punto de vista funcional, un microprocesador es un circuito integrado que, incorpora en su interior una unidad central de proceso (CPU) y todo un conjunto de elementos lógicos que permiten enlazar otros dispositivos como memorias, puertos de entrada y de salida (I/O), formando un sistema completo para cumplir con una aplicación específica dentro del mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria generalmente, externos al mismo. La aplicación más importante de los microprocesadores que cambió totalmente la forma de trabajar, ha sido la computadora personal o microcomputadora.
El microprocesador es la parte de la computadora diseñada para llevar acabo o ejecutar los programas. Este viene siendo el cerebro de la computadora, el motor, el corazón de esta máquina. Este ejecuta instrucciones que se le dan a la computadora a muy bajo nivel haciendo operaciones lógicas simples, como sumar, restar, multiplicar y dividir. El microprocesador es un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip. Suelen tener forma de cuadrado o rectángulo negro y van, o bien sobre un elemento llamado zócalo (socket en inglés),  soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior de dicho cartucho).
La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque esto es sólo una medida de la fuerza bruta del micro. Uno simple y anticuado a 500 MHz, puede ser mucho más lento que uno más complejo y moderno (con más transistores, mejor organizado...) que vaya a "sólo" 400 MHz.
Debido a la extrema dificultad de fabricar componentes electrónicos que funcionen a las inmensas velocidades de MHz habituales hoy en día, todos los micros modernos tienen 2 velocidades: Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450... MHz). Y Velocidad externa o del bus: o también "velocidad del FSB"; la velocidad a la que se comunican el micro y la placa base. Típicamente: 33, 60, 66, 100, 133, 266, 400 MHz, Etc.
La cifra por la que se multiplica la velocidad externa o de la placa para dar la interna o del micro es el multiplicador; por ejemplo, un Pentium III a 450 MHz utiliza una velocidad de bus de 100 MHz y un multiplicador 4,5x.

Historia de los microprocesadores
A partir de 1970, el panorama de la electrónica cambió radicalmente cuando apareció en el mercado el Microprocesador. Esto introdujo un concepto novedoso que en la actualidad se conserva y refuerza cada vez más, y es la lógica programada. Antes de los microprocesadores, los circuitos electrónicos se diseñaban para una función específica la cual no podía modificarse sin cambiar físicamente las conexiones; es decir, el número y la cantidad de los diferentes elementos que los formaban a lo cual, se les llamó la lógica cableada.
Consolidadas las técnicas digitales de los años 60, se creó entonces, la necesidad de profundizar en el estudio y desarrollo de las aplicaciones para los microprocesadores y la programación en lenguaje de máquina o assembler. Fue la época de oro del 8080, el 8086, el Z-80, el 6809, el 6502, el 68000 y otros microprocesadores, utilizados como circuitos centrales en las aplicaciones de control.
En 1980, aproximadamente, los fabricantes de integrados iniciaron la difusión de un nuevo circuito con aplicaciones para control, medición, e instrumentación, al que llamaron "microcomputador de un solo chip" o, dicho de otro modo; microcontrolador.

Evolución histórica de los Microprocesadores
1970 fue la fecha de invención del microprocesador.
Lee De Forest  patentó el tubo de vacío  a comienzos de siglo, basado en el descubrimiento de un fenómeno llamado "Efecto Edison". Este dispositivo hizo posible la radio, la telefonía inalámbrica, etc., e impulsó el desarrollo comercial e industrial de la electrónica. Inclusive las primeras computadoras eran fabricadas con tubos de vacío. Luego vino la revolución del transistor, desarrollado en los laboratorios de Bell Telephone en 1948 y utilizado a partir de 1950 a escala industrial.
De los tres inventores del Transistor - W. Brattain, W. Shockley y J. Bardeen  - Shockley fue el único que se dedicó a desarrollar métodos de fabricación en serie de este revolucionario dispositivo en su empresa, Shockley Semiconductor Laboratories, dando nacimiento a una nueva era de la industria electrónica y a la ubicación de esta tecnología en un sitio de California cercano a San Francisco que más tarde se llamó Silicon Valley o "Valle del Silicio". En esta compañía se iniciaron los principales científicos e ingenieros que más tarde formarían sus propias empresas y desarrollarían los circuitos integrados y los microprocesadores.
El microprocesador es el máximo exponente de la etapa siguiente al transistor; la tecnología de los circuitos integrados.
El concepto de circuito integrado, empezó a rondar por los cerebros y mentes prodigiosas de quienes trabajaban en el diseño y fabricación de transistores. El planteamiento fue más o menos el siguiente: si se fabrican transistores de forma individual y para después unirse siempre de la misma forma entre si con alambres y con otros componentes ¿Por qué no fabricar de una vez todo el conjunto de material semiconductor y aislante, interconectado internamente para que cumpliera la misma función del sistema total?
Este planteamiento fue desarrollado en la práctica simultáneamente, pero en forma independiente, por dos empresas muy importantes en la historia de la electrónica que son: Fairchild semicondutor y Texas Instruments.
En Fairchild dirigía el equipo de trabajo Robert Noyce y en Texas Jack Kilby.
Noyce renunció a la fairchild en 1968 y fundó en compañía de Gordon Moore y Andrew Rock, la empresa Intel, en donde se dieron los primeros pasos para el desarrollo del microprocesador. Esta compañía empezó a vislumbrar un gran mercado en el área de las computadoras y su investigación, orientándose hacia el reemplazo de los circuitos de memoria magnéticas con núcleo de ferrita, por circuitos de memoria basados en semiconductores. La base técnica consistió en el uso de un simple flip-flop como elemento de memoria. Así se creó el primer circuito de memoria RAM llamado el 1103, con una capacidad de 1024 Bits.
El diseño del microprocesador se inició en un grupo de trabajo de Intel dirigido por Ted Hoff, un brillante ingeniero egresado de la Universidad de Stanford. Todo empezó cuando Intel firmó un contrato con una compañía japonesa (Busicom Corporation), fabricante de calculadoras. Esta quería que se le fabricara un conjunto de circuitos integrados que reemplazan la gran cantidad de componentes que tenían las calculadoras de ese entonces.
Después de un largo trabajo, se llegó a lograr que todo el circuito fuera reemplazado por tres chips, pero estos resultaron ser de un tamaño mayor de acuerdo a los requisitos exigidos. A Hoff se le ocurrió que debía agrupar toda la parte del proceso aritmético y lógico en un sólo circuito y el resto de la calculadora en los otros dos circuitos. Con la intervención de otro diseñador, Federico Faggin, el proyecto se llevó a cabo con todo éxito. A este circuito de 2.250 elementos integrados en un área de 3 x 4 milímetros, recibió entonces su nombre, microprocesador. También se le dio el nombre de CPU (Central Processing Unit) o MPU (Micro Processing Unit).
Aunque este circuito tenía ya muchas de las características de una unidad central de proceso integrada, el primer microprocesador en un solo chip, fabricado como tal, fue el 4004 de Intel, diseñado para reemplazar grandes cantidades de circuitos integrados TTL. El 4004 era un chip muy sencillo que manipulaba datos de cuatro bits. Intel desarrolló muy pronto, en 1972, el 8008, el cual podía procesar datos de ocho bits, pero era muy lento.
Para remediar esto, Intel desarrolló un sustituto, el 8080, y posteriormente el 8085 compatible con el primero, con funciones adicionales y menos circuitos de soporte. Un equipo de diseñadores que antes había trabajado para Intel en el 8080 formó la Zilog Inc, y construyó el microprocesador Z-80, el cual incorporaba un conjuntode instrucciones más extensos que el 8080, aunque era compatible con este último. Este microporcesador ha sido uno de los más utilizados en el campo de control.
Por la misma época en que se presentaba al mercado el 8080, otra empresa de semiconductores, Motorola, desarrolló el 6800, un microprocesador de 8 bits con un diseño completamente distinto pero con iguales características. Motorola perfeccionó el 6800 hacia el 6809, considerado como uno de los mejores procesadores de 8 bits de todas las épocas.
A pesar de sus excelentes características, el 6809 no tuvo el éxito comercial que se esperaba. Dicho éxito lo obtuvo otro derivado del 6800: el 6502, producido por MOS Technology. Con este microprocesador se fabricaron las primeras computadoras personales como la PET de Commodorre y la Apple II de Apple Computer Inc.
A partir de ese momento, se estableció una guerra técnica y comercial que, aún subsiste entre Intel y Motorola, la cual los ha llevado a ser los dos grandes líderes indiscutibles del mercado de microprocesadores. Pero el desarrollo del microprocesador no se quedó ahí. A principios de la década de los 80 empezaron a aparecer los microprocesadores de 16 bits, mucho más potentes. El primero en salir al mercado fue el 8086 de Intel en 1978, el cual fue adoptado por la IBM para la fabricación de su famosa IBM PC. Lo siguieron de cerca el 68000, el 68020, el 68030 y el 68040 de Motorola. Con estos microprocesadores se inició en Apple una nueva familia de microcomputadores: la Macintosh luego, en un consorcio entre Apple, IBM y Motorola se desarrolló una nueva familia de microprocesadores: Los Power PC, los cuales se utilizan en las computadoras Apple e IBM actuales.
Por los lados de Intel se desarrollaron: el 8088 utilizado en el IBM XT, 80286 utilizado para la IBM AT, 80386, 80486 y  los Pentium.
Todos estos microprocesadores de Intel han sido utilizados para la fabricación de microcomputadoras de bajo costo llamadas Clones, lo que ha hecho que esta empresa siga siendo el mayor fabricante de microprocesadores en el mundo.
La siguiente generación fueron los Pentium II, Pentium III y los Pentium IV con los cuales se han logrado velocidades de procesamiento impresionantes y una enorme capacidad de memoria, lo que los hace apropiados para moverse sin problemas en entornos como internet, video, multimedia, procesamiento de datos y trabajo en tiempo real.

Partes de un Microprocesador
En un micro podemos diferenciar diversas partes:


El encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base.

La memoria caché: una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que previsiblemente, serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de espera.
Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2.


El coprocesador matemático: o, más correctamente, la FPU (Floating Point Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase de cálculos matemáticos; antiguamente estaba en el exterior del micro, en otro chip.
El resto del micro: el cual tiene varias partes (unidad de enteros, registros, etc.).

¿Cómo se mide la velocidad de los procesadores?
Debe tenerse en cuenta que un ordenador con un micro a 600 MHz no será nunca el doble de rápido que uno con un micro a 300 MHz, hay que tener muy en cuenta otros factores como la velocidad de la placa o la influencia de los demás componentes.
Esto no se tiene apenas en cuenta en el índice iCOMP, una tabla o gráfico de valores del supuesto rendimiento de los micros marca Intel. Es muy utilizado por Intel en sus folletos publicitarios, aunque no es en absoluto representativo del rendimiento final de un ordenador con alguno de esos micros.
En realidad, las diferencias están muy exageradas, a base de realizar pruebas que casi sólo dependen del micro (y no de la placa base, la tarjeta de vídeo, el disco duro...), por lo que siempre parece que el rendimiento del ordenador crecerá linealmente con el número de MHz, cosa que no ocurre prácticamente jamás. Un ordenador con Pentium MMX a 233 MHz es sólo un 3 ó 4% mejor que uno a 200 MHz, y no el 16,5% de su diferencia de MHz ni el 11,5% de sus índices iCOMP. Parecerá increíble, pero es así.

Tipos de conexión
El rendimiento que dan los microprocesadores, no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas.
De esta manera la evolución de los microprocesadores a sido de forma vertiginosa, pero a pesar de eso, en estos días sólo conocemos 2 o 3 fabricantes o marca de procesadores, lo cual reduce el mercado.         Podemos hablar de las siguientes marcas de procesadores en todo el mundo y sabremos que por lo menos 2 de ellas serán reconocidas de inmediato.
Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador.
Hay de diferentes tipos:
Socket  423 y 478. En ellos se insertan los nuevos Pentiums 4 de Intel. El primero hace referencia al modelo de 0,18 micras y el segundo al construido según la tecnología de 0,13 micras. Esa longitud hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía.
Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon en sus versiones más nuevas:
Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para configuraciones económicas)
Athlon Thunderbird (versión normal, con un tamaño variable de la memoria caché, normalmente 384 Kb)
Athlon XP (con el nuevo núcleo Palomino, este procesador es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2).
Ahlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede gestiona de forma diferente el acceso a la memoria al hora de tener que compartirla con otros micros, lo cual le hace idóneo para configuraciones multiprocesador.
Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.
Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido (por ejemplo).
Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día.
Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.
Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive.
En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.