martes, 30 de agosto de 2011

tarjeta de expancion

Las tarjetas de expansión son dispositivos con diversos circuitos integrados, y controladores que, insertadas en sus correspondientes ranuras de expansión, sirven para ampliar las capacidades de un ordenador. Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos. Por lo general, se suelen utilizar indistintamente los términos «placa» y «tarjeta» para referirse a todas las tarjetas de expansión.
En la actualidad las tarjetas suelen ser de tipo PCI, PCI Express o AGP. Como ejemplo de tarjetas que ya no se utilizan tenemos la de tipo Bus ISA.
Gracias al avance en la tecnología USB y a la integración de audio, video o red en la placa base, hoy en día son menos imprescindibles para tener un PC completamente funcional.
historia
El primer microordenador en ofrecer un bus de tarjeta tipo ranura fue el Altair 8800, desarrollado en 1974-1975. Inicialmente, las implementaciones de este bus eran de marca registrada (como Apple II y Macintosh), pero en 1982 fabricantes de computadoras basadas en el Intel 8080/Zilog Z80 que ejecutaban CP/M ya habían adoptado el estándar S-100. IBM lanzó el bus XT, con el primer IBM PC en 1981; se llamaba entonces el bus PC, ya que el IBM XT, que utilizaba el mismo bus (con una leve excepción) no se lanzó hasta 1983. XT (también denominado ISA de 8 bits) fue reemplazado por ISA (también denominado ISA de 16 bits), conocido originalmente como el bus AT, en 1984. El bus MCA de IBM, desarrollado para el PS/2 en 1987, competía con ISA, pero cayó en desgracia debido a la aceptación general de ISA de parte de la industria, y la licencia cerrada que IBM mantenía sobre MCA. EISA, la versión extendida de 32 bits abogada por Compaq, era común en las placas base de los PC hasta 1997, cuando Microsoft lo declaró un «subsistema heredado» en el libro blanco industrial PC 97. VESA Local Bus, un bus de expansión al principio de los 1990 que estaba ligado intrínsecamente a la CPU 80486, se volvió obsoleto (además del procesador) cuando Intel lanzó la CPU Pentium en 1993.
El bus PCI se lanzó en 1991 para reemplazar a ISA. El estándar (ahora en la versión 3.0) se encuentra en las placas base de los PC aun hoy en día. Intel lanzó el bus AGP en 1997 como una solución dedicada de aceleración de video. Aunque se denominaba un bus, AGP admite una sola tarjeta a la vez. A partir de 2005, PCI Express ha estado reemplazando a PCI y a AGP. Este estándar, aprobado en 2004, implementa el protocolo lógico PCI a través de una interfaz de comunicación en serie.
Después del bus S-100, este artículo sólo menciona buses empleados en PCs compatibles con IBM/Windows-Intel. La mayoría de las otras líneas de computadoras que no eran compatibles con IBM, inclusive las de Tandy, Commodore, Amiga y Atari, ofrecían sus propios buses de expansión. Aun muchas consolas de videojuegos, tales como el Sega Genesis, incluían buses de expansión; al menos en el caso del Genesis, el bus de expansión era de marca registrada, y de hecho las ranuras de cartucho de la muchas consolas que usaban cartuchos (excepto el Atari 2600) calificarían como buses de expansión, ya que exponían las capacidades de lectura y escritura del bus interno del sistema. No obstante, los módulos de expansión conectados a esos interfaces, aunque eran funcionalmente iguales a las tarjetas de expansión, no son técnicamente tarjetas de expansión, debido a su forma física.
Para sus modelos 1000 EX y 1000 HX, Tandy Computer diseñó la interfaz de expansión PLUS, una adaptación de las tarjetas del bus XT con un factor de forma más pequeño. Porque es eléctricamente compatible con el bus XT (también denominado ISA de 8 bits o XT-ISA), un adaptador pasivo puede utilizarse para conectar tarjetas XT a un conector de expansión PLUS. Otra característica de tarjetas PLUS es que se pueden apilar. Otro bus que ofrecía módulos de expansión capaces de ser apilados era el bus «sidecar» empleado por el IBM PCjr. Éste pudo haber sido eléctricamente igual o similar al bus XT; seguramente poseía algunas similitudes ya que ambos esencialmente exponían los buses de dirección y de datos de la CPU 8088, con búferes y preservación de estado, la adición de interrupciones y DMA proveídos por chips complementarios de Intel, y algunas líneas de detección de fallos (corriente idónea, comprobación de Memoria, comprobación de Memoria E/S). Otra vez, PCjr sidecars no son técnicamente tarjetas de expansión, sino módulos de expansión, con la única diferencia siendo que el sidecar es una tarjeta de memoria envuelta en una caja de plástico (con agujeros que exponen los conectores).
tipos:
  Dependiendo la función de cada una, es posible clasificarlas de la siguiente manera (por supuesto no se descarta la existencia de mas tipos), sin embargo las mas utilizadas son las siguientes que se enlistan en las ligas:

La historia de la tarjeta de expansión

El primer microordenador en ofrecer un bus de tarjeta tipo ranura fue el Altair 8800, desarrollado en 1974-1975. Inicialmente, las implementaciones de este bus eran de marca registrada (como Apple II y Macintosh), pero en 1982 fabricantes de computadoras basadas en el Intel 8080/Zilog Z80 que ejecutaban CP/M ya habían adoptado el estándar S-100. IBM lanzó el bus XT, con el primer IBM PC en 1981; se llamaba entonces el bus PC, ya que el IBM XT, que utilizaba el mismo bus (con una leve excepción) no se lanzó hasta 1983. XT (también denominado ISA de 8 bits) fue reemplazado por ISA (también denominado ISA de 16 bits), conocido originalmente como el bus AT, en 1984. El bus MCA de IBM, desarrollado para el PS/2 en 1987, competía con ISA, pero cayó en desgracia debido a la aceptación general de ISA de parte de la industria, y la licencia cerrada que IBM mantenía sobre MCA. EISA, la versión extendida de 32 bits abogada por Compaq, era común en las placas base de los PC hasta 1997, cuando Microsoft lo declaró un «subsistema heredado» en el libro blanco industrial PC 97. VESA Local Bus, un bus de expansión al principio de los 1990 que estaba ligado intrínsecamente a la CPU 80486, se volvió obsoleto (además del procesador) cuando Intel lanzó la CPU Pentium en 1993.
El bus PCI se lanzó en 1991 para reemplazar a ISA. El estándar (ahora en la versión 3.0) se encuentra en las placas base de los PC aun hoy en día. Intel lanzó el bus AGP en 1997 como una solución dedicada de aceleración de video. Aunque se denominaba un bus, AGP admite una sola tarjeta a la vez. A partir de 2005, PCI Express ha estado reemplazando a PCI y a AGP. Este estándar, aprobado en 2004, implementa el protocolo lógico PCI a través de una interfaz de comunicación en serie.
Después del bus S-100, este artículo sólo menciona buses empleados en PCs compatibles con IBM/Windows-Intel. La mayoría de las otras líneas de computadoras que no eran compatibles con IBM, inclusive las de Tandy, Commodore, Amiga y Atari, ofrecían sus propios buses de expansión. Aun muchas consolas de videojuegos, tales como el Sega Genesis, incluían buses de expansión; al menos en el caso del Genesis, el bus de expansión era de marca registrada, y de hecho las ranuras de cartucho de la muchas consolas que usaban cartuchos (excepto el Atari 2600) calificarían como buses de expansión, ya que exponían las capacidades de lectura y escritura del bus interno del sistema. No obstante, los módulos de expansión conectados a esos interfaces, aunque eran funcionalmente iguales a las tarjetas de expansión, no son técnicamente tarjetas de expansión, debido a su forma física.
Para sus modelos 1000 EX y 1000 HX, Tandy Computer diseñó la interfaz de expansión PLUS, una adaptación de las tarjetas del bus XT con un factor de forma más pequeño. Porque es eléctricamente compatible con el bus XT (también denominado ISA de 8 bits o XT-ISA), un adaptador pasivo puede utilizarse para conectar tarjetas XT a un conector de expansión PLUS. Otra característica de tarjetas PLUS es que se pueden apilar. Otro bus que ofrecía módulos de expansión capaces de ser apilados era el bus «sidecar» empleado por el IBM PCjr. Éste pudo haber sido eléctricamente igual o similar al bus XT; seguramente poseía algunas similitudes ya que ambos esencialmente exponían los buses de dirección y de datos de la CPU 8088, con búferes y preservación de estado, la adición de interrupciones y DMA proveídos por chips complementarios de Intel, y algunas líneas de detección de fallos (corriente idónea, comprobación de Memoria, comprobación de Memoria E/S). Otra vez, PCjr sidecars no son técnicamente tarjetas de expansión, sino módulos de expansión, con la única diferencia siendo que el sidecar es una tarjeta de memoria envuelta en una caja de plástico (con agujeros que exponen los conectores).

    memoria ram

    se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Memoria de acceso aleatorio o RAM (Random Access Memory) es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. El acceso a las posiciones de almacenamiento se puede realizar en cualquier orden. 
    Los chips de memoria son pequeños rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es muchísimo más rápida, y que se borra al apagar el ordenador, no como éstos.
    El interior de cada chip se puede imaginar como una matriz o tabla en la cual cada celda es capaz de almacenar un bit. Por tanto, un bit se puede localizar directamente proporcionando una fila y una columna de la tabla. En realidad, la CPU identifica cada celda mediante un número, denominado dirección de memoria. A partir de una dirección se calcula cuál es la fila y columna correspondiente, con lo que ya se puede acceder a la celda deseada. El acceso se realiza en dos pasos: primero se comunica la fila y después la columna empleando los mismos terminales de conexión. Obviamente, esta técnica –denominada multiplexado– permite emplear menos terminales de conexión para acceder a la RAM, lo que optimiza la relación entre el tamaño del chip y la capacidad de almacenamiento.
    Realmente, la CPU no suele trabajar con bits independientes, sino más bien con agrupaciones de los mismos, en forma de palabras binarias. Esto hace que la RAM no se presente en un solo chip, sino más bien en agrupaciones de los mismos. Por ejemplo, un grupo de 8 chips, cada uno capaz de almacenas x bits, proporcionará en conjunto x Kb.
    La memoria no deja de ser un circuito electrónico real, y por tanto está expuesta a efectos que pueden producir errores en su contenido. En otras palabras, tras escribir una palabra en una posición de memoria es perfectamente posible que algún bit cambie de estado durante el tiempo que permanezca almacenada. Si se accede de nuevo a la memoria para leer dicha palabra se recuperará información errónea y esto puede acarrear todo tipo de consecuencias. Para ello se suelen emplear dos soluciones: la paridad y la técnica ECC (Error Correction Code). El elemento que implementa estos métodos se encuentra en el interior del PC y recibe el nombre de controlador de memoria.
    La paridad consiste en añadir un bit adicional a cada palabra, que hace que el número de unos sea par o impar (según se emplee la paridad par o impar). Si al leer información de la memoria el bit de paridad no está de acuerdo con el número de unos se habrá detectado un error.
    El sistema ECC añade un conjunto de bits a cada palabra a almacenar. La ventaja es que permite detectar errores en varios bits y además es capaz de corregir dichos errores. Estas técnicas implican añadir bits adicionales y por tanto tendrán impacto en la cantidad de memoria incorporada en cada módulo.
    Características de la memoria principal (RAM)
    Un sistema de memoria se puede clasificar en función de muy diversas características. Entre ellas podemos destacar las siguientes: localización de la memoria, capacidad, método de acceso y velocidad de acceso. En el caso de la memoria RAM (también denominada memoria principal o primaria) se puede realizar la siguiente clasificación:
    Localización: Interna (se encuentra en la placa base)
    Capacidad: Hoy en día no es raro encontrar ordenadores PC equipados con 64, 128 ó 256 Mb de memoria RAM.
    Método de acceso: La RAM es una memoria de acceso aleatorio. Esto significa que una palabra o byte se puede encontrar de forma directa, sin tener en cuenta los bytes almacenados antes o después de dicha palabra (al contrario que las memorias en cinta, que requieren de un acceso secuencial). Además, la RAM permite el acceso para lectura y escritura de información.
    Velocidad de acceso: Actualmente se pueden encontrar sistemas de memoria RAM capaces de realizar transferencias a frecuencias del orden de los Gbps (gigabits por segundo). También es importante anotar que la RAM es una memoria volátil, es decir, requiere de alimentación eléctrica para mantener la información. En otras palabras, la RAM pierde toda la información al desconectar el ordenador.
    Hemos de tener muy en cuenta que esta memoria es la que mantiene los programas funcionando y abiertos, por lo que al ser Windows 95/98/Me/2000 un sistema operativo multitarea, estaremos a merced de la cantidad de memoria RAM que tengamos dispuesta en el ordenador. En la actualidad hemos de disponer de la mayor cantidad posible de ésta, ya que estamos supeditados al funcionamiento más rápido o más lento de nuestras aplicaciones diarias. La memoria RAM hace unos años era muy cara, pero hoy en día su precio ha bajado considerablemente.

    Cuando alguien se pregunta cuánta memoria RAM necesitará debe sopesar con qué programas va a trabajar normalmente. Si únicamente vamos a trabajar con aplicaciones de texto, hojas de cálculo y similares nos bastará con unos 32 Mb de ésta (aunque esta cifra se ha quedado bastante corta), pero si trabajamos con multimedia, fotografía, vídeo o CAD, por poner un ejemplo, hemos de contar con la máxima cantidad de memoria RAM en nuestro equipo (128-256 Mb o más) para que su funcionamiento sea óptimo, ya que estos programas son auténticos devoradores de memoria. Hoy en día no es recomendable tener menos de 64 Mb, para el buen funcionamiento tanto de Windows como de las aplicaciones normales, ya que notaremos considerablemente su rapidez y rendimiento, pues generalmente los equipos actuales ya traen 128 Mb o 256 Mb de RAM.
    Según los tipos de conectores que lleve la memoria, al conjunto de éstos se les denominan módulos, y éstos a su vez se dividen en:

    • SIMM (Single In-line Memory Module): Pequeña placa de circuito impreso con varios chips de memoria integrados. Se fabrican con diferentes velocidades de acceso capacidades (4, 8, 16, 32, 64 Mb) y son de 30 ó 72 contactos. Se montan por pares generalmente.
    • DIMM: Son más alargados, cuentan con 168 contactos y llevan dos muescas para facilitar su correcta colocación. Pueden montarse de 1 en 1.
    Respecto a las características básicas de cualquier módulo de memoria hemos de fijarnos, principalmente, en el tipo de memoria utilizada, el tipo de módulo (30, 70 ó 168 contactos), la capacidad total ofrecida y el tiempo medio de acceso que ofrece, que es el tiempo que transcurre desde que se solicita el dato almacenado en una determinada dirección de memoria hasta que el chip ofrece el dato solicitado. Evidentemente, cuanto menor sea este número mejores prestaciones obtendremos. Las antiguas memorias SIMM ofrecían cifras entre 70 u 80 nanosegundos y las modernas DIMM SDRAM tiempos inferiores a 10 nanosegundos. Esta diferencia de velocidad permite que el procesador no deba sufrir tiempos de espera innecesarios desde que solicita un dato hasta que lo recibe para poder realizar la operación.
    Los principales tipos de memoria RAM utilizadas en nuestros ordenadores se dividen en DRAM, SRAM y Tag RAM. Así, la memoria DRAM (Dynamic Random Access Memory) es la que montan las placas base como memoria principal del sistema, donde se almacenan las aplicaciones en ejecución y los datos que es están gestionando en cada momento. Se refresca cientos de veces por segundo y cuanto mayor cantidad pongamos a disposición del PC mejores resultados obtendremos.
    Tipos de memoria DRAM
    • FPM (Fast Page Mode): Memoria muy popular, ya que era la que se incluía en los antiguos 386, 486 y primeros Pentium. Alcanza velocidades de hasta 60 ns. Se encuentra en los SIMM de 30 contactos y los posteriores de 72.
    • EDO (Extended Data Output): La memoria EDO, a diferencia de la FPM que sólo podía acceder a un solo byte al tiempo, permite mover un bloque completo de memoria a la memoria caché del sistema, mejorando así las prestaciones globales. De mayor calidad, alcanza velocidades de hasta 45 ns. Se encuentra en los Pentium, Pentium Pro y primeros Pentium II en SIMM de 72 contactos y en los primeros DIMM de 168 contactos, funcionando a 5 y 3,3 voltios.
    • BEDO (Burst Extended Data Output): Diseñada originalmente para los chipset HX, permite transferir datos al procesador en cada ciclo de reloj, aunque no de forma continuada, sino a ráfagas, reduciendo los tiempos de espera del procesador, aunque sin conseguir eliminarlos del todo.
    • SDRAM (Synchronous DRAM): Memoria asíncrona que se sincroniza con la velocidad del procesador, pudiendo obtener información en cada ciclo de reloj, evitando así los estados de espera que se producían antes. La SDRAM es capaz de soportar las velocidades del bus a 100 y 133 MHz, alcanzando velocidades por debajo de 10 ns. Se encuentra en la práctica mayoría de los módulos DIMM de 168 contactos.
    • PC-100 DRAM: Es un tipo de memoria SDRAM que cumple unas estrictas normas referentes a calidad de los chips y diseño de los circuitos impresos establecidas por Intel. El objetivo es garantizar un funcionamiento estable en la memoria RAM  a velocidades de bus de 100 MHz.
    • PC-133 DRAM: Muy parecida a la anterior y de grandes exigencias técnicas para garantizar que el módulo de memoria que la cumpla funcione correctamente a las nuevas velocidades de bus de 133 MHz que se han incorporado a los últimos Pentium III.
    • DRDRAM (Direct Rambus DRAM): Es un tipo de memoria de 64 bits que alcanza ráfagas de 2 ns, picos de varios Gbytes/sg y funcionan a velocidades de hasta 800 MHz. Es el complemento ideal para las tarjetas gráficas AGP, evitando los cuellos de botella entre la tarjeta gráfica y la memoria principal durante el acceso directo a memoria para el manejo de las texturas gráficas.
    • DDR SDRAM (Double Data Rate SDRAM o SDRAM II): Un tipo de memoria SDRAM mejorada que podía alcanzar velocidades de hasta 200 MHz. Cuenta con mecanismos para duplicar las prestaciones obtenidas a la velocidad del reloj del sistema. Fue soportada por ciertos chipset Socket 7, pero al no ser apoyada por Intel no está demasiado extendida.
    • ESDRAM (Enhanced SDRAM): Incluye una pequeña memoria estática en el interior del chip SDRAM. Con ello, las peticiones de ciertos accesos pueden ser resueltas por esta rápida memoria, aumentando las prestaciones. Se basa en un principio muy similar al de la memoria caché utilizada en los procesadores.
    • SLDRAM (SyncLink DRAM): Se basa, al igual que la DRDRAM, en un protocolo propietario, que separa las líneas CAS, RAS y de datos. Los tiempos de acceso no dependen de la sincronización de múltiples líneas, por lo que este tipo de memoria promete velocidades superiores a los 800 MHz, ya que además puede operar al doble de velocidad del reloj del sistema.
    Memoria SRAM
    Es la abreviatura de Static Random Access Memory y es la alternativa a la DRAM. No precisa de tanta electricidad como la anterior para su refresco y movimiento de las direcciones de memoria, por lo que funciona más rápida, aunque tiene un elevado precio. Hay de tres tipos:
    • Async SRAM: La memoria caché de los antiguos 386, 486 y primeros Pentium, asíncrona y con velocidades entre 20 y 12 ns.
    • Sync SRAM: Es la generación siguiente, capaz de sincronizarse con el procesador y con una velocidad entre 12 y 8,5 ns.
    • Pipelined SRAM: Se sincroniza también con el procesador, pero tarda en cargar los datos más que la anterior, aunque una vez cargados accede a ellos con más rapidez. Opera a velocidades entre 8 y 4,5 ns.
    Memoria Tag RAM
    este tipo de memoria almacena las direcciones de memoria de cada uno de los datos de la DRAM almacenados en la memoria caché del sistema. Así, si el procesador requiere un dato y encuentra su dirección en la Tag RAM, va a buscarlo inmediatamente a la caché, lo que agiliza el proceso.

    procesador

    Microprocesador informático o simplemente procesador, un circuito integrado que contiene todos los elementos de la CPU.
    Historia

    El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).

    Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.

    Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.

    Ahora los nuevos microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador.

    Antecedentes

    Entre estas evoluciones podemos destacar estos hitos:

    * ** ENIAC (Electronic Numeric Integrator And Calculator) Fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.
    * ** EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.
    * ** El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces.
    * ** El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.
    * ** El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se considera el primer supercomputador.
    * ** El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar, propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1.

    Avances

    Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los primeros procesadores gran parte de estos estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto con el gran número de transistores por microprocesador (debido en parte al uso de memorias caché) es lo que hace que se necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centímetros cúbicos.
    Intel 4004
    Intel 4004
    Zilog Z80
    Zilog Z80
    Motorola 68000
    Motorola 68000
    Microprocesador Intel 80486DX2.
    Microprocesador Intel 80486DX2.

    Evolución del microprocesador

    * ** 1971: Intel 4004. Nota: Fue el primer microprocesador comercial. Salió al mercado el 15 de noviembre de 1971.
    * ** 1974: Intel 8008
    * ** 1975: Signetics 2650, MOS 6502, Motorola 6800
    * ** 1976: Zilog Z80
    * ** 1978: Intel 8086, Motorola 68000
    * ** 1979: Intel 8088
    * ** 1982: Intel 80286, Motorola 68020
    * ** 1985: Intel 80386, Motorola 68020, AMD80386
    * ** 1987: Motorola 68030
    * ** 1989: Intel 80486, Motorola 68040, AMD80486
    * ** 1993: Intel Pentium, Motorola 68060, AMD K5, MIPS R10000
    * ** 1995: Intel Pentium Pro
    * ** 1997: Intel Pentium II, AMD K6, PowerPC G3, MIPS R120007
    * ** 1999: Intel Pentium III, AMD K6-2, PowerPC G4
    * ** 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, MIPS R14000
    * ** 2003: PowerPC G5
    * ** 2004: Intel Pentium M
    * ** 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon 64 X2, AMD Sempron 128.
    * ** 2006: Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX
    * ** 2007: Intel Core 2 Quad, AMD Quad Core, AMD Quad FX
    * ** 2008: Procesadores Intel y AMD con más de 8 núcleos.


    Partes lógicas


    La Unidad Central de Procesamiento (CPU) es el cerebro del ordenador. Su función es ejecutar programas almacenados en la memoria RAM tomando sus instrucciones, examinándolas y luego ejecutándolas una tras otra. La CPU se compone de varias partes:

    • Unidad de Control: Es la encargada de activar o desactivar los diversos componentes del microprocesador en función de la instrucción que el microprocesador esté ejecutando y en función también de la etapa de dicha instrucción que se esté ejecutando.La unidad de control (UC) interpreta y ejecuta las instrucciones almacenadas en la memoria principal y genera las señales de control necesarias para ejecutarlas.
    • Unidad Aritmética y Lógica: Es la que se encargará de realizar todas las operaciones que transforman los datos, en especial operaciones matemáticas como la suma y la resta y tomar decisiones lógicas.El coprocesador matemático: o, más correctamente, la FPU (Floating Point Unit, Unidad de coma Flotante).
    • Los registros: El procesador necesita para su funcionamiento de ciertas áreas de almacenamiento de forma temporal , durante la ejecución de las instrucciones, que aquí se llaman registros, y que son de dimensiones mínimas ; sin embargo, tienen la ventaja de ser extremadamente rápidos. Comparados con los accesos a RAM, los de registro son como mínimo 10 veces más veloces.

    Partes físicas


    • El encapsulado: Es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (ejemplo por oxidación) y permitir un enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base.
    • Zócalo: Es el lugar en donde se inserta el procesador, efectuando una conexión entre el y el resto del equipo. Cada familia de microprocesadores necesita un zócalo distinto, por diferencias físicas entre marcas. Aparte del zócalo , el procesador también necesita un tipo determinado de placa “base o madre” acorde a sus características.
    • Chipset: El "chipset" (conjunto de circuitos integrados) es el conjunto (set) de chips que se encarga de controlar determinadas funciones del ordenador, como la forma en que trabajará el microprocesador con la memoria o la caché, o el control de puertos PCI, AGP, USB...
    • Memoria Caché: Es la parte en donde se almacenan datos que se usan muy frecuentemente, con el motivo de evitar el tener que pedirlos constantemente a la memoria principal,acelerando el acceso a otros 
    Básicamente un procesador realiza comparaciones lógicas y operaciones básicas sobre datos que se pueden encontrar en la Memoria RAM, Caché, registros de CPU, etc. Utilizando compuertas lógicas, registros y las instrucciones o Flips Flops.

    El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal . La ejecución se puede realizar en varias fases:

    • PreFetch, Pre lectura de la instrucción desde la memoria principal.
    • Fetch, envio de la instrucción al decodificador (una parte de la CPU).
    • Decodificación de instrucción, es decir determinar que instrucción es y por tanto que se debe hacer.
    • Lectura de operandos (si los hay).
    • Ejecución de la microinstrucción.
    • Escritura de los resultados, primero en el registro acumulador y después en la memoria RAM si fuera necesario.

    Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (en un solo ciclo) de mayor tiempo. El microprocesador se conecta a un oscilador que genera varios ciclos en un segundo.

    Las instrucciones que lee, interpreta y ejecuta el procesador están escritas en su propio lenguaje, el lenguaje-máquina. También se utiliza un lenguaje de más alto nivel el ensamblador. Cada modelo de procesador tiene su propio lenguaje-máquina y necesita su propio ensamblador, es decir, las instruciones de los AMD e Intel serán distintas.

    caracteristicas principales:

    Velocidad

    Actualmente se habla de frecuencias de Gigaherzios (GHz.), o de Megaherzios (MHz.). Lo que supone miles de millones o millones, respectivamente, de ciclos por segundo.

    Sin embargo, la capacidad de un procesador no se puede medir solamente en función de su 'frecuencia de reloj', sino que interviene también la cantidad de instrucciones que es capaz de gestionar a la vez ('juego de instrucciones'), y lo que se conoce como 'ancho de bus' (cantidad máxima de información en bruto transmisible) que se mide en bits. Un bit es una pareja del tipo '0/0', '0/1', '1/1' o '1/0' en el código binario: cuantos más bits admita el 'ancho de bus', códigos más largos de ceros y unos se pueden procesar. Esta capacidad viene determinada por el número de transistores, pero también por los sucesivos niveles de memoría que se sitúan cerca de la CPU.

    El indicador de la frecuencia de un microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a cabo una tarea concreta, así como la cantidad de instrucciones ejecutadas por ciclo ICP
    Son los otros dos factores que determinan la velocidad de la CPU:
    La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible, mientras que ICP depende de varios factores, como el grado de supersegmentación
    La cantidad de unidades de proceso o "pipelines" disponibles, entre otros. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones.

    Las memorias

    En el pasado, los procesadores contaban sólo con la memoria RAM para almacenar la información de las órdenes que se iban pasando sucesivamente al procesador; llegó un momento en que los procesadores eran más potentes que la memoría RAM. Es decir, que ésta les podía pasar de golpe menos información de la que ellos podían gestionar, con lo que el procesador estaba ampliamente desaprovechado
    Para solucionar este desfase se diseñaron las 'memorias caché', estableciendo así dos niveles consecutivos de memoria entre la CPU y la memoria RAM.

    Junto a la CPU, y en orden creciente de distancia respecto a la misma, se sitúan tres unidades o niveles de memoría. La 'memoria caché de primer nivel' (L1), la 'memoria caché externa' (L2) y la memoria RAM.
    La 'caché interna', o de 'primer nivel', es la que determina los datos que el procesador gestionará más inmediatamente, los prioritarios en la cola; su capacidad para almacenar datos es la que define, junto a la 'frecuencia de reloj' y la capacidad de la memoria RAM, la potencia del procesador, puesto que es la que surte el chorro de datos a la CPU.
    Hasta hace pocos años su capacidad era de 32 Kilobytes (aproximadamente 8 bits son un byte), pero los actuales procesadores la han aumentado a 64 Kilobytes. Estos son los datos que la caché de primer nivel es capaz de propocionar a la CPU en cada oscilación. Es, por tanto, una memoria corta y de alta capacidad de transmisión.

    La 'caché de segundo nivel' tiene una capacidad de gestionar muy superior (entre 256 Kilobyes y 2 Megabytes), pero muy inferior a la memoria RAM, la más alejada, que actualmente se sitúa entre los 500 Megabytes y un Gigabyte. Esta capacidad es tan importante como la fluidez de datos entre las memorias, pues limita la capacidad del usuario, o de los programas que éste ejecutando, de dar muchos datos a la vez al procesador.
    Si se está ejecutando un videojuego o un programa con gráficos complejos, se necesitará una memoria RAM de elevada capacidad para almacenar la gran cantidad de instrucciones que conllevan estos programas, e irlas pasando a los sucesivos niveles de memoría para que el procesador las ejecute.

    Todos estos componentes (la CPU y las memorias) van ensamblados sobre una matriz plana conocida como 'placa base', que es la encargada de interconectarlos entre sí. La placa base, finalmente, se capsule rodent de un request cofre. El procesador queda así conformado.

    Consumo

    Procesadores de doble nucleo: Esta nueva tecnología de microprocesadores permite aumentar el rendimiento sin consumir más energía ni generar un exceso de calor.
    Al aumentar el calor, disminuye la eficiencia del procesador en general debido al comportamiento de los transistores a diferentes temperaturas.
    Con el luge de los portátiles, el problema del espacio y de la generality de calor se ha magnificado.
    Los superordenadores actuales son esencialmente series de ordenadores que computan en paralelo.

    Bus de datos

    Los procesadores funcionan con una anchura de banda bus de 64 bits ( un bit es un dígito binario, una unidad de información que puede ser un 1 o un 0 ) esto significa que puede transmitir simultanenente 64 bits de datos

    tarjeta madre

    La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una placa de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar un pc de escritorio u portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
    Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
    La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

    Antecedentes
    La historia de la tarjeta madre, como se conoce actualmente inicia en 1947 cuando William Shockley, Walter Brattain y John Bardeen, científicos de los laboratorios Bell, muestran su invento, el transistor amplificador de punto-contacto, iniciando con esto el desarrollo de la miniaturización de circuitos electrónicos; este es el invento que eventualmente dividiría la historia de las computadoras de la primera y segunda generación.
    Otro invento que contribuyó de manera decisiva a la creación de la tarjeta madre fue el de G. W. Dummer, un experto en radar del Radar Real Británico, que en 1952 presentó una proposición sobre la utilización de un bloque de material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de conexión.
    Fue hasta 1961 cuando Fairchild Semiconductor anuncia el primer circuito integrado comercialmente disponible, iniciando con esto la competencia por la alta integración de componentes en espacios cada vez más reducidos; la miniaturización, y con esto la búsqueda de la computadora en una pastilla.
    Con estos inventos se comienza a trabajar en la computadora en una tarjeta.

    Evolución
    En 1975 se fabrica la primera microcomputadora "de tarjeta única" en Oslo, Noruega en una empresa llamada Norsk Data Industri. Contaba con un microprocesador Intel 8080 y utilizaba el sistema operativo MYCROP, creado por la misma empresa.
    Esta computadora fue sucedida por la Mycron 3, que ya utilizaba CP/M; la Mycron 1000 que contaba con un microprocesador Zilog Z80 y utilizaba MP/M; y finalmente en 1980 llega al mercado la Mycron 2000, que fue la primera en albergar un microprocesador Intel 8086, y utilizaba inicialmente el sistema operativo CP/M-86 y eventualmente el MP/M-86.

    En 1976 MOS Technology presenta la computadora en una sola tarjeta KIM-1. Cuenta con un microprocesador 6501/02* a 1 MHz; 1 kilobyte en RAM, ROM, teclado hexagecimal, pantalla numérica con LEDs, 15 puertos bidireccionales de entrada / salida y una interfaz para casete compacto (casete de audio). Esta computadora fue vendida armada, aunque carecía de fuente de poder.
    La KIM-1 fue producida hasta 1981, convirtiéndose en el primer producto de cómputo de Cómmodore.

    En 1981 IBM lanzó al mercado la primera computadora personal comercialmente exitosa, la IBM 5150, desde entonces el paso de la evolución que ha llevado este mundo de la Informática, ha sido vertiginoso, siempre buscando mayor velocidad y capacidad, al mismo tiempo que se reducían los costes de fabricación y por ende, los precios.
    Con la aparición del primer PC, sale al mercado la primera placa base estándar, la XT, que fuera substituida en poco tiempo, en 1984, apareciendo la AT, que son las siglas en inglés para Tecnología Avanzada, Advanced Technology. Cuyo estándar y configuración siguió vigente hasta principios del presente siglo(XXI), comenzando su declinación en el 2000, frente al exitoso estándar ATX. Las diferencias principales entre estos dos estándares es la arquitectura, ya que el XT posee una arquitectura a 8 bits, mientras que el AT llega a los 16.
    Estas tarjetas usualmente están equipadas con 8 ranuras ISA de 8 bits, 4 hileras de 9 zócalos para expandir la memoria pastilla por pastilla y una hilera por vez, para un total máximo de 1 megabyte en RAM.
    En cuanto a la memoria, esta consta de 4 hileras de 9 zócalos que daban cabida a 1 megabyte en total. Cada hilera recibe 9 pastillas de 32 kilobytes, utilizando una de ellas para paridad y únicamente funcionaba si toda la hilera estaba con sus circuitos correctamente insertados. Todavía no se inventaban las tarjetas de ampliación de memoria.
    De línea tenía cuando menos 3 ranuras ISA utilizadas, una para el controlador de disco duro, otra para la controladora de disquete y otra más para el controlador de video que habitualmente contaba también con un conector centronics para la impresora. Algunos modelos incorporaban una cuarta tarjeta para el puerto serial.
    Estas tarjetas, en su versión básica, únicamente contaban con microprocesador, el zócalo para el coprocesador matemático, que era un circuito independiente; zócalos para la ampliación de memoria, un conector DIN 5 para el teclado, las ranuras ISA de 8 bits, un conector de alimentación y la circuitería y pastillería necesaria para el funcionamiento de la computadora y carecía de funcionalidad útil por sí misma, sin tarjetas de expansión.

    El AT, basado en el estándar IBM PC-AT, fue estándar absoluto durante años, desde los primeros microprocesadores Intel 80286 hasta los primeros Pentium II y equivalentes incluidos.
    Estas tarjetas madre, en sus primeras versiones son de diseño y características elementales; carecen de accesorios integrados limitándose únicamente a los circuitos, componentes y pastillas básicos para su funcionamiento, al igual que las XT.
    Usualmente cuentan únicamente con un conector del teclado DIN de tipo ancho, así como algunas ranuras tipo ISA de 8 y / o 16 bits y en el caso de los modelos más recientes, algunas EISA, VESA y PCI en las que se tenían que insertar las tarjetas de expansión para controlar discos duros, puertos, sonido, etc.
    Durante este período casi todos los accesorios para computadora venían acompañados de una tarjeta controladora que había que instalar y configurar manualmente, ya que la tecnología de estas tarjetas madre no aportaba funciones para conectar y funcionar (Plug & Play), lo que hacía que la instalación, o al menos la configuración de estos dispositivos tuviera que ser realizada por personal calificado que supiera lidiar con los limitados recursos que ofrecía la placa base.
    Estas carencias y limitaciones son las que motivaron que eventualmente se crearan tecnologías de conectar y funcionar así como buses externos de alta velocidad, como lo son el USB o el IEEE1394, para dar cabida a la creciente disponibilidad de accesorios y demanda de recursos.
    Las últimas generaciones de tarjetas madre tipo AT llegaron al mercado integrando la circuitería de control para 4 discos duros, 2 platinas de disquete, sonido de 8 y hasta 128 bits, 2 puertos seriales y 1 paralelo, al menos 2 conectores USB, puerto de video AGP a 64 bits con memoria de video compartida con la RAM del sistema configurable desde 4 hasta 64 megabytes, así como módem a 56Kbps y red ethernet a 10/100 megabits; con lo cual la mayoría de estos modelos ya no requerían de tarjetas de expansión para funcionar a toda su capacidad saliendo de la caja, ya que inclusive algunas traían montado el microprocesador y únicamente se equipaban con una ranura PCI y/o una ISA.

    El formato ATX, promovido por INTEL e introducido al mercado en 1996 comenzó su historia con una serie de debates sobre su utilidad debido principalmente al requerimiento de nuevos diseños de fuente de poder y gabinete.
    El cumplimiento de los estándares ATX permite la colocación de la UCP de forma que no moleste en el posicionamiento de las tarjetas de expansión, por largas que estas sean y está colocada al lado de la fuente de alimentación para recibir aire fresco del ventilador de esta. Se descubren exteriormente porque tiene más conectores, los cuales están agrupados y los conectores de teclado y ratón son tipo PS/2.
    Para 1997, con la llegada al mercado del AGP y el USB, estas tecnologías se incorporaron rápidamente en este estándar.
    Debido las amplias características del ATX salieron al mercado diversas alternativas basadas en el mismo estándar, como el micro ATX, que es una versión reducida en tamaño, y el mini ITX, una versión todavía más compacta y de características de expansión limitadas.
    Otros formatos relativamente comunes basados en el estándar ATX son el LPX y el NLX. El LPX es de tamaño similar a las Baby AT con la particularidad de que las ranuras para las tarjetas se encuentran fuera de la placa base, en un conector especial quedando paralelas a la placa base. El NLX se sujeta a la carcasa mediante un mecanismo de fácil apertura, que permite un cambio rápido de la placa. También sus ranuras de expansión están dispuestas en una placa independiente conectada a la placa base.
    Tarjeta madre Micro ATX para slot 1
    Otra clasificación que se puede hacer de las placas base es atendiendo al zócalo donde va colocado el procesador, pudiendo ser socket 4 o 5 para los primeros Pentium, también conocidos como Pentium Clasico, socket 7 para Pentium MMX, AMD K-6, Cyrix, el socket super7 igual que el anterior pero con bus de 100 Mhz, el socket 8 para Pentium PRO, el slot Uno para la familia del Pentium II y los primeros Pentium III, el slot 2 para el Xeon. Otra característica que diferencia las placas base es la circuitería, también conocida como Chipset, que es el conjunto de circuitos integrados o pastillas que se encargan de enlazar y gestionar los distintos buses de datos que hay en la placa base. La calidad de la circuitería condiciona la de la tarjeta madre y normalmente le da el nombre.
    El primer conjunto de pastillas que se introdujo con el procesador Pentium y se denominaba tipo VX, al que le fueron sucediendo distintos modelos según iban apareciendo nuevos procesadores Pentium. Los de 440 de Intel, en su placa 440 LX, fue la primera con una velocidad frontal de 66MHz, y el 440 BX con una velocidad de 100 Mhz. También existen 440 GX y 450 NX para procesador XEON.

    Características de la tarjeta madre

                - Cada procesador tiene el tipo de tarjeta madre que le sirve (Aunque algunos comparten
              el mismo tipo) traen incorporados los puertos seriales (Ratón, Scanner, etc ), los paralelos
              (Impresora) y la entrada de teclado.
                    Otro dato importante sobre la tarjeta madre es
               - La cantidad y tipo de ranuras que tiene para las tarjetas de expansión y para la memoria
               RAM. Es importante que traiga las ranuras estandar de expansión EISA, PCI.
    Partes de la Tarjeta Madre

    COMPONENTES DE UNA TARJETA MADRE
    FUNCIONES DE UNA TARJETA MADRE
    • Conexión física.
    • Administración, control y distribución de energía eléctrica.
    • Comunicación de datos.
    • Temporización
    • Sincronismo.
    • Control y monitoreo.

    martes, 23 de agosto de 2011

    definicion:
    El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.
    historia:
    Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.
    Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
    Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.
    caracteristicas:
    La característica que principalmente los define es que sus métodos son ejecutados con exclusión mutua.
    componentes:
    Un monitor tiene cuatro componentes: inicialización, datos privados, procedimientos del monitor y cola de entrada.
    • Inicialización: contiene el código a ser ejecutado cuando el monitor es creado
    • Datos privados: contiene los procedimientos privados, que sólo pueden ser usados desde dentro del monitor y no son visibles desde fuera
    • Procedimientos del monitor: son los procedimientos que pueden ser llamados desde fuera del monitor.
    • Cola de entrada: contiene a los hilos que han llamado a algún procedimiento del monitor pero no han podido adquirir permiso para ejecutarlos aún.
    tipos:

     Tipo Hoare

    En la definición original de Hoare, el thread que ejecuta cond_signal le cede el monitor al thread que esperaba. El monitor toma entonces el lock y se lo entrega al thread durmiente, que reanuda la ejecución. Más tarde cuando el monitor quede libre nuevamente el thread que cedió el lock volverá a ejecutar.
    Ventajas:
    • El thread que reanuda la ejecución puede hacerlo inmediatamente sin fijarse si la condición se cumple, porque desde que se ejecutó cond_signal hasta que llegó su turno de ejecutar ningún proceso puede cambiarla.
    • El thread despertado ya estaba esperando desde antes, por lo que podría suponerse que es más urgente ejecutarlo a seguir con el proceso despertante.
    Desventajas:
    • Si el proceso que ejecuta cond_signal no terminó con su ejecución se necesitarán dos cambios de contexto para que vuelva a tomar el lock del monitor.
    • Al despertar a un thread que espera en una variable de condición, se debe asegurar que reanude su ejecución inmediatamente. De otra forma, algún otro thread podría cambiar la condición. Esto implica que la planificación debe ser muy fiable, y dificulta la implementación.

     Tipo Mesa

    Butler W. Lampson y David D. Redell en 1980 desarrollaron una definición diferente de monitores para el lenguaje Mesa que lidia con las desventajas de los monitores de tipo Hoare y añade algunas características.
    En los monitores de Lampson y Redell el thread que ejecuta cond_signal sobre una variable de condición continúa con su ejecución dentro del monitor. Si hay otro thread esperando en esa variable de condición, se lo despierta y deja como listo. Podrá intentar entrar el monitor cuando éste quede libre, aunque puede suceder que otro thread logre entrar antes. Este nuevo thread puede cambiar la condición por la cual el primer thread estaba durmiendo. Cuando reanude la ejecución el durmiente, debería verificar que la condición efectivamente es la que necesita para seguir ejecutando. En el proceso que durmió, por lo tanto, es necesario cambiar la instrucción if por while, para que al despertar compruebe nuevamente la condición, y de no ser cierta vuelva a llamar a cond_wait.
    Además de las dos primitivas cond_wait(c) y cond_signal(c), los monitores de Lampson y Redell poseen la función cond_broadcast(c), que notifica a los threads que están esperando en la variable de condición c y los pone en estado listo. Al entrar al monitor, cada thread verificará la condición por la que estaban detenidos, al igual que antes.
    Los monitores del tipo Mesa son menos propensos a errores, ya que un thread podría hacer una llamada incorrecta a cond_signal o a cond_broadcast sin afectar al thread en espera, que verificará la condición y seguirá durmiendo si no fuera la esperada
    como funcionan:
    muestran las imagenes y lo que queremos ver.