FUENTE DE PODER
Es el componente eléctrico/electrónico que transforma la corriente de la red eléctrica, a través de unos procesos electrónicos en el que se consigue reducir la tensión de entrada a la fuente (220v o 125v) que son los que nos otorga la red eléctrica por medio un transformador en bobina a 5 a 12 voltios, que es lo que necesita nuestro PC.
La corriente que nos ofrece las compañías eléctricas es alterna, o lo que es lo mismo sufre variaciones en su línea de tiempo (picos) .
Como es comprensible, no nos sirve para alimentar a los componentes de un PC, ya que si le estamos dando 12 voltios con corriente alterna a un componente de nuestro PC, no funcionará ya que no es continua.
A través de un componente que se llama puente rectificador o de Graetz,o se logra que el voltaje no baje de 0 voltios, y siempre se mantenga por encima de esta cifra.
Una vez que se dispone de corriente continua, no es suficiente ya no nos serviría para alimentar a ningún circuito.
Seguidamente se pasa a la fase de filtrado, que procede en allanar al máximo la señal, para que no se den oscilaciones (picos), lo cual se consigue por medio de uno o varios condensadores, que retienen la corriente a modo de batería y la suministran constante.
Una vez que tenemos una señal continua solo falta estabilizarla, para que cuando aumente o descienda la corriente de entrada a la fuente, no afecte a la salida de la misma, lo cual se consigue por medio de un regulador.
Las dos tipos de fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX
Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.
Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y son más peligrosas, ya que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el PC.
Las AT son un tanto rudimentarias electrónicamente hablando, si las comparamos tecnológicamente con las ATX
La fuente ATX, siempre está activa, aunque el ordenador no esté funcionando, siempre está alimentada con una tensión pequeña en estado de espera.
Las fuentes ATX dispone de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto nos permite el poder realizar conexiones/desconexiones por software.
En Fuentes AT, se daba el problema de que existían dos conectores a conectar a placa base, con lo cual podía dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un truco muy sencillo, hay que dejar en el centro los cables negros que los dos conectores tienen, así no hay forma posible de equivocarse.
El microprocesador es producto de la evolución de distintas tecnologías predecesoras, surgido de la computación y la tecnología semiconductora; en los inicios no existían los procesadores tal como los conocemos hoy. El inicio de su desarrollo data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 70, produciendo el primer microprocesador.
Tales tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte desarrollo también para propósitos científicos y civiles.
La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido. En 1948 en los laboratorios Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-flops. Ensamblando compuertas y flip-flops en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.
Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria, como una forma de palabra digital. La idea de almacenar programas en memoria para luego ejecutarlo fue de fundamental importancia (Arquitectura de von Neumann).
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital tuvo un gran avance el reemplazo del tubo al vacío por el transistor, a finales de la década de 1950.
A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).
A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.
Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras "Micro" del griego μικρο-, "pequeño", y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a nanométrica; y además, es, sin duda, un procesador.
El primer microprocesador fue el Intel 4004,[1] producido en 1971. Se desarrolló originalmente para una calculadora, y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo, trabajando a una frecuencia de reloj de alrededor de 700KHz.
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz.
El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz.
Los primeros microprocesadores de 16 bits fueron el 8086 y el 8088, ambos de Intel. Fueron el inicio y los primeros miembros de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, en tanto que el 8088 fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.
El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 80 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.
Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz.
El icroprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aun encabezaba la lista de los computadores más rápidos de Estados Unidos.
memoria RAM (Random Access Memory Module o memoria de acceso aleatorio) es un tipo de memoria que utilizan los ordenadores para almacenar los datos y programas a los que necesita tener un rápido acceso. Se trata de una memoria de tipo volátil, es decir, que se borra cuando apagamos el ordenador, aunque también hay memorias RAM no volátiles (como por ejemplo las memorias de tipo flash. Los datos almacenados en la memoria RAM no sólo se borran cuando apagamos el ordenador, sino que tambien deben eliminarse de esta cuando dejamos de utilizarlos (por ejemplo, cuando cerramos el fichero que contiene estos datos).
Estas memorias tienen unos tiempos de acceso y un ancho de banda mucho más rápido que el disco duro, por lo que se han convertido en un factor determinante para la velocidad de un ordenador. Esto quiere decir que, dentro de unos límites, un ordenador irá más rápido cuanta mayor sea la cantidad de memoria RAM que tenga instalada, expresada en MegaBytes o GigaBytes. Los chips de memoria suelen ir conectados a unas plaquitas denominadas módulos, pero no siempre esto ha sido así, ya que hasta los ordenadores del tipo 8086 los chips de memoria RAM estaban soldados directamente a la placa base. Con los ordenadores del tipo 80386 aparecen las primeras memorias en módulos, conectados a la placa base mediante zócalos, normalmente denominados bancos de memoria, y con la posibilidad de ampliarla (esto, con los ordenadores anteriores, era prácticamente imposible). Los primeros módulos utilizados fueron los denominados SIMM (Single In-line Memory Module). Estos módulos tenían los contactos en una sola de sus caras y podían ser de 30 contactos (los primeros), que posteriormente pasaron a ser de 72 contactos.
Estas memorias tienen unos tiempos de acceso y un ancho de banda mucho más rápido que el disco duro, por lo que se han convertido en un factor determinante para la velocidad de un ordenador. Esto quiere decir que, dentro de unos límites, un ordenador irá más rápido cuanta mayor sea la cantidad de memoria RAM que tenga instalada, expresada en MegaBytes o GigaBytes. Los chips de memoria suelen ir conectados a unas plaquitas denominadas módulos, pero no siempre esto ha sido así, ya que hasta los ordenadores del tipo 8086 los chips de memoria RAM estaban soldados directamente a la placa base. Con los ordenadores del tipo 80386 aparecen las primeras memorias en módulos, conectados a la placa base mediante zócalos, normalmente denominados bancos de memoria, y con la posibilidad de ampliarla (esto, con los ordenadores anteriores, era prácticamente imposible). Los primeros módulos utilizados fueron los denominados SIMM (Single In-line Memory Module). Estos módulos tenían los contactos en una sola de sus caras y podían ser de 30 contactos (los primeros), que posteriormente pasaron a ser de 72 contactos.
DISCO LOCAL C
Un disco duro es un dispositivo de almacenamiento que constituye una de las partes más importantes de un computador. Es la parte del computador que contiene la información codificada y que almacena los distintos programas y archivos. Este sistema de almacenamiento opera de manera digital (es decir la información está cuantizada, codificada en valores dicretos de ceros o unos) en discos de superficies magnéticas que giran rápidamente. En un computador, entonces el disco duro es una de las partes esenciales y su sistema principal de almacenamiento de archivos. El disco duro se denominó así con el fin de diferenciarlo de los disquetes o discos flexibles, de mucha menor capacidad de almacenamiento. El disco duro puede almacenar una gran cantidad de gigabytes, mientras que el antiguo disquete sólo almacenaba 1,4 megabytes (ahora en desuso, con la llegada de los famosos pendrive o memoria USB con gran capacidad de almacenamiento, durabilidad, y un reducido tamaño). Dicen los expertos que el futuro del almacenamiento justamente está en memorias Flash o USB de gran capacidad y velocidad, y entonces serán verdaderamente "duros" en el sentido que serán ya completamente sólidos, sin partes móviles que se puedan estropear.
El disco duro consiste en una serie de discos o platos que están ubicados dentro de la carcasa del aparato. Estos platos, que normalmente son 2 o 4, aunque puede haber hasta 7, están hechos de aluminio o cristal y giran rápidamente, todos a la vez, impulsados por un motor. Los platos son leídos mediante el cabezal de lectura y escritura, que es un conjunto de brazos que se encuentran alineados verticalmente, de manera que no pueden moverse independientemente, sino todos al mismo tiempo. Cada plato es leído por dos brazos que tienen en sus puntas una cabeza de lectura y escritura cada uno, que leen cada cara del plato. Normalmente, hay 8 cabezas para 4 platos. Las cabezas nunca tocan el plato, debido a que podría causar muchos daños teniendo en cuenta la velocidad con la que giran. Los platos están constituidos por pistas, que son las circunferencias de cada cara, como en un disco de vinilo. Las cabezas se mueven desde la pista externa, denominada pista 0, hasta la pista interna. Las pistas están alineadas en todos los platos. El conjunto de las pistas alineadas verticalmente en cada plato se llama cilindro. Las pistas están divididas por sectores que no tienen un tamaño fijo. Normalmente, los sectores son de 512 bytes (las unidades de memoria más pequeñas).
El desempeño de un disco duro se mide por distintos factores. Uno de ellos es el tiempo de acceso, que es el tiempo en que el dispositivo comienza a enviar el dato después de recibir la orden. El tiempo de acceso es la suma del tiempo de búsqueda, la latencia y el tiempo de lectura y escritura. El tiempo de búsqueda es que se tarda la cabeza en llegar a la pista de destino. La latencia es el tiempo que se espera para que el disco gire hasta que el sector deseado pase por donde la cabeza espera. Finalmente, el tiempo de lectura y escritura es el que demora la controladora en localizar el dato, leerlo y mandar la nueva información al computador. Otro factor importante en un disco duro es la tasa de transferencia que es la velocidad en que se transfiere la información al computador luego de que la cabeza esté en la pista y sector deseado
RANURAS DE EXPANCION
Una ranura de expansión (también llamada slot de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX las ranuras de expansión no se encuentran sobre la placa sino en un conector especial denominado riser card. Las ranuras están conectadas entre sí. Una computadora personal dispone generalmente de ocho unidades, aunque puede llegar hasta doce.