ARQUITECTURA PC
Vistas de página en total
martes, 17 de mayo de 2011
INTRODUCCION
miércoles, 11 de mayo de 2011
Unidades de Disco

Blu-ray, también conocido como Blu-ray Disc o BD, es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB por capa, aunque Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar un 33% la cantidad de datos almacenados,1 desde 25 a 33,4 GB por capa.2 3 Aunque otros apuntan que el sucesor del DVD no será un disco óptico, sino la tarjeta de memoria. No obstante, se está trabajando en el HVD o Disco holográfico versátil con 3,9 TB. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB, teniendo la ventaja de ser regrabables al menos durante 5 años.
En febrero de 2008, después de la caída de muchos apoyos al HD DVD, Toshiba decidió abandonar la fabricación de reproductores y las investigaciones para mejorar su formato.5 6
Existe un tercer formato, el HD-VMD, que también debe ser nombrado, ya que también está enfocado a ofrecer alta definición. Su principal desventaja es que no cuenta con el apoyo de las grandes compañías y es desconocido por gran parte del público. Por eso su principal apuesta es ofrecer lo mismo que las otras tecnologías a un precio más asequible, por ello parte de la tecnología del DVD (láser rojo). En un futuro, cuando la tecnología sobre el láser azul sea fiable y barata, tienen previsto adaptarse a ella.El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650 nanómetros. Esto, junto con otros avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’). La letra e de la palabra original blue fue eliminada debido a que, en algunos países, no se puede registrar para un nombre comercial una palabra común.
Tecnología
El tamaño del punto mínimo en el que un láser puede ser enfocado está limitado por la difracción, y depende de la longitud de onda del haz de luz y de la apertura numérica de la lente utilizada para enfocarlo. En el caso del láser azul-violeta utilizado en los discos Blu-ray, la longitud de onda es menor con respecto a tecnologías anteriores, aumentando por lo tanto la apertura numérica (0,85, comparado con 0,6 para DVD). Con ello, y gracias a un sistema de lentes duales y a una cubierta protectora más delgada, el rayo láser puede enfocar de forma mucho más precisa en la superficie del disco. Dicho de otra forma, los puntos de información legibles en el disco son mucho más pequeños y, por tanto, el mismo espacio puede contener mucha más información. Por último, además de las mejoras en la tecnología óptica, estos discos incorporan un sistema mejorado de codificación de datos que permite empaquetar aún más información.
El DVD tenía dos problemas que se intentaron resolver con la tecnología Blu-Ray, por ello la estructura es distinta. En primer lugar, para la lectura en el DVD el láser debe atravesar la capa de policarbonato de 0,6 mm en la que el láser se puede difractar en dos haces de luz. Si esta difracción es alta, por ejemplo si estuviera rayado, impide la lectura del disco. Pero dicho disco, al tener una capa de sólo 0,1 mm se evita este problema, ya que tiene menos recorrido hasta la capa de datos; además, esta capa es resistente a rayaduras. En segundo lugar, si el disco estuviera inclinado, en el caso del DVD, por igual motivo que el anterior problema, la distorsión del rayo láser haría que leyese en una posición equivocada, dando lugar a errores. Gracias a la cercanía de la lente y la rápida convergencia del láser la distorsión es inferior, pudiéndose evitar posibles errores de lectura.9
Otra característica importante de los discos Blu-ray es su resistencia a las rayaduras y la suciedad. La delgada separación entre la capa de lectura y la superficie del disco hacía estos discos más propensos a las rayaduras y suciedad que un DVD normal. Es por ello que se pensó primero en comercializarlos en una especie de carcasa o Caddy. La idea fue desechada gracias a la elaboración por parte de TDK de un sustrato protector llamado Durabis, que no solo compensa la fragilidad, sino que le otorga una protección extra contra las rayaduras a dicho disco. Existen también discos DVD con esta protección, pero no es tan necesaria debido al mayor espesor de la capa que separa los datos de la superficie del disco, 0,6 mm.
Fuente de Poder

La fuente de poder, fuente de alimentación o fuente de energía es el dispositivo que provee la electricidad con que se alimenta una computadora u ordenador. Por lo general, en las computadoras de escritorio (PC), la fuente de poder se ubica en la parte de atrás del gabinete, junto a un ventilador que evita su recalentamiento.
La fuente de poder es una fuente eléctrica, un artefacto activo que puede proporcionar corriente eléctrica gracias a la generación de una diferencia de potencial entre sus bornes. Se diseña a partir de una fuente ideal, que es un concepto utilizado en la teoría de circuitos para analizar el comportamiento de los componentes electrónicos y los circuitos reales.
La fuente de alimentación se encarga de convertir la tensión alterna de la red industrial en una tensión casi continua. Para esto consta de un rectificador, fusibles y otros componentes que le permiten recibir la electricidad, regularla, filtrarla y adaptarla a las necesidades de la computadora.
Es importante cuidar la limpieza de la fuente de poder; de lo contrario, puede acumular polvo que obstruya la salida de aire. Al aumentar la temperatura, la fuente puede recalentarse y quemarse, dejando de funcionar. Una falla en la fuente de poder incluso puede perjudicar a otros componentes de la computadora, como la placa madre o la placa de video.
Tarjeta de Sonido

Así funcionan
Las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.
Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor).
Efectos
Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal Avanzado), que amplía considerablemente la complejidad de los efectos.Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.
Polifonía
¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta.
MIDI
La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI.
En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores DIN apropiados para engancharla al instrumento en cuestión, y el software secuenciador adecuado, que también suele regalarse con el periférico.
Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486.
Frecuencia de muestreo
Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua será la adquisición del mismo.
Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad comparable a la de un disco compacto.
Otras consideraciones
Existen otros factores que se deben tener en cuenta: por ejemplo, mucha gente prefiere controlar el volumen de la tarjeta de forma manual, mediante la típica ruedecilla en la parte exterior de la misma. Sin embargo, la tendencia normal es incluir este control (además de otros, como graves, agudos, etc.) por software, así que debe ser tenido en cuenta este detalle si es importante para nosotros.
La popularización de Internet ha propiciado la aparición de un nuevo uso para las tarjetas de sonido: la telefonía a través de la red de redes. Efectivamente, con un micrófono y el software adecuado, podemos utilizar la tarjeta para hablar con cualquier persona del planeta (que posea el mismo equipamiento, claro) a precio de llamada local.
Sin embargo, la calidad de la conversación dependerá de dos conceptos: half-duplex y full-duplex. Resumiendo un poco, full-duplex permite enviar y recibir información al mismo tiempo, mientras que half-duplex sólo puede realizar una de las dos operaciones en cada momento. Traduciendo esto a una conversación, tenemos que el half-duplex nos obliga a hablar como si utilizáramos un walkie-talkie; es decir, hay que esperar a que uno diga algo para poder responder, mientras que el full-duplex nos ofrece bi-direccionalidad, es decir, mantener una conversación normal como si fuera un teléfono.
En algunos casos, el fabricante posee controladores que añaden funcionalidad full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una buena idea ir a la página Web del fabricante en cuestión.
Por último, y aunque sea de pasada, puesto que se trata de un requisito casi obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por cien con la normativa Plug and Play; seguro que muchos lo agradecerán.
Pros y contras del puerto IDE
Un gran porcentaje de tarjetas de sonido incluye conexión IDE. ¿Es realmente útil este puerto adicional? En principio, sí que lo es; normalmente, cuando se adquiere una tarjeta de sonido, es casi seguro que el comprador ya posee, o poseerá, un lector de CD-ROM, si es que no compra las dos cosas al mismo tiempo. Los CD-ROM más difundidos implementan la conexión IDE por ser barata y eficaz.
En los ordenadores Pentium se incluyen dos puertos IDE, por lo que no suele haber problemas; ahora bien, si el PC es un 486 o inferior (todavía existe un parque muy elevado de estas máquinas) es bastante posible que el equipo sólo tenga un puerto IDE. Si la tarjeta de sonido incluye su propia conexión, la labor se hará más sencilla, ya que podemos enganchar ahí nuestro lector.
Por otro lado, un puerto IDE adicional consumirá una interrupción más en el sistema (normalmente IRQ 11), y además Windows 95 no se lleva bien con puertos IDE terciarios y cuaternarios, traduciéndose esto en el temible símbolo de admiración amarillo en la lista de dispositivos. A pesar de todo, y vista la situación, la balanza se inclina hacia el lado positivo, ¿no creéis?.
La compatibilidad
Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe mantener una total compatibilidad con el estándar impuesto por la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft. Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar.
Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware. La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser fuente de problemas con programas que accedan a bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por hardware.
Sonido 3D
El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando mezclas específicas para los canales derecho e izquierdo, para simular sensaciones de hueco y direccionalidad.
Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en este tema: ¡No renunciéis al sonido 3D!
Tarjeta Grafica

Hoy en día, todas las tarjetas gráficas tienen aceleración por hardware, es decir, tienen chips que se encargan de procesar la información e interpretarla para hacer los efectos, texturas... que luego vemos en la pantalla.
Para empezar hay que distinguir entre las tarjetas 2D, 3D y las 2D/3D. Las 2D sólo se encargan de las imágenes en dos dimensiones, como el office o para navegar, si alguna vez se necesitan imágenes en tres dimensiones, éstas se emularán en el procesador. Las de tres dimensiones sólo nos servirán para los juegos o para programas de diseño gráfico. Para utilizar estas tarjetas necesitaremos otra de 2D, los ejemplos más claros serían la Voodoo y la Vodoo2 de 3dfx. Por último están las de dos y tres dimensiones. Ahora casi todas las tarjetas son de este tipo porque la calidad 2D es muy buena y nos permitirá hacer uso de imágenes 3D.
Todas las tarjetas actuales se conectan al bus PCI, las más antiguas, o al AGP. Recordemos que del bus AGP (Accelerated Graphic Port) podemos encontrar las versiones 2x y 4x. Claro está que el AGP es bastante mejor porque permite el acceso a la memoria RAM y además hay muchos más modelos.
Los principales fabricantes de tarjetas gráficas son: 3Dfx, nVidia, ATI, Matrox y S3. Intel entró en el mercado con la i740, pero el proyecto a quedado paralizado tras la i752.
Un factor muy importante, sobretodo en las tarjetas 3D es la memoria que ésta tenga. En el modo 2D, sólo influye en la resolución y el número de colores y varía entre 4 y 8 MBytes. Con estas cantidades de memoria no tendremos ningún problema ya que nos permiten resoluciones bastantes altas. Si queremos dedicarnos a jugar con nuestro PC o a hacer diseño tridimensional, lo mejor es que tenga 32 o 64 megas, o más, los 16 megas se nos pueden quedar pequeños en poco tiempo y están instalados en tarjetas ya algo antiguas.
Los distintos tipos de colores son:
16 colores --> 4 bits --> 1/2 byte
256 colores --> 8 bits --> 1byte
color de alta intensidad --> 64K --> 65.536 colores --> 16 bits --> 2 bytes
color verdadero --> 16,7 millones --> 16.777.216 colores --> 24 bits --> 3 bytes
color verdadero --> 4,3 gigas --> 4.294.967.296 --> 32 bits --> 4 bytes
Si queremos saber la memoria que ocupa una imagen tenemos que multiplicar la resolución por los bytes de colores: si tenemos una imagen con una resolución de 1024 x 768 y con un color a 4 bytes multiplicamos 1024 x 768 = 786.432 y si lo multiplicamos por 4, los bytes, nos da 3.145.728, unos tres megas de la memoria de nuestra tarjeta de vídeo.
Cuando nuestro ordenador trabaje con imágenes 3D la cosa varía ya que no sólo tiene en memoria la imagen tenemos en la pantalla, sino que hay texturas que no se están utilizando y otros datos almacenados.
Antiguamente, las tarjetas gráficas tenían un procesador, que creaba las señales que el monitor recibía. Su función era, principalmente, "pintar" los polígonos que le vienen de la CPU. La CPU del ordenador se encargaba de hacer la geometría (polígonos y triángulos) de las imágenes y los efectos de iluminación. Actualmente, los chips gráficos incorporan unidades "T&L", como la GeForce o la Radeon, que liberan al procesador del ordenador de estos engorrosos cálculos.
Todas tienen que tener un procesador RAMDAC, que se encarga de convertir las señales digitales en las analógicas con las que trabaja el monitor. Cuanto más potente sea mayor será el refresco, es decir, el número de imágenes por segundo. Estas frecuencias, que se miden en hertzios, están estandarizadas, algunas de las más comunes son 56, 60, 72, 80, 95, 110 o 120 Hz. Además de mirando la configuración del ordenador, esto lo sabremos si miramos de reojo la pantalla y seguramente notaremos un parpadeo. Si vemos una pantalla por la tele podremos apreciarlo también. No se recomienda trabajar a menos de 60 Hz pero a partir de 72 nuestra vista se cansará mucho menos.
Las tarjetas 3D tienen una serie de librerías para poder trabajar. Cuando empezaron cada fabricante tenía las suyas y no eran compatibles con otras. Pero actualmente sólo viven tres API, las librerías:
| Direct 3D: Está diseñada por Microsoft y se incluye en los DirectX. Casi todas las tarjetas gráficas son compatibles con él. | |
| Open GL: Fue diseñada por Silicon Graphics, es muy potente y más utilizada en el ámbito | |
| Glide: Es la de 3dfx y utilizadas en todas las tarjetas voodoo y banshee. Se impuso por sus buenos resultados con los chips de la casa. |
Open GL y Direct 3D están en proceso de fusión y Glide está ya casi desaparecido. Los chips que no sean de 3dfx pueden emular Glide con una serie de programas, los GlideWrappers, aunque no obtendrán tan buenos rendimientos:
disco duro

El disco duro representa el dispositivo masivo de almacenamiento de datos por excelencia. Las altas velocidades de transferencia que alcanzan, la gran capacidad de datos que soporta, y la fiabilidad que ofrece le convierten en el dispositivo utilizado para albergar el sistema operativo y los programas y datos del que éste hace uso. Existen una serie de características que condicionan las prestaciones de los discos duros, en la medida en que trabajemos con grandes cantidades de datos (edición de video, retoque fotográfico, tratamiento masivo de datos...) tendremos que tenerlas muy en cuenta a la hora de elegir el disco duro para que este no represente un cuello de botella en el sistema. |
|
Actualmente la conexión S-ATA le ha tomado el relevo puesto que ofrece mayores prestaciones. El sistema S-ATA (Serial Ata) representa una evolución respecto al sistema IDE mejorando las velocidades de transferencia proporcionando un mayor aprovechamiento cuando hay varios discos y permitiendo la conexión en caliente de dispositivos. Este ofrece dos variantes. Sata1 proporciona una velocidad máxima de 150 MB/s mientras que Sata2 llega a 300 MB/s. El máximo del estándar llegará a los 6 Gbps, de ahí el nombre oficial, que no será SATA 3 sino SATA 6Gb/s. Las nuevas mejoras que presenta esta interfaz son: Por otra parte tenemos los discos duros externos que gracias a las prestaciones actuales de los puertos usb 2.0, son capaces de gestionar altas cantidades de datos permitiendo así utilizarlos para copias de seguridad externas, o para trabajar como si de un disco interno se tratara. aunque esperaremos el auge de los dispositivos usb 3.0. Actualmente y como variante de discos duros externos, tenemos los discos duros multimedia, estos poseen una tecnología que les permite almacenar y reproducir fotografías, música, videos conectándolos a una televisión o monitor sin necesidad de disponer de un ordenados a tal efecto. |
Ram

Coloquialmente el término RAM se utiliza como sinónimo de memoria principal, la memoria que está disponible para los programas, por ejemplo, un ordenador con 8M de RAM tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar.
es la memoria de acceso aleatorio o memoria principal en donde el computador guarda los datos que está usando en el momento, es decir es un almacenamiento temporal. Está formada por un conjunto de chips de memoria que se conectan a la placa base o tarjeta madre . hay dos tipos de memoria memoria RAM dinámica(DRAM) y memoria RAM estática(SRAM)
Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la meoria RAM dinámica es la más común.
La meoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.