Dispositivos de almacenamiento de datos, Trabajo Práctico

Dispositivos de almacenamiento de datos.


Evolución Histórica de los Dispositivos de Almacenamiento en General.

Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta magnética, esta si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían leer todos los anteriores), por ultimo aparecen los discos magnéticos los cuales eran reutilizables y también de acceso aleatorio.

En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de almacenamiento de información mas generalizados en cualquier sistema, ya que estos tenían una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información.

A finales de la década de los 80’ aparecen los dispositivos ópticos los cuales fueron utilizados en primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony colaboro en su desarrollo.

Evolución Histórica de algunos dispositivos Específicos.


Discos Flexibles o Floppy Disk

El disco flexible nació en IBM, y a inicios de la década de los 70’ se introdujo en las unidades de esta marca. En 1972, salio al mercado el sistema 3740 dotado de una memoria de mesa basado en un disco flexible.
Estos discos flexibles o también llamados disquette fueron los más usados en los años 1980 y 1990, desde entonces han pasado por una serie de evoluciones en cuanto a tamaño y a capacidad de almacenamiento, comenzando de 8 pulgadas, luego con 5 1/4 y para finalizar los de 3 1/2, esto en cuanto a sus dimensiones, En cuanto a capacidad de almacenamiento o memorización pasaron de tener alrededor de 100 Kbytes a poseer mas de 1 Mbytes en las unidas de 3 1/2.

No obstante a comienzos de los años 1990, al aumentar el tamaño del los programas informáticos, se requería mayor número de disquette para guardar una determinada información debido a que dichos disquettes no se daban a basto. Por esta razón a finales de los 90, la distribución de programas cambió gradualmente al CD-ROM, y se introdujeron formatos de copias de seguridad de alta densidad como el disco Zip. Con la llegada de Internet a las masas y de un ethernet barato, el disquete ya no era necesario para guardar la información, y fue por consecuencia suplantado.

Ahora se realizan copias de seguridad masivas en unidades de cinta de gran capacidad (como cintas de audio digital, ing: DAT) o en CD-ROM utilizando una grabadora de discos compactos. También se ha impuesto el uso de los llamados llaveros USB para poder transportar cómodamente en un reducido espacio una gran cantidad de información.
De todas formas, los fabricantes eran reacios a retirar la unidad de disco flexible de los ordenadores, argumentando que servían para mantener la compatibilidad con programas anteriores. La empresa Apple fue la primera en eliminar el disco flexible por completo con la puesta en circulación de sumodelo iMac en 1998 el cual no tenía unidad de disco flexible. En marzo de 2003, Dell tomó una decisión similar al hacer la unidad de disco flexible opcional en sus ordenadores, una decisión considerada mayoritariamente como el final del disco flexible como medio de almacenamiento e intercambio de datos mayoritario.

Aunque los disquetes han sido desplazados por los Pen Drivers, los CD, etc.; todavía se siguen utilizando los disquetes con formato de 3 ½ pulgadas; ya que estos cuales están mucho mejor protegidos por un plástico rígido y un escudo, plástico o metálico, que protege una ranura existente en la superficie del material protector del disco (la ventana de lectura) que los discos de 5 ¼ pulgadas, envueltos en un plástico de mucho menos grosor y sin protección en la ventana de lectura. Su facilidad para el manejo habitual y las menores restricciones para su almacenamiento, mientras no sea utilizado el soporte físico, le dan importantes ventajas sobre los discos de 5 1/4 pulgadas.
Disco Duro
En el año 1952 IBM crea en San José (California) el primer laboratorio dedicado exclusivamente a la investigación y desarrollo de dispositivos de almacenamiento, dicho proyecto estaba dirigido por el Ingeniero Reynold Johnson, ingeniero de la conocida marca la cual ya destacaba por la invención de dispositivos mecánicos y electromagnéticos (inventor de los primeros correctores automáticos de exámenes). La idea de un dispositivo magnético de almacenamiento (que luego recibiría el nombre de Disco duro) consistente en una superficie giratoria y una cabeza que pudiera leer y escribir impulsos magnéticos sobre ella comenzaba aquí.

No fue sino hasta aproximadamente dos años después en que Johnson completaba este proyecto, que originalmente (y como casi todo en la informáticahace unos años) sólo beneficiaria a los militares estadounidenses. El RAMAC ("Random Access Method of Accounting and Control" fue el primer disco duro de la historia de la informática. Contaba con 50 platos de 24 pulgadas de diámetro que giraban a una velocidad de 1200 rpm, un tiempo de acceso medio de 1 segundo y la entonces increíble capacidad de 5 megabytes. Gracias a las mejoras que le realizara Johnson a este dispositivo en los siguientes años aparece RAMAC-350 por el cual se hizo merecedor de varios premios.

A partir de entonces estos dispositivos no han dejado de evolucionar. Dicha evolución ha sido que han doblado su capacidad de almacenaje aproximadamente cada 18 meses bajando sus costos, aumentando su capacidad de almacenaje y aumentando su velocidad. Actualmente los discos están trabajando con una interfaz de mayor velocidad denominada UltraDMA/66 o UltraATA/66 la cual posee el doble de la velocidad aproximadamente 66.7 Mbytes por segundo que la antigua UltraDMA/33 que fue el modelo estándar usado durante varios años.

Estructura del Disco Duro.

Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro atravesados por un eje, y giran continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 micropulgadas).
Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.

Tecnologías Futuras.

Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo.
De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006.
Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años. Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades.

CONCLUSIÓN

De acuerdo a lo antes estudiado se puede concluir que:

•Los sistemas informáticos pueden almacenar los datos tanto interna (memoria) como externamente (dispositivos de almacenamiento).
•Los Dispositivos de Almacenamiento de un computador Son dispositivos periféricos del sistema, que actúan como medio de soporte para grabar los programas de usuario, y de los datos y ficheros que va a manejar la CPU durante el proceso en curso, de forma permanente o temporal mediante sus propias tecnologías, ya sea electrónica u ópticamente.
•Estos dispositivos son clasificados de acuerdo al modo de acceso a los datos que contienen y entren estos se tienen: Acceso Aleatorio y Acceso Secuencial.
•Existen diversos tipos de dispositivos de almacenamiento, entre estos se tienen: Memorias (RAM, ROM y Auxiliares), Dispositivos Magnéticos, Dispositivos Ópticos y los Dispositivos Extraíbles.


El término Memoria Flash acuñado Toshiba, por su capacidad para borrarse “en un flash” (instante). Derivados de EEPROM, se borran en bloques fijos, en lugar de bytes solos. Los tamaños de los bloques por lo general van de 512 bytes hasta 256KB.los chips flash son menos costosos y proporcionan mayores densidades de bits. Además, el flash se está convirtiendo en una alternativa para los EPROM porque pueden actualizarse fácilmente.
La PC Card (PCMCIA) se encontraban entre los primeros formatos comerciales de tarjetas de memoria (tarjetas de tipo I) que salen en la década de 1990, pero ahora se utiliza principalmente en aplicaciones industriales y para conectar dispositivos de Entrada-Salida tales como un módem. También en los años 1990, una serie de formatos de tarjetas de memoria más pequeña que la PC Card salieron, incluyendo CompactFlash, SmartMedia, Secure Digital, MiniSD, MicroSD y similares. El deseo de pequeñas tarjetas en teléfonos móviles, PDAs y cámaras digitales compactas produjo una tendencia que dejó la anterior generación de tarjetas demasiado grandes. En las cámaras digitales SmartMedia y CompactFlash había tenido mucho éxito, en 2001 SM había capturado el 50% del mercado de cámaras digitales y CF tenía un dominio absoluto sobre las cámaras digitales profesionales. En 2005, sin embargo, Secure Digital/Multi Media Cardhabían ocupado el puesto de SmartMedia, aunque no al mismo nivel y con una fuerte competencia procedente de las variantes de Memory Stick, xD-Picture Card, y CompactFlash. En el campo industrial, incluso las venerables tarjetas de memoria PC card (PCMCIA) todavía mantienen un nicho de mercado, mientras que en los teléfonos móviles y PDA, el mercado de la tarjeta de memoria estaba muy fragmentado hasta el año 2010 cuando microSD pasa a dominar el mercado de smartphones y tabletas.
Desde 2010 los nuevos productos de Sony (antes sólo usaba Memory Stick) y Olympus (antes sólo usaba XD-Card) se ofrecen con una ranura adicional Secure Digital.1 En efecto, la guerra de formatos se ha decidio en favor de SD.2 3 4