Ciencias de la computación

Las ciencias de la computación abarcan el estudio de las bases teóricas de la información y la computación y su aplicación en sistemas computacionales. Existen diversos campos dentro de la disciplina de las ciencias de la computación; algunos enfatizan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputos. Otros por su parte se enfocan en los problemas que requieren la implementación de cómputos. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional concreto.


Historia
La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos[sin referencias]. Los primeros investigadores en lo que después se convertiría las ciencias de la computación, como Kurt Gödel, Alonzo Church y Alan Turing, estaban interesados en la cuestión de la computabilidad: qué cosas pueden ser computadas por un ser humano que simplemente siga una lista de instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin conocimiento previo del problema. Parte de la motivación para este trabajo era el desarrollar máquinas que computaran, y que pudieran automatizar el tedioso y lleno de errores trabajo de la computación humana.

Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas en vez de a sus antecesores humanos. Conforme iba quedando claro que las computadoras podían usarse para más cosas que solamente cálculos matemáticos, el campo de la ciencia de la computación se fue ampliando para estudiar a la computación (informática) en general. La ciencia de la computación comenzó entonces a establecerse como una disciplina académica en la década de 1960, con la creación de los primeros departamentos de ciencia de la computación y los primeros programas de licenciatura (Denning 2000).

Mayores logros

Aún con su relativamente corta historia como disciplina académica formal, las ciencias de la computación han logrado una buena cantidad de contribuciones fundamentales a la ciencia y la sociedad. Por ejemplo:

* Una definición formal de computación y de computabilidad (Constable 2000).
* Una demostración de que existen problemas a los que no hay una solución computacional (problema de la parada, o halting problem en inglés) y problemas intratables. (Constable 2000).
* El concepto de lenguaje de programación, una herramienta para la expresión precisa de información metodológica a varios niveles de abstracción (Abelson y Sussman 1996).
* Tecnologías revolucionarias, como las computadoras de uso general, la Internet, las firmas digitales, el comercio electrónico y los motores de búsqueda (Constable 1997, Constable 2000).
* Ha habilitado nuevos tipos de investigación científica, como la física computacional y la química computacional (Constable 1997).



La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de información en forma automática. Para ello los sistemas informáticos deben realizar las siguientes tareas básicas:

* Entrada: Captación de información.
* Procesamiento o tratamiento de dicha información.
* Salida: Transmisión de resultados.

(Estas tres tareas básicas en conjunto son lo que se conoce como algoritmo)

El vocablo Informática proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.

La informática se aplica a diversidad areas, como por ejemplo: gestión de negocio, almacenamiento de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc.

En la informática convergen los fundamentos de las ciencias de la computación (hardware), la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.

Computador Z3

El computador Z3, creado por Konrad Zuse, fue la primera máquina programable y completamente automática, características usadas para definir a un computador. Estaba construido con 2200 relés (electroimanes), pesaba 1000Kg, se demoraba haciendo una adición 0,7 segundos y una multiplicación o división 3 segundos. tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín). El Z3 original fue destruido en 1944 durante un bombardeo aliado a Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 se demostró que el Z3 es Turing completo.

Invento el Z3:
Historia de la Ciencias de la computación y más.
La informática ha sido una de las áreas del conocimiento que mayor desarrollo ha adquirido en los últimos tiempos. Casi la totalidad de las disciplinas científicas requieren de ella.
La vida moderna, sin la informática, es muy difícil de imaginar.

La informática es una disciplina formada por un conjunto de técnicas y conocimientos, que hacen posible el tratamiento automático de la información por medio de computadoras. Con ellas podemos manejar y procesar datos e información.

La informática combina aspectos teóricos y prácticos de la ingeniería, electrónica, matemáticas y lógica. Además cubre desde la programación hasta la inteligencia artificial y la robótica.

El lenguaje universal que utiliza para estandarizar la transferencia de información, es el código binario, que se basas en la representación de cualquier número, palabra o símbolo o dato mediante una serie, con la adecuada combinación de 0 y 1. La computadora procesa la información a gran velocidad, traduciendo cada dato a una secuencia de 0 y1. El 1 corresponde a impulsos electrónicos producidos por la activación de un circuito lógico, que equivale al encendido de una ampolleta cuando apretamos el interruptor y los 0 equivalen a la interrupción del circuito o apagado de la ampolleta.

Los comienzos de la computación

Aunque el computador personal fue creado en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años. Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan las computadoras, que está basado en la combinación de números ceros y unos (0 y 1).

2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.

2000 a.C. - En el “I-Ching, o Libro de las mutaciones”, también de origen chino, se encuentra la primera formulación del sistema binario.

600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.

500 a.C. - Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

claro no se rian pero:
informacion
1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.

1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.

1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.

Babbage usaba cartones perforados para suministrarle datos a su máquina -había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.

La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.

1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó “El análisis matemático del pensamiento” y en 1854 “Las leyes del pensamiento”.

Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todos las computadoras.

1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.

1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.

1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.

En 1920 presentó en París el “aritmómetro electromecánico”, que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez hecho el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería el primer computador. La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.

1937 - Claude Shannon demostró que la programación de los futuros computadores era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole. Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción del primer computador.

Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la “teoría de la información”, estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.

1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.

Nacen los computadoras

En 1941, Konrad Suze presentó el Z3, el primer computador electromagnético programable mediante una cinta perforada. Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts. Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó el Colossus, un computador que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma.

1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción del primer computador americano, del tipo electromecánico -basado en electroimanes-.

El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto. Posteriormente se construyeron Mark II y Mark III.

1947 - Pese a que Harvard e IBM construyeron el primer computador, la tecnología era más avanzada en otras universidades. Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).

Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.

El ENIAC es considerado el primer computador, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.

1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea. La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.

Refiriéndose a esta innovación, se habla de la “arquitectura de Von Neumann”. Su EDVAC fue el modelo de las computadoras de este tipo.

1951 - El primer computador comercial fue el UNIVAC 1, fabricado por la

Sperry-Rand Corporation y comprado por la Oficina del Censo de Estados Unidos. Disponía de mil palabras de memoria central y podía leer cintas magnéticas.

Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos.

1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.

Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío.

1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.

60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas. Se trataba de los circuitos integrados o chips. Estos permitieron una nueva disminución en el tamaño y el costo.

1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.

1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio. Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann. Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:

• Integración simple (Integrated Circuits o IC)
• Alta integración (Large Scale Integration o LSI)
• Muy alta integración (Very Large Scale Integration o VLSI)

Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando superar el millón de operaciones por segundo.

1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.

1974 - Surge el Altair 8800, el primer computador de escritorio, comercializado con el microprocesador Intel 8080. Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.

1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar un microcomputador que pudiera ser usado más masivamente. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic. El resultado fue el primer computador Apple.

A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récor para una industria que continuamente presenta novedades.

Aunque no lo creas, hasta un discman contiene una especie de minicomputador que controla su funcionamiento.

Bill Gates:
informatica
y
Steve Jobs
Computacion

La Computadora: una aliada indispensable



* En muchos hogares el poseer una computadora es casi tan normal como tener un televisor. Hasta los más pequeños saben de qué se trata. De hecho hay softwares (programas) con juegos didácticos para los niños en edad pre-escolar.
*

El resto de la familia lo usa para redactar sus informes, revisar enciclopedias digitales, escuchar música, jugar o conectarse a Internet. El correo electrónico, los chat -foros de conversación instantáneos a través de la red- y hasta las videoconferencias se han convertido en eventos cotidianos.

las computadoras u computadoras, formados por miles de pequeñísimos circuitos electrónicos, no piensan como un ser humano, pero funcionan como un cerebro electrónico dotado de una gran capacidad de trabajo, que les permite interpretar y analizar de manera muy rápida la información que reciben.

Estas máquinas casi no tienen límites. Podemos escribir, dibujar, construir gráficos o tablas de datos, retocar imágenes, calcular, jugar, escuchar música o disfrutar de material multimedia (sonido, texto e imágenes fijas o en movimiento al mismo tiempo), guardar la información que nos interesa, generarla e incluso imprimirla.

Todo esto se logra mediante la combinación de softwares o programas, que son los que dan al computador las instrucciones para trabajar, y el hardware, conformado por los elementos materiales -componentes electrónicos, tarjetas, periféricos y el equipo- que permiten la instalación de los programas.

Su gran memoria puede almacenar miles de datos y realizar varias operaciones simultáneas. Hoy, la misma capacidad del primer computador electrónico, el Eniac, fabricado en 1947 en Estados Unidos y que pesaba treinta toneladas, está contenida en pequeños circuitos integrados llamados chips, montados en una estructura tan grande como un insecto, el microprocesador.

las computadoras ayudan al hombre en casi todas las áreas, desde las más técnicas a las más creativas, como son la contabilidad y el diseño gráfico. Incluso hay muchos trabajos manuales que se han automatizado y ahora son realizados por computadores o, mejor dicho, por robots dirigidos por estos. Un ejemplo clásico es el armado en serie de vehículos. A lo largo de una cadena de producción, varios robots programados para tareas específicas van ensamblando de manera continuada las distintas partes de cada auto.

Aunque estamos acostumbrados a que las computadoras tengan pantalla y teclado, no siempre es así. Gracias a los microprocesadores es posible controlar el correcto funcionamiento de casi todas las máquinas o aparatos fabricados por el hombre. Están presentes en los paneles de control de los aviones, las naves espaciales y los satélites, en un reloj digital, en los autos, las lavadoras automáticas y los refrigeradores, en las máquinas fotográficas y de video, en los robots, la tecnología médica, en los sensores de fenómenos físicos como la temperatura, clima, erupciones volcánicas, vientos y temblores y en los sistemas automáticos que controlan la temperatura de las habitaciones, entre otros.

Hay computadoras que pueden reconocer la voz de alguien, otros que permiten esquivar obstáculos hasta llegar a un objetivo, como ocurre con los misiles inteligentes, e incluso algunos que permiten simular situaciones con gran realismo, como las experiencias de realidad virtual o los simuladores de vuelo.

Además, enlazados por medio de redes de comunicación internas o intranets, las computadoras permiten mantener interconectadas a las distintas filiales y empleados de una empresa, al sistema financiero, las entidades de seguridad pública o a cualquier sistema que requiera mantener información actualizada minuto a minuto. Por ejemplo, los medios de comunicación dependen en gran medida de las agencias de noticias, sobre todo cuando se trata de hechos sucedidos fuera del país, que por su lejanía son más difíciles o lentos de conocer.

Glosario de fotos:

William Oughtred
informática
George Boole
Computadoras
Herman Hollerithhistoria
Claude Shannon
Computo
Konrad Suze
Historia de la Computacion
Howard Aiken
Historia de la Ciencias de la computación y más.
John Von Neumanninformacion


Los pasos de la computación

Para entender mejor el proceso que marcó el despegue de la informática, repasemos revisando las distintas generaciones de computadoras. Aunque sus inicios, términos y los hitos que las determinan difieren entre los distintos autores, estas tienen que ver básicamente con el desarrollo científico relacionado a la forma en la que eran construidos y la manera en la que el hombre ingresaba la información que debían procesar y analizar.

• Primera Generación: eran las primeras máquinas electrónicas, enormes y sumamente caras. Estaban formadas por válvulas o tubos al vacío muy similares a las ampolletas. La unidad de entrada utilizaba tarjetas perforadas.

La computadora más exitosa de esta generación fue la IBM 650, de la cual se produjeron varios centenares.

• Segunda Generación: comienza en 1958, cuando se sustituyeron los tubos de vacío por transistores y se empiezan a usar las memorias de núcleos magnéticos o ferritas. Eran más pequeños que los de primera generación, aunque con una mayor capacidad de procesamiento.

Se programaban en nuevos lenguajes, llamados de alto nivel, con cintas perforadas o cableado proveniente de un tablero. La programación era a la medida de cada computador.

• Tercera Generación: a partir de 1965 se incorporan los circuitos integrados o chips, que son microcircuitos capaces de realizar las mismas funciones que cientos de transistores. Eran computadoras de tamaño mediano y más baratos. Se manejaban mediante los lenguajes de control de los sistemas operativos.

• Cuarta Generación: en los setentas aparecieron los microprocesadores, circuitos integrados de alta densidad con una gran velocidad.

Los microcomputadoras eran muchísimo más pequeños y baratos, por lo que su uso se extendió al sector industrial. Es la época del nacimiento de las computadoras personales o PC.

• Quinta Generación: tiene que ver con el desarrollo de los softwares -programas instalables que le indican al computador cómo hacer una serie de funciones- y el perfeccionamiento de los sistemas operativos -que supervisan y controlan las operaciones y los dispositivos físicos de las computadoras-, que se inició a mediados de los ochentas. El objetivo era lograr que el usuario se relacionara con estas máquinas en un lenguaje más cotidiano y no a través de códigos o lenguajes de control demasiado especializados. Más fácil y más barato debido a la producción en serie.

¿Cómo funcionan hoy?

Las computadoras actuales no tienen en su interior mecanismos o ruedas con dientes, sino un laberinto de microscópicos transistores que reaccionan ante los impulsos eléctricos que pasan por sus circuitos y que tienen solo dos posiciones, que corresponden a las cifras empleadas por el sistema binario, ceros y unos.

Si bien las instrucciones en las primeras máquinas debían ser ingresadas en ceros y unos, las computadoras actuales son capaces de transformar las palabras, números e instrucciones que ingresamos a bits -dígitos binarios-. Así, cada computador debe traducir uno o más lenguajes en código binario para poder funcionar.

Los programas o softwares son el conjunto de instrucciones que le dicen al computador qué debe hacer. Sin ellos, la computadora es una máquina inútil. Hay diferentes clases de programas. Las dos principales categorías son los sistemas operativos y el software aplicativo o aplicaciones.

El sistema operativo es el programa más importante, porque controla el funcionamiento dla computadora y el de los demás programas.

Las aplicaciones son todos los programas que permiten al usuario realizar tareas: procesadores de palabras para escribir, juegos para divertirse, hojas de cálculo para trabajo financiero, browsers para navegar por la red.

El sistema operativo establece las reglas y parámetros para que el software aplicativo interactúe con la computadora, ya que en lugar de hablar directamente con el hardware (elementos físicos que componen la computadora), las aplicaciones hablan con el sistema operativo y este actúa como su intérprete. Si no existiera el sistema operativo, cada empresa desarrolladora de softwares tendría que crear su propio método para que las aplicaciones graben archivos en el disco duro, desplegar textos y gráficos en la pantalla, enviar texto a la impresora e infinidad de funciones más.

Los sistemas operativos se diseñan para que funcionen sobre una familia particular de computadoras. Por ejemplo, los sistemas operativos MS DOS y Windows trabajan en PC basados en procesadores de Intel o Athlon. El sistema operativo Macintosh corre solo en PC Macintosh, los cuales usan procesadores Power PC (anteriormente usaban Motorola 680x0). Estos sistemas no son compatibles entre sí.

Las aplicaciones deben corresponder al sistema operativo instalado para poder funcionar.

Mac OS XLos sistemas operativos y las aplicaciones son los principales programas, pero no son los únicos. Existe otra categoría importante, el lenguaje de programación, que es el software que se usa para escribir los programas en el lenguaje de la máquina, el único que el procesador dla computadora entiende, el código binario.

Los PC tienen cuatro elementos básicos: el teclado, para introducir la información; la memoria, que almacena la información y el programa; la unidad de proceso (CPU), que lleva a cabo las instrucciones contenidas en el programa; y una pantalla para ver los resultados del trabajo realizado.

Los programas se instalan mediante compac disc o cd, y en el caso de las computadoras menos modernos, por medio de disquetes. Los datos pueden introducirse de la misma manera o bien a través del teclado o algún otra vía, como son los archivos que llegan a través del correo electrónico o la información que se pueda obtener desde Internet.

Los resultados de estos procesos de ejecución y análisis de los datos se pueden observar en la pantalla -en forma de palabras, números e imágenes-, impresos en papel o como sonidos emitidos por un altavoz, y pueden almacenarse en el disco duro, disquetes o cd’s.

informatica
Computacion

Las partes de un computador

Las computadoras están integrados por una serie de componentes electrónicos que son los responsables de su correcto funcionamiento. Entre ellos destacan:

• Unidad central de procesos (CPU): es el cerebro del PC. Se encarga de procesar las instrucciones y los datos con los que trabaja la computadora. El procesador es el dispositivo más importante y el que más influye en su velocidad al analizar información.

• Memoria RAM o memoria principal: es la memoria de acceso aleatorio, en la que se guardan instrucciones y datos de los programas para que la CPU puede acceder a ellos directamente a través del bus de datos externo de alta velocidad.

A la RAM se le conoce como memoria de lectura/escritura, para diferenciarla de la ROM. Es decir que en la RAM, la CPU puede escribir y leer. Por esto, la mayoría de los programas destinan parte de la RAM como espacio temporal para guardar datos, lo que permite reescribir. Como no retiene su contenido, al apagar la computadora es importante guardar la información.

La cantidad de memoria RAM influye bastante en la velocidad de un PC. Entre más memoria RAM tenga, más rápido trabaja y más programas puede tener abiertos al mismo tiempo.

• Memoria ROM: es la memoria solo para lectura. Es la parte del almacenamiento principal dla computadora que no pierde su contenido cuando se interrumpe la energía. Contiene programas esenciales del sistema que ni la computadora ni el usuario pueden borrar, como los que le permiten iniciar el funcionamiento cada vez que se enciende la computadora.

• Disco duro: es el dispositivo de almacenamiento secundario que usa varios discos rígidos cubiertos de un material magnéticamente sensible. Está alojado, junto con las cabezas de lectura, en un mecanismo sellado en forma hermética, en el que se guardan los programas y todos los archivos creados por el usuario cuando trabaja con esos programas. Entre más capacidad tenga un disco duro, más información y programas puede almacenar en el PC.

La capacidad del disco duro se mide en gigabytes (GB). Un GB equivale a 1.024 megabytes (MB) aproximadamente.

• Caché: es una unidad pequeña de memoria ultrarrápida en la que se almacena información a la que se ha accedido recientemente o a la que se accede con frecuencia, lo que evita que el microprocesador tenga que recuperar esta información de circuitos de memoria más lentos.

El caché suele estar ubicado en la tarjeta madre, pero a veces está integrado en el módulo del procesador. Su capacidad de almacenamiento de datos se mide en kilobytes (KB). Mientras más caché tenga la computadora es mejor, porque tendrá más instrucciones y datos disponibles en una memoria más veloz.

• Tarjeta madre: es la tarjeta de circuitos que contiene el procesador o CPU, la memoria RAM, los chips de apoyo al microprocesador y las ranuras de expansión. Estas son las que permiten insertar, por ejemplo, la tarjeta de sonido (que permite al PC reproducir sonido), el módem interno (que hace posible navegar por Internet) o la tarjeta gráfica o de video (que permite mostrar imágenes en la pantalla).
CD ROM
El CD ROM lee la información contenida en los discos compactos.

• CD-ROM: esta unidad sirve para leer los discos compactos, sean estos programas, música o material multimedia (sonidos, imágenes, textos), como las enciclopedias y los juegos electrónicos. La velocidad de esta unidad depende de dos factores: la tasa de transferencia de datos y el tiempo de acceso.

La tasa de transferencia de datos se refiere a la cantidad de datos que la unidad de CD ROM puede enviar al PC en un segundo. Esa tasa se mide en kilobytes por segundo (kbps) y se indica con un número al lado de un X, por ejemplo: 16X, 24X o 48X. Mientras más X, mayor velocidad.

El tiempo de acceso se refiere a lo que tarda el proceso completo.

• Unidad de disquete: esta unidad lee y escribe en los disquetes. Estos discos sirven para guardar y leer información, pero a diferencia del disco duro, que está fijo dentro del PC, se pueden introducir y sacar de la unidad, por lo que permiten transportar datos de un lado a otro. Los disquetes tienen una capacidad de almacenamiento de datos muy baja: 1.4 megabytes (MB).

Para mi opinión Mac es mejor.

Pero Windows tiene las contratas con las mejores computadoras.

Gracias y pasar buen día.