Los 10 inventos que cambiaron el mundo... Taringueros espero que este post les guste y tambien me ayuden, a salir de ser un novato sin importancia a ser full user...

En este post como dice en el titulo hablare de los 10 inventos que cambiaron el mundo



1. El internet.

inventos

Historia.

Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.4 Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.

Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.


Internet en la sociedad.



Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.

Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.

Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas.

Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.[cita requerida]

Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante.


Ocio.

Muchos utilizan la Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.

La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.

En tiempos más recientes han cobrado auge portales como YouTube o Facebook, en donde los usuarios pueden tener acceso a una gran variedad de videos sobre prácticamente cualquier tema.

La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.


Internet y su evolución.

Inicialmente el Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto: búsquedas de información, generalmente. Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un ruido, una serie de interferencias, una explosión de ideas distintas, de personas diferentes, de pensamientos distintos de tantas posibilidades que, en ocasiones, puede resultar excesivo. El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros. El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. es posible concluir que cuando una persona tenga una necesidad de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad. Como ahora esta fuente es posible en Internet Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Algunos sienten que Internet produce la sensación que todos han sentido sin duda alguna vez; produce la esperanza que es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Para algunos usuarios Internet genera una sensación de cercanía, empatía, comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos usuarios consideran la vida misma.
Las cifras que varian de usuarios de internet, son:

África - 4.15 millones
Asia/Pacífico - 143.99 millones
Europa 154.63 millones
Cercano Oriente - 4.65milliones
Canadá & USA - 180.68 millones
América Latina - 25.33 millones
Total Mundial - 513.41 millones

Buscadores.

Un buscador se define como el sistema informático que indexa archivos almacenados en servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados. Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan. La clasificación más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y metabuscadores.



2. Televisión
Mundo

Historia.

El concepto de televisión (visión a distancia) se puede rastrear hasta Galileo Galilei y su telescopio. Sin embargo, no es hasta 1884, con la invención del Disco de Nipkow de Paul Nipkow cuando se hiciera un avance relevante para crear un medio. El cambio que traería la televisión tal y como hoy la conocemos fue la invención del iconoscopio de Vladimir Zworkyn y Philo Taylor Farnsworth. Esto daría paso a la televisión completamente electrónica, que disponía de una tasa de refresco mucho mejor, mayor definición de imagen e iluminación propia.

El desarrollo de la TV.

Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.

La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.

En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.

El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.


Televisión por satélite.

La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas.

El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otra serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión esta realizada con presupuesto militar.

La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes.

La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.




3. Ordenadores.
los

Arquitectura.

pesar de que las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John William Mauchly.

La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:

La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.

El procesador (también llamado Unidad central de procesamiento o CPU) consta de manera básica de los siguientes elementos:

La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.

La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).

Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de Coma Flotante

Los dispositivos de Entrada/Salida sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.

Periféricos y dispositivos auxiliares.

Monitor
el

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados, o los gráficos del procesamiento de una computadora. Existen varios tipos de monitores: los de tubo de rayos catódicos (o CRT), los de pantalla de plasma (PDP), los de pantalla de cristal líquido (o LCD), de paneles de diodos orgánicos de emisión de luz (OLED), o Láser-TV, entre otros.

Teclado.
10

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados táctiles), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

Ratón.
Que

El mouse (del inglés, pronunciado [ˈmaus]) o ratón es un periférico de computadora de uso manual, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo o sobre un barnizado por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo, es recomendable el uso de alfombrillas.

Impresora.


Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interna (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Hoy en día se comercializan impresoras multifuncionales que aparte de sus funciones de impresora funcionan simultáneamente como fotocopiadora y escáner, siendo éste tipo de impresoras las más recurrentes en el mercado.

Escáner.
cambiaron

En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital. Actualmente vienen unificadas con las impresoras formando Multifunciones

Altavoces.
Los 10 inventos que cambiaron el mundo...

Otros conceptos y curiosidades.

En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene con computadoras de más de un CPU, lo que da origen al multiprocesamiento.

El sistema operativo es una especie de caja de herramientas lleno de utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.

Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores.


Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

Al mismo tiempo, los pequeños computadores son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

Actualmente, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.

Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation


4.Telefonia movil.
inventos

El teléfono móvil es un dispositivo inalámbrico electrónico que permite tener acceso a la red de telefonía celular o móvil. Se denomina celular en la mayoría de países latinoamericanos debido a las antenas repetidoras que conforman la red, cada una de las cuales es una célula, si bien existen redes telefónicas móviles satelitales. Su principal característica es su portabilidad, que permite comunicarse desde casi cualquier lugar. Aunque su principal función es la comunicación de voz, como el teléfono convencional.

A partir del siglo XXI, los teléfonos móviles han adquirido funcionalidades que van mucho más allá que limitarse a llamar o enviar mensajes de texto, se podría decir que se ha unificado (que no sustituido) con distintos dispositivos tales como PDA, cámara de fotos, agenda electrónica, reloj despertador, calculadora, microproyector, GPS o reproductor multimedia, así como poder realizar multitud de acciones en un dispositivo pequeño y portátil que lleva prácticamente todo el mundo de países desarrollados. A este tipo de evolución del teléfono móvil se le conoce como smartphone.

El primer antecedente respecto al teléfono móvil es de la compañía Motorola, con su modelo DynaTAC 8000X. El modelo fue diseñado por el ingeniero de Motorola Rudy Krolopp en 1983. El modelo pesaba poco menos de un kilo y tenía un valor de casi 4000 dólares estadounidenses. Krolopp se incorporaría posteriormente al equipo de investigación y desarrollo de Motorola liderado por Martin Cooper. Tanto Cooper como Krolopp aparecen como propietarios de la patente original. A partir del DynaTAC 8000X, Motorola desarrollaría nuevos modelos como el Motorola MicroTAC, lanzado en 1989, y el Motorola StarTAC, lanzado en 1996 al mercado.

En la actualidad tienen gran importancia los teléfonos móviles táctiles, que siguen la estela del iPhone.


Funcionamiento.

La comunicación telefónica es posible gracias a la interconexión entre centrales móviles y públicas.

Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en una parte u otra del mundo.

La telefonía móvil consiste en la combinación de una red de estaciones transmisoras-receptoras de radio (repetidores, estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente), que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional.

En su operación el teléfono móvil establece comunicación con una estación base, y a medida que se traslada, los sistemas computacionales que administran la red van cambiando la llamada a la siguiente estación base, en forma transparente para el usuario. Es por eso que se dice que las estaciones base forman una red de celdas, cual panal de abeja, sirviendo cada estación base a los equipos móviles que se encuentran en su celda.


Evolución y convergencia tecnológica.

La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde el Motorola DynaTAC, el primer teléfono móvil en 1983 que pesaba 800 gramos, a los actuales más compactos y con mayores prestaciones de servicio. El desarrollo de baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la incorporación de software más amigable, hacen del teléfono móvil un elemento muy apreciado en la vida moderna.

El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas, como juegos, reproducción de música MP3 y otros formatos, correo electrónico, SMS, agenda electrónica PDA, fotografía digital y video digital, videollamada, navegación por Internet, GPS, y hasta Televisión digital. Las compañías de telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato que nos acompaña a todas partes. Algunas de esas ideas son: medio de pago, localizador e identificador de personas.


Internet movil.
Mundo

Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de Internet especialmente diseñadas para móviles, conocido como tecnología WAP.

Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC.

Posteriormente, nació el GPRS, que permitió acceder a Internet a través del protocolo TCP/IP. Mediante el software adecuado es posible acceder, desde un terminal móvil, a servicios como FTP, Telnet, mensajería instantánea, correo electrónico, utilizando los mismos protocolos que un ordenador convencional. La velocidad del GPRS es de 54 kbit/s en condiciones óptimas, y se tarifa en función de la cantidad de información transmitida y recibida.

Otras tecnologías más recientes que permiten el acceso a Internet son EDGE, EvDO, HSPA y WiMAX.

Por otro lado, cada vez es mayor la oferta de tabletas (tipo iPad, Samsung Galaxy Tab, ebook o similar) por los operadores para conectarse a internet y realizar llamadas GSM (tabletas 3G).

Aprovechando la tecnología UMTS, comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil, consiguiendo velocidades similares a las de la ADSL. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino algunas operadoras establecen limitaciones en cuanto a datos o velocidad (con la notable excepción de Vodafone). Por otro lado, dichos móviles pueden conectarse a bases WiFi 3G (también denominadas gateways 3G5 6 ) para proporcionar acceso a internet a una red inalámbrica doméstica.
En 2011, el 20% de los usuarios de banda ancha tiene intención de cambiar su conexión fija por una conexión de Internet móvil.



5. Satelite artificial.
los

Historia de los satélites artificiales

Los satélites artificiales nacieron durante la guerra fría, entre los Estados Unidos y La Union Soviética, que pretendían ambos llegar a la luna y a su vez lanzar un satélite a la órbita espacial. En mayo de 1946, el Proyecto RAND presentó el informe Preliminary Design of an Experimental World-Circling Spaceship (Diseño preliminar de una nave espacial experimental en órbita), en el cual se decía que «Un vehículo satélite con instrumentación apropiada puede ser una de las herramientas científicas más poderosas del siglo XX. La realización de una nave satélite produciría una repercusión comparable con la explosión de la bomba atómica...».

La era espacial comenzó en 1946, cuando los científicos comenzaron a utilizar los cohetes capturados V-2 alemanes para realizar mediciones de la atmósfera. Antes de ese momento, los científicos utilizaban globos que llegaban a los 30 km de altitud y ondas de radio para estudiar la ionosfera. Desde 1946 a 1952 se utilizó los cohetes V-2 y Aerobee para la investigación de la parte superior de la atmósfera, lo que permitía realizar mediciones de la presión, densidad y temperatura hasta una altitud de 200 km.

Estados Unidos había considerado lanzar satélites orbitales desde 1945 bajo la Oficina de Aeronáutica de la Armada. El Proyecto RAND de la Fuerza Aérea presentó su informe pero no se creía que el satélite fuese una potencial arma militar, sino más bien una herramienta científica, política y de propaganda. En 1954, el Secretario de Defensa afirmó: «No conozco ningún programa estadounidense de satélites».

Tras la presión de la Sociedad Americana del Cohete (ARS), la Fundación Nacional de la Ciencia (NSF) y el Año Geofísico Internacional, el interés militar aumentó y a comienzos de 1955 la Fuerza Aérea y la Armada estaban trabajando en el Proyecto Orbiter, que evolucionaría para utilizar un cohete Jupiter-C en el lanzamiento de un satélite denominado Explorer 1 el 31 de enero de 1958.

El 29 de julio de 1955, la Casa Blanca anunció que los Estados Unidos intentarían lanzar satélites a partir de la primavera de 1958. Esto se convirtió en el Proyecto Vanguard. El 31 de julio, los soviéticos anunciaron que tenían intención de lanzar un satélite en el otoño de 1957.


Modelo de satélite

Un modelo de satélite (también conocido en inglés como satellite bus) es el modelo general en el que se basa la construcción de un satélite. Son comúnmente usados para los satélites que poseen órbitas geosíncronas, particularmente los satélites de comunicaciones. También son usados para órbitas bajas, y ocasionalmente para misiones planetarias.


6. Bomba atómica.
el

Las bombas de hidrógeno lo que realizan es la fusión (no la fisión) de núcleos ligeros (isótopos del hidrógeno) en núcleos más pesados.

La bomba de hidrógeno (bomba H), bomba térmica de fusión o bomba termonuclear se basa en la obtención de la energía desprendida al fusionarse dos núcleos atómicos, en lugar de la fisión de los mismos.

La energía se desprende al fusionarse los núcleos de deuterio (2H) y de tritio (3H), dos isótopos del hidrógeno, para dar un núcleo de helio. La reacción en cadena se propaga por los neutrones de alta energía desprendidos en la reacción.

Para iniciar este tipo de reacción en cadena es necesario un gran aporte de energía, por lo que todas las bombas de fusión contienen un elemento llamado iniciador o primario, que no es sino una bomba de fisión. A los elementos que componen la parte fusionable (deuterio, tritio, etc) se les conoce como secundarios.

La primera bomba de este tipo se hizo estallar en Eniwetok (atolón de las Islas Marshall) el 1 de noviembre de 1952 con marcados efectos en el ecosistema de la región. La temperatura alcanzada en la «zona cero» (lugar de la explosión) fue de más de 15 millones de grados, tan caliente como el núcleo del Sol, por unos cuantos segundos. Literalmente vaporizó dicha isla.

Estrictamente hablando las bombas llamadas termonucleares no son bombas de fusión sino fisión/fusión/fisión, la detonación del artefacto primario de fisión inicia la reacción de fusión como la descrita pero el propósito de la misma no es generar energía sino neutrones de alta velocidad que son usados para fisionar grandes cantidades de material fisible (235U, 239Pu o incluso 238U) que forma parte del artefacto secundario.

En un artefacto termonuclear clásico la aportación del componente de fusión al total de energía liberada no supera el 25% siendo en general mucho menor a esto.


7. Láser
10

Un láser (de la sigla inglesa LASER: Light Amplification by Stimulated Emission of Radiation) (amplificación de luz por emisión estimulada de radiación) es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida o estimulada, para generar un haz de luz coherente de un medio adecuado y con el tamaño, la forma y la pureza controlados.

En 1916, Albert Einstein estableció los fundamentos para el desarrollo de los láseres y de sus predecesores, los máseres (que emiten microondas), utilizando la ley de radiación de Max Planck basada en los conceptos de emisión espontánea e inducida de radiación.

En 1928 Rudolf Landenburg informó haber obtenido la primera evidencia del fenómeno de emisión estimulada de radiación, aunque no pasó de ser una curiosidad de laboratorio, por lo que la teoría fue olvidada hasta después de la Segunda Guerra Mundial, cuando fue demostrada definitivamente por Willis Eugene Lamb y R. C. Rutherford.

En 1953, Charles H. Townes y los estudiantes de postgrado James P. Gordon y Herbert J. Zeiger construyeron el primer máser: un dispositivo que funcionaba con los mismos principios físicos que el láser pero que produce un haz coherente de microondas. El máser de Townes era incapaz de funcionar en continuo. Nikolái Básov y Aleksandr Prójorov de la Unión Soviética trabajaron independientemente en el oscilador cuántico y resolvieron el problema de obtener un máser de salida de luz continua, utilizando sistemas con más de dos niveles de energía. Townes, Básov y Prójorov compartieron el Premio Nobel de Física en 1964 por "los trabajos fundamentales en el campo de la electrónica cuántica", los cuales condujeron a la construcción de osciladores y amplificadores basados en los principios de los máser-láser.

El primer láser es uno de rubí y funcionó por primera vez el 16 de mayo de 1960. Fue construido por Theodore Maiman. El hecho de que sus resultados se publicaran con algún retraso en Nature, dio tiempo a la puesta en marcha de otros desarrollos paralelos.2 3 Por este motivo, Townes y Arthur Leonard Schawlow también son considerados inventores del láser, el cual patentaron en 1960. Dos años después, Robert Hall inventa el láser semiconductor. En 1969 se encuentra la primera aplicación industrial del láser al ser utilizado en las soldaduras de los elementos de chapa en la fabricación de vehículos y, al año siguiente Gordon Gould patenta otras muchas aplicaciones prácticas para el láser.

El 16 de mayo de 1980, un grupo de físicos de la Universidad de Hull liderados por Geoffrey Pret registran la primera emisión láser en el rango de los rayos X. Pocos meses después se comienza a comercializar el disco compacto, donde un haz láser de baja potencia "lee" los datos codificados en forma de pequeños orificios (puntos y rayas) sobre un disco óptico con una cara reflectante. Posteriormente esa secuencia de datos digital se transforma en una señal analógica permitiendo la escucha de los archivos musicales. En 1984, la tecnología desarrollada comienza a usarse en el campo del almacenamiento masivo de datos. En 1994 en el Reino Unido, se utiliza por primera vez la tecnología láser en cinemómetros para detectar conductores con exceso de velocidad. Posteriormente se extiende su uso por todo el mundo.

Ya en el siglo XXI, científicos de la Universidad de St. Andrews crean un láser que puede manipular objetos muy pequeños. Al mismo tiempo, científicos japoneses crean objetos del tamaño de un glóbulo rojo utilizando el láser. En 2002, científicos australianos "teletransportan" con éxito un haz de luz láser de un lugar a otro.4 Dos años después el escáner láser permite al Museo Británico efectuar exhibiciones virtuales.5 En 2006, científicos de la compañía Intel descubren la forma de trabajar con un chip láser hecho con silicio abriendo las puertas para el desarrollo de redes de comunicaciones mucho más rápidas y eficientes.


Procesos.

Bombeo

En el láser el bombeo puede ser eléctrico u óptico, mediante tubos de flash o luz. Puede provocarse mediante una fuente de radiación como una lámpara, el paso de una corriente eléctrica, o el uso de cualquier otro tipo de fuente energética que provoque una emisión.

Resonador óptico.

Está compuesto por dos espejos que logran la amplificación y a su vez crean la luz laser. Dos tipos de resonadores: Resonador estable, emite un único haz laser, y Resonador Inestable, emite varios haces.

Emisión estimulada de radiación.

La emisión estimulada, base de la generación de radiación de un láser, se produce cuando un átomo en estado excitado recibe un estímulo externo que lo lleva a emitir fotones y así retornar a un estado menos excitado. El estímulo en cuestión proviene de la llegada de un fotón con energía similar a la diferencia de energía entre los dos estados. Los fotones así emitidos por el átomo estimulado poseen fase, energía y dirección similares a las del fotón externo que les dio origen. La emisión estimulada descrita es la raíz de muchas de las características de la luz láser. No sólo produce luz coherente y monocroma, sino que también "amplifica" la emisión de luz, ya que por cada fotón que incide sobre un átomo excitado se genera otro fotón.

Absorción.

Proceso mediante el cual se absorbe un fotón. El sistema atómico se excita a un estado de energía más alto, pasando un electrón al estado metaestable. Este fenómeno compite con el de la emisión estimulada de radiación.

Aplicaciones.

Cuando se inventaron, en 1960, los láseres se calificaron como "una solución a la espera de un problema". Desde entonces, se han vuelto omnipresentes y actualmente pueden encontrarse en miles de aplicaciones, en campos muy variados, como la electrónica de consumo, la tecnología de la información, la investigación científica, la medicina, la industria y el sector militar.

En muchas aplicaciones, los beneficios de los láseres se deben a sus propiedades físicas, como la coherencia, la monocromaticidad y la capacidad de alcanzar potencias extremadamente altas. A modo de ejemplo, un haz láser muy coherente puede enfocarse por debajo de su límite de difracción que, a longitudes de onda visibles, corresponde solamente a unos pocos nanómetros. Cuando se enfoca un haz de láser potente en un punto, éste recibe una enorme densidad de energía.7 Esta propiedad permite al láser grabar gigabytes de información en las microscópicas cavidades de un CD, DVD o Blu-ray. También permite a un láser de media o baja potencia alcanzar intensidades muy altas y usarlo para cortar, quemar o incluso sublimar materiales.

El rayo láser se emplea en el proceso de fabricación de grabar o marcar metales, plásticos y vidrio. Otros usos de este son:

-Diodos láser, usados en punteros láser, impresoras laser, y reproductores de CD, DVD, Blu-Ray, HD-DVD;
-Láser de punto cuántico
-Láser de helio-neón
-Láser de dióxido de carbono - usado en industria para corte y soldado
-Láser excimer, que produce luz ultravioleta y se utiliza en la fabricación de semiconductores y en la cirugía ocular



8. Automovil.

Que

Historia.

El automóvil lo inventó Karl Friedrich Benz en la ciudad alemana de Mannheim en 1886.6 Poco después otros pioneros, como Gottlieb Daimler y Wilhelm Maybach presentaron a su vez sus modelos. El primer viaje largo en un automóvil lo realizó Bertha Benz en 1888, al ir de Mannheim a Pforzheim, ciudades separadas entre sí por unos 105 km.7 Cabe destacar que fue un hito en la automovilística antigua, dado que un automóvil de esta época tenía como velocidad máxima unos 20 km/h, gastaba muchísimo más combustible de lo que gasta ahora un vehículo a esa misma velocidad y la gasolina se compraba en farmacias, donde no estaba disponible en grandes cantidades.

En 1910, Henry Ford comenzó a producir automóviles en una cadena de montaje, sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta entonces impensables.


Método de propulsión.

Los automóviles se propulsan mediante dos tipos de motores que son:

Motor térmico: El combustible reacciona con un comburente, normalmente el oxígeno del aire, en una combustión dentro de un motor de combustión. Mediante dicha reacción exotérmica, parte de la energía de los enlaces químicos de los reactivos es liberada en forma de energía térmica que, mediante un proceso termodinámico, se transforma parcialmente en energía mecánica. En automoción, los motores térmicos más utilizados son los motores de combustión interna, especialmente los alternativos motores Otto y motores diésel, aunque también se utilizan motores rotativos Wankel.

Motor eléctrico: se utilizan baterías que admiten varios ciclos de carga y descarga. Durante la descarga, la energía interna de los reactivos es transformada parcialmente en energía eléctrica. Este proceso se realiza mediante una reacción electroquímica de reducción-oxidación, dando lugar a la oxidación en el terminal negativo, que actúa como ánodo, y la reducción en el terminal positivo, que actúa como cátodo. La energía eléctrica obtenida es transformada por el motor eléctrico en energía mecánica. Durante la carga, se proporciona energía eléctrica a la batería para que aumente su energía interna y la reacción reversible de oxidación-reducción se realiza en sentido opuesto al de la descarga, dando lugar a la reducción en el terminal negativo, que actúa de como cátodo y la oxidación en el terminal positivo que actúa como ánodo.


Combustibles.

Actualmente, los combustibles más utilizados para accionar los motores térmicos de los automóviles son algunos productos derivados del petróleo y del gas natural, como la gasolina, el gasóleo, gases licuados del petróleo (butano y propano), gas natural vehicular o gas natural comprimido. Fuera del ámbito de los automóviles se utilizan otros combustibles para el accionamiento de vehículos de otros medios de transporte, como el fueloil en algunos barcos o el queroseno en las turbinas de gas del transporte aéreo.

En algunos países también se utilizan biocombustibles como el bioetanol o el biodiésel. Los principales productores de bioetanol son Estados Unidos y Brasil, seguidos de lejos por la Unión Europea, China y Canadá, generalmente a partir de la fermentación del azúcar de productos agrícolas como maíz, caña de azúcar, remolacha o cereales como trigo o cebada. El biodiésel es producido principalmente por la Unión Europea y Estados Unidos, en su mayor parte a partir de la esterificación y transesterificación de aceites de plantas oleaginosas, usados o sin usar, como el girasol, la palma o la soja.

Existe debate sobre la viabilidad energética de estos combustibles y cuestionamientos por el efecto que tienen al competir con la disponibilidad de tierras para el cultivo de alimentos. Sin embargo, tanto el impacto sobre el ambiente como el efecto sobre el precio y disponibilidad de los alimentos dependen del tipo de insumo que se utilice para producir el biocombustible.En el caso del bioetanol, cuando es producido a partir de maíz se considera que sus impactos son significativos y su eficiencia energética es menor, mientras que la producción de etanol en Brasil a partir de caña de azúcar es considerada sostenible.


Accionamiento eléctrico e híbrido.


Recientemente se ha comenzado a producir en serie automóviles con motor eléctrico. Si bien la autonomía de estos vehículos es aún limitada debido a la poca carga eléctrica almacenable en las baterías por unidad de masa, en un futuro esa capacidad podría aumentarse. El nivel de contaminación depende de cómo se genere la electricidad utilizada y de las fuentes de energía primaria que se utilicen.

También se ha comenzado la comercialización de automóviles híbridos, que poseen un motor térmico y un motor eléctrico. Este último funciona cuando el automóvil circula a poca velocidad, en algunos modelos con el otro motor térmico apagado. Las baterías se recargan con la energía liberada por un generador eléctrico movido por el motor térmico o al frenar el automóvil con frenos regenerativos.


Otros sistemas de propulsión.

Otra forma de energía para el automóvil es el hidrógeno, que no es una fuente de energía primaria, sino un vector energético, pues para su obtención es necesario consumir energía. La combinación del hidrógeno con el oxígeno deja como único residuo vapor de agua. Hay dos métodos para aprovechar el hidrógeno, uno mediante un motor de combustión interna y otro mediante pilas de combustible, una tecnología actualmente cara y en pleno proceso de desarrollo. El hidrógeno normalmente se obtiene a partir de hidrocarburos mediante el procedimiento de reformado con vapor. Podría obtenerse por medio de electrólisis del agua, pero no suele hacerse pues es un procedimiento que consume mucha energía.

También existen motores experimentales que funcionan propulsados por aire comprimido o por energía solar.


9. Cámara fotográfica
cambiaron

Una cámara fotográfica o cámara de fotos es un dispositivo utilizado para capturar imágenes o fotografías. Es un mecanismo antiguo para proyectar imágenes en el objeto en el que una habitación entera desempeñaba las mismas funciones que una cámara fotográfica actual por dentro, con la diferencia que en aquella época no había posibilidad de guardar la imagen a menos que ésta se trazara manualmente. Las cámaras actuales pueden ser sensibles al espectro visible o a otras porciones del espectro electromagnético y su uso principal es capturar el campo visual

Las cámaras fotográficas constan de una cámara oscura cerrada, con una abertura en uno de los extremos para que pueda entrar la luz, y una superficie plana de formación de la imagen o de visualización para capturar la luz en el otro extremo. La mayoría de las cámaras fotográficas tienen una lente colocada delante de la abertura de la cámara fotográfica para controlar la luz entrante y para enfocar la imagen, o parte de la imagen. El diámetro de esta abertura suele modificarse con un diafragma, aunque algunas cámaras tienen una abertura fija.

Mientras que el tamaño de la abertura y el brillo de la escena controlan la cantidad de luz que entra por unidad de tiempo, en la cámara durante el proceso fotográfico, el obturador controla el lapso que la luz incide en la superficie de grabación. Por ejemplo, en situaciones con poca luz, la velocidad de obturación será menor (mayor tiempo abierto) para permitir que la película reciba la cantidad de luz necesaria exactamente.


Tipos de cámaras.

Existen multitud de tipos como la buruta externas de aleriones distintos de cámaras fotográficas y los posibles criterios de clasificación son también innumerables teniendo en cuenta la complejidad y especialización que ha alcanzado la tecnología en este campo.

Cámaras compactas de 35mm
Sin duda las cámaras compactas de 35mm son las más extendidas mundialmente entre| Mayor sencillez de uso || Requiere conocimientos mínimos y práctica |- | Menor coste || Mayor coste |- | Visor óptico directo (habitualmente) || Visor réflex |- | Objetivo no intercambiable || Objetivos intercambiables |-las camaras no |}

Cámaras APS.

Si bien estas cámaras tuvieron una corta vida, y en la actualidad no se utilizan, es interesante considerar que fueron el resultado de la primera unificación entre el sistema analógico y el digital, ya que el registro de la imagen se realizaba sobre película, pudiendo agregarse a la misma información digital. Las cámaras APS (Advanced Photo System) son el resultado del acuerdo adoptado por varios fabricantes mundiales (entre otros Canon, Agfa, Polaroid, Kodak, Fuji y Nikon) para conseguir simplificar el funcionamiento de las cámaras fotográficas para los usuarios inexpertos y además introducir mejoras sustanciales frente a las comunes cámaras compactas de 35mm. Entre otras cosas, estas cámaras disponen de indicadores de estado, permiten sacar fotografías de tres formatos (clásico, alta definición y panorámico), permiten el cambio de película a medio uso, etc.

Cámaras réflex SLR
Los 10 inventos que cambiaron el mundo...

Una cámara réflex SLR (Single Lens Reflex) es una cámara fotográfica en la cual la imagen que ve el fotógrafo a través del visor es exactamente la misma que quedará capturada. Eso se consigue mediante el reflejo de la imagen (de ahí el nombre) sobre un espejo o sistema de espejos. Al igual que las cámaras compactas, pueden ser cámaras tradicionales de película fotográfica o digitales (DSLR).

Éstas suelen ser las cámaras preferidas por los fotógrafos aficionados y profesionales ya que permiten un control casi absoluto sobre cada uno de sus elementos y parámetros y disponen de multitud de accesorios intercambiables para distintos propósitos. En general poseen las siguientes características:

-Visor réflex o de pentaprisma, que permite ver exactamente lo que se ve a través del objetivo.
-Objetivos intercambiables.
-Fotómetro o exposímetro incorporado.
-Zapata de conexión para flash externo.
-Control (anillo) de enfoque manual.
-Obturadores muy rápidos.


Cámaras digitales.
inventos

Una cámara digital es un dispositivo electrónico usado para capturar y almacenar fotografías electrónicamente en lugar de usar películas fotográficas como las cámaras convencionales.


Otros tipos menos habituales

Cámara TLR (Twin Lens Reflex): es una cámara réflex de objetivos gemelos (uno encima de otro) que intenta solventar el principal problema del visor réflex, el que no se pueda ver la imagen durante el disparo (ya que el espejo que la conduce se abate para dejar pasar la luz hacia la película fotográfica o el sensor de imagen). Para ello monta dos objetivos: uno para tomar la foto y otro para conducir la imagen hacia el visor. Debido a esta configuración, adolecen del error de paralaje y de inversión lateral de la imagen en el visor, por lo que hay que acostumbrarse a usarlas sobre todo para realizar fotografías de objetos en movimiento. Son cámaras en desuso y muy pocas tienen objetivos intercambiables. Además habría que comprar dos objetivos para cada distancia focal.

Cámara de estudio o de banco: Aquellas que están montadas sobre bancos ópticos y raíles para permitir todo tipo de descentramientos, basculando los paneles delantero y trasero; lo cual da un control absoluto sobre la forma de la imagen, su perspectiva y el reparto de la profundidad de campo.

Cámara miniatura: Son las cámaras de fabricación en serie más pequeñas. Suelen tener formatos absolutamente particulares, especiales y su uso es, principalmente, la de actuar como cámaras espía. Estas cámaras suelen ser absolutamente automáticas careciendo de cualquier tipo de control aparte del disparador. Aunque existen cámaras de este tipo con película fotográfica (películas especiales de 16mm. de anchura), actualmente la mayoría de estas cámaras son cámaras digitales ya que ofrecen mayores posibilidades de miniaturización.

-Cámara panorámica: que proporcionan un ángulo de visión superior sin deformaciones.
-Cámara aérea: cámaras de satélites, fotogametría y cartografía.
-Cámara subacuática: específicamente diseñadas para trabajar bajo el agua a gran profundidad.
-Cámara estereoscópica: que intentan reproducir el funcionamiento de los dos ojos humanos (dos fotos simultáneas desde dos puntos separados 63mm con las que luego se puede reproducir la visión estéreo con un visor especial).

10. Gps
Mundo

El GPS (Global Positioning System: sistema de posicionamiento global) o NAVSTAR-GPS1 es un sistema global de navegación por satélite (GNSS) que permite determinar en todo el mundo la posición de un objeto, una persona o un vehículo con una precisión hasta de centímetros (si se utiliza GPS diferencial), aunque lo habitual son unos pocos metros de precisión. El sistema fue desarrollado, instalado y actualmente operado por el Departamento de Defensa de los Estados Unidos.

El GPS funciona mediante una red de 24 satélites en órbita sobre el globo, a 20.200 km, con trayectorias sincronizadas para cubrir toda la superficie de la Tierra. Cuando se desea determinar la posición, el receptor que se utiliza para ello localiza automáticamente como mínimo tres satélites de la red, de los que recibe unas señales indicando la identificación y la hora del reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el tiempo que tardan en llegar las señales al equipo, y de tal modo mide la distancia al satélite mediante "triangulación" (método de trilateración inversa), la cual se basa en determinar la distancia de cada satélite respecto al punto de medición. Conocidas las distancias, se determina fácilmente la propia posición relativa respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. También se consigue una exactitud extrema en el reloj del GPS, similar a la de los relojes atómicos que llevan a bordo cada uno de los satélites.

La antigua Unión Soviética construyó un sistema similar llamado GLONASS, ahora gestionado por la Federación Rusa.

Actualmente la Unión Europea está desarrollando su propio sistema de posicionamiento por satélite, denominado Galileo.

A su vez, la República Popular China está implementando su propio sistema de navegación, el denominado Beidou, que preveen que cuente con entre 12 y 14 satélites entre 2011 y 2015. Para 2020, ya plenamente operativo deberá contar con 30 satélites. De momento (marzo 2011), ya tienen 7 en órbita.


Funcionamiento.

La situación de los satélites puede ser determinada de antemano por el receptor con la información del llamado almanaque (un conjunto de valores con 5 elementos orbitales), parámetros que son transmitidos por los propios satélites. La colección de los almanaques de toda la constelación se completa cada 12-20 minutos y se guarda en el receptor GPS.
La información que es útil al receptor GPS para determinar su posición se llama efemérides. En este caso cada satélite emite sus propias efemérides, en la que se incluye la salud del satélite (si debe o no ser considerado para la toma de la posición), su posición en el espacio, su hora atómica, información doppler, etc.
El receptor GPS utiliza la información enviada por los satélites (hora en la que emitieron las señales, localización de los mismos) y trata de sincronizar su reloj interno con el reloj atómico que poseen los satélites. La sincronización es un proceso de prueba y error que en un receptor portátil ocurre una vez cada segundo. Una vez sincronizado el reloj, puede determinar su distancia hasta los satélites, y usa esa información para calcular su posición en la tierra.
Cada satélite indica que el receptor se encuentra en un punto en la superficie de la esfera, con centro en el propio satélite y de radio la distancia total hasta el receptor.
Obteniendo información de dos satélites se nos indica que el receptor se encuentra sobre la circunferencia que resulta cuando se intersecan las dos esferas.
Si adquirimos la misma información de un tercer satélite notamos que la nueva esfera sólo corta la circunferencia anterior en dos puntos. Uno de ellos se puede descartar porque ofrece una posición absurda. De esta manera ya tendríamos la posición en 3D. Sin embargo, dado que el reloj que incorporan los receptores GPS no está sincronizado con los relojes atómicos de los satélites GPS, los dos puntos determinados no son precisos.
Teniendo información de un cuarto satélite, eliminamos el inconveniente de la falta de sincronización entre los relojes de los rece