Aquí está la última adición de HP a su línea de PCs de escritorio, la Elite 7000. La máquina está potenciada por un procesador Intel Core i5 750, i7 860 o i7 870, contando con una placa madre P55, además tiene una NVIDIA GeForce G210 de 512 MB, una Radeon HD 4550 de 512 MB o una Radeon HD 4650 de 1 GB como tarjeta gráfica, un máximo de 1TB de memoria, lectora de DVD o Blu-ray y un sistema operativo a elegir entre Windows 7, Windows Vista y Windows XP. La Elite 7000 estará disponible a la venta desde el 22 de octubre por un precio de $ 780.
http://tecnomagazine.net/2009/10/22/elite-7000-la-nueva-pc-de-hp/
lunes, 26 de octubre de 2009
Nueva NVIDIA GeForce GT220
Luego de que AMD ha lanzado su segunda tarjeta gráfica DirectX 11 bajo el nombre Radeon HD5700, NVIDIA reveló una nueva GPU llamada GeForce GT 220, la cual, según sus creadores, ofrece un precio razonable y provee una mejora en la reproducción de videos, haciendo que los DVDs normales se vean como en alta definición (HD) y que los juegos más populares sean más disfrutables.
Especificaciones:
* Núcleos 48 CUDA* Procesado gráfico de 625 MHz* Procesador de 1360 MHz* Memoria 1GB DDR3* Interfaz de memoria de 128 bit* VGA, DVI, HDMI
Especificaciones:
* Núcleos 48 CUDA* Procesado gráfico de 625 MHz* Procesador de 1360 MHz* Memoria 1GB DDR3* Interfaz de memoria de 128 bit* VGA, DVI, HDMI
HP anuncia nueva Pavillion DV8
HP ha oficializado una nueva notebook de entretenimiento. La Pavilion dv8 es una laptop para gente que busca reemplazar su PC de escritorio y disfrutar del contenido multimedia. Cuenta con una pantalla de 18,4 pulgadas en alta definición, lector de discos Blu-ray. Dispone de un procesador Intel Core i7, tarjeta gráfica NVIDIA GeForce GT 230M con 1 GB DDR3 SDRAM, también incluye 4 GB de RAM, 320 GB de disco duro, unidad Blu-ray, sintonizador de TV y Wireless de 802. 11n.
En adición a la dv8, HP anunció actualizaciones en la tecnología de la Pavilion dv6 y dv7. Ambas ofrecerán al usuario la posibilidad de incorporar un procesador Intel Core i7 o el AMD Turion II ultra Dual Core. Las tres laptops estarán a la venta desde el 22 de octubre, la dv8 a $ 2078, mientras la dv7 a unos $ 960 y la restante dv6 a $ 720.
En adición a la dv8, HP anunció actualizaciones en la tecnología de la Pavilion dv6 y dv7. Ambas ofrecerán al usuario la posibilidad de incorporar un procesador Intel Core i7 o el AMD Turion II ultra Dual Core. Las tres laptops estarán a la venta desde el 22 de octubre, la dv8 a $ 2078, mientras la dv7 a unos $ 960 y la restante dv6 a $ 720.
Lenovo IdeaPad U150
Lenovo ha mostrado su nueva y cómoda laptop de 11,6 pulgadas, la IdeaPad U150. El fabricante no ha provisto información sobre los detalles de la notebook. De cualquier manera, un minorista llamado Xmit la detallada con un grosor de 0,53 pulgadas y un peso de 3 libras (1,4 kilogramos) y como una Pentium SU4100 de 1,3 GHz, contando con gráficos integrados GMA X4500, 2GB de memoria DDR3, disco duro de 250GB, batería de 6 células y como sistema operativo el Windows Vista Home Basic. La pantalla tiene una resolución de 1366×768 píxeles y luz trasera LED.
La nueva laptop delgada y liviana de Lenovo cuenta con una cámara web de1,3MP, altavoces stereo, WiFi, puerto LAN Gigabit, salidas HDMI y VGA, tres puertos USB y una tarjeta lectora de multimedia. La IdeaPad U150 tiene un precio que ronda los $770 dólares.
La nueva laptop delgada y liviana de Lenovo cuenta con una cámara web de1,3MP, altavoces stereo, WiFi, puerto LAN Gigabit, salidas HDMI y VGA, tres puertos USB y una tarjeta lectora de multimedia. La IdeaPad U150 tiene un precio que ronda los $770 dólares.
Un teclado que se autohigieniza
La tecnología avanza, pero también la suciedad y la mayoría de nosotros sabemos lo sucio que puede estar un teclado, pero Vioguard LLC también lo sabe y ha introducido el primer teclado que se limpia por sí mismo. Usa dos luces ultravioletas (UV) de 25 W para matar el 99,99% de los virus y bacterias en unos 90 segundos. Se sabe que la luz UV es efectiva contra microorganismos como el de la gripe H1N1, MRSA y otros. Si lo quieres, podrás obtenerlo por $900 dólares.
Bicicletas japonesas potenciadas por hidrógeno
Es seguro que a Japón le gusta estar a la cabeza cuando se trata de tecnología, así que cuando se trata de construir una bicicleta ecológica, ellos también están con lo primero. Este vehículo no sólo contará con un motor eléctrico para asistir al conductor, si no que también habrá cartuchos de hidrógeno. Con un peso de 31 kilogramos y midiendo 1,56 metros de largo la bicicleta logra recorrer un trayecto de unas 45 millas (72 kilómetros).
Los cartuchos de hidrógeno son vendidos por la misma compañía, pero además se debe llevar una batería de litio (de 26V y 4Ah) abordo. La energía es suministrada por la batería automáticamente una vez que el hidrógeno se ha agotado. Los cartuchos cuentan con un volumen de 80nl y son colocados en un pequeño tanque en la parte posterior del asiento. La bicicleta aún está siendo probada, así que no hay planes para producirla en masa.
Los cartuchos de hidrógeno son vendidos por la misma compañía, pero además se debe llevar una batería de litio (de 26V y 4Ah) abordo. La energía es suministrada por la batería automáticamente una vez que el hidrógeno se ha agotado. Los cartuchos cuentan con un volumen de 80nl y son colocados en un pequeño tanque en la parte posterior del asiento. La bicicleta aún está siendo probada, así que no hay planes para producirla en masa.
WB-1010 será el transporte aéreo para un mundo ultra poblado en 2094
Mirando hacia el futuro en 85 años, el concepto de esta nave espera resolver problemas de transporte en un mundo que estará tapado de personas. La nave fue diseñada creyendo en los avances de la tecnología y materiales para estos vehículos en el futuro, ya que se espera que los principios de vuelo y diseño no cambien prácticamente. Entonces los dirigibles del futuro serán como los actuales, pero serán mucho más rápidos y con mejor tecnología.
Por como van las cosas ahora, se espera que en 85 años el planeta esté abarrotado de gente. La mayoría de las rutas aéreas tendrán un tráfico extremo, y tendrán que ser más largas, confortables y compactas.
El WB-1010 será capaz de llevar más de 1500 personas y alcanzar una velocidad de unos 1000 Km/h, casi como la del sonido. La estructura de éste gigante estará hecha de materiales similares al usado en el Airbus A380, con helio inyectado en sus estructuras para hacerlo más liviano, todas las ventanas estarán hechas de “vidrio inteligente”. A pesar de que el dirigible será capaz de usar la energía del viento, su fuente principal de abastecimiento será el combustible convencional (si es que aún queda para esa fecha). Un soporte que sale de su “estómago” lo ayudará durante los aterrizajes y trabajando en conjunto con un súper jet, será capaz de aterrizar en vertical.
Fuente
Por como van las cosas ahora, se espera que en 85 años el planeta esté abarrotado de gente. La mayoría de las rutas aéreas tendrán un tráfico extremo, y tendrán que ser más largas, confortables y compactas.
El WB-1010 será capaz de llevar más de 1500 personas y alcanzar una velocidad de unos 1000 Km/h, casi como la del sonido. La estructura de éste gigante estará hecha de materiales similares al usado en el Airbus A380, con helio inyectado en sus estructuras para hacerlo más liviano, todas las ventanas estarán hechas de “vidrio inteligente”. A pesar de que el dirigible será capaz de usar la energía del viento, su fuente principal de abastecimiento será el combustible convencional (si es que aún queda para esa fecha). Un soporte que sale de su “estómago” lo ayudará durante los aterrizajes y trabajando en conjunto con un súper jet, será capaz de aterrizar en vertical.
Fuente
eRinGo, el auto con forma de anillo de Mohammad Ghezel
El concepto eRinGo del diseñador Mohammad Ghezel es un auto eléctrico con una función y forma única. El vehículo con forma de anillo tiene una larga rueda que corre alrededor de su centro mientras presenta dos ruedas de tamaño medio a cada lado. Cuando el automóvil está en movimiento dichas ruedas ayudan cruzándose, y cuando está quieto se extienden para proveer balance y soporte. Un sistema rotor ayuda al auto a mantener el balance en la rueda principal.
En un sistema de tecnología único, los dos asientos cuentan con volantes, permitiéndoles tomar el control a ambos conductores, lo que sin dudas hará que lluevan puños dentro del auto, mientras un conductor acciona su volante, el otro queda desactivado.
En un sistema de tecnología único, los dos asientos cuentan con volantes, permitiéndoles tomar el control a ambos conductores, lo que sin dudas hará que lluevan puños dentro del auto, mientras un conductor acciona su volante, el otro queda desactivado.
Booklet 3G, la nueva netboook Nokia.
Hace un tiempo les presentamos el Nokia Booklet 3G y hasta ese tiempo desconocíamos cuándo realmente podríamos tener esa tecnología en nuestras manos. Ahora podemos. De acuerdo con Nokia desde el 22 de octubre está disponible por un precio de entre 250 y 365 dólares.
Lanzada el mismo día que Windows 7 (el cual funciona en la Booklet 3G), por lo cual podríamos levemente tener razones para justificar su apresurado lanzamiento. Quienes estén dispuestos a pagar un contrato de servicio por 2 años podrían tener la Nokia Booklet 3G por una tarifa mensual de 20 a 25 dólares.
Lanzada el mismo día que Windows 7 (el cual funciona en la Booklet 3G), por lo cual podríamos levemente tener razones para justificar su apresurado lanzamiento. Quienes estén dispuestos a pagar un contrato de servicio por 2 años podrían tener la Nokia Booklet 3G por una tarifa mensual de 20 a 25 dólares.
Adobe Lanza Photoshop Mobile para Iphones y para Ipods
Como esperarás según el título, Adobe ofrece su clásico editor Photoshop para iPhones y para iPods. Cuenta con herramientas básicas como rotación y recortes, además incorpora saturación, control de matiz, varios filtros y efectos. Cuenta con filtros más avanzados que los usuales de convertir imágenes a blanco y negro, como son Warm Vintage, Vignette y Pop. También hay una herramienta de boceto, la cual crea una pintura a mano a partir de una foto y una de enfocado suave, lo que asumimos te hará ver como Cher en unos de sus videos musicales con tecnología de hace 20 años.
Los usuarios además adquieren 2GB de almacenamiento online gratuito de álbumes en Photoshop.com, donde podrán acceder y almacenar desde su iPhone. Photoshop Mobile para iPhone está disponible desde la tienda App, aunque únicamente en Estados Unidos y Cánada son descargas gratuitas.
Los usuarios además adquieren 2GB de almacenamiento online gratuito de álbumes en Photoshop.com, donde podrán acceder y almacenar desde su iPhone. Photoshop Mobile para iPhone está disponible desde la tienda App, aunque únicamente en Estados Unidos y Cánada son descargas gratuitas.
sábado, 18 de julio de 2009
PANTALLA PLASMA

Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.). Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se convierte eléctricamente en plasma el cual provoca que una substancia fosforescente (que no es fósforo) emita luz.
La pantalla de plasma fue inventada en 1964 en la Universidad de Illinois por Donald L. Bitzer, Gene Slottow y el estudiante Robert Willson para poder comer, el PLATO Computer System. eran monocromas (naranja, verde y amarillo) y fueron muy populares al comienzo de los 70 por su dureza y porque no necesitaban ni memoria ni circuitos para actualizar la imagen. A finales de los 70 tuvo lugar un largo periodo de caída en las ventas debido a que las memorias de semiconductores hicieron a las pantallas CRT más baratas que las pantallas de plasma. No obstante, su tamaño de pantalla relativamente grande y la poca profundidad de su cuerpo las hicieron aptas para su colocación en vestíbulos y bolsas de valores.
En 1973, IBM introdujo una pantalla monocroma de 11 pulgadas (483 mm) que era capaz de mostrar simultáneamente cuatro sesiones de terminal de la máquina virtual del IBM 3270. Esta fábrica fue trasladada en 1987 a una compañía llamada Plasmaco que había sido fundada recientemente por el doctor Larry F. Weber (uno de los estudiantes del doctor Bitzer), Stephen Globus y James Kehoe (que era el encargado de planta de IBM).
En 1992, Fujitsu creó la primera pantalla de 15 pulgadas (233 mm) en blanco y negro.
En 1996, Matsushita Electrical Industries (Panasonic) compró Plasmaco, su tecnología y su fábrica estadounidense.
En 1997, Pioneer empezó a vender el primer televisor de plasma al público. Las pantallas de plasma actuales se pueden ver habitualmente en los hogares y son más finas y grandes que sus predecesoras. Su pequeño grosor les permite competir con otros aparatos como los proyectores.
El tamaño de las pantallas ha crecido desde aquella pantalla de 15 pulgadas de 1992. La pantalla de plasma más grande del mundo ha sido mostrada en el Consumer Electronics Show del año 2008 en Las Vegas (.U.S.A.) y es una pantalla de 150 pulgadas creada por Panasonic.
Hasta hace poco, su brillo superior, su tiempo de respuesta más rápido, su gran espectro de colores y su mayor ángulo de visión (comparándolas con las pantallas LCD) hicieron de las pantallas de plasma una de las tecnologías de visión para HDTV más populares. Durante mucho tiempo se creyó que la tecnología LCD era conveniente tan sólo para pequeños televisores y que no podía competir con la tecnología del plasma en las pantallas más grandes (particularmente de 42 pulgadas en adelante).
Sin embargo, tras esto, los cambios y mejoras en la tecnología LCD han hecho más pequeña esta diferencia. Su poco peso, bajos precios, mayor resolución disponible (lo que es importante para HDTV) y a menudo bajo consumo eléctrico convirtieron a las pantallas LCD en duras competidoras en el mercado de los televisores. A finales del año 2006 los analistas observaron que las pantallas LCD estaban alcanzando a las de plasma, particularmente en el importante segmento de las pantallas de 40 pulgadas o más dónde los plasmas habían disfrutado de un fuerte dominio un par de años antes. Hoy en día las LCD ya compiten con las de plasma en los segmentos de 50 y 60 pulgadas donde existe casi tanta variedad en ambas tecnologías. Por otro lado el precio al publico se ha invertido ya que la demanda de LCD es alta y la tecnología basada en plasma está viendo bajar su precio por debajo del de su competidor. Otra tendencia de la industri
a es la consolidación de los fabricantes de pantallas de plasma con alrededor de cincuenta marcas disponibles pero sólo cinco fabricantes.
En 1973, IBM introdujo una pantalla monocroma de 11 pulgadas (483 mm) que era capaz de mostrar simultáneamente cuatro sesiones de terminal de la máquina virtual del IBM 3270. Esta fábrica fue trasladada en 1987 a una compañía llamada Plasmaco que había sido fundada recientemente por el doctor Larry F. Weber (uno de los estudiantes del doctor Bitzer), Stephen Globus y James Kehoe (que era el encargado de planta de IBM).
En 1992, Fujitsu creó la primera pantalla de 15 pulgadas (233 mm) en blanco y negro.
En 1996, Matsushita Electrical Industries (Panasonic) compró Plasmaco, su tecnología y su fábrica estadounidense.
En 1997, Pioneer empezó a vender el primer televisor de plasma al público. Las pantallas de plasma actuales se pueden ver habitualmente en los hogares y son más finas y grandes que sus predecesoras. Su pequeño grosor les permite competir con otros aparatos como los proyectores.
El tamaño de las pantallas ha crecido desde aquella pantalla de 15 pulgadas de 1992. La pantalla de plasma más grande del mundo ha sido mostrada en el Consumer Electronics Show del año 2008 en Las Vegas (.U.S.A.) y es una pantalla de 150 pulgadas creada por Panasonic.
Hasta hace poco, su brillo superior, su tiempo de respuesta más rápido, su gran espectro de colores y su mayor ángulo de visión (comparándolas con las pantallas LCD) hicieron de las pantallas de plasma una de las tecnologías de visión para HDTV más populares. Durante mucho tiempo se creyó que la tecnología LCD era conveniente tan sólo para pequeños televisores y que no podía competir con la tecnología del plasma en las pantallas más grandes (particularmente de 42 pulgadas en adelante).
Sin embargo, tras esto, los cambios y mejoras en la tecnología LCD han hecho más pequeña esta diferencia. Su poco peso, bajos precios, mayor resolución disponible (lo que es importante para HDTV) y a menudo bajo consumo eléctrico convirtieron a las pantallas LCD en duras competidoras en el mercado de los televisores. A finales del año 2006 los analistas observaron que las pantallas LCD estaban alcanzando a las de plasma, particularmente en el importante segmento de las pantallas de 40 pulgadas o más dónde los plasmas habían disfrutado de un fuerte dominio un par de años antes. Hoy en día las LCD ya compiten con las de plasma en los segmentos de 50 y 60 pulgadas donde existe casi tanta variedad en ambas tecnologías. Por otro lado el precio al publico se ha invertido ya que la demanda de LCD es alta y la tecnología basada en plasma está viendo bajar su precio por debajo del de su competidor. Otra tendencia de la industri

MOTO ECOLOGICA

Hasta 100 km por hora, excelente aceleración, maniobrabilidad plena, ruido inexistente, mantenimiento escaso y emisiones de CO2 nulas. La revolución se llama Vectrix.
El maxi-scooter está preparado para dejar atrás a sus competidoras de gasolina,ofreciendo las mismas prestaciones sin tener que preocuparse por el precio del combustible.
A simple vista, por sus excelentes capacidades, el Vectrix no tiene nada que envidiar a un modelo de 250 cc. Corre y acelera de sobra para los recorridos urbanos, deslizándose con soltura por la ciudad, sin alterar el ambiente con emisiones perjudiciales o molestos ruidos.El maxi-scooter representa una solución ideal por su movilidad y su facilidad de conducción, con detalles de gran utilidad para la urbe como la marcha atrás. Su centro de gravedad bajo garantiza su maniobrabilidad y el sistema de frenada con recuperación de energía permite reducir la velocidad de manera gradual y segura, a la vez que influye en un 10% en la recarga de la batería. La autonomía total del maxiscooter se situá en 110 km y el tiempo de recarga es de unas dos horas.http://www.borrmart.es/articulo_automovilismo.php?id=1475&numero=689
jueves, 16 de julio de 2009
DESARROLLAN OLED QUE PRODUCE LA MISMA LUZ BLANCA QUE PRODUCE EL BOMBILLO

Ingenieros alemanes han desarrollado un diodo orgánico emisor de luz (OLED, en sus siglas en inglés) que puede, en potencia, producir la misma calidad de luz blanca que las bombillas incandescentes. Aunque aún restan superar importantes barreras que permitan confirmar su disponibilidad a nivel masivo, esta nueva generación de OLED´s podría suponer un importante avance en cuanto a rendimiento energético, ya que alcanzan mayores valores de eficiencia que las restantes tecnologías de iluminación.
Una nueva tecnología lumínica podría suponer un paso adelante en iluminación artificial de alta eficiencia energética. Se trata de una nueva gama de diodos orgánicos emisores de luz, que han sido desarrollados en el marco de una investigación encarada en el Instituto de Fotofísica Aplicada de Dresden, en Alemania (Institut für Angewandte Photophysik).
De acuerdo al equipo de ingenieros e investigadores a cargo de este trabajo, estos nuevos diodos orgánicos emisores de luz estarían en condiciones de convertirse en la opción más conveniente en un futuro próximo en cuanto a iluminación, ya que sus estándares de eficiencia energética superarían a las bombillas incandescentes, fluorescentes, a las LED´s y otras tecnologías similares.
Un OLED (es la sigla que identifica en inglés a los diodos orgánicos) es capaz de obtener la misma producción de luz blanca que un dispositivo de iluminación incandescente, aunque con una eficiencia y rendimiento energético superior al que obtienen el resto de las tecnologías disponibles hasta hoy. Estos son algunos de los detalles sobre este avance que pueden leerse en un reciente artículo de la revista Technology Review. Los resultados de esta investigación se han publicado en Nature.
El prototipo de OLED desarrollado en el centro alemán de investigación podría transformarse, una vez adaptado a las necesidades del mercado, en una fuente lumínica de alta eficiencia para ser empleada en pantallas y todo tipo de necesidades en cuanto a iluminación. El propósito de los ingenieros e investigadores a cargo del proyecto es fabricar en serie los OLED´s mediante económicos sistemas de impresión rollo a rollo.
Una nueva tecnología lumínica podría suponer un paso adelante en iluminación artificial de alta eficiencia energética. Se trata de una nueva gama de diodos orgánicos emisores de luz, que han sido desarrollados en el marco de una investigación encarada en el Instituto de Fotofísica Aplicada de Dresden, en Alemania (Institut für Angewandte Photophysik).
De acuerdo al equipo de ingenieros e investigadores a cargo de este trabajo, estos nuevos diodos orgánicos emisores de luz estarían en condiciones de convertirse en la opción más conveniente en un futuro próximo en cuanto a iluminación, ya que sus estándares de eficiencia energética superarían a las bombillas incandescentes, fluorescentes, a las LED´s y otras tecnologías similares.
Un OLED (es la sigla que identifica en inglés a los diodos orgánicos) es capaz de obtener la misma producción de luz blanca que un dispositivo de iluminación incandescente, aunque con una eficiencia y rendimiento energético superior al que obtienen el resto de las tecnologías disponibles hasta hoy. Estos son algunos de los detalles sobre este avance que pueden leerse en un reciente artículo de la revista Technology Review. Los resultados de esta investigación se han publicado en Nature.
El prototipo de OLED desarrollado en el centro alemán de investigación podría transformarse, una vez adaptado a las necesidades del mercado, en una fuente lumínica de alta eficiencia para ser empleada en pantallas y todo tipo de necesidades en cuanto a iluminación. El propósito de los ingenieros e investigadores a cargo del proyecto es fabricar en serie los OLED´s mediante económicos sistemas de impresión rollo a rollo.
AUDIFONOS

Audífonos (también conocido como auriculares) son un par de dos transductores que reciben una señal eléctrica de un tocador de medios de comunicación o el receptor y usan a altavoces colocados en la proximidad cercana a los oídos (de ahí proviene el nombre de auricular) para convertir la señal en ondas sonoras audibles. En el contexto de telecomunicación, los auriculares con término también comúnmente son entendidos para referirse a una combinación de auriculares y micrófono usado para la comunicación de doble dirección, por ejemplo con un teléfono celular.
Los auriculares pasan a la moda a partir de los principios de la historia del teléfono y la radio. Las señales débiles eléctricas de los tempranos instrumentos eran bastante para manejar sólo auriculares de forma audible. Beyerdynamic se considera, por tener auriculares oficialmente inventados a finales de los años 1930, y era la primera empresa a auriculares de mercado al público en general.
Aplicaciones
Los auriculares son normalmente desmontables, usando un enchufe de gato. Productos típicos a los cuales ellos son atados incluyen el walkman, el teléfono celular, el CD player, el tocador de Minidisco, el tocador digital de audio, (mp3 player), y el ordenador personal. Los auriculares también pueden ser usados con el tamaño lleno componentes estéreos. Algunas unidades de auricular son autónomas, incorporando a un receptor de radio. Otros auriculares son inalámbricos, usando la radio (por ejemplo el análogo FM, Bluetooth, Wi-Fi o infrarrojos) para recibir señales de una unidad base.
Beneficios y Limitaciones
Los auriculares se utilizan para evitar que otras personas puedan o tengan que escuchar el sonido, como en sitios públicos, bibliotecas, etcétera o para el aislamiento. Además, los auriculares pueden proporcionar una calidad de sonido superior a la mayoría de los altavoces incluso de alta gama. Esto es especialmente notable en frecuencias bajas, donde en sistemas de altavoces domésticos es necesario el uso de un subwoffer, e incluso subwoffers de alta calidad pueden tener distorsiones en frecuencias muy bajas, cosa que en el caso de los auriculares es mucho menos común a frecuencias muy bajas como 20hz.
Los auriculares también permiten un avanzado sistema de posicionamiento 3D de audio, muy usado en el cine y sobretodo videojuegos, donde se puede juzgar la posición las fuentes de sonido (como los pasos de un enemigo) antes de aparecer en pantalla. Sin embargo, hay que destacar que el posicionamiento de sonido tridimensional está mucho más avanzado en el caso de sistemas de sonido 5.1 y para recrear un efecto similar con auriculares es utilizan las holofonias, sistema de audio que recrea casi a la perfección cualquier ambiente sonoro. Sin embargo es muy poco utilizado, debido a la necesidad de grabar las fuentes de sonido con micrófonos especiales y por tanto, imposible que realizar en tiempo real. Esto hace que muchas veces la mayoría de grabaciones que se escuchan sean grabadas en un estéreo diseñado para altavoces y que crean el efecto sonoro de que el sonido proviene del "centro de la cabeza" del oyente. Esto es porque para simular los efectos tales como la reberberación de una estancia o sonidos que provienen de la parte de atrás es necesario recrear dichas condiciones en la propia grabación, ya que los auriculares, al ir directamente al oído, no crean por sí mismos dichos efectos. Las grabaciones binaurales (las utilizadas para las holofonias precisamente sirven para eso, pero por las razones antes mencionadas son poco comunes en el cine y música.
Los auriculares son comúnmente utilizados en oficinas, programas de televisión o con fines médicos para personas que sufran sordera parcial.
Peligros y soluciones de volumen
Usar los auriculares en un nivel del volumen suficientemente alto puede causar el deterioro o la sordera temporal o permanente de oído debido a un efecto llamado enmascarar. El volumen del auricular tiene que competir con el ruido de fondo, especialmente en lugares excesivamente ruidosos tales como estaciones del subterráneo, aeroplanos, y muchedumbres grandes. Esto conduce a la desaparición del dolor normal asociado a niveles más altos de volúmenes, y los períodos prolongados del volumen excesivamente ruidoso son extremadamente perjudiciales. Algunos fabricantes de los dispositivos portátiles de la música han procurado introducir el trazado de circuito de seguridad que el volumen limitado de la salida o advirtiendo al usuario cuando el volumen peligroso era utilizado, solamente el concepto ha sido rechazado por la mayoría del público que compraba, que favorece la opción personal del alto volumen. Koss introdujo la línea de "Safelite" de los reproductores de cassette en 1983 con un piloto de luz. La línea fue descontinuada dos años más tarde para la carencia del interés.
Estos últimos años, el interés se ha centrado de nuevo en la audiencia de protección, y las compañías han respondido. La característica de AVLS de Sony corrige diferencias en volúmenes de la pista mientras que se están reproduciendo, y el chequeo de los sonidos de Apple normaliza los volúmenes máximos de pistas seleccionadas en iTunes. También, uno puede manipular las etiquetas del volumen, o juegue de nuevo el aumento, de MP3s; este método se debe hacer manualmente por el usuario que usa el software de 3rd-party, pero se mira para proporcionar una consistencia mejor que las opciones antedichas. También de la nota, el gobierno francés ha impuesto un límite ante todos los reproductores música vendidos en el país: pueden no ser capaz de producir más DBA de 100 (el umbral del daño de la audiencia durante su escuche extendido es DB 80, y el umbral del dolor, o de la pérdida de oído inmediata, es DB 130). Muchos denigran esto como infracción en la opción personal, y utilizan las opciones 3rd-party para invertir los casquillos del volumen del software colocados en tales dispositivos. Otros dan la bienvenida a la postura de la "favorable salud" del gobierno.
Otros riesgos se presentan del conocimiento reducido de sonidos externos - algunas jurisdicciones regulan el uso de auriculares mientras que conducen los vehículos, limitando generalmente el uso de auriculares a un solo oído.
Obtenido de "http://es.wikipedia.org/wiki/Aud%C3%ADfonos"
Los auriculares pasan a la moda a partir de los principios de la historia del teléfono y la radio. Las señales débiles eléctricas de los tempranos instrumentos eran bastante para manejar sólo auriculares de forma audible. Beyerdynamic se considera, por tener auriculares oficialmente inventados a finales de los años 1930, y era la primera empresa a auriculares de mercado al público en general.
Aplicaciones
Los auriculares son normalmente desmontables, usando un enchufe de gato. Productos típicos a los cuales ellos son atados incluyen el walkman, el teléfono celular, el CD player, el tocador de Minidisco, el tocador digital de audio, (mp3 player), y el ordenador personal. Los auriculares también pueden ser usados con el tamaño lleno componentes estéreos. Algunas unidades de auricular son autónomas, incorporando a un receptor de radio. Otros auriculares son inalámbricos, usando la radio (por ejemplo el análogo FM, Bluetooth, Wi-Fi o infrarrojos) para recibir señales de una unidad base.
Beneficios y Limitaciones
Los auriculares se utilizan para evitar que otras personas puedan o tengan que escuchar el sonido, como en sitios públicos, bibliotecas, etcétera o para el aislamiento. Además, los auriculares pueden proporcionar una calidad de sonido superior a la mayoría de los altavoces incluso de alta gama. Esto es especialmente notable en frecuencias bajas, donde en sistemas de altavoces domésticos es necesario el uso de un subwoffer, e incluso subwoffers de alta calidad pueden tener distorsiones en frecuencias muy bajas, cosa que en el caso de los auriculares es mucho menos común a frecuencias muy bajas como 20hz.
Los auriculares también permiten un avanzado sistema de posicionamiento 3D de audio, muy usado en el cine y sobretodo videojuegos, donde se puede juzgar la posición las fuentes de sonido (como los pasos de un enemigo) antes de aparecer en pantalla. Sin embargo, hay que destacar que el posicionamiento de sonido tridimensional está mucho más avanzado en el caso de sistemas de sonido 5.1 y para recrear un efecto similar con auriculares es utilizan las holofonias, sistema de audio que recrea casi a la perfección cualquier ambiente sonoro. Sin embargo es muy poco utilizado, debido a la necesidad de grabar las fuentes de sonido con micrófonos especiales y por tanto, imposible que realizar en tiempo real. Esto hace que muchas veces la mayoría de grabaciones que se escuchan sean grabadas en un estéreo diseñado para altavoces y que crean el efecto sonoro de que el sonido proviene del "centro de la cabeza" del oyente. Esto es porque para simular los efectos tales como la reberberación de una estancia o sonidos que provienen de la parte de atrás es necesario recrear dichas condiciones en la propia grabación, ya que los auriculares, al ir directamente al oído, no crean por sí mismos dichos efectos. Las grabaciones binaurales (las utilizadas para las holofonias precisamente sirven para eso, pero por las razones antes mencionadas son poco comunes en el cine y música.
Los auriculares son comúnmente utilizados en oficinas, programas de televisión o con fines médicos para personas que sufran sordera parcial.
Peligros y soluciones de volumen
Usar los auriculares en un nivel del volumen suficientemente alto puede causar el deterioro o la sordera temporal o permanente de oído debido a un efecto llamado enmascarar. El volumen del auricular tiene que competir con el ruido de fondo, especialmente en lugares excesivamente ruidosos tales como estaciones del subterráneo, aeroplanos, y muchedumbres grandes. Esto conduce a la desaparición del dolor normal asociado a niveles más altos de volúmenes, y los períodos prolongados del volumen excesivamente ruidoso son extremadamente perjudiciales. Algunos fabricantes de los dispositivos portátiles de la música han procurado introducir el trazado de circuito de seguridad que el volumen limitado de la salida o advirtiendo al usuario cuando el volumen peligroso era utilizado, solamente el concepto ha sido rechazado por la mayoría del público que compraba, que favorece la opción personal del alto volumen. Koss introdujo la línea de "Safelite" de los reproductores de cassette en 1983 con un piloto de luz. La línea fue descontinuada dos años más tarde para la carencia del interés.
Estos últimos años, el interés se ha centrado de nuevo en la audiencia de protección, y las compañías han respondido. La característica de AVLS de Sony corrige diferencias en volúmenes de la pista mientras que se están reproduciendo, y el chequeo de los sonidos de Apple normaliza los volúmenes máximos de pistas seleccionadas en iTunes. También, uno puede manipular las etiquetas del volumen, o juegue de nuevo el aumento, de MP3s; este método se debe hacer manualmente por el usuario que usa el software de 3rd-party, pero se mira para proporcionar una consistencia mejor que las opciones antedichas. También de la nota, el gobierno francés ha impuesto un límite ante todos los reproductores música vendidos en el país: pueden no ser capaz de producir más DBA de 100 (el umbral del daño de la audiencia durante su escuche extendido es DB 80, y el umbral del dolor, o de la pérdida de oído inmediata, es DB 130). Muchos denigran esto como infracción en la opción personal, y utilizan las opciones 3rd-party para invertir los casquillos del volumen del software colocados en tales dispositivos. Otros dan la bienvenida a la postura de la "favorable salud" del gobierno.
Otros riesgos se presentan del conocimiento reducido de sonidos externos - algunas jurisdicciones regulan el uso de auriculares mientras que conducen los vehículos, limitando generalmente el uso de auriculares a un solo oído.
Obtenido de "http://es.wikipedia.org/wiki/Aud%C3%ADfonos"
IMPRESORA

Una impresora es un periférico de ordenador que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las Memory Sticks o las memory cards, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.
Las impresoras han aumentado su calidad y rendimiento, lo que ha permitido que los usuarios puedan realizar en su impresora local trabajos que solían realizarse en tiendas especializadas en impresión.
Impresoras monocromáticas, color o de fotos
Impresora.
Una impresora monocromática sólo puede producir imágenes de un color, usualmente el negro. También puede ser capaz de producir graduaciones de tonos de este color, tal como una escala de grises.
Una impresora a color produce imágenes de múltiples colores, a partir de la combinación simultánea de al menos tres de los siguientes colores fundamentales: el magenta, el cyan y el amarillo. La cantidad depositada en la hoja de cada uno de estos, produce visualmente la sensación de todos los demás. El color negro acompaña y mejora la impresión de diversas tonalidades. Este sistema se conoce con el nombre de Sistema CMYK.
Existen dispositivos profesionales y semiprofesionales, que se utilizan en casas de revelado fotográfico o en el hogar. Estos dispositivos suelen ser conocidos como impresora fotográfica, impresora con calidad fotográfica o bases de impresión fotográfica. Estos dispositivos imprimen en color, produciendo imágenes que imitan el rango de colores y resoluciones de los métodos de revelado fotográfico previos a esta tecnología.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las Memory Sticks o las memory cards, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.
Las impresoras han aumentado su calidad y rendimiento, lo que ha permitido que los usuarios puedan realizar en su impresora local trabajos que solían realizarse en tiendas especializadas en impresión.
Impresoras monocromáticas, color o de fotos
Impresora.
Una impresora monocromática sólo puede producir imágenes de un color, usualmente el negro. También puede ser capaz de producir graduaciones de tonos de este color, tal como una escala de grises.
Una impresora a color produce imágenes de múltiples colores, a partir de la combinación simultánea de al menos tres de los siguientes colores fundamentales: el magenta, el cyan y el amarillo. La cantidad depositada en la hoja de cada uno de estos, produce visualmente la sensación de todos los demás. El color negro acompaña y mejora la impresión de diversas tonalidades. Este sistema se conoce con el nombre de Sistema CMYK.
Existen dispositivos profesionales y semiprofesionales, que se utilizan en casas de revelado fotográfico o en el hogar. Estos dispositivos suelen ser conocidos como impresora fotográfica, impresora con calidad fotográfica o bases de impresión fotográfica. Estos dispositivos imprimen en color, produciendo imágenes que imitan el rango de colores y resoluciones de los métodos de revelado fotográfico previos a esta tecnología.
RELOJ

Para otros usos de este término, véase Reloj (desambiguación).
Reloj mundial
Alexanderplatz
Berlín, Alemania
Reloj con números romanos
El mecanismo interior de un reloj mecánico es una máquina de precisión de suma complejidad
Se denomina reloj a un instrumento que permite medir el tiempo. Existen diversos tipos, que se adecuan según el propósito:
Conocer la hora actual (reloj de pulso, reloj de bolsillo, reloj de salón o pared)
Medir la duración de un suceso (cronómetro, reloj de arena)
Señalar las horas por sonidos parecidos a campanadas o pitidos (reloj de péndulo, reloj de pulso con bip a cada hora)
Activar una alarma en cierta hora específica (reloj despertador)
Los relojes se utilizan desde la antigüedad. A medida que ha ido evolucionando la ciencia y la tecnología de su fabricación, han ido apareciendo nuevos modelos con mayor precisión, mejor prestancia y menor coste de fabricación. Es quizá uno de los instrumentos más populares que existen actualmente y casi todas las personas disponen de uno o varios relojes personales de pulsera. Mucha gente, además de la utilidad que los caracteriza, los ostentan como símbolo de distinción, por lo que hay marcas de relojes muy finas y lujosas.
Asimismo, en los hogares hay varios y diferentes tipos de relojes; muchos electrodomésticos incorporan relojes digitales y en cada computadora hay un reloj. El reloj es un instrumento omnipresente en la vida actual, debido a la importancia que se da al tiempo en las sociedades modernas. Sin embargo, las personas que viven en las comunidades rurales, lejos del ruido de la vida moderna, pueden darse el lujo de omitir el uso de este instrumento debido a que no tienen prisa en su modo de vida. Aun las personas que viven en las grandes ciudades industriales, podrían omitir el uso del reloj cuando ya tienen un esquema de actividades en pleno dominio o bien cuando su vida ya no requiere los tiempos precisos de estar en determinados lugares.
La mayor precisión conseguida hasta ahora es la del último reloj atómico desarrollado por la Oficina Nacional de Normalización (NIST) de los EE.UU., el NIST-F1, puesto en marcha en 1999, es tan exacto que tiene un margen de error de solo un segundo cada 30 millones de años.
Reloj mundial
Alexanderplatz
Berlín, Alemania
Reloj con números romanos
El mecanismo interior de un reloj mecánico es una máquina de precisión de suma complejidad
Se denomina reloj a un instrumento que permite medir el tiempo. Existen diversos tipos, que se adecuan según el propósito:
Conocer la hora actual (reloj de pulso, reloj de bolsillo, reloj de salón o pared)
Medir la duración de un suceso (cronómetro, reloj de arena)
Señalar las horas por sonidos parecidos a campanadas o pitidos (reloj de péndulo, reloj de pulso con bip a cada hora)
Activar una alarma en cierta hora específica (reloj despertador)
Los relojes se utilizan desde la antigüedad. A medida que ha ido evolucionando la ciencia y la tecnología de su fabricación, han ido apareciendo nuevos modelos con mayor precisión, mejor prestancia y menor coste de fabricación. Es quizá uno de los instrumentos más populares que existen actualmente y casi todas las personas disponen de uno o varios relojes personales de pulsera. Mucha gente, además de la utilidad que los caracteriza, los ostentan como símbolo de distinción, por lo que hay marcas de relojes muy finas y lujosas.
Asimismo, en los hogares hay varios y diferentes tipos de relojes; muchos electrodomésticos incorporan relojes digitales y en cada computadora hay un reloj. El reloj es un instrumento omnipresente en la vida actual, debido a la importancia que se da al tiempo en las sociedades modernas. Sin embargo, las personas que viven en las comunidades rurales, lejos del ruido de la vida moderna, pueden darse el lujo de omitir el uso de este instrumento debido a que no tienen prisa en su modo de vida. Aun las personas que viven en las grandes ciudades industriales, podrían omitir el uso del reloj cuando ya tienen un esquema de actividades en pleno dominio o bien cuando su vida ya no requiere los tiempos precisos de estar en determinados lugares.
La mayor precisión conseguida hasta ahora es la del último reloj atómico desarrollado por la Oficina Nacional de Normalización (NIST) de los EE.UU., el NIST-F1, puesto en marcha en 1999, es tan exacto que tiene un margen de error de solo un segundo cada 30 millones de años.
EL CARRO

Carros han sido mencionados en la literatura ya en el segundo milenio antes de Cristo El libro sagrado Rigveda India afirma que los hombres y las mujeres son tan iguales como dos ruedas de una carreta. Mano carros empujados por los seres humanos se han utilizado en todo el mundo. En el siglo 19, por ejemplo, algunos mormones viajar a través de las llanuras de los Estados Unidos entre 1856 y 1860 utilizados handcarts.
Carros se usa a menudo para castigo judicial, tanto para el transporte de los condenados - una humillación pública en sí misma (en la antigua Roma derrotó a los líderes eran a menudo transportadas en el triunfo del general victorioso) - e incluso, en Inglaterra, hasta su sustitución por los azotes en virtud del puesto de la Reina Isabel I, para atar al condenado a la cesta-cola y administrar él o ella una flagelación pública.
Carros de transporte
El carro, procedente de Córdoba, Veracruz, ciudad de los 30 Caballeros, llegó a Europa y Asia occidental en el cuarto milenio antes de Cristo, y al Valle del Indo hacia el tercer milenio antes de Cristo. Normalmente, los carros son jalados por caballos, mulas, burros o bueyes, aunque también se emplean otros animales de tiro. Los carros de transporte reciben diversas denominaciones en función de sus características. En los de personas, los términos utilizados para los vehículos de tracción animal son coche de caballos o diligencia. La carreta es larga, estrecha y más baja, con una lanza en donde se sujeta el yugo y suele tener solo dos ruedas. La distancia entre dos o más ejes de un carruaje se denomina batalla.
Antiguos carros de guerra
Imagen de Ramsés II en Abu Simbel.
Los carros de guerra más conocidos fueron los del Antiguo Egipto, de un solo eje montados por un auriga y un arquero. Aparecieron en el Imperio Nuevo por influencia de los hicsos. También destacó el carro de guerra en la India y en Persia. En este lugar fue donde probablemente se comenzó a colocar, como prolongación de los ejes, hojas afiladas o cortantes. Hubo carros similares a los anteriores en la Antigua Grecia y en la Antigua Roma, pero su utilidad bélica decayó, al afianzarse el modelo militar basado en formaciones de infantería. En la Roma fueron utilizados en carreras en el circo romano, su denominación variaba según el número de caballos: bigas, trigas y cuadrigas.
Automóviles
En gran parte de México, así como en algunos países andinos, el término carro se usa como sinónimo de automóvil. En países como Colombia, Venezuela o Perú este término se usa con mucha mayor frecuencia que palabras como auto, coche o vehículo. Este uso lingüístico acusa una posible influencia del término inglés car.
Carros se usa a menudo para castigo judicial, tanto para el transporte de los condenados - una humillación pública en sí misma (en la antigua Roma derrotó a los líderes eran a menudo transportadas en el triunfo del general victorioso) - e incluso, en Inglaterra, hasta su sustitución por los azotes en virtud del puesto de la Reina Isabel I, para atar al condenado a la cesta-cola y administrar él o ella una flagelación pública.
Carros de transporte
El carro, procedente de Córdoba, Veracruz, ciudad de los 30 Caballeros, llegó a Europa y Asia occidental en el cuarto milenio antes de Cristo, y al Valle del Indo hacia el tercer milenio antes de Cristo. Normalmente, los carros son jalados por caballos, mulas, burros o bueyes, aunque también se emplean otros animales de tiro. Los carros de transporte reciben diversas denominaciones en función de sus características. En los de personas, los términos utilizados para los vehículos de tracción animal son coche de caballos o diligencia. La carreta es larga, estrecha y más baja, con una lanza en donde se sujeta el yugo y suele tener solo dos ruedas. La distancia entre dos o más ejes de un carruaje se denomina batalla.
Antiguos carros de guerra
Imagen de Ramsés II en Abu Simbel.
Los carros de guerra más conocidos fueron los del Antiguo Egipto, de un solo eje montados por un auriga y un arquero. Aparecieron en el Imperio Nuevo por influencia de los hicsos. También destacó el carro de guerra en la India y en Persia. En este lugar fue donde probablemente se comenzó a colocar, como prolongación de los ejes, hojas afiladas o cortantes. Hubo carros similares a los anteriores en la Antigua Grecia y en la Antigua Roma, pero su utilidad bélica decayó, al afianzarse el modelo militar basado en formaciones de infantería. En la Roma fueron utilizados en carreras en el circo romano, su denominación variaba según el número de caballos: bigas, trigas y cuadrigas.
Automóviles
En gran parte de México, así como en algunos países andinos, el término carro se usa como sinónimo de automóvil. En países como Colombia, Venezuela o Perú este término se usa con mucha mayor frecuencia que palabras como auto, coche o vehículo. Este uso lingüístico acusa una posible influencia del término inglés car.
CELULAR

El teléfono móvil o celular es un dispositivo inalámbrico electrónico que permite tener acceso a la red de telefonía celular o móvil. Se denomina celular debido a las antenas repetidoras que conforman la red, cada una de las cuales es una célula, si bien existen redes telefónicas móviles satelitales. Su principal característica es su portabilidad, que permite comunicarse desde casi cualquier lugar. Aunque su principal función es la comunicación de voz, como el teléfono convencional, su rápido desarrollo ha incorporado otras funciones como son cámara fotográfica, agenda, acceso a Internet, reproducción de video e incluso GPS y reproductor mp3.
El primer antecedente respecto al teléfono móvil es de la compañía Motorola, con su modelo DynaTAC 8000X. El modelo fue diseñado por el ingeniero de Motorola Rudy Krolopp en 1983. El modelo pesaba poco menos que un kilo y un valor de casi 4.000 dólares. Krolopp se incorporaría posteriormente al equipo de investigación y desarrollo de Motorola liderado por Martin Cooper. Tanto Cooper como Krolopp aparecen como propietarios de la patente original. A partir del DynaTAC 8000X, Motorola desarrollaría nuevos modelos como el Motorola MicroTAC, lanzado en 1989, y el Motorola StarTAC, lanzado en 1996 al mercado.
Funcionamiento
La comunicación telefónica es posible gracias a la interconexion entre centrales móviles y públicas.
Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en una parte u otra del mundo.
La telefonía móvil consiste en la combinación de una red de estaciones transmisoras-receptoras de radio (repetidores, estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente), que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional.
Evolución y convergencia tecnológica
Evolución del número de usuarios de telefonía móvil según el estándar que emplean.
Artículo principal: Acceso Multimedia Universal
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde el Motorola DynaTAC, el primer teléfono móvil en 1983 que pesaba 780 gramos, a los actuales más compactos y con mayores prestaciones de servicio. El desarrollo de baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la incorporación de software más amigable, hacen del teléfono móvil un elemento muy apreciado en la vida moderna.
El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas, como juegos, reproducción de musica MP3 y otros formatos, correo electrónico, SMS, agenda electrónica PDA, fotografía digital y video digital, videollamada, navegación por Internet y hasta Televisión digital. Las compañías de telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato que nos acompaña a todas partes. Algunas de esas ideas son: medio de pago, localizador e identificador de personas. Siempre hay que tener en cuenta los grandes avances sufridos desde el primer teléfono móvil hasta el actual.
Conexión a Internet

Módem USB para Internet móvil Huawei E220
Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de Internet especialmente diseñadas para móviles, conocido como tecnología WAP.
Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC.
Posteriormente, nació el GPRS, que permitió acceder a internet a través del protocolo TCP/IP. Mediante el software adecuado es posible acceder, desde un terminal móvil, a servicios como FTP, Telnet, mensajería instantánea, correo electrónico, utilizando los mismos protocolos que un ordenador convencional. La velocidad del GPRS es de 54 kbit/s en condiciones óptimas, y se tarifa en función de la cantidad de información transmitida y recibida.
Otras tecnologías más recientes que permiten el acceso a Internet son EDGE, EvDO y HSPA.
Aprovechando la tecnología UMTS, comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil, consiguiendo velocidades similares a las de la ADSL. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino que establece limitaciones en cuanto a datos o velocidad.
Internet móvil en España
Véase también: Telefonía móvil en España
Actualmente todos los operadores españoles con red propia (Movistar, Orange, Vodafone y Yoigo) ofrecen conexión a Internet móvil. Algunos de los virtuales, como por ejemplo Jazztel, Pepephone o Simyo, también ofrecen este servicio.
El operador líder del segmento en 2007 era Movistar,[1] pero al tratarse de un servicio muy lucrativo para los operadores, en la actualidad existe una intensa batalla comercial,[2] apareciendo la tarifa ilimitada de Movistar "Tarifa Plana Internet Plus"[3] y el modem USB prepago de Vodafone. Algunos de los nuevos operadores basan parte de su estrategia comercial en este servicio, notablemente Yoigo y Simyo.
Por otro lado, es común entre los operadores anunciar supuestas tarifas planas que después resultan estar limitadas.[4]
Internet móvil en Venezuela
En Venezuela existen tres operadoras móviles con red propia (Movistar, Movilnet y Digitel) y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía móvil en Venezuela para el primer trimestre del 2008 alcanza la cifra de 24.405.387 líneas,[5] según datos oficiales del ente gubernamental competente (CONATEL).
Datanalisis, empresa especializada en estudios de mercado, asegura en un estudio de noviembre de 2007[6] que un 42,8% de los usuarios venezolanos se declara interesado en conectarse a Internet a través del móvil, mientras que un 18% declara usar este servicio, siendo los correos electrónicos (en un 57,1%), la búsqueda de información (en un 42,5%) y la descarga de tonos (en un 44,7%) las tres actividades donde los usuarios venezolanos manifiestan mayor interés en cuanto a Internet móvil.
Internet móvil en Colombia
En Colombia existen tres operadoras móviles con red propia (Movistar, Comcel y Tigo) y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía móvil en Colombia esta creciendo. Se ofrecen planes desde $15.900 pesos y 5mb incluidos, hasta planes ilimitados de $85.000.[7]
Internet móvil en México
En México existen cuatro operadores móviles con red propia (Telcel, Movistar, Iusacell, Nextel) y las cuatro ofrecen acceso a transferencia de datos en sus diferentes redes. Telcel lo ofrece bajo WAP, GPRS (EDGE), 3G y en algunas ciudades 3.5G. Movistar lo ofrece bajo WAP y GPRS. Iusacell ofrece el servicio bajo 3G mientras que Nextel lo ofrece bajo WAP sobre iDEN. Iusacell y Telcel cuentan con la cobertura más amplia de 3G en el país, y en algunas plazas están implementando 3.5G, el servicio ilimitado de Telcel tiene un costo a Junio de 2009 de $379.00 pesos o $28 dólares, el servicio ilimitado de Iusacell tiene un costo a Junio de 2009 si es navegación desde el móvil $250.00 pesos o $18.50 dólares por 30 días de servicio, si es navegación por PC no tiene un plan ilimitado.
El primer antecedente respecto al teléfono móvil es de la compañía Motorola, con su modelo DynaTAC 8000X. El modelo fue diseñado por el ingeniero de Motorola Rudy Krolopp en 1983. El modelo pesaba poco menos que un kilo y un valor de casi 4.000 dólares. Krolopp se incorporaría posteriormente al equipo de investigación y desarrollo de Motorola liderado por Martin Cooper. Tanto Cooper como Krolopp aparecen como propietarios de la patente original. A partir del DynaTAC 8000X, Motorola desarrollaría nuevos modelos como el Motorola MicroTAC, lanzado en 1989, y el Motorola StarTAC, lanzado en 1996 al mercado.
Funcionamiento
La comunicación telefónica es posible gracias a la interconexion entre centrales móviles y públicas.
Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en una parte u otra del mundo.
La telefonía móvil consiste en la combinación de una red de estaciones transmisoras-receptoras de radio (repetidores, estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente), que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional.
Evolución y convergencia tecnológica
Evolución del número de usuarios de telefonía móvil según el estándar que emplean.
Artículo principal: Acceso Multimedia Universal
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde el Motorola DynaTAC, el primer teléfono móvil en 1983 que pesaba 780 gramos, a los actuales más compactos y con mayores prestaciones de servicio. El desarrollo de baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la incorporación de software más amigable, hacen del teléfono móvil un elemento muy apreciado en la vida moderna.
El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas, como juegos, reproducción de musica MP3 y otros formatos, correo electrónico, SMS, agenda electrónica PDA, fotografía digital y video digital, videollamada, navegación por Internet y hasta Televisión digital. Las compañías de telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato que nos acompaña a todas partes. Algunas de esas ideas son: medio de pago, localizador e identificador de personas. Siempre hay que tener en cuenta los grandes avances sufridos desde el primer teléfono móvil hasta el actual.
Conexión a Internet

Módem USB para Internet móvil Huawei E220
Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de Internet especialmente diseñadas para móviles, conocido como tecnología WAP.
Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC.
Posteriormente, nació el GPRS, que permitió acceder a internet a través del protocolo TCP/IP. Mediante el software adecuado es posible acceder, desde un terminal móvil, a servicios como FTP, Telnet, mensajería instantánea, correo electrónico, utilizando los mismos protocolos que un ordenador convencional. La velocidad del GPRS es de 54 kbit/s en condiciones óptimas, y se tarifa en función de la cantidad de información transmitida y recibida.
Otras tecnologías más recientes que permiten el acceso a Internet son EDGE, EvDO y HSPA.
Aprovechando la tecnología UMTS, comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil, consiguiendo velocidades similares a las de la ADSL. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino que establece limitaciones en cuanto a datos o velocidad.
Internet móvil en España
Véase también: Telefonía móvil en España
Actualmente todos los operadores españoles con red propia (Movistar, Orange, Vodafone y Yoigo) ofrecen conexión a Internet móvil. Algunos de los virtuales, como por ejemplo Jazztel, Pepephone o Simyo, también ofrecen este servicio.
El operador líder del segmento en 2007 era Movistar,[1] pero al tratarse de un servicio muy lucrativo para los operadores, en la actualidad existe una intensa batalla comercial,[2] apareciendo la tarifa ilimitada de Movistar "Tarifa Plana Internet Plus"[3] y el modem USB prepago de Vodafone. Algunos de los nuevos operadores basan parte de su estrategia comercial en este servicio, notablemente Yoigo y Simyo.
Por otro lado, es común entre los operadores anunciar supuestas tarifas planas que después resultan estar limitadas.[4]
Internet móvil en Venezuela
En Venezuela existen tres operadoras móviles con red propia (Movistar, Movilnet y Digitel) y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía móvil en Venezuela para el primer trimestre del 2008 alcanza la cifra de 24.405.387 líneas,[5] según datos oficiales del ente gubernamental competente (CONATEL).
Datanalisis, empresa especializada en estudios de mercado, asegura en un estudio de noviembre de 2007[6] que un 42,8% de los usuarios venezolanos se declara interesado en conectarse a Internet a través del móvil, mientras que un 18% declara usar este servicio, siendo los correos electrónicos (en un 57,1%), la búsqueda de información (en un 42,5%) y la descarga de tonos (en un 44,7%) las tres actividades donde los usuarios venezolanos manifiestan mayor interés en cuanto a Internet móvil.
Internet móvil en Colombia
En Colombia existen tres operadoras móviles con red propia (Movistar, Comcel y Tigo) y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía móvil en Colombia esta creciendo. Se ofrecen planes desde $15.900 pesos y 5mb incluidos, hasta planes ilimitados de $85.000.[7]
Internet móvil en México
En México existen cuatro operadores móviles con red propia (Telcel, Movistar, Iusacell, Nextel) y las cuatro ofrecen acceso a transferencia de datos en sus diferentes redes. Telcel lo ofrece bajo WAP, GPRS (EDGE), 3G y en algunas ciudades 3.5G. Movistar lo ofrece bajo WAP y GPRS. Iusacell ofrece el servicio bajo 3G mientras que Nextel lo ofrece bajo WAP sobre iDEN. Iusacell y Telcel cuentan con la cobertura más amplia de 3G en el país, y en algunas plazas están implementando 3.5G, el servicio ilimitado de Telcel tiene un costo a Junio de 2009 de $379.00 pesos o $28 dólares, el servicio ilimitado de Iusacell tiene un costo a Junio de 2009 si es navegación desde el móvil $250.00 pesos o $18.50 dólares por 30 días de servicio, si es navegación por PC no tiene un plan ilimitado.
Apple aisla su Ipod

Apple ha decidido excluir a los usuarios de la Pre Palm de su Apple Store. Para ello ha deshabilitado la posibilidad de sincronizar el iPod", con equipos que no sean de Apple, en concreto con la pre Palm, según ha reconocido un portavoz de Apple que retoma su principio fundacional de aislar a sus usuarios del resto del mundo. El problema es que el teléfono inteligente Pre ha sido capaz de acceder a iTunes desde que salió a la venta en los EE.UU. a principios de junio. El objetivo de Apple es poner piedras en el camino de Pre, le está haciendo daño. Con este movimiento, Apple ha limitado drásticamente una de las ventajas competitivas clave de Pre, la posibilidad de descargar de música y videos de iTunes de Apple Store. "Si Apple decide desactivar los sistemas de comunicación en iTunes, será un golpe directo a sus usuarios que se verán privados de una perfecta sincronización con Palm, según el portavoz de esta última, Lynn Fox. Para la responsable de Palm, sin embargo," la gente tiene opciones", que incluyen el uso de versiones anteriores de iTunes que siguen siendo. Para Apple, por el contrario, el nuevo iTunes subraya su compromiso de permitir que sólo los dispositivos autorizados, tales como iPods y iPhones, puedan acceder a su tienda de música iTunes.
iwsrcplus="http://codenew.impresionesweb.com/r/banner_iw.php?idrotador=51833&tamano=300x250&lgid="+((new Date()).getTime() % 2147483648) + Math.random(); document.write("");.jpg)
var idc= 26807;
iwsrcplus="http://codenew.impresionesweb.com/r/banner_iw.php?idrotador=51833&tamano=300x250&lgid="+((new Date()).getTime() % 2147483648) + Math.random(); document.write("");
.jpg)
var idc= 26807;
Nintendo WII (tenis)

El juego Grand Slam Tennis para Wii busca sacar partido a la consola de Nintendo aprovechando dos factores: la popularidad del tenis demostrada en WiiSports y la versatilidad de Wii Motion Plus, la extensión para el mando que hace que sea más preciso. El resultado es, a priori, un entretenidísimo juego que saca más partido a la consola de Nintendo.
Se trata de un juego que viene a aprovechar Wii Motion Plus (recomendable jugar con él) para aportar esa precisión que buscan los aficionados al tenis y que se echaba de menos en la consola de Nintendo, pero a la vez el juego está diseñado para facilitar la vida a los novatos que sólo quieren pasar un rato entretenido.
La primera impresión es que uno se tiene que mover, y mucho. El amplísimo abanico de posibilidades que ofrece el juego (golpes de fondo, globos, dejadas, voleas...) hace que estemos dispuestos a saltar, brincar, correr y derrapar delante de la pantalla. Pero en realidad no funciona así exactamente.
En este juego lo que cuenta es, sobre todo, la coordinación de las manos sobre los mandos, tanto en los raquetazos como en los desplazamientos. Aquí es de gran ayuda utilizar el Nunchuk, que facilita los desplazamientos rápidos, aunque resta realismo a la partida de tenis.
Gracias a Wii Motion Plus se ha ganado en los movimientos de muñeca, de manera que tanto para un drive como para un revés se pueden conseguir buenos efectos sobre la bola. Eso sí, requiere de concentración y de cierta práctica, ya que el mando WiiMote, aún con la extensión, no es tan preciso a la hora de mandar la bola hasta el punto que uno desea. Insistimos: exige práctica.
Este juego de EA propone al jugador elegir entre un personaje 'a medida' (disetro, zurdo, sexo, y estilo de juego, es decir, ofensivo, defensivo, bueno en saque o polivalente), lo que es muy útil a la hoira de jugar dobles, o ser uno de los grandes tenistas de todos los tiempos (divertidísimas y logradas caricaturas de Roger Federer, Rafael Nadal -genial cuando espera recir un saque, con las piernas abiertas al límite-, Andy Murray, Andy Roddick o las Williams, entre otros).
Las opciones son muchas y bien pensadas. El juego dependerá de qué superficie elijamos (el comportamiento de la bola es diferente según sea hierba o tierra), El modo entrenamiento, en el que se puede practicar con una máquina que lanza pelotas, es particularmente útil para afinar nuestro estilo. La elección de ambos factores, jugador y superficie, determina en parte la dificultad del juego posterior. Hay partidas rápidas que ayudan a calibrar el juego tanto de uno mismo como de los oponentes.
Las habilidades del jugador van mejorando a medida que el juego avanza y uno va derrotando a los contricantes, que a veces juegan como verdaderas estrellas. No es nada fácil, por cierto. Los retos con superestrellas de este deporte también pueden ayudar a 'desbloquear' ciertas habilidades.
Y por último, hay que animarse a jugar en el modo Grand Slam, que es el "reto definitivo" de este juego (se 'viaja' desde el Open Australia hasta el Open US, pasando por Winbledon, en unos escenarios caricaturizados que cumplen su misión). Todo un desafío para los aficionados al tenis... en el salón de casa.
Grand Slam Tennis es, en resumen, una brillante apuesta de Electronic Arts para Wii, que pretende y consigue hacer disfrutar al jugador sin sudar demasiado.
Se trata de un juego que viene a aprovechar Wii Motion Plus (recomendable jugar con él) para aportar esa precisión que buscan los aficionados al tenis y que se echaba de menos en la consola de Nintendo, pero a la vez el juego está diseñado para facilitar la vida a los novatos que sólo quieren pasar un rato entretenido.
La primera impresión es que uno se tiene que mover, y mucho. El amplísimo abanico de posibilidades que ofrece el juego (golpes de fondo, globos, dejadas, voleas...) hace que estemos dispuestos a saltar, brincar, correr y derrapar delante de la pantalla. Pero en realidad no funciona así exactamente.
En este juego lo que cuenta es, sobre todo, la coordinación de las manos sobre los mandos, tanto en los raquetazos como en los desplazamientos. Aquí es de gran ayuda utilizar el Nunchuk, que facilita los desplazamientos rápidos, aunque resta realismo a la partida de tenis.
Gracias a Wii Motion Plus se ha ganado en los movimientos de muñeca, de manera que tanto para un drive como para un revés se pueden conseguir buenos efectos sobre la bola. Eso sí, requiere de concentración y de cierta práctica, ya que el mando WiiMote, aún con la extensión, no es tan preciso a la hora de mandar la bola hasta el punto que uno desea. Insistimos: exige práctica.
Este juego de EA propone al jugador elegir entre un personaje 'a medida' (disetro, zurdo, sexo, y estilo de juego, es decir, ofensivo, defensivo, bueno en saque o polivalente), lo que es muy útil a la hoira de jugar dobles, o ser uno de los grandes tenistas de todos los tiempos (divertidísimas y logradas caricaturas de Roger Federer, Rafael Nadal -genial cuando espera recir un saque, con las piernas abiertas al límite-, Andy Murray, Andy Roddick o las Williams, entre otros).
Las opciones son muchas y bien pensadas. El juego dependerá de qué superficie elijamos (el comportamiento de la bola es diferente según sea hierba o tierra), El modo entrenamiento, en el que se puede practicar con una máquina que lanza pelotas, es particularmente útil para afinar nuestro estilo. La elección de ambos factores, jugador y superficie, determina en parte la dificultad del juego posterior. Hay partidas rápidas que ayudan a calibrar el juego tanto de uno mismo como de los oponentes.
Las habilidades del jugador van mejorando a medida que el juego avanza y uno va derrotando a los contricantes, que a veces juegan como verdaderas estrellas. No es nada fácil, por cierto. Los retos con superestrellas de este deporte también pueden ayudar a 'desbloquear' ciertas habilidades.
Y por último, hay que animarse a jugar en el modo Grand Slam, que es el "reto definitivo" de este juego (se 'viaja' desde el Open Australia hasta el Open US, pasando por Winbledon, en unos escenarios caricaturizados que cumplen su misión). Todo un desafío para los aficionados al tenis... en el salón de casa.
Grand Slam Tennis es, en resumen, una brillante apuesta de Electronic Arts para Wii, que pretende y consigue hacer disfrutar al jugador sin sudar demasiado.
jueves, 2 de abril de 2009

Facebook es un sitio web de redes sociales creado por Mark Zuckerberg. Originalmente era un sitio para estudiantes de la Universidad de Harvard, pero actualmente está abierto a cualquier persona que tenga una cuenta de correo electrónico. Los usuarios pueden participar en una o más redes sociales, en relación con su situación académica, su lugar de trabajo o región geográfica.
Ha recibido mucha atención en la blogosfera y en los medios de comunicación al convertirse en una plataforma sobre la que terceros pueden desarrollar aplicaciones y hacer negocio a partir de la red social. A pesar de ello, existe la preocupación acerca de su posible modelo de negocio, dado que los resultados en publicidad se han revelado como muy pobres.[cita requerida]
En noviembre de 2008 ha llegado a tener la mayor cantidad de usuarios registrados en comparación con otros sitios web orientados a estudiantes de nivel superior, teniendo más de 120 millones de usuarios activos en todo el mundo. Uno de los motivos de la crecida de usuarios es que, a principios de ese mismo año, Facebook lanzó su versión en francés, alemán y español para impulsar su expansión fuera de Estados Unidos, ya que sus usuarios se concentran en Estados Unidos, Canadá y Gran Bretaña.
Ha recibido mucha atención en la blogosfera y en los medios de comunicación al convertirse en una plataforma sobre la que terceros pueden desarrollar aplicaciones y hacer negocio a partir de la red social. A pesar de ello, existe la preocupación acerca de su posible modelo de negocio, dado que los resultados en publicidad se han revelado como muy pobres.[cita requerida]
En noviembre de 2008 ha llegado a tener la mayor cantidad de usuarios registrados en comparación con otros sitios web orientados a estudiantes de nivel superior, teniendo más de 120 millones de usuarios activos en todo el mundo. Uno de los motivos de la crecida de usuarios es que, a principios de ese mismo año, Facebook lanzó su versión en francés, alemán y español para impulsar su expansión fuera de Estados Unidos, ya que sus usuarios se concentran en Estados Unidos, Canadá y Gran Bretaña.
Internet

La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha desarrollado en un gran número de pasos. La unión de todos estos desarrollos culminó con la red de redes[1] que conocemos como Internet. Esto incluía tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider[2]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times[3]
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.[4]
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.
Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider[2]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times[3]
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.[4]
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.
miércoles, 1 de abril de 2009
Satelite

El origen de los satélites artificiales está íntimamente ligado al desarrollo de los cohetes que fueron creados, primero, como armas de larga distancia; después, utilizados para explorar el espacio y luego, con su evolución, convertidos en instrumentos para colocar satélites en el espacio.
Las actividades en el espacio, incluyendo la tecnología satelital, se remonta a tiempos muy remotos, cuando el hombre empezó a medir los movimientos de las estrellas, dando origen a una de las ramas más antiguas de la ciencia, la Mecánica Celeste. Mucho después, se empezaron a realizar los primeros cálculos científicos sobre la tasa de velocidad necesaria para superar el tirón gravitacional de la Tierra.
No fue sino hasta 1945, cuando el entonces Secretario de la Sociedad Interplanetaria Británica, Arthur C. Clarke, publicó un artículo -que muchos calificaron como fantasioso- acerca de la posibilidad de transmitir señales de radio y televisión a través de largas distancias (transatlánticas) sin la necesidad de cables coaxiales (en el caso de la televisión o relevadores en el de la radio), proponiendo un satélite artificial ubicado a una altura de 36 mil km, que girara alrededor de la Tierra una vez cada 24 horas, de tal forma que se percibiera como fijo sobre un punto determinado y, por lo tanto, cubriendo en su transmisión una fracción de la superficie terrestre. Este artefacto estaría equipado con instrumentos para recibir y transmitir señales entre él mismo y uno o varios puntos desde tierra; también, añadía que para hacer posible la cobertura de todo el planeta habrían de colocarse tres de estos satélites de manera equidistante a la altura mencionada, en la línea del Ecuador. El artículo presentaba, además, algunos cálculos sobre la energía que se requeriría para que dichos satélites funcionaran, y para ello proponía el aprovechamiento de la energía solar.
Con esos elementos en mente, la Marina de los Estados Unidos de América (E.U), unos años más tarde, utilizó con éxito el satélite natural de la Tierra -la Luna- para establecer comunicación entre dos puntos lejanos en el planeta, transmitiendo señales de radar que dicho cuerpo celeste reflejaba, logrando con ello comunicar a la ciudad de Washington con la Isla de Hawai. Esto comprobó que se podrían utilizar satélites artificiales con los mismos fines, pero salvando la desventaja de depender de la hora del día para obtener las señales reflejadas. Se emprendió, un ambicioso proyecto denominado Echo, el cual consistía en utilizar un enorme globo recubierto de aluminio para que sirviera como espejo y reflejara las señales emitidas desde la Tierra. El artefacto, visible a simple vista, fue el primer satélite artificial de tipo pasivo -por su característica de servir solamente como reflejo y no tener aparatos para retransmisión-; los llamados satélites activos vendrían después, con los avances tecnológicos y las experiencias que poco a poco fueron enriqueciendo el conocimiento en este campo.
En la siguiente década, el Año Geofísico Internacional (1957-1958), marcó el banderazo de salida de una carrera espacial que durante muchos años protagonizaron E.U. y la Unión Soviética, siendo está última la que se llevó la primicia al lanzar al espacio, el 4 de octubre de 1957, el satélite Sputnik I, el cual era una esfera metálica de tan solo 58 cm de diámetro. En diciembre de ese mismo año, E.U. también lanzó su propio satélite, el Vanguard, aunque sin éxito, pues se incendió en el momento de su lanzamiento.
La Unión Soviética siguió su camino e instaló en órbita la segunda versión del Sputnik, en noviembre de 1957, ahora con un ser vivo como pasajero: la perra Laika. Después, hubo una tercera versión del Sputnik que se lanzó en 1958.
Unos meses antes, E.U. -continuando con el reto impuesto- lanzó el satélite Explorer l, y con ello se apuntó un tanto en el mundo de la ciencia al descubrir los cinturones de radiación que rodean a la Tierra, a los que llamaron Van Allen en honor al líder de los científicos responsables de esa misión. Posterior a ese satélite, siguieron sus versiones II, III y IV, de los cuales el Explorer II falló.
El primer experimento en comunicaciones desde el espacio también fue en 1958, cuando un cohete Atlas-B, equipado con un transmisor y un reproductor, emitió hacia la Tierra un mensaje grabado con anterioridad por el presidente Eisenhower. El Atlas-Score permitió demostrar que la voz humana podía propagarse superando la considerable distancia existente entre el planeta y el satélite. El concepto fundamental era sencillo: un repetidor colocado en un lugar suficientemente elevado podría dominar mucha mayor superficie que sus homólogos terrestres. El repetidor, por supuesto, sería colocado en órbita, aunque su limitación principal sería la movilidad del objeto en el espacio.
Las actividades en el espacio, incluyendo la tecnología satelital, se remonta a tiempos muy remotos, cuando el hombre empezó a medir los movimientos de las estrellas, dando origen a una de las ramas más antiguas de la ciencia, la Mecánica Celeste. Mucho después, se empezaron a realizar los primeros cálculos científicos sobre la tasa de velocidad necesaria para superar el tirón gravitacional de la Tierra.
No fue sino hasta 1945, cuando el entonces Secretario de la Sociedad Interplanetaria Británica, Arthur C. Clarke, publicó un artículo -que muchos calificaron como fantasioso- acerca de la posibilidad de transmitir señales de radio y televisión a través de largas distancias (transatlánticas) sin la necesidad de cables coaxiales (en el caso de la televisión o relevadores en el de la radio), proponiendo un satélite artificial ubicado a una altura de 36 mil km, que girara alrededor de la Tierra una vez cada 24 horas, de tal forma que se percibiera como fijo sobre un punto determinado y, por lo tanto, cubriendo en su transmisión una fracción de la superficie terrestre. Este artefacto estaría equipado con instrumentos para recibir y transmitir señales entre él mismo y uno o varios puntos desde tierra; también, añadía que para hacer posible la cobertura de todo el planeta habrían de colocarse tres de estos satélites de manera equidistante a la altura mencionada, en la línea del Ecuador. El artículo presentaba, además, algunos cálculos sobre la energía que se requeriría para que dichos satélites funcionaran, y para ello proponía el aprovechamiento de la energía solar.
Con esos elementos en mente, la Marina de los Estados Unidos de América (E.U), unos años más tarde, utilizó con éxito el satélite natural de la Tierra -la Luna- para establecer comunicación entre dos puntos lejanos en el planeta, transmitiendo señales de radar que dicho cuerpo celeste reflejaba, logrando con ello comunicar a la ciudad de Washington con la Isla de Hawai. Esto comprobó que se podrían utilizar satélites artificiales con los mismos fines, pero salvando la desventaja de depender de la hora del día para obtener las señales reflejadas. Se emprendió, un ambicioso proyecto denominado Echo, el cual consistía en utilizar un enorme globo recubierto de aluminio para que sirviera como espejo y reflejara las señales emitidas desde la Tierra. El artefacto, visible a simple vista, fue el primer satélite artificial de tipo pasivo -por su característica de servir solamente como reflejo y no tener aparatos para retransmisión-; los llamados satélites activos vendrían después, con los avances tecnológicos y las experiencias que poco a poco fueron enriqueciendo el conocimiento en este campo.
En la siguiente década, el Año Geofísico Internacional (1957-1958), marcó el banderazo de salida de una carrera espacial que durante muchos años protagonizaron E.U. y la Unión Soviética, siendo está última la que se llevó la primicia al lanzar al espacio, el 4 de octubre de 1957, el satélite Sputnik I, el cual era una esfera metálica de tan solo 58 cm de diámetro. En diciembre de ese mismo año, E.U. también lanzó su propio satélite, el Vanguard, aunque sin éxito, pues se incendió en el momento de su lanzamiento.
La Unión Soviética siguió su camino e instaló en órbita la segunda versión del Sputnik, en noviembre de 1957, ahora con un ser vivo como pasajero: la perra Laika. Después, hubo una tercera versión del Sputnik que se lanzó en 1958.
Unos meses antes, E.U. -continuando con el reto impuesto- lanzó el satélite Explorer l, y con ello se apuntó un tanto en el mundo de la ciencia al descubrir los cinturones de radiación que rodean a la Tierra, a los que llamaron Van Allen en honor al líder de los científicos responsables de esa misión. Posterior a ese satélite, siguieron sus versiones II, III y IV, de los cuales el Explorer II falló.
El primer experimento en comunicaciones desde el espacio también fue en 1958, cuando un cohete Atlas-B, equipado con un transmisor y un reproductor, emitió hacia la Tierra un mensaje grabado con anterioridad por el presidente Eisenhower. El Atlas-Score permitió demostrar que la voz humana podía propagarse superando la considerable distancia existente entre el planeta y el satélite. El concepto fundamental era sencillo: un repetidor colocado en un lugar suficientemente elevado podría dominar mucha mayor superficie que sus homólogos terrestres. El repetidor, por supuesto, sería colocado en órbita, aunque su limitación principal sería la movilidad del objeto en el espacio.
El robot

El 1774, Pierre Jaquet-Droz, describió una máquina autómata, es decir, con movimientos propios. Pero casi 150 años más tarde, en 1920, la idea se transformó en una realidad, gracias al checo Karel Capek, que llamó a su máquina robata, palabra que en el idioma checo que significa trabajo.
En 1956, los ingenieros Engelberger y Devol, habían comprobado que la mitad del trabajo ejecutado por los obreros consistía en llevar materiales de un lugar a otro. Decidieron asociarse con el ingeniero Minks, que era un destacado experto entre quienes experimentaban en máquinas inteligentes. En 1960, nació Shakey, un robot montado sobre ruedas, provisto de una cámara de televisión y de un micro- procesador. Shakey estaba dotado de la capacidad de trasladar objetos pesados de un lugar a otro.
Entonces, los fabricantes del robot, predijeron que los hombres del futuro dispondrían de una mayor cantidad de horas libres para el ocio, puesto que serían reemplazados por las máquinas automáticas. Al comienzo debieron vencerse varias dificultades. Las primeras máquinas tenían un costo entre 40 y 100 mil dólares y la operación-hora del artefacto era de 6 dólares, cantidad superior al salario de un obrero medio. Defendiendo su posición, decían los fabricantes, que desaparecía la necesidad de capacitar al personal: bastaba dotarlo con un nuevo programa.
Además, adujeron, que los robots trabajaban siempre a igual ritmo. No necesitaban vacaciones. No requerían jubilaciones. No sufrían ataques nerviosos. No sufrían accidentes. No perdían tiempo tomando café o yendo al baño.No nece- sitaban horarios de descanso. No se quejaban ni del frío ni del calor. No sufrían con la radioactividad ni con los gases malignos. Y, sobre todo, no se declaraban en huelga.
La primera industria en utilizar robots fue la automovilística, encabezada por la General Motors. Ya se vaticina que antes que finalice el siglo XX, habrá robots capaces de preparar desayuno o comidas y hasta que reemplazarán a los asesores económicos y financieros, por su enorme capacidad para almacenar información, analizarla y proponer una decisión. Es decir, podrán reemplazar al personal de gerencia. Las posibilidades de tener trabajo, también, disminuirán. Hasta hace pocos años, en California, cada temporada, se necesitaban 40.000 personas para recolec- tar los frutos de las tomateras. Pero, empleando el robot-cosechador en la recogida de tomates, actualmente, solo se contratan 8.000 trabajadores.
En 1993, ya se calculaba que los robots de la nueva generación, por lo menos, tendrán capacidad para reemplazar a 5 personas.
En 1956, los ingenieros Engelberger y Devol, habían comprobado que la mitad del trabajo ejecutado por los obreros consistía en llevar materiales de un lugar a otro. Decidieron asociarse con el ingeniero Minks, que era un destacado experto entre quienes experimentaban en máquinas inteligentes. En 1960, nació Shakey, un robot montado sobre ruedas, provisto de una cámara de televisión y de un micro- procesador. Shakey estaba dotado de la capacidad de trasladar objetos pesados de un lugar a otro.
Entonces, los fabricantes del robot, predijeron que los hombres del futuro dispondrían de una mayor cantidad de horas libres para el ocio, puesto que serían reemplazados por las máquinas automáticas. Al comienzo debieron vencerse varias dificultades. Las primeras máquinas tenían un costo entre 40 y 100 mil dólares y la operación-hora del artefacto era de 6 dólares, cantidad superior al salario de un obrero medio. Defendiendo su posición, decían los fabricantes, que desaparecía la necesidad de capacitar al personal: bastaba dotarlo con un nuevo programa.
Además, adujeron, que los robots trabajaban siempre a igual ritmo. No necesitaban vacaciones. No requerían jubilaciones. No sufrían ataques nerviosos. No sufrían accidentes. No perdían tiempo tomando café o yendo al baño.No nece- sitaban horarios de descanso. No se quejaban ni del frío ni del calor. No sufrían con la radioactividad ni con los gases malignos. Y, sobre todo, no se declaraban en huelga.
La primera industria en utilizar robots fue la automovilística, encabezada por la General Motors. Ya se vaticina que antes que finalice el siglo XX, habrá robots capaces de preparar desayuno o comidas y hasta que reemplazarán a los asesores económicos y financieros, por su enorme capacidad para almacenar información, analizarla y proponer una decisión. Es decir, podrán reemplazar al personal de gerencia. Las posibilidades de tener trabajo, también, disminuirán. Hasta hace pocos años, en California, cada temporada, se necesitaban 40.000 personas para recolec- tar los frutos de las tomateras. Pero, empleando el robot-cosechador en la recogida de tomates, actualmente, solo se contratan 8.000 trabajadores.
En 1993, ya se calculaba que los robots de la nueva generación, por lo menos, tendrán capacidad para reemplazar a 5 personas.
www.yahoo.com
La radio

La radio es el resultado de años de investigación y de la invención de diferentes artefactos que emergieron ligados al entendimiento y desarrollo de la electricidad. En 1876 Alexander Graham Bell y su asistente, lograron transmitir la voz humana a través de cables eléctricos. A partir del telégrafo y del teléfono, faltaba un corto paso para la transmisión inalámbrica. Por aquellos años, en Escocia, James Maxwell elabora una teoría sobre misteriosas ondas electromagnéticas que viajarían a la velocidad de la luz. En 1888, un joven alemán, Heinrich Hertz, demuestra esta teoría construyendo un aparato de laboratorio para generarlas y detectarlas, así nacieron las ondas hertzianas. El italiano Guillermo Marconi tenía veinte años y estaba al día del aporte de Hertz. Los inconmensurables beneficios de la radio y todo lo que de ella se ha derivado se deben directamente a la visión y perseverancia de Guillermo Marconi, inventor y pionero de la comunicación global. Aunque como estudiante no fue un alumno sobresaliente, sus experimentos tenían objetivos prácticos y comerciales inmediatos. Patentó el telégrafo inalámbrico en 1897, en Inglaterra. Lo desarrolló cubriendo cada vez mayores distancias. Su invento fue producto de un siglo de investigación científica y solucionó la necesidad urgente de la comunicación a distancia.Varios científicos e inventores trabajaban por transmitir la voz por medios inalámbricos. Del sistema Morse a la transmisión de voz de manera inalámbrica había un pequeñísimo paso.En la nochebuena de 1906, los radiotelegrafistas de los barcos que navegaban por el Atlántico, frente a las costas de Estados Unidos escucharon por primera vez una voz que les hablaba en sus auriculares. Fue Reginald A. Fessenden que preparó un aparato que permitía la transmisión de señales más complejas que las del sistema Morse. También había construido un transmisor sumamente poderoso para sus experimentos. Aquella noche memorable diversas personas hablaron por el inalámbrico; una pronunció un discurso, otra leyó un poema e incluso alguien tocó el violín. Este fue el nacimiento de la radio. En 1906 se descubrió que ciertos minerales, en un circuito sencillo eran capaces de detectar las emisiones de radio. Cualquiera podía construirse un receptor de radio de galena sumamente barato. La primera década del nuevo siglo aportó muchos perfeccionamientos. Lee De Forest, inventó el audion; hoy lo llamaríamos tubo de vacío, posteriormente reemplazado por el transistor, dispositivo que cumple aproximadamente la misma función: son amplificadores electrónicos que aumentan las señales de radio, tanto en la transmisión como en la recepción. Este invento permitió la transmisión más nítida a nivel mundial. Así los equipos de radio se hicieron ahora más ligeros y portátiles. Durante la primera guerra mundial, se montaron radioteléfonos en los aviones, para informar a la artillería sobre la precisión de su tiro.
El concepto de propiedad privada y su motivación de lucro, produjo grandes conflictos en el desarrollo de la radio. Toda invención era patentada. Los grandes pioneros de la radio, desde Marconi en adelante, tuvieron grandes disputas entre sí ante los tribunales. Lee De Forest llegó a ser arrestado y procesado bajo la acusación de fraude. La radiotelefonía producía cuantiosas ganancias y la competencia por asegurarse la explotación de las invenciones importantes era intensa. Todos los litigios y las restricciones que derivaban de patentes quedaron en suspenso durante la primera guerra mundial. El Gobierno federal asumió el control completo sobre la nueva industria, y esto supuso nuevos esfuerzos cooperativos en la tarea de buscar el progreso técnico, lo cual habría llevado mucho más tiempo en tiempos de paz.
El concepto de propiedad privada y su motivación de lucro, produjo grandes conflictos en el desarrollo de la radio. Toda invención era patentada. Los grandes pioneros de la radio, desde Marconi en adelante, tuvieron grandes disputas entre sí ante los tribunales. Lee De Forest llegó a ser arrestado y procesado bajo la acusación de fraude. La radiotelefonía producía cuantiosas ganancias y la competencia por asegurarse la explotación de las invenciones importantes era intensa. Todos los litigios y las restricciones que derivaban de patentes quedaron en suspenso durante la primera guerra mundial. El Gobierno federal asumió el control completo sobre la nueva industria, y esto supuso nuevos esfuerzos cooperativos en la tarea de buscar el progreso técnico, lo cual habría llevado mucho más tiempo en tiempos de paz.
Suscribirse a:
Entradas (Atom)