Sunday, August 31, 2008

El sucesor del Windows Vista, cada vez más cerca

En octubre se conocerán los primeros detalles del nuevo Windows 7 durante dos conferencias técnicas. El software, con una interfaz táctil, estaría en el mercado durante el 2010
Microsoft ofrecerá detalles de su próximo sistema operativo, Windows 7, el mes de octubre en dos conferencias técnicas, según informa la BBC y publicó la edición digital de El Mundo.

Los nuevos datos serán revelados por sus desarrolladores en la Conferencia de Desarrolladores Profesionales y en la Windows Hardware Engineering Conference, según explicaron los dos principales ingenieros del sistema, Jon DeVaan y Steven Sinofsky, en el nuevo blog de Windows 7.

De momento, lo que se sabe del nuevo sistema operativo de Microsoft es que utilizará componentes de Vista, y que tendrá una interfaz táctil que, con su correspondiente pantalla, podrá reconocer gestos para realizar y completar tareas.

Hasta ahora, poco se sabe de Windows 7, ya que Microsoft no quiere hablar de características aisladas, además de que siguen promocionando su actual sistema operativo, Vista, que ya ha recibido multitud de quejas.

Fuente: Télam

HP y Dell muestran sus últimas notebooks

Hewlett-Packard presentó una nueva línea de portátiles ultralivianas con la idea de competir con Dell, que lanzó una serie de equipos con similares características
HP dijo que esta nueva línea incluía a la EliteBook 2530p, que es la más pequeña y más liviana de sus computadoras, con un peso de poco más de 1,3 kilos y una batería de larga duración.

La empresa dijo que su EliteBook 2730p es una portátil ultradelgada, que de un giro se convierte en una computadora con una pantalla táctil con lápiz y tiene un peso de 1,7 kilos.

HP espera que la HP EliteBook 2530p y la HP EliteBook 2730p estén disponibles a principios de septiembre, a un precio estimado de u$s1.499 y u$s1.670, respectivamente.

La HP EliteBook 2730p ofrece pantalla LCD táctil de 12,1 pulgadas y solo 1,1 pulgadas de espesor. Posee un Intel Core 2 Duo de 1,86 gigahertz de nueva generación, más eficiente en su manejo energético.

La capacidad de almacenamiento es de 80 GB en un disco SSD o bien 120 GB en disco duro convencional.

Viene con opciones de sistema operativo: Windows Vista Business, Windows Vista Business con downgrade a Windows XP Tablet Edition o Suse Linux Enterprise Desktop 10.

La HP EliteBook 2530p, por su parte, ofrece un diseño un tanto más convencional y pesa tan solo 1,2 kilogramos. Su pantalla de 12,1 pulgadas retroiluminada por LED le permite una excelente autonomía de batería.

Las restantes características son similares a las de la HP EliteBook 2730p, con el adicional de ofrecer conexión para grabadora externa de DVD o para un segundo disco duro de hasta 160 GB.

Las cartas de Dell
Días atrás Dell anunció una línea completamente nueva de computadoras portátiles Latitude y Dell Precision. Allí están incluidas la ultraportátil más liviana que la empresa haya elaborado en toda su historia hasta la workstation móvil más poderosa.

Los nuevos sistemas Latitude proveen una revolucionaria duración de carga en sus baterías y entregan un diseño y estilo brillantes, además de la opción de elegir entre diferentes colores.

Ultraportátiles – La Dell Latitude E4200 es una portátil de 12.1” (30.73 cm) cuyo peso empieza en 1 kg, por lo que es la portátil comercial más liviana elaborada en la historia de la empresa.

La Latitude E4300 de 13.3” (33.78 cm) tiene un peso inicial de poco más de un kilo. Estos sistemas, que han sido diseñados para los viajeros asiduos y los ejecutivos que exigen el máximo desempeño y un liviano peso, se ofrecerán en las próximas semanas.

De uso estándar – Las Dell Latitude E6400 (batería con una autonomía de 19 horas) y E6500, disponibles hoy, son computadoras portátiles de 14.1” (35.81 cm) y 15.4” (39.12 cm) respectivamente. Los sistemas son ideales para usuarios experimentados que necesitan una computadora capaz de reemplazar sus sistemas de escritorio.

Esencial – La Latitude E5400, una portátil de 14.1” y la E5500, de 15.4”. Disponibles hoy, los sistemas incluyen características corrientes a un precio rentable.

Semirrobusta – La Latitude E6400 ATG es una portátil semirrobusta de 14.1” se ofrecerá la próxima semana. Ha sido construida y puesta a prueba bajo las normas Military 810F en cuanto a polvo, vibración y humedad.

Por primera vez, Dell ofrecerá colores en las portátiles Latitude. Además de Metal de Mica Cepillado, las Latitude E4200, E4300, E6400 y E6500 se ofrecerán en Azul Regata, Rojo Regio y Rosado Cuarzo (E4200 solamente) en las próximas semanas. Los modelos E5400 y E500 se ofrecen en Negro Mate.

Las notebooks, armadas a gusto del usuario

Se presentó en el país un innovador sistema que permitirá a las personas que elijan los componentes de su futura notebook e incluso estampen en la carcasa la leyenda que deseen.

El lanzamiento de Sony VAIO by you, servicio de personalización de notebooks que permite al usuario elegir aquellas especificaciones que mejor se ajusten a sus necesidades y gustos.

La compañía anunció que un grupo de asesores ayudarán a las personas en los locales SonyStyle, donde se podrá personalizar el equipo a gusto y placer del usuario.

Entre las características que se pueden seleccionar para crear la VAIO que cada uno desea, citan: optimizar el procesador, disco rígido, la memoria RAM o elegir entre varios colores y diseños de chasis exclusivos.

Asimismo, permitirán perfeccionar la unidad óptica, la capacidad de la batería y las tecnologías de seguridad.

A diferencia de las posibilidades actuales en el mercado, que sólo permiten elegir componentes, Sony permite grabar el nombre del dueño o algún mensaje personal que se desee en la notebook creada.

Saturday, August 30, 2008

Los peligros de descargar juegos de internet

Los ciberdlincuentes pusieron la mira en los videogames. Un estudio asegura que casi el 64% de los archivos relacionados con los videojuegos en redes P2P están infectados con malware. Las amenazas más frecuentes
El creciente número de aficionados a los videojuegos resulta muy tentador para los criminales online, ya que estos jugadores tienen muchas características de las que sacar provecho: datos bancarios, información de tarjetas de crédito, potentes computadoras siempre conectadas a la red, cuentas de juegos online…

Por ello, no es de extrañar que los cibercriminales hayan incrementado notablemente los ataques contra los gamers durante los últimos doce meses. El número de programas de malware que roban las contraseñas y los datos de acceso para juegos online se ha incrementado de forma constante, sobrepasando incluso el número de troyanos bancarios existentes.

También especialmente peligroso para los jugadores de PC son las descargas de cheats (trucos) y otros añadidos desde redes P2P. Los gamers visitan habitualmente de estas redes, en búsqueda de archivos con los que poder acceder a trucos y demás ampliaciones para juegos de PC, por lo que constituyen el principal punto de infección.

Los datos de los análisis más recientes de los laboratorios de seguridad de G DATA muestran que el porcentaje de archivos infectados alcanzó un 63,7% durante el segundo trimestre de 2008, lo cual representa un nivel extremadamente alto.

Junto a los servicios de intercambio de archivos en redes P2P, los mayores culpables de que se produzcan este tipo de infecciones son los propios usuarios. Muchos jugadores desactivan los firewall durante su partida o navegan sin suite de seguridad alguna instalada.

Los jugadores online tienen todo lo que los ciberdelincuentes necesitan para exprimir al máximo su potencial: PCs potentes, largos periodos online, conexiones ADSL veloces y soluciones de seguridad desactivadas frecuentemente o no actualizadas.

Top cinco del malware encontrado en archivos P2P relacionados con los 20 videojuegos para PC más vendidos:
1. 32,6% Trojan-Downloader.Win32.Bagle.qv: Es la versión P2P del gusano Bagle. Carga malware como recolectores de direcciones de e-mail y puertas traseras, entre otros.

2. 15,1% P2P-Worm.Win32.P2PAdware.a: Muestra advertencias y simulaciones como, entre otras, un ataque de virus a la computadora y recomienda escanearlo con un software anti-spyware falso. Entonces, se invita al usuario a visitar una página web para comprar la versión completa de dicha solución trampa, apoderándose en dicho momento de los datos de sus tarjetas de crédito.

3. 9,3% P2P-Worm.Win32.Padonak.b: Se instala a sí mismo como servicio en la máquina infectada, cargándose cada vez que se inicia el sistema. Entonces, busca en las carpetas de la computadora programas P2P y se copia con un nuevo nombre en forma de formato ZIP o RAR, para aumentar su difusión.

4. 8,3% Trojan-Dropper.Win32.Peerad.a: Carga componentes adicionales desde un servidor de malware y los instala en el sistema. Contacta con servidores de anuncios y genera clicks para hacerle ganar dinero al autor del código malicioso.

5. 3,1% P2P-Worm.Win32.Kapucen.b: realiza la misma acción que el malware ubicado en la posición 3.

El riesgo de navegar por la web, en alza

IBM dijo que los ciberdelincuentes son cada vez más rápidos al aprovechar los agujeros de seguridad de los navegadores. El 94% de las explotaciones de esas vulnerabilidades ocurrió en las primeras 24 horas de producido el agujero
Así consta en el último informe X-Force sobre tendencias en 2008. El estudio de IBM explica que los delincuentes cibernéticos adoptan nuevas técnicas y estrategias de automatización que les permiten explotar las vulnerabilidades con mucha más rapidez que antes.

Organizados, los delincuentes cibernéticos implementan cada vez más estas nuevas herramientas en la web, mientras que el código público de explotación que difunden los investigadores pone en riesgo a más sistemas, bases de datos y personas.

Así, el 94% de las explotaciones online de vulnerabilidades de navegadores web ocurrieron en las primeras 24 horas de producido el agujero de seguridad, de acuerdo al trabajo que reproduce DiarioTI.

Este tipo de ataques, conocidos como explotaciones de vulnerabilidades de “día cero”, ponen en riesgo a los usuarios debido a que éstos no están enterados de que deben corregir esos agujeros.

Además de la organización de los ciberdelincuentes, los expertos de IBM resaltan que es un riesgo la ausencia de un protocolo en la industria que regule la divulgación de las vulnerabilidades.

“Si no contamos con un proceso unificado para la divulgación de vulnerabilidades, la industria de la investigación corre el riesgo de terminar alentando las actividades delictivas online. Existe una razón por la que X-Force no divulga el código de explotación de las vulnerabilidades que hemos descubierto y, probablemente, es hora de que otras personas en este campo consideren la implementación de esta práctica", dijo Kris Lamb, gerente de Operaciones de X-Force.

Apple lanza actualización debido a un error en el iPhone

La empresa presentó la actualización en el software para solucionar los problemas de conexión que produjeron de quejas por parte de los clientes. Un chip sería la causa del problema.

T-Mobile, cuyo dueño es Deutsche Telekom AG, señaló que el software está disponible para que los usuarios lo descarguen a sus iPhones, pero que aún no está claro si la actualización repara todos los problemas de conexión.

"Hemos tenido quejas por la conectividad en Holanda, pero no más de las usuales para un teléfono 3G en Alemania. Nuestros técnicos indicaron que Apple lanzó una actualización de software, pero es muy temprano para decir si los problemas están resueltos," afirmó un portavoz de T-Mobile.

AT&T, el único operador de redes que ofrece el iPhone, confirmó que Apple dispuso una actualización de software, pero declinó entregar detalles sobre a qué se apuntaba con el arreglo.

Apple, que vendió cerca de un millón de iPhones desde su lanzamiento en julio, no estuvo inmediatamente disponible para emitir comentarios.

Una de las atracciones clave del último iPhone, en comparación con el primer modelo lanzado a mediados del 2007, es su veloz conexión de tercera generación (3G) a internet.

El problema
Un chip del fabricante alemán Infineon podría ser la causa de quejas en todo el mundo de que el popular teléfono multimedia iPhone, de Apple, corta las llamadas y reacciona de manera impredecible en internet, dijo un reporte de investigación de Nomura.

BusinessWeek también informó en su sitio de internet que iPhone sufre por el chip de Infineon.

Los usuarios se han quejado en blogs y sitios de internet de que su velocidad de conexión es inconsistente y usualmente vuelve a una tecnología más antigua, incluso en áreas donde hay disponibles vínculos de 3G.

Richard Windsor, analista de Nomura, dijo que el problema probablemente involucraba al microprocesador de comunicaciones celulares 3G de la firma alemana Infineon.

"Estos problemas son típicos en un juego de chips y protocolo de radio inmaduros, del que estamos casi seguros que Infineon es el proveedor," escribió Windsor en una nota del 12 de agosto.

BusinessWeek citó a una fuente anónima que dijo que el problema residía en la tecnología de Infineon, que describió como "relativamente nueva y que no ha sido evaluada en grandes volúmenes fuera de los laboratorios."

BusinessWeek reportó que Apple había instalado el chip de Infineon para tener una señal 3G más potente de la necesaria, lo que resulta en un retroceso a una red anterior cuando hay demasiada gente en la misma área tratando de usar el iPhone a la vez.
Fuente: Reuters

Friday, August 29, 2008

Desentrañando los misterios de svchost.exe

Un vistazo a la sección Procesos del Administrador de tareas de Windows es suficiente para ver un número importante de instancias del programa svchost.exe en ejecución. Esto puede preocuparnos si no conocemos qué es lo que hace ese programa y por qué está tantas veces; especialmente por que algunas de esas instancias pueden consumir gran cantidad de memoria o uso del procesador. En esta nota se explica la función que cumple este programa y cómo monitorear su funcionamiento.

Según explica Microsoft, svchost.exe es un proceso anfitrión genérico para servicios que corren desde bibliotecas de vinculación dinámica (DLLs). ¿Y eso qué quiere decir?

Hace algún tiempo, Microsoft comenzó a mover toda la funcionalidad de los servicios internos de Windows a archivos .dll desde los archivos .exe. Desde una perspectiva de programación, esta estrategia es más adecuada para lograr la reusabilidad, pero el problema es que no se puede ejecutar una dll directamente desde Windows, sino que debe cargarse mediante la ejecución de un programa ejecutable (.exe). Es por esa razón que se creó el proceso svchost.exe

¿Por qué suele haber tantas instancias de svchost.exe en ejecución? Si alguna vez miró a la sección Servicios del Panel de control, habrá observado que hay un número importante de servicios que son requeridos por Windows. Si todos ellos corrieran bajo una misma instancia de svchost.exe, una falla en cualquiera de ellos podría hacer caer a todo el sistema operativo. Es por eso que se separan en distintos procesos.

Los servicios se organizan en grupos lógicos, y luego una instancia de svchost.exe se crea para cada grupo. Por ejemplo, una instancia de svchost.exe corre los tres servicios relacionados con el Firewall de Windows. Otra instancia podría correr todos los servicios relacionados con la interfaz de usuario, etc.

¿Qué puede hacerse al respecto? Por un lado, reducir la cantidad de servicios en ejecución, inhabilitando los que definitivamente no hagan falta. Adicionalmente, si se observa que una instancia de svchost.exe está haciendo un uso demasiado intenso del procesador, puede ser conveniente reiniciar los servicios que corren bajo esa instancia.

El mayor problema es identificar qué servicios están corriéndose dentro de una instancia particular de svchost.exe.

Verificación desde la línea de comandos (Windows Vista o XP)
Para ver qué servicios alberga una instancia particular de svchost.exe, puede usarse el comando tasklist desde una ventana del intérprete de comandos.

tasklist /SVC

El problema de usar este comando consiste en que probablemente no se sepa a qué se refieren los nombres crípticos que muestra. Para Windows Vista existe una mejor alternativa que el comando tasklist.

En la lista de procesos del Administrador de tareas de Windows Vista puede hacer clic con el botón secundario del mouse y luego elegir la opción Ir al servicio para pasar a la sección Servicios, en la cual aparecerán seleccionados aquellos servicios que corren dentro de la instancia de svchost.exe seleccionada.

Lo más interesante de este método es que puede verse el nombre real del servicio en la columna Descripción, lo cual facilita deshabilitar aquellos servicios que no sea necesario mantener en ejecución.

¿Para qué sirve rundll32.exe?

Cualquiera que haya mirado los procesos que corren en un momento dado en el administrador de tareas de Windows habrá notado que hay un programa que aparece muchas veces: rundll32.exe. En esta nota se explica por qué aparece tantas veces y cómo se distingue la ejecución normal de este programa de la ejecución de espías y “malware” en general.

Dado que no puede ejecutarse directamente un programa compilado como DLL (dynamic link library, o biblioteca de vinculación dinámica), se utiliza el programa rundll32.exe para lanzar funciones almacenadas en archivos dll compartidos. Este ejecutable es una parte válida de Windows, y en general no hay por qué considerarlo una amenaza.

Nótese que el proceso válido está normalmente ubicado en \Windows\System32\rundll32.exe, pero ocasionalmente los programas spyware usan el mismo nombre de archivo (rundll32.exe) y corren desde una ubicación diferente para disfrazarse a sí mismos.

Usando el Administrador de tareas de Windows Vista
Una característica interesante del Administrador de tareas de Windows Vista es la posibilidad de ver la línea de comando completa para cualquier aplicación en ejecución. Accediendo al menú Ver – Seleccionar columnas… se podrá encontrar la opción Línea de comando, la cual al activarse agrega una columna en la lista de procesos que permite ver la línea de comando que se usó para lanzar cualquiera de los procesos.

Con la mencionada herramienta, es posible determinar, en cada caso donde aparece el programa rundll32.exe, si se ejecutó desde la carpeta System32 de Windows y qué DLL se le pasó como parámetro para que ejecute. Luego puede explorarse la carpeta donde se encuentra la DLL en cuestión, y al pasar por encima de la misma con el mouse, se podrán ver varios detalles del archivo, como por ejemplo la descripción del mismo y la empresa que lo desarrolló.

Una vez que se conocen las características de una DLL en particular, se puede determinar si se desea inhabilitarla o no. Si no se cuenta con información suficiente, conviene recurrir a algún foro en Internet para determinar la utilidad de la DLL.

Usando el Explorador de procesos en Vista o XP
En lugar de usar el administrador de tareas, puede usarse la herramienta freeware Explorador de procesos, de Microsoft, para ver qué está sucediendo con una DLL en particular. Dicha herramienta puede usarse tanto en Windows Vista como en Windows XP.

Al ejecutar el Explorador de procesos en Windows Vista, se puede recurrir a la opción Arhivo – Mostrar detalles de todos los procesos para obtener una vista panorámica de todos los procesos en ejecución y sus subprocesos.

Inhabilitando procesos
Dependiendo de qué sea un proceso en particular, es probable que no se desee necesariamente inhabilitarlo, pero si fuera necesario hacerlo, puede escribirse msconfig.exe en el recuadro de búsqueda del menú Inicio de Vista y buscarlo en la columna Comando, la cual debería mostrar lo mismo que antes se vio en el Administrador de tareas o en el Explorador de procesos. Simplemente se debe desmarcar el recuadro adjunto para evitar que el proceso se ejecute automáticamente.

En algunas ocasiones un proceso no tiene un ítem de inicio automático, en cuyo caso deberá investigarse más profundamente para ver cómo se está iniciando. Por ejemplo, si se accede a la opción de Propiedades de pantalla del Panel de control de Windows XP, se verá aparecer una instancia nueva de rundll32.exe en la lista de procesos en ejecución, debido a que Windows internamente usa rundll32 para ejecutar esa ventana de propiedades.

Thursday, August 28, 2008

Tendencia: ¿Se consolidará el Wi-Fi en aviones?

American Airlines y Virgin America habían anunciado pruebas para el servicio Wi-Fi de AirCell, pero Delta Air Lines será el primero en ofrecer Wi-Fi en todos sus vuelos domésticos de los Estados Unidos. Otras aerolíneas seguirán atentamente el desarrollo de este servicio. Delta comenzará a dar el servicio dentro de unas semanas y completará la instalación en todas sus aeronaves para el verano boreal del 2009.

La tercera mayor empresa de transporte aéreo de los Estados Unidos, Delta Air Lines, se asoció con AirCell para ofrecer el servicio de Wi-Fi en sus vuelos dentro de los Estados Unidos. Y esto parece haber disparado la competencia. Delta anunció la disponibilidad del servicio para las próximas semanas, y terminará de instalar Wi-Fi en sus 300 aviones durante 2009.

El servicio no será gratuito. Los viajeros que quieran hacer uso deberán pagar US$ 9,95 si la duración del vuelo es inferior a 3 horas, y US$ 12,95 para vuelos más largos.

Otra de las grandes compañías del país, Continental, también anunció a principios de año que ofrecería conexión Wi-Fi en sus vuelos nacionales, aunque todavía no ha facilitado plazos ni datos concretos. Southwest y Virgin America también tienen en marcha iniciativas similares (también con AirCell), aunque siguen en fase de pruebas y sin concretar sus planes.

Otra compañía, JetBlue, ofrece desde el mes de diciembre conexión Wi-Fi gratuita en uno de sus aviones que realizan vuelos transcontinentales. Los pasajeros pueden consultar su correo, acceder a mensajería instantánea y comprar en la web de Amazon, pero no pueden navegar libremente por la Red.

La mayoría de estos sistemas funcionan a través de conexiones vía satélite, que tienen la ventaja sobre las comunicaciones terrestres de alcanzar mayor rango de cobertura y estar menos expuestas a la congestión.

A mediados del año pasado, la aerolínea australiana Qantas anunciaba un servicio de conexión inalámbrica para los aviones A380 y los 747-400 de la flota, además de todo tipo de comodidades para los usuarios de portátiles. Un año antes, otra iniciativa significativa, “Connexion by Boeing”, era cancelada. La razón: pocos viajeros se habían interesado por el servicio, debido sobre todo a las altas tarifas. La inversión de la compañía había sido de mil millones de dólares.

¿Se imagina una conexión a Internet 3.500 veces mayor?

Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, en esta ocasión se produjo un salto sin precedentes. La nueva proeza multiplicó por 3.500 la velocidad de transmisión de datos, lo que abre inmensas posibilidades de comunicación para fines científicos y alivia el riesgo de colapso de la Red, derivado del esperado crecimiento de la demanda de banda ancha.

Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6,7 gigas de información, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, a través de 11.000 kilómetros en menos de un minuto.

Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundo durante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3.500 veces superior a la conexión doméstica de banda ancha.

Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futuro las aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiples aplicaciones prácticas.

Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, a través de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar sus radiografías.

También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos de investigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando esta velocidad de transmisión para la transferencia de datos.

Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que se desarrollan en el marco del Genoma Humano, así como en astronomía.

El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobre Internet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados en diferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos de laboratorios muy distantes entre sí.

Impacto generalizado
El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tiene grandes expectativas a las que el experimento de Stanford podría dar satisfacción.

Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podría duplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5.200 petabits en 2007.

Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca del Congreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10 Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64.000 veces mayor que el peso que representa hoy la Biblioteca del Congreso.

Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre la capacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda de esta hipótesis de desarrollo de la red de redes.

Wednesday, August 27, 2008

La interfaz FireWire pisa el acelerador

La especificación USB 3.0 está a la vuelta de la esquina, pero eso no significa que el estándar IEEE 1394 (también conocido como FireWire o iLink) haya cesado su desarrollo. De hecho, la asociación que rige su evolución –denominada 1394 Trade Association– ratificó recientemente la especificación 1394-2008, caracterizada principalmente por una mejora significativa en el ancho de banda de la interconexión.

El estándar de bus serie de alta performance 1394-2008 actualiza todas las revisiones anteriores al estándar 1394, las cuales comienzan con la versión original 1394-2995 e incluyen a 1394a, 1394b, 1394c, UTP mejorado y la interfaz PHY-Link 1394 beta plus. También incorpora las especificaciones completas para la versión S1600, con 1,6 Gb/seg. de ancho de banda, y para la versión S3200, con 3,2 Gb/seg.

“La especificación consolidada 1394-2008 permite efectivamente que un mismo documento abarque a todas las versiones”, explica Les Baxter, líder de la 1394 Trade Association y director de Baxter Enterprises. “Provee un documento consistente que ofrece todo lo que un desarrollador necesita para trabajar con 1394 en cualquier aplicación. Ensamblamos un equipo experimentado de expertos en distintas áreas, como consumer electronics, informática y semiconductores, los cuales trabajaron diligentemente para completar la tarea a tiempo”.

El equipo lidió con errores remanentes de las especificaciones previas y armonizó todas las clases de mensajes, incluyendo campos que han sido usados en especificaciones relacionadas, como 1394.1 e IDB-1394, que fue desarrollada como el estándar original para entretenimiento en automóviles. No se incorpora el trabajo que actualmente está en curso en la 1394 Trade Association, incluyendo 1394 sobre coaxil y la nueva especificación 1394-Automotive.

Los miembros del equipo revisor que trabajaron con Baxter incluyen a compañías tales como Apple, Congruent Technologies, LSI, Oxford Semiconductor, Quantum Parametrics, Symwave y Texas Instruments.

Investigadores descubren el “santo grial” de la computación óptica

De cara al futuro, la computación óptica es una de las tecnologías consideradas como un reemplazo de alta velocidad a la tradicional computación basada en electricidad. Si bien la computación cuántica es considerada por muchos como el futuro más probable de la informática, la computación óptica es más factible en el futuro cercano.

Los componentes de computación óptica ya han sido llevados a la realidad con los servicios ópticos disponibles en ciertas partes de EE.UU. para computación de alta velocidad. Sin embargo, dispositivos más exóticos, tales como el almacenamiento basado en luz o las CPUs compuestas por transistores luminosos, son necesarios para construir una computadora ciento por ciento óptica, pero por ahora se mantienen en el reino de la conjetura.

Un importante descubrimiento en computación óptica podría llevar esos exóticos dispositivos más cerca de la realidad. Investigadores de la Universidad de California Berkley desarrollaron un método novedoso para comprimir la luz en espacios extremadamente pequeños. Anteriormente, los investigadores consiguieron que la luz cupiera en espacios tan pequeños como 200 nm; 400 veces más chicos que el grosor de un cabello humano. Este tamaño ayuda a dictar las dimensiones de las fibras ópticas más pequeñas, las cuales por varias razones son aproximadamente cinco veces este ancho, o sea, 1 µm (micrómetro) de ancho.

Con el nuevo hallazgo, los investigadores consiguieron achicar la luz para que cupiera en un espacio de apenas 10 nm, es decir, 20 veces menos de lo que se había logrado anteriormente. Tal espacio es apenas cinco veces el ancho de una pieza individual de DNA; un tamaño al que hasta el momento se creía imposible achicar la luz. Rupert Oulton, investigador asociado en el grupo conducido por el profesor en ingeniería mecánica Xiang Zhang, comentó acerca del hallazgo: “esta técnica puede darnos un gran control sobre la luz, y eso posibilitaría cosas sorprendentes para el futuro, en términos de lo que podríamos hacer con esa luz”.

Oulton teoriza que el avance puede derivar en logros clave, debido a las propiedades de la electricidad y el magnetismo. Para lograr una computadora óptica, se necesitarían al menos algunos componentes eléctricos. Sin embargo, la gran diferencia de escalas entre electricidad y luz implica que ambas no interactúan o se comportan de formas similares. El científico cree que comprimiendo la luz hasta longitudes de onda similares al tamaño de los electrones de las computadoras tradicionales se podrían lograr numerosos avances.

El problema clave es que la luz no cabe en espacios tan pequeños normalmente. Por eso Oulton desarrolló una nueva estrategia: un sistema óptico “híbrido” que consiste de un cable semiconductor colocado muy próximo a una placa de plata muy delgada y lisa. Normalmente, la luz debería viajar por debajo del centro del cable. Pero en el nuevo diseño, la luz viaja a través de la pequeñísima brecha entre el semiconductor y el metal. Esto arroja una onda de luz de tamaño muy similar a las ondas plasmónicas superficiales, pero con una longevidad cercana a la de las ondas normales. Estas minúsculas ondas de luz pueden llegar 100 veces más lejos que las más avanzadas ondas plasmónicas superficiales.

Según el profesor Zhang, la estrategia ofrece lo mejor de ambos mundos, en términos de tamaño versus distancia de propagación. Oulton cree que la investigación es un gran paso para conquistar el mayor desafío de la computación óptica: lograr la unidad entre luz y electricidad. “Estamos empujando a la óptica hasta escalas de onda del tamaño de electrones, y eso significa que potencialmente podemos hacer cosas que nunca antes hemos hecho”, opinó el científico.

Google busca crear una biblioteca mundial digitalizada

"Pretendemos digitalizar todos los libros del mundo y hacerlos accesibles a toda la sociedad", explicó Ben Burell, manager de Google Book Search Library Partnership, durante una conferencia pronunciada en los cursos de verano de la Universidad Complutense. El directivo defendió el hábito de la lectura y destacó "lo importante que es un libro en el campo de las ideas".

Google Books pasó en 2006 a ser un dominio público y de tener 15 editores a 20.000, con los cuales trabajan escaneando todas sus obras almacenadas. A ellos se unen las numerosas bibliotecas repartidas por todo el mundo que pretenden hacer más accesibles sus libros mediante el "vuelco" de sus contenidos en la red. La biblioteca de la Universidad Complutense de Madrid ha sido la primera en España en asociarse con Google para compartir sus documentos.

La digitalización que propone Google permitirá buscar cualquier libro en la red haciendo un solo "clic", descargárselo si el autor ha dado el consentimiento o averiguar en qué bibliotecas se encuentra el volumen deseado. Además, ofrecerá un servicio denominado "My library", en el que cada usuario podrá elegir sus libros favoritos y tener su propia colección digital.

Tuesday, August 26, 2008

Microsoft prepara el salto tecnológico más grande de la historia de Windows

Para una empresa como Microsoft, el cambio constante es una condición necesaria para la supervivencia. La compañía reconoce este hecho, y es por eso que en cada iteración de su sistema operativo Windows intenta reaccionar a las lecciones aprendidas de la iteración anterior y a las tendencias de mercado vigentes. Sin embargo, la marca Windows siempre se mantuvo constante. Hasta ahora.

Según revelan ciertos documentos internos de la empresa, Microsoft estaría haciendo lo impensado: diseñar un sistema operativo nuevo, totalmente “no-Windows”. Tales ideas podrían ser consideradas como herejías por algunos, mientras que otros podrían alabar a quien las tuvo. Dado que la empresa siente que ninguna tecnología existente es suficiente para los singulares desafíos que enfrenta Windows, el nuevo sistema operativo será un diseño enteramente nuevo, construido desde los cimientos. Su nombre código es “Midori”, y será lanzado en alguna fecha posterior al año 2010.

Midori se enfocará en un área emergente dentro del campo de la computación, denominada “cloud computing” (computación de nube). Básicamente, cloud computing consiste en un movimiento que tiende a trasladar el hardware y el software –y particularmente el almacenamiento– fuera de las PCs de los usuarios y dentro de grandes clusters. Gracias a la amplia dispersión del acceso a Internet de alta velocidad, un equipo conectado a Internet y comunicado en forma remota a un hardware de alta performance puede desempeñarse visualmente casi tan bien como un equipo con hardware dedicado. Al adoptar un sistema de hardware basado en servidor para los recursos de cloud computing, los costos caerán, impulsando la motivación para adoptar la nueva tendencia.

Los documentos internos de la empresa revelan que Microsoft estará poniendo foco en este aspecto centrado en Internet, enfatizando la conectividad. Midori estará basado en el sistema operativo experimental Singularity, el cual actualmente reside únicamente en los laboratorios de Microsoft Research. Además, Midori correrá en hardware nativo (x86, x64 y ARM) a través de hosting con el hipervisor Hyper-V, o bien dentro de un proceso Windows de futuros sistemas operativos.

Informes preliminares indican que Eric Rudder, vicepresidente senior de estrategia técnica en Microsoft, está a cargo del desarrollo del nuevo sistema operativo. Por su parte, Rob Helm, director de investigación en Directions on Microsoft, confirmó que los rumores son muy probablemente ciertos. “Eso suena posible; he escuchado rumores acerca de que Rudder tiene un proyecto de sistema operativo en su agenda”.

Los planes de Microsoft detallan esfuerzos para lograr que las aplicaciones de Windows y de Midori coexistan y trabajen juntas sin conflictos, si bien algunos esfuerzos también se estarían aplicando puramente a migrar aplicaciones a Midori. El nuevo SO estará construido sobre una arquitectura completamente asincrónica pensada para concurrencia de tareas y uso paralelo de recursos locales y distribuidos. Esto ayudaría a manejar diversos recursos de hardware y software sobre la red. También prevé un modelo de aplicaciones distribuidas basadas en componentes y guiadas por datos, además de administración dinámica de energía y otros recursos.

Microsoft regala software a los estudiantes de Latinoamérica

Microsoft Latinoamérica anunció la llegada de DreamSpark a la región, programa de descarga gratuita que proveerá a miles de estudiantes de la región las últimas herramientas de desarrollo y diseño de la compañía, con el objetivo de ampliar su potencial creativo y apoyarlos en el camino hacia el éxito académico y profesional.

Mediante esta iniciativa, Microsoft ofrecerá acceso gratuito a un software que incluye herramientas como Visual Studio 2005 y 2008 Professional Edition, XNA Game Studio 2.0, Expression Studio y de plataforma SQL Server 2005 entre otros. Estas herramientas tienen un valor comercial de USD $2,400, y se espera con este esfuerzo beneficiar a más de 1 millón de estudiantes de la región durante su primer año de implementación.

“Creemos que nuestro mayor esfuerzo en Latinoamérica debe estar orientado a capacitar a la nueva generación de líderes tecnológicos con el traspaso de conocimientos y herramientas que hoy utilizan los profesionales. Mediante el desarrollo de su potencial, los estudiantes podrán satisfacer en un futuro próximo la demanda de bienes y servicios de alta tecnología, contribuyendo de esta manera al crecimiento económico local y regional”, señaló Eduardo Núñez, Director Académico para Microsoft Latinoamérica.

La disponibilidad de DreamSpark se proporcionará de manera paulatina en la región, proyectando llegar a 15 países a principios de 2009, para alcanzar un total de 1 millón 500 mil usuarios durante este período. De esta manera, al programa que ya se encuentra activo en Argentina, Colombia y Venezuela, se incorporará en agosto Brasil, que mediante socios locales dará acceso a más de un millón de estudiantes; continuando con México, Ecuador, Costa Rica y Perú en septiembre; Bolivia, Chile, Guatemala, Puerto Rico, República Dominicana y Uruguay en noviembre; para finalizar con El Salvador, Honduras, Panamá, Paraguay y Trinidad y Tobago en abril del próximo año.

“Es una excelente oportunidad para que los estudiantes puedan acceder de forma rápida y simple a las herramientas que necesitan para capacitarse”, comentó Augusto Chesini, estudiante de la Universidad Abierta Interamericana de Argentina. “Si bien muchas de las universidades cuentan ya con un programa académico, el acceso directo de los alumnos los acerca mucho más al poder realizar downloads desde su hogar. La disponibilidad inmediata y las utilidades entregadas hacen que se pueda aprender con lo último y estar preparado para el mercado laboral”.

El futuro regional de las TICs en cifras
Un estudio realizado por IDC (2007) que incluyó a 13 países de la región, indica que en Latinoamérica el sector de TI generará más de 842,000 empleos nuevos en los próximos cuatro años y contribuirá al establecimiento de más de 7,600 nuevas compañías de TI en la región.

“La tecnología es el detonante clave para el crecimiento del empleo, desarrollo económico y creación de soluciones necesarias para enfrentar los problemas regionales” dijo John Gantz, Director de Investigación de IDC. “Se estima que en las economías emergentes se generarán más de 25% de los nuevos empleos de TI durante los próximos cuatro años, trabajos que serán conducidos por un desarrollo de mano de obra altamente calificada, por los que las habilidades tecnológicas serán determinantes”.

Para lograr esta meta y seguir extendiendo el impacto del programa en los próximos años, Microsoft estableció una importante alianza con la organización mundial de estudiantes ISIC, que reúne a más de 800 mil jóvenes de Latinoamérica, convirtiéndose en el primer socio regional para manejar el acceso a DreamSpark.

“El proyecto Microsoft DreamSpark es una oportunidad única para que estudiantes de todas partes de mundo tengan acceso a programas altamente especializados totalmente gratis que les servirán para su desarrollo académico y profesional”, señaló Martijn van de Veen, Gerente General de ISIC. “La Asociación ‘International Student Identity Card (ISIC)’ le da la más cordial bienvenida a esta maravillosa y generosa iniciativa que Microsoft tiene y estamos orgullosos de ser socios de este proyecto, haciendo de ISIC la llave de acceso a este increíble portafolio de programas. La colaboración entre Microsoft y ISIC permite a los 4 millones de estudiantes que actualmente cuentan con un carnet ISIC y, a todos los estudiantes que adquieran un carnet ISIC de disfrutar de este increíble beneficio”.

Información Adicional sobre los programas de Dreamspark

Herramientas de desarrollo Microsoft:
Visual Studio es la más completa y moderna herramienta para la programación de computadoras. Estos productos de nivel profesional proporcionan un ambiente seguro y confiable, permitiendo a los estudiantes programar todo desde un teléfono celular a un robot o crear su propia página Web. Los estudiantes también podrán inventar nuevos contenidos de juego, persuadiéndolos a hacer su juego ideal realidad y traspasar sus creaciones hacia su consola de Xbox 360.

„X Visual Studio 2005 Professional Edition
„X Visual Studio 2008 Professional Edition
„X XNA Game Studio 2.0
„X Membresía académica gratis por 12 meses al XNA Creators Club

Herramientas de diseño Microsoft: Este portafolio de herramientas ultra versátiles permitirá a los estudiantes traer a la vida sus visiones creativas, a través de nuevos y sorprendentes diseños de sitios Web y un contenido digital más eficaz, que incluya animación, imágenes y fotografía.

„X Expression Studio, incluye
• Expression Web
• Expression Blend
• Expression Design
• Expression Media

Recursos de plataforma Microsoft: La base para las plataformas de desarrollo y diseño, estos productos entregan un ambiente más seguro, confiable y manejable para los estudiantes que más rápidamente transforman sus ideas en realidad.

„X SQL Server 2005 Developer Edition
„X Windows Server, Standard Edition

Para poder acceder a DreamSpark los estudiantes deberán estar atentos a los anuncios que se irán dando de manera local, durante los próximos meses.

Llega Networkers 2008

Del 10 a 13 de noviembre, Cisco Networkers reunirá en el Hotel Milton de Buenos Aires a más de 900 participantes de la Argentina, Paraguay y Uruguay; quienes podrán acceder a Techtorials, sesiones técnicas, clínicas de diseño, reuniones de ingeniería uno a uno, y una exposición de soluciones de Cisco y de sus partners en el Technology Showcase. La conferencia plenaria del evento estará a cargo de Howard Charney.

Cisco anunció que del 10 al 13 de noviembre se llevará a cabo en Buenos Aires Cisco Networkers 2008, el encuentro anual de capacitación y actualización sobre las últimas tendencias en tecnologías que impactan el negocio de las empresas y organizaciones públicas.

Este evento está orientado a todos los profesionales de redes que desean capacitarse con las últimas tecnologías, interactuar con especialistas y conocer las más recientes soluciones de Cisco y sus partners.

Cisco Networkers 2008 reunirá a más de 900 participantes de Argentina, Paraguay y Uruguay; quienes podrán acceder a Techtorials (capacitación intensiva en diferentes tecnologías como Seguridad, Comunicaciones Unificadas, Wireless, etc.), sesiones técnicas, clínicas de diseño, reuniones de ingeniería uno a uno, y una completa muestra de soluciones de Cisco y sus partners en el espacio de Technology Showcase.

“Networkers se ha convertido en un espacio ideal para la interacción entre profesionales y referentes del mundo de las redes, donde se visualizan y experimentan tecnologías y soluciones de conectividad, además de conocer la visión de Cisco en lo referente a innovación tecnológica”, dijo Mariel Castro, Gerente de Marketing de Cisco Argentina.

La conferencia plenaria del evento estará a cargo de Howard Charney, vicepresidente senior de Cisco, quien disertará sobre el impacto de la tecnología en el aumento de productividad de las empresas.

Los gerentes, ingenieros y técnicos asistentes a Networkers 2008 tendrán la opción de capacitarse con expertos de Cisco de Estados Unidos y Latinoamérica, quienes les permitirán mantenerse actualizados en todas las tecnologías avanzadas y las últimas novedades en networking, cubriendo desde grandes corporaciones, proveedores de servicios y gobierno hasta pequeñas y medianas empresas.

La registración al evento estará disponible a partir del 6 de agosto en https://www.networkers2008.com/argentina o llamando al centro de atención Cisco Networkers 2008: 0810–444–24726 (CISCO) o por mail networkersarg@external.cisco.com

Monday, August 25, 2008

AMD anunció oficialmente el chipset 790GX

El nuevo chipset está dirigido especialmente a usuarios de computadoras de alta performance. Una de sus principales características es la capacidad de realizar overclocking avanzado, particularmente cuando se combina con los procesadores Phenom Black Edition. Para ello, el chipset incorpora una nueva tecnología llamada Advanced Clock Calibration.

El 790GX incluye la interfaz Overdrive de AMD, la cual permite realizar fácilmente overclocking de los procesadores Phenom Black Edition. El significativo incremento de performance que la plataforma puede otorgar a los fanáticos de los juegos que usan procesadores Black Edition se debe a lo que AMD denomina tecnología Advanced Clock Calibration.

La plataforma 790GX usa gráficos ATI Radeon HD 3300 on-board. AMD asegura que dicha GPU es la solución gráfica on-board de mayor performance disponible en la actualidad. La empresa respalda esta afirmación con un puntaje 3DMark Vantage de más de 2900.

Además de afirmar que incluye la GPU on-board de mayor performance, AMD informa que el chipset 790GX también soporta tecnología Hybrid CrossFireX, para acompañar la performance del chip gráfico embebido con una placa discreta ATI Radeon HD 3400 ó HD 2400. La plataforma también soporta CrossFireX para utilizar múltiples placas de video discretas al mismo tiempo.

La plataforma 790GX también incluye características para brindar lo que AMD denomina “La máxima experiencia visual para HD”. El nuevo chipset soporta resolución full HD de hasta 1080p y soporta los más recientes formatos de video, incluyendo VC-1, MPEG-2 y H.264. El chipset usa AMD Unified Video Decoder para descargar el esfuerzo de reproducción de video HD de la CPU hacia la GPU. Las mothers basadas en el 790GX estarán disponibles de parte de Asus, Biostar, DFI y otros, según dice AMD.

A principios de julio, AMD lanzó sus nuevos chips Phenom, los cuales se complementan con las capacidades de overclocking del 790GX. En aquel momento, la empresa presentó su más veloz chip Phenom Black Edition: el modelo X4 9950 corriendo a 2,6 GHz. AMD informa que el Phenom Black Edition corriendo a 2,5 GHz puede empujarse hasta 3,2 GHz y más, gracias a su nueva tecnología Advanced Clock Calibration.

Intel lanzó formalmente Centrino 2 Montevina

Esta nueva versión de la marca Centrino, bautizada simplemente como Centrino 2 y conocida por su nombre clave Montevina, es una plataforma compuesta por un procesador, chipset y tarjeta de conectividad inalámbrica, en una combinación que, según la compañía, garantiza velocidad, versatilidad y autonomía. Pero, sin duda, el punto más revolucionario de Montevina es la inclusión de los nuevos procesadores Core 2 Duo.

Los nuevos Core 2 Duo de Intel corren a frecuencias más altas que aquellos pertenecientes al antiguo Centrino, además de poder aprovecharlas de forma más efectiva. La disipación térmica de los nuevos procesadores disminuye de 35 a 25 Watts, lo que trae consigo menores temperaturas de operación (lo que implica notebooks más frescas y con sistemas de refrigeración menos complejos) y consumos eléctricos reducidos, lo que en teoría mejora la autonomía del equipo en general.

Los nuevos modelos de procesador que pronto inundarán el mercado de notebooks son:

Core 2 Duo P8400 2266 MHz
Core 2 Duo P8600 2400 MHz
Core 2 Duo P9500 2533 MHz

Estos procesadores también heredan dos técnicas de sus antepasados directos. La primera es EIST (Enhanced Intel SpeedStep), la tecnología de ahorro que trabaja reduciendo la frecuencia y voltaje de operación del procesador cuando la carga de trabajo sobre él es reducida. Para conseguir esto el procesador puede “jugar” tanto con su multiplicador como con el bus que lo comunica con el chipset y la memoria RAM. Si baja este último no sólo disminuye el consumo del procesador, sino también la de los otros dos componentes, convirtiéndose así en un mecanismo muy potente para regular el consumo del computador.

La segunda apuesta fuerte que se puede apreciar en los nuevos Core 2 Duo es IDA (Intel Dynamic Acceleration), que permite, a grandes rasgos, que uno de los núcleos del procesador entre en un estado de reposo profundo para reducir su disipación y consumo a un mínimo y permitir que el otro aumente su frecuencia normal. Este intercambio es útil en programas exigentes que no aprovechan los múltiples núcleos del procesador y que se benefician más por las aproximaciones de fuerza bruta.

El chipset es el puente que dirige las comunicaciones entre procesador, RAM y las otras partes de la notebook en un equipo con procesador Intel. Centrino 2 también inaugura un nuevo chipset con el nombre clave de Cantiga, compuesto por los miembros GL40, GS45, GM45, GM47 y PM45. Los nuevos chipset dan soporte para las nuevas memorias RAM DDR3 y aquellos con chip gráfico integrado incorporarán la nueva placa de video de Intel, la X4500, sucesora de la actual X3100.

Se estima que la placa X4500 tiene una potencia gráfica 300% superior al modelo X3100, con un desempeño que, según fuentes independientes, podría equipararse con la actual GeForce 8400M GS de NVIDIA.

Cantiga también brinda soporte para Intel Turbo Memory, mecanismo por el que se agrega memoria NAND Flash a la notebook para acelerar las operaciones sobre disco rígido más frecuentes y exigentes, haciendo más rápidas cosas como iniciar el sistema operativo.

Quizá uno de los cambios más importantes de Centrino 2 sea su soporte para las nuevas memorias DDR3, en contraste con las DDR2 que se usan actualmente. DDR3 es un nuevo estándar que involucra mayores velocidades de flujo de datos y menores voltajes de operación, lo que es especialmente agradecido en el nicho de notebooks, donde cada vatio cuenta (y mucho).

La última novedad de Centrino 2 es el Chip WiMAX de conexión inalámbrica WiMAX provisto por Intel. WiMAX es una tecnología de transferencia de datos inalámbrica, pero su enfoque es diferente al de las redes WiFi convencionales.

Lo que distingue a WiMAX de WiFi es que la nueva tecnología apunta a formar redes de rango mucho mayor al de una conexión WiFi convencional, acercándose más al radio de cobertura de una señal por celular. De esta forma, se podría disponer de servicios de banda ancha móvil siempre y cuando las empresas de telefonía locales dispongan de tales servicios.

Actualmente la cobertura global de WiMAX es muy pobre (especialmente en comparación con sus competidores HSDPA y 3G), pero la omnipresencia de Centrino en el mundo de notebooks fácilmente le pueden hacer ganar mercado y acelerar su adopción.

Sin embargo, el gigante azul tuvo algunos contratiempos con el chip gráfico X4500 lo que retrasará la disponibilidad de notebooks equipados con este chip. Los motivos de este atraso no son conocidos, pero el punto es que la performance de Centrino 2 puede llegar a ser más lenta de lo que esperaríamos para una plataforma que espera pasar por encima rápidamente a sus antecesores.

Teniendo este contratiempo en cuenta, muchos fabricantes, ni lerdos ni perezosos, optaron por usar soluciones gráficas de otras empresas para sus notebooks con Montevina como, por ejemplo, la nueva GeForce 9300M GS de NVIDIA.

Intel adelanta su nuevo procesador gráfico “Larrabee”

El fabricante estadounidense de chips Intel, ha desvelado más detalles sobre su nuevo chip gráfico 'Larrabee'. Hasta ahora los chips gráficos de Intel estaban incluidos en sus procesadores, pero ahora pasará a fabricar también chips gráficos independientes. Larrabee sería lanzado en 2009/2010 y sus primeras soluciones estarían destinadas a equipos portátiles.

Según el fabricante de chips, “Larrabee” combina las mejores características de una CPU con un procesador gráfico. "Lo que necesitamos es esta combinación, y esto nos lo da “Larrabee”", señaló Larry Seiler, un alto ingeniero de Intel.

"Parece una GPU (Graphic Processor Unit) y actúa como una GPU, pero en realidad todo lo que está haciendo es introducir un gran número de núcleos x86 en tu PC", dijo el portavoz de Intel Nick Knupffer, en relación a las funciones que puede realizar además de procesador gráfico.

“Larrabee” no requerirá una API especial, los juegos actuales podrán ser ejecutados con él. Básicamente la arquitectura Larrabee combinará CPU con un procesador gráfico, integrando múltiples núcleos X86, una nueva arquitectura de caché y un nuevo conjunto de instrucciones de procesamiento vectorial específica.

El número de núcleos no se ha determinado aunque de los datos mostrados por Intel se indica soporte para un número entre 8 y 48. Gracias a la tecnología Hyperthreading se podrían ejecutar múltiples hilos de procesamiento en paralelo que llegaría hasta los 192 con los 48 núcleos.

Está confirmado que “Larrabee” será compatible con APIs DirectX y OpenGL, por lo que será compatible con los videojuegos actuales. Además la codificación X86 abre a los desarrolladores nuevas opciones que no pueden ejecutarse en una GPU. En teoría “Larrabee” permitirá acelerar video de alta definición, juegos, aplicaciones 3D o procesos de física.

Sunday, August 24, 2008

VIA enfrenta a Intel con su chip Nano

El procesador Atom de Intel se ha convertido en el favorito de los fabricantes de netbooks, esas nuevas PCs móviles de bajo costo y prestaciones limitadas. Dicho procesador se encuentra en diversas netbooks, desde la Asus Eee PC 901 hasta la MSI Wind. Pero Intel no es la única empresa que provee procesadores de este tipo para equipos móviles y de escritorio. VIA también está presente en dicho mercado, con su procesador Nano de 65 nm.

VIA anunció oficialmente su procesador Nano a fines de mayo de este año, prometiendo modelos con un rango de velocidades de entre 800 MHz y 1,8 GHz. Los benchmarks preliminares provistos por VIA mostraban al chip Nano superando al Atom de Intel en diversos aspectos. Recientemente, los sitios web PC Perspective (www.pcper.com) y Hot Hardware (www.hothardware.com) pusieron a prueba las afirmaciones de la empresa.

Ambos sitios tomaron un procesador Intel Atom 230 (1,6 GHz) junto con una motherboard Intel BOXD945GCLF y compararon su rendimiento con el de un procesador VIA Nano L2100 (1,8 GHz) con una motherboard VIA Nano de referencia. Si bien la velocidad del VIA Nano es un 12,5 por ciento mayor que la del Intel Atom, Hot Hardware encontró que el Nano se desempeñó entre un 15 y un 20 por ciento mejor que el Atom.

Será interesante ver cuánto soporte obtiene VIA de los OEMs con su procesador Nano. Los OEMs que elijan el diseño de referencia OpenBook de VIA seguramente aprovecharán el nuevo chip de la empresa, y HP podría descartar el VIA C7-M que actualmente utiliza en su PC 2133 Mini-Note para colocar en su lugar al Nano.

Intel presentó sus nuevos chips “todo en uno”

La empresa organizó la semana pasada una conferencia para dar a conocer su nueva línea de diseños de “sistema en un chip” (SoC, por System on a Chip). La nueva línea de SoCs se denominará Intel EP80579, y estará basada en el núcleo del procesador Intel Pentium M. Dicho núcleo estará acompañado por un hub controlador de memoria (MCH), un hub de E/S (ICH) y otros chips que proveerán funciones tales como seguridad y aceleración de la circulación de datos.

Intel apuró el desarrollo de su línea de SoCs EP80579 para no perderse la nueva ola de dispositivos conectados a Internet que están apareciendo en el mercado actualmente y que aparecerán en el futuro. Gadi Singer, vocero de la empresa, dijo que “Ahora estamos en condiciones de entregar productos más altamente integrados, desde robótica industrial y sistemas de entretenimiento para automóviles hasta set-top boxes, MIDs y otros dispositivos. Al diseñar sistemas más complejos en chips más pequeños, Intel escalará la performance, funcionalidad y compatibilidad de software de IA, controlando a su vez los requerimientos de consumo, costo y tamaño para satisfacer mejor las necesidades del mercado”.

Los principales beneficios de la nueva línea de SoCs Intel EP80579 son el tamaño reducido y el bajo consumo energético. Intel asegura que este producto conducirá a plataformas basadas en placas un 45 por ciento más pequeñas y con un 34 por ciento menos de disipación de energía. Otro gran beneficio es que los nuevos SoCs emplearán una arquitectura x86 estándar, lo cual facilitará enormemente la migración de aplicaciones a los dispositivos basados en los chips EP80579.

Los diferentes componentes de los nuevos chips integrados de Intel se comunicarán a través de un bus frontal interno en el chip, que conectará el núcleo del procesador con el MCH y el ICH. Intel informa que ha desarrollado un bus de alta performance para conectar los motores de seguridad , TDM y ruteo de datos con el complejo de E/S.

Los futuros productos de la familia de procesadores integrados Intel EP80579 estarán basados en procesadores de la línea Atom.

AMD anticipa su nuevo socket G34

La más reciente hoja de ruta de AMD anuncia un gran cambio para principios de 2010: la compañía una vez más renovará su arquitectura de socket para preparar el camino para admitir memoria DDR3. El lanzamiento del nuevo socket estará acompañado por dos nuevos procesadores que incluirán cuatro interconexiones HyperTransport 3.

El nuevo formato de socket, denominado G34, comenzará a distribuirse junto con dos nuevos procesadores de la segunda generación de la tecnología de 45nm de AMD. El primero de estos procesadores, denominado Sao Paulo, es un chip de 8 núcleos descripto como un “procesador doble Shanghai de tecnología quad-core nativa”. Shanghai es la primera versión reducida a 45nm del procesador Barcelona de AMD, y se espera para los últimos meses de este año.

El pasado mes de abril, las hojas de ruta de AMD hablaban vagamente de un procesador de 12 núcleos. Ahora este chip se denomina Magny-Cours, por la ciudad francesa conocida mundialmente gracias a su gran premio de Fórmula 1.

Los dos nuevos procesadores de AMD incluirán cuatro interconexiones HyperTransport 3, 12 MB de caché L3 y 512 KB de caché L2 por núcleo.

El chip de próxima generación de Intel, conocido como Nehalem, es el primero en incluir soporte para memoria DDR3 de triple canal. AMD subirá la vara en 2010, con soporte para DDR3 registrada y no registrada de cuatro canales. Las actuales hojas de ruta indican que el soporte estándar admitirá velocidades desde 800 a 1.600 MHz.

El agregado de un cuarto link HyperTransport podría resultar una de las características más interesantes de los procesadores Sao Paulo y Magny-Cours. En una configuración completa de cuatro sockets, cada procesador físico dedicará un link HyperTransport a cada uno de los demás sockets. Esto deja una línea HyperTransport adicional por procesador, la cual la documentación de AMD asegura que será usada para el muy anticipado programa Torrenza.

El entusiasmo en torno a Torrenza se disipó luego de que el lanzamiento del chip Barcelona de AMD fue aplazado, si bien la compañía aseguró anteriormente que Torrenza constituiría una perfecta interconexión para GPUs o procesadores IBM Cell. Esta es exactamente la configuración prevista para la computadora pública más veloz del mundo, la Roadrunner de IBM.

Saturday, August 23, 2008

Los nanotubos de carbono harán realidad a las computadoras flexibles

Los científicos que trabajan con nanotubos de carbono y circuitos flexibles continúan acercando a la realidad a aquellos dispositivos que hasta ahora parecían provenir únicamente de la imaginación fantasiosa de los novelistas de ciencia ficción. Con el desarrollo de una nueva clase de circuitos, se realizó un gran avance hacia la posibilidad de producir masivamente pantallas y computadoras flexibles.

Una de las siguientes brechas entre la realidad y la ciencia ficción que los ingenieros electrónicos esperan saltar es la de las pantallas y computadoras flexibles. Si bien varios grupos de investigación han encontrado formas de crear pantallas flexibles, la producción masiva de tales tecnologías solía estar lejos de poder realizarse. Se han hecho grandes avances para llegar a los circuitos flexibles, como por ejemplo el material dieléctrico flexible desarrollado por la Universidad Northwestern.

El material nano-dieléctrico no sólo es flexible sino que además es imprimible, lo que permitirá utilizarlo en futuras técnicas de producción de circuitos integrados.

Como puede verse en la edición de la semana pasada de la revista Nature, el trabajo en la Universidad de Illinois en Urbana Champaign (UIUC) logró llevar a los ingenieros más cerca de los circuitos integrados flexibles con calidad apta para la producción masiva. Utilizando los populares nanotubos de carbono (CNTs, por carbon nanotubes), los circuitos creados por UIUC no sólo son flexibles, sino también más veloces que los circuitos típicos de material orgánico. Estos últimos han demostrado previamente ser demasiado lentos para usarse en dispositivos tales como pantallas de alta velocidad.

Los circuitos de UIUC se construyen usando una combinación de técnicas litográficas e impresión por transferencia. Primero, los CNTs son depositados sobre la superficie de un sustrato flexible. Los nanotubos no se encuentran alineados de ninguna forma, pero debido a su dispersión, forman una alfombra conductiva. Luego se aplican electrodos de oro y diversos componentes de circuitos sobre el sustrato y la capa de CNT. Finalmente, para evitar que los CNTs puenteen conexiones y hagan cortocircuitos en la red, se aplica litografía para cortar los canales entre los electrodos, interrumpiendo cualquier conexión que pueda puentearlos.

No hay procesos de alta tecnología involucrados en los circuitos de UIUC. La litografía y la impresión por transferencia se utilizan desde hace décadas. Si bien crear nanotubos uniformes fuera de una laboratorio es difícil, ciertamente no es un procedimiento poco común en la actualidad. Gracias a la simplicidad de estos procesos, la producción masiva de pantallas y computadoras flexibles no está tan lejos como puede creerse. Los avances tecnológicos del estilo de los de la Universidad de Illinois están llevando los dispositivos futuristas más lejos de los libros y películas, y más cerca de nuestra vida cotidiana.

Los píxeles telescópicos prometen pantallas con mayor eficiencia energética

A pesar de que las pantallas LCD siguen mejorándose en cuanto a su tamaño, brillo y calidad de imagen, los investigadores están siempre en busca de la próxima innovación tecnológica en materia de tecnologías de visualización. Un equipo de investigación patrocinado por Microsoft encontró la forma de emplear elementos ópticos similares a los de los telescopios para desarrollar pantallas que requieren menos energía.

Microsoft anunció que un par de sus ingenieros, junto con una estudiante de posgrado de la Universidad de Washington, Anna Pyayt, inventaron una nueva clase de tecnología de pantalla que es mucho más eficiente en el consumo energético que los actuales LCDs. La nueva tecnología utiliza elementos ópticos similares a los que emplean los telescopios.

Las pantallas LCD actuales emplean iluminación posterior (backlight), y sólo un 10 por ciento de la luz producida es transmitida a la superficie de la pantalla LCD. La capa de polarización por sí misma absorbe un 50 por ciento de la luz producida por el backlight.

El diseño telescópico, en cambio, es capaz de transferir hasta la superficie alrededor de un 36 por ciento de la luz producida, mediante el uso de óptica de espejos. El píxel telescópico posee un minúsculo espejo primario que enfrenta al backlight y posee una perforación en el centro. Detrás del espejo primario, a una distancia de 175 micrómetros, se encuentra un espejo secundario que refleja la luz que atraviesa al primario. Cuando se aplica voltaje al espejo primario, se convierte en una parábola que permite que la luz se enfoque en el espejo secundario y en la pantalla.

Los investigadores afirman que, en teoría, un 75 por ciento de la luz en el píxel telescópico puede alcanzar la superficie de la pantalla. Otro beneficio del nuevo diseño es una mayor velocidad a la cual los píxeles pueden encenderse y apagarse. El píxel telescópico puede cambiar de oscuro a iluminado en sólo 1,5 milisegundos.

Anna Pyayt condujo el equipo de investigación como parte de su tesis de doctorado, y Microsoft aplicó para patentar la tecnología. Es probable que Microsoft se asocie con un fabricante de monitores LCD para construir pantallas que empleen la nueva tecnología, en lugar de fabricar los monitores por sí misma.

¿Se vienen los hologramas portátiles?

Ingenieros japoneses han desarrollado un simulador de hologramas de tamaño reducido, que podría estar en el mercado dentro de tres años, según el equipo de investigadores del Instituto Nacional de Tecnología de Japón. Aunque se encuentra aún en fase de prototipo, el denominado “gCubik” podrá llegar a moverse y hablar en tiempo real. La idea es hacer que la imagen se mueva y pueda hablar, con lo que se podría tener algo parecido a los hologramas que aparecían en las últimas entregas de la Guerra de las Galaxias.

Los paneles, que en el prototipo tienen un tamaño de 10 centímetros, están formados por pequeñas lentes de cristal líquido.

A diferencia de las pantallas convencionales de 3D, que pueden verse sólo de frente, el gCubik puede verse desde tres ángulos, lo que permite ver la imagen desde distintos puntos de vista. Y a diferencia del 3D convencional los usuarios no necesitarán llevar gafas para verlo.

Yoshida señaló que el equipo espera que en tres años este prototipo esté en el mercado, con una mejor calidad de imagen y una visión completa desde los seis costados del cubo.

“Imagina que tienes una foto de tu novia sonriente en la mesa de tu escritorio. Podría sonreírte en una imagen tridimensional dentro de un cubo”, explica Shunsuke Yoshida, uno de los responsables del proyecto.

Friday, August 22, 2008

Las 10 mejores frases de Linus Torvalds

Linus Benedict Torvalds nació el 28 de diciembre de 1969 en Helsinki. Es un ingeniero de software finlandés; más conocido por desarrollar la primera versión del núcleo (kernel) Linux, basándose en la implementación de las herramientas, los compiladores y las utilidades desarrollados por el proyecto GNU. Aquí exponemos 10 de sus más increíbles y desopilantes frases. Imperdible.

1. “El software es como el sexo: cuando es gratis es mejor.”

2. “Microsoft no es el diablo, sólo hacen sistemas operativos vulgares.”

3. “Mi nombre es Linus, y yo soy tu Dios.”

4. “Mira, no solo tienes que ser un buen programador para crear un sistema como Linux, también tienes que ser un cabrón escurridizo.”

5. “La filosofía de Linux es ‘Ríete en la cara del peligro’. Ups, no. ‘Hazlo tú mismo’. Sí, eso es.”

6. “Algunas personas me han dicho que no creen que un pingüino gordo encarne el espíritu de Linux, lo que me dice que nunca han visto a un pingüino enojado corriendo hacia ellos a más de 100 millas por hora.”

7. “La inteligencia es la habilidad de evitar hacer trabajo y conseguir que el trabajo se haga.”

8. “Cuando tu dices, ‘escribí un programa que hizo que Windows se cuelgue’, la gente se te queda mirando pálida y dice: ‘Ey, yo lo conseguí con el equipo, y gratis’.”

9. “No dudo para nada que la virtualización sea útil en algunas áreas. Lo que dudo realmente es que alguna vez tenga el tipo de impacto que la gente que anda detrás de la virtualización quiere que tenga.”

10. “Ahora, muchos de ustedes están aburridos pensando en el día de Navidad, y aquí tengo la perfecta distracción. Prueba 2.6.15-rc7. Todas las tiendas estarán cerradas, y realmente no habrá nada mejor que hacer entre las comidas del día.”

Los “nooglers”: la aventura de ser parte de Google

Para empezar hay que explicar, ya que pocos lo saben, que en el interior de Google se conoce como “noogle” a aquél que acaba de entrar como empleado en la compañía. Se trata de un honor que no alcanza cualquiera y, como sin duda inspira curiosidad saber cómo se logra, el prestigioso profesor español Enrique Dans pidió a un alumno suyo, que acababa de ser aceptado en la compañía, contar su experiencia. Conozca su increíble relato.

La experiencia de convertirse en noogler

Por Ibai García


He de confesar que no era la primera vez que llamaba a su puerta. Google es una empresa muy atractiva para muchos que consideramos Internet una extensión más de nuestra vida. En Internet se pueden encontrar múltiples experiencias de Ingenieros que o bien fueron contratados o rechazados, pero no he visto a nadie de otras áreas, así que creo que puede ser interesante contar mi experiencia.

El proceso comenzó con un aviso de las nuevas oportunidades de trabajo que estaba ofreciendo la compañía para gente recién graduada (yo por segunda vez en mi vida, lo era, así que “check”), que hablase inglés (check) y también español (check). Alrededor de una decena de posiciones para diversas ciudades europeas, de las que “reduje” mis pretendidas a cinco (al fin y al cabo la pasión por la compañía pudo al puesto concreto que prefería). Una nota al pie de cada una de las descripciones de puestos me hizo apresurarme en completar todos los formularios, Deadline: ASAP.

Así que el mismo día que recibí las descripciones envié las solicitudes. CV, notas del postgrado (lo único que tenía a mano) y poco más (ni siquiera rellené el Cover Letter ni añadí las recomendaciones). Eran principios de abril. Tres semanas más tarde en mi bandeja de entrada de Gmail tenía un e-mail con el siguiente asunto: “Hello from Google”. La responsable del área de nuevos graduados quería concertar una entrevista telefónica para una de las tres posiciones de una de las tres sedes a las que había presentado mi candidatura. El proceso marchaba y ya se había concretado cual podría ser mi destino.

Una semana después tendría mi primera entrevista telefónica. Entre las distintas lecturas que me recomendaron para la entrevista había un curso de Adwords que me mantuvo entretenido todo el fin de semana. En clase habíamos trabajado bastante los casos de AdWords y AdSense, pero no quería tener la más mínima duda. Me lo estudié bien a fondo.

Así llego el día de la entrevista. Con puntualidad británica me llamaron. La primera sorpresa de todo el proceso: me llamaban de Dublín, pero la entrevista era en perfecto español. Empezamos a hablar, y lo más curioso es que la única referencia a AdWords fue la pregunta de “¿cómo venderías AdWords a alguien que no supiera como funciona?”, ante lo cual usé uno de mis recursos más habituales: la metáfora del francotirador. El resto de la entrevista no fue muy diferente a una primera entrevista en cualquier empresa: roles dentro de un grupo, situaciones difíciles, el porqué de la elección de los estudios, etc.

La sensación tras esta entrevista fue buena. Pero tampoco creía haber hecho nada especialmente brillante, ningún aprieto del que hubiera salido airoso o que me permitiese cantar victoria. Tres días después, un nuevo e-mail me felicitaba por haberlo hecho bien en la entrevista telefónica, y me citaban para ir a su sede de Dublín a una serie de entrevistas “in situ”. Con todos los gastos pagados. Quiero decir que ese mismo día recibí un e-mail desde la sede de Polonia diciéndome que mi perfil no les encajaba (mismo puesto por el que iba a viajar a Dublín). Supongo que por no saber polaco, aunque el puesto no lo exigía explícitamente.

El caso es que dos semanas después, estaba volando hacia las islas para visitar personalmente las instalaciones de Google. La verdad es que era mucho más de lo que habría pedido al inicio del proceso. Me esperaba un hotel bastante aparente que me hizo sentirme importante. La verdad es que la gente de Google sabe muy bien cómo hacer que te sientas parte enseguida, y esto yo lo valoro mucho.

Al día siguiente me levanté temprano y aproveché para pasear y despejarme. Uno de los detalles que me atormentaba para este día era algo que a priori puede parecer simple, pero que entraña muchos peligros: ¿cómo se viste un candidato para ir a una entrevista en Google? Mi look diario dista mucho de ser formal, y aunque ellos promulgan el vestuario “casual”, tampoco quería parecer un desharrapado. Daré la formula que me sirvió a mi, probablemente no sea la mejor pero tampoco es equivocada: camiseta de color vivo, más jersey, pantalones “chinos” y zapatos “informales” tipo Geox.

Así es como llegué a Google. Una vez dentro todo es sorprendente. En la sala de espera los sofás dejan sitio a sillones de masaje, comida y bebida gratis en todas las esquinas, etc. Mi contacto no tardó en llegar y me dio un pequeño tour por las instalaciones antes de pasar a las entrevistas.

Llegó la primera entrevista. Segunda sorpresa: la persona encargada de entrevistarme es uno de mis futuros compañeros de equipo. Comenzamos a hablar y la mayor parte de la media hora programada la pasamos hablando de mis hobbies y las actividades que hago y he hecho alrededor de ellas: organización de torneos, puesta en marcha de algunas webs, etc. La verdad es que si en un principio el entrevistador parecía que iba ser serio y duro, finalmente congeniamos muy bien. Aquí me gané un punto.

Segunda entrevista. Otro miembro del equipo. Esta entrevista empezó hablando de los estudios, por que había elegido estudiar un MBA (siendo yo ingeniero), etc. Pero terminamos hablando de cine y música. Supongo que aquí evaluaron mi capacidad de explicarme y vender, pero da gusto hacerlo de cosas que realmente te gustan.

Tercera entrevista. Esta fue la más “técnica” y dura de todas. Tocaba entrevistarse con la manager. Justo al contrario que las otras dos, en un principio parecía que iba ser muy amistosa se fue tornando cada vez más áspera. Fue la entrevista donde más me evaluaron los conocimientos de la compañía y de sus productos. La verdad es que esta parte no supuso mayor problema, pero hacia el final de la entrevista consiguió llevarme a una situación limite cuando tras la típica pregunta de “¿qué puedes aportar tu a la compañía?” fue anulando todos mis argumentos uno a uno. Finalmente conseguí reponerme con un argumento lo suficientemente bueno y sin mostrarme vencido por la situación. Pensé que lo había hecho bien, pero esta pregunta me atormentaría por semanas.

Tras esta última entrevista mi contacto de recursos humanos me recogió y terminamos el tour, que finalizó con una pequeña degustación de la comida del restaurante. Esa misma tarde tome el avión de regreso. Era martes y ahora solo faltaba esperar.

Ese mismo viernes sonó el teléfono. Eran buenas noticias. A mis entrevistadores les había gustado. Así que me pedían que enviase todas las notas de la universidad, así como varios escritos sobre mis actividades extracurriculares.

El lunes lo tenía todo listo y enviado. En principio, en este punto del proceso, desde las diferentes sedes europeas realizan un “pack” con toda la información que han recabado durante el proceso, incluido el feedback de los entrevistadores, y lo envían a California donde un comité de selección da el OK definitivo a la contratación. Esto realmente me desconcertaba. Yo tenía fe en que por mi carácter sabría venderme a quien me entrevistase, pero no estaba tan seguro de que en base a datos fríos alguien pudiera estar interesado en contratarme.

Semana y media más tarde, cuando un servidor ya estaba subiéndose por las paredes, sonó el teléfono y nuevamente eran buenas noticias. Google quería contratarme. Me hicieron la propuesta en firme y tras ella me preguntaron: “¿te interesa?” “Claro que me interesa, iría a trabajar hasta gratis”. Suerte que mi subconsciente no me traicionó y esas no fueron las palabras que salieron de mi boca.

A falta de empezar a trabajar, las conclusiones que puedo extraer de que valoran los chicos de Mountain View para contratar son las siguiente:

  • Unas notas por encima de la media. Durante todo el proceso hicieron bastante hincapié en que fuera actualizándoles las notas en la medida que las recibiera, que les enviase todas las que pudiese conseguir de cursos pasados, etc. Para ellos el expediente es importante.
  • Conoce bien Internet. Hablar en términos digitales y con terminología propia de la Web no debería ser problema.
  • Más aún, conoce al dedillo las aplicaciones de Google. Google no es solo un buscador, también es Gmail, Google Maps, Google Earth, Google Books, Google Apps, etc., etc. Aprende a usarlas y analiza sus ventajas y desventajas.
  • Ten vida más allá de la red. Google valora tus hobbies. Si perteneces al club de radiocontrol de tu provincia y os reunís periódicamente házselo saber. Si eres un director de cine en ciernes y has rodado tus propios cortos: cuéntaselo.
  • Se natural y cercano. La mayoría de las personas que te entrevisten serán tus futuros compañeros así que tendrás que caerles bien. De nada sirve ser el mejor si no caes bien a la gente.
  • Demuestra pasión por la tecnología e intenta dar soluciones novedosas a los retos que te planteen. Ellos ya saben que los pop-up no funcionan, que el spam no le gusta a la gente, etc. Sé original. Aporta valor.

Espero que te sirva.

Ibai irá contando partes de su experiencia en esta página, “Infinity and Beyond: historias de un noogler en Dublín”

Vía Blog de Enrique Dans, CC

Una solución para obtener energía limpia y segura

El dispositivo protege computadoras, teléfonos, fax, módems y electrónica en general de los cortes o las alteraciones en la corriente eléctrica, pero además, mejora la alimentación energética para un funcionamiento más duradero de los equipos de una empresa.

La empresa Belkin Corporation presentó en el país el dispositivo “Surge Protector”. Se trata de un diseño exclusivo para Argentina, dirigido a proteger sobrecargas en los equipos y lograr una energía “limpia” y segura.

Es un dispositivo que organiza y encausa múltiples cables, posee capacidad para conectar 6 u 8 equipos (según el modelo) y ofrece una opción de montaje sobre pared para mayor conveniencia. Protege las líneas de teléfono / ADSL / cable y tiene garantía de por vida.

“Las sobrecargas en la corriente y los rayos no son las únicas cosas que pueden dañar los equipos electrónicos. Simplemente encender y apagar aparatos puede crear desequilibrios en la corriente eléctrica que pueden provocar daños acumulativos y permanentes en las computadoras, periféricos o equipos electrónicos”, explicó Carlos Solano, Director Comercial para Cono Sur de Belkin (se adjunta foto) y agregó “Con el Surge Protector contra sobrecargas de Belkin estamos manteniendo a salvo los equipos de los usuarios. Es muy práctico porque se puede montar firmemente sobre la pared o dejar en la base para colocarlo en cualquier lugar donde se necesite tomacorrientes adicionales".

Esta solución ayuda a organizar y encausar múltiples cables. También protege las líneas de teléfono, ADSL o cable.

Para concluir Carlos Solano dijo: "La interferencia electromagnética y la interferencia de radio frecuencia causa contaminación en la línea de corriente alterna que puede resultar en el congelamiento de la computadora, interferir en el audio o video o, incluso, provocar la pérdida de datos. Cuanto más grande sea la reducción en el nivel de decibeles en un rango más amplio de frecuencia, más grande será la protección limpia. El Surge Protector cuenta con un cortacircuitos de 10 amp. integrado ubicado en el conmutador. En el caso de que haya una sobrecarga o un cortocircuito se puede restablecer el conmutador apagando y volviendo a encender el protector contra sobrecargas.

Belkin Surge Protector llega a la Argentina en Agosto de 2008.

Thursday, August 21, 2008

Los discos SSD de Super Talent pisan el acelerador

El mercado de discos de estado sólido está empezando a calentarse. Primero, Super Talent irrumpió con su línea MX de discos SSD de bajo costo. Luego, OCZ empató con su línea Core, pasando a la delantera en performance. Super Talent debió hacer algo de magia para elevar las velocidades de sus dispositivos, de forma tal de ponerse a la altura de su competidor en cuanto a performance.

OCZ llevaba la delantera no sólo en cuestión de precios bajos para su línea Core de discos SSD, sino también por ofrecer mayor performance en lectura y escritura. Los SSD de Super Talent ofrecían 120 MB/seg. de velocidad de lectura y 40 MB/seg. de escritura, mientras que los de OCZ alcanzaban entre 120 y 143 MB/seg. para lectura y entre 80 y 93 MB/seg. para escritura (dependiendo de la capacidad).

Con OCZ respirándole en la nuca, Super Talent debió poner algo de magia a sus discos MX. Los modelos de 15 GB y 30 GB ahora presentan velocidades de lectura de 120 MB/seg. y de escritura de 60 MB/seg. Los modelos de 60 GB y 120 GB tienen las mismas velocidades de lectura, pero sus velocidades de escritura alcanzan los 80 MB/seg.

“Nuestro equipo de ingeniería está constantemente descubriendo nuevas formas de mejorar nuestros productos, y ésta es una mejora que será bien recibida por los usuarios de laptops”, dijo el director de marketing de Super Talent, Joe James.

Además de las mejoras de velocidad, Super Talent recientemente comenzó a ofrecer bonificaciones de U$S 40 para hacer a sus discos SSD más competitivos con la alineación de OCZ.

Texas Memory rompe récords en materia de capacidad y velocidad de los SSD

Los discos de estado sólido (SSDs) están siendo vistos como el futuro de los almacenamientos de datos empresariales, debido a las mejoras en velocidad, confiabilidad y ahorro de energía que ofrecen. Estos dispositivos, cuando están orientados al consumidor, son unidades compactas muy similares en su forma a los discos tradicionales, pero cuando se orientan al entorno de un data-center, su formato cambia completamente.

Texas Memory asegura que su solución de almacenamiento basada en tecnologías SSD, llamada RamSan-440, puede sostener un índice récord de 600.000 IOPS (input/output por segundo) y brinda capacidades de 256 GB y 512 GB.

La mencionada capacidad de almacenamiento marca un récord para los SSDs basados en RAM. La publicación eWeek informa que el producto RamSan-440 es también la primer solución SSD en usar módulos NAND Flash en una configuración RAID para backup de datos. El SSD también usa tecnología propietaria de Texas Memory llamada IO2 (Instant-On Input-Output), que mejora la disponibilidad permitiendo que los datos requeridos por los usuarios o aplicaciones estén disponibles instantáneamente cuando el sistema se enciende.

El dispositivo RamSan-440 usa memoria RAM DDR2, según indica eWeek, y puede sostener 4 Gbps de lectura y escritura, con latencias por debajo de los 15 ms. El formato del producto es rackeable de 4U y puede conectarse a una SAN o en forma directa a un servidor, a través de ocho puertos Fibre Channel de 4 Gbps.

El backup de datos se logra usando módulos de memoria flash protegidos por RAID. El backup se realiza continuamente a los módulos flash internos, con un mínimo impacto en la performance del sistema. No se conocen datos de precios, pero considerando que un SSD “barato” con 128 GB se vende por aproximadamente U$S 500, es de esperar que el RamSan-440 de Texas Memory no sea un producto precisamente económico.

¿Códigos Bidi?

La evolución de los tradicionales códigos de barra permite leer productos directamente desde el teléfono celular, aprovechando el lente de la cámara. Si bien es una de las primeras pruebas en el país, es una buena idea para adelantarse a la tecnología del futuro y pensar en nuevas maneras de acercarse a sus clientes.

La empresa de telecomunicaciones Movistar presentó en el país la primera campaña de códigos bidimensionales (BIDI), mediante la cual sus clientes podrán descargar por este medios, contenidos gratuitos a teléfonos móviles.

Más allá de la promoción en sí, este acontecimiento de marketing indica que la nueva tecnología de lectura está disponible en el país.

El sistema es muy simple. El código BIDI es una imagen impresa que puede ser fotografiada por la cámara del teléfono celular y enviado vía mensaje a la empresa destinataria. De esta manera, el usuario ya está identificado y en condiciones de comprar un producto o descargar contenido online.

Para una mejor interpretación del código, la foto debe ser tomada de forma tal que el código ocupe la mayor parte de la pantalla del teléfono y en sentido vertical.

Los códigos bidimensionales (BIDI) son la evolución de los tradicionales códigos de barras, con los cuales se interactúa tomando una foto con la cámara de los teléfonos. Con ellos, los clientes ya no tendrán por ejemplo que utilizar el teclado de sus celulares para escribir la dirección de una página de Internet, enviar un SMS para descargar contenidos o marcar un número de teléfono para hacer una llamada.

Estos códigos permiten múltiples aplicaciones para personas y empresas, con alta aceptación en Europa y Asia, y Movistar los introduce en el mercado argentino.

Wednesday, August 20, 2008

Así funciona el Microsoft Desktop Optimization Pack

El Microsoft Desktop Optimization Pack (MDOP) está diseñado para ayudar a los usuarios a obtener el máximo provecho de sus sistemas cliente Windows Vista, según dice la descripción oficial de la solución. El MDOP incluye un amplio conjunto de herramientas, desde virtualización hasta un servicio de inventario de activos, pasando por un administrador avanzado de políticas de grupo y herramientas de diagnóstico, recuperación y monitoreo de errores.

Con el advenimiento de Windows Vista a fines de 2006 y principios de 2007, Microsoft comenzó a invertir una cantidad consistente de esfuerzo en la habilitación de escritorios optimizados. A lo largo de 2007, y luego de la presentación de Windows Vista Service Pack 1, la empresa continuó haciendo un ajuste fino del conjunto de herramientas agrupadas bajo el paraguas Microsoft Desktop Optimization Pack (MDOP) para clientes con contrato de licencia Software Assurance.

El evento Microsoft Management Summit (MMS) en la ciudad norteamericana de Las Vegas fue el ámbito en el cual Microsoft reafirmó su compromiso constante con los escritorios optimizados con Vista y la virtualización. “La combinación de MDOP y Windows Vista ofrece a los clientes las herramientas que necesitan para soportar entornos de trabajo más flexibles para sus usuarios, a la vez que se facilita y se hace más eficiente la administración y mantenimiento de sus redes”, reveló Shanen Boettcher, gerente general de administración de producto Windows para empresas en Microsoft. “Este es el concepto al que hacemos referencia al hablar de escritorio optimizado, y muchos de nuestros clientes tienen las herramientas para obtener esos beneficios en la actualidad. Estamos respondiendo al entusiasmo que nuestros clientes han mostrado por estos productos al mejorarlos continuamente y lanzar nuevas actualizaciones en tiempo real”.

Durante junio, Microsoft tenía planeado liberar el software Application Virtualization 4.5 Release Candidate 1. Según dijo Boettcher, los beneficios asociados con la virtualización comienzan a tener sentido en forma creciente para los clientes, lo cual se pone en evidencia en la creciente cantidad de downloads de la versión Beta.

El siguiente paso de la compañía luego de Application Virtualization 4.5 RC1, será ofrecer Asset Inventory Service (AIS) 1.5, junto con Advanced Group Policy Managment (AGPM) 3.0, durante el tercer trimestre del año. “AIS 1.5 agregará reconciliación de licencias, integración con System Center Configuration Manager y mejoras de escalabilidad. AGPM 3.0 proveerá soporte para Windows Vista SP1 y Windows Server 2008 (x86 y x64), globalización, seguridad más flexible, herramientas de reporting avanzadas y una interfaz de usuario mejorada”, agregó Boettcher.

El foco de Microsoft no está en el mercado estadounidense, ya que la compañía planea lanzar soporte adicional para diversos lenguajes en MDOP. Boettcher enumeró no menos de 10 lenguajes localizados para MDOP, incluyendo chino simplificado, chino tradicional, alemán, francés, italiano, japonés, coreano, portugués brasileño, ruso y español.

“Planeamos lanzar versiones localizadas de Diagnostics and Recovery Toolset (DaRT) 6.0 y Desktop Error Monitoring (DEM) 3.0 SP1 en diez idiomas durante el tercer trimestre de 2008. AGPM y Microsoft Application Virtualization 4.5 seguirán hacia fines de 2008”, concluyó Boettcher.

Microsoft hará que los móviles sirvan como PCs

Microsoft Greater China, la división china del gigante de software estadounidense, está diseñando una nueva aplicación para que los teléfonos móviles puedan hacer los mismos trabajos que las computadoras personales. Las divisiones locales de investigación y desarrollo de la compañía trabajan en la nueva aplicación, tanto para hardware como para software, que se llamará "Phone Plus" y estará destinada a los mercados emergentes.

"La mayoría de la gente en las economías en desarrollo compra el teléfono móvil como su principal aparato electrónico, en lugar de un ordenador personal", explicó Zhang Yaqin, presidente de Microsoft Greater China, para justificar el nuevo producto de la compañía, en declaraciones al diario "South China Morning Post".

La nueva aplicación de Microsoft permitirá a los teléfonos móviles con el sistema operativo Windows Mobile conectarse sin cables a teclados, dispositivos de almacenamiento y monitores, además del acceso a Internet y otras funciones propias de las computadoras convencionales.

La compañía estadounidense también planea adaptar más juegos de su consola Xbox 360 para computadoras personales, y lanzar nuevos juegos con varios jugadores simultáneos para móviles, explicó Zhang.

China, el primer país del mundo por número de usuarios de teléfonos móviles, superó el pasado marzo los 574 millones, muy por encima de Estados Unidos, que le sigue con 220 millones de usuarios.