Showing posts with label Cloud Computing. Show all posts
Showing posts with label Cloud Computing. Show all posts

Friday, April 3, 2009

"Cloud computing" y la batalla entre los gigantes tecnológicos

IBM encabeza la lista de una docena de empresas que presentó un documento para pedir por estándares abiertos y promover el cloud computing. La respuesta de Microsoft, Google y Amazon no fue satisfactoria

Sin embargo, Microsoft desestimó los esfuerzos y acusó a International Business Machines de buscar ejercer el control, mientras que pioneros de la nube computacional Amazon.com, Google y Salesforce.com estuvieron ausentes de la lista de empresas que apoyan la medida.

La "nube computacional" -una de las frases más rimbombantes y usadas en Silicon Valley- se refiere a una variedad de maneras en las que las empresas de tecnología ofrecen servicios por internet desde centros de datos externos.

Así, por ejemplo, entre los servicios de ese estilo se puede mencionar a Google Docs, que permite a diversas personas trabajar sobre un mismo documento desde internet, sin necesidad de ajustarse a una sola computadora.

El texto encabezado por IBM, llamado Manifiesto de Nube Abierta, busca que los productos que se ofrezcan sean compatibles para ampliar el atractivo del negocio.

Las empresas generalmente son reticentes a adoptar nuevas tecnologías bajo patentes porque se sienten atadas a un proveedor y no tienen la opción de cambiar a otro si las cosas no funcionan o surgen mejores opciones.

"No es que todo vaya a ser perfectamente compatible, pero va a ser algo similar por lo que las empresas se van a poder mover desde un proveedor a otro. Eso le da a las empresas la comodidad que necesitan para comprar", dijo Stephen O'Grady, analista de la firma de investigaciones RedMonk.

La industria de la tecnología está bajo una fuerte presión para alentar a las empresas a adoptar las tecnologías de nube computacional, que podría ayudarles a ahorrar dinero tercerizando parte de sus operaciones de tecnología de la información a grandes centros de datos en que se pueden alcanzar enormes economías de escala.

Además de los asuntos de compatibilidad, las empresas están preocupadas por la seguridad del almacenamiento de información en centros de computadoras remotas y del movimiento de datos a través de internet.

El investigador en tecnología Gartner estima que el mercado de software para empresas, de servicios de computación y de almacenamiento en nubes computacionales, que incluye a empresas como Salesforce.com, Amazon.com, Microsoft e IBM, totalizará cerca de 10 mil millones de dólares este año.

El total es apenas una fracción de los 223 mil millones de dólares que Gartner proyecta solo para el mercado de software para empresas.

IBM considera al manifiesto como un primer paso para establecer estándares específicos para que los clientes puedan cambiar confiadamente entre proveedores de nube computacional, dijo Wladawski-Berger, presidente emérito de la Academia de Tecnología de IBM.

Entre los que apoyan el manifiesto destacan AT&T, Cisco Systems, EMC, Novell, Red Hat, Sun Microsystems y VMware.

Una portavoz de Amazon dijo que su empresa estaba evaluando el documento. Un portavoz de Google dijo que su empresa decidió no respaldar el manifiesto, pero no ofreció una razón. Un portavoz de Salesforce.com no pudo ser contactado para comentarios.

Pero Microsoft criticó públicamente el rol de IBM en el diseño del manifiesto, y dijo que Microsoft sólo fue consultada para firmar a último momento.

"Nos parece que una empresa o apenas unas pocas empresas prefieren controlar la evolución de la nube computacional, debido a que se opusieron a alcanzar un consenso entre todos los interesados (incluidos los usuarios de la nube computacional) a través de un proceso 'abierto'", dijo en un blog el ejecutivo de Microsoft Steven Martin.

Sunday, March 22, 2009

Investigarán la privacidad en Google

La causa es una falla en su software de la oficina online. Durante unas horas, toda la información que los usuarios guardan en los servidores de Google Docs pudo ser vista por otras personas

Los servicios web de Google cayeron bajo la lupa de los organismos de defensa de la privacidad en internet. El Centro para la Privacidad de la Información Electrónica (EPIC por sus siglas en inglés) denunció a Google ante la Comisión Federal de Comercio de los Estados Unidos, para que se investigue una falla de seguridad en su software de oficina online, Google Docs.

Durante unas horas, toda la información que los usuarios guardan en los servidores de Google Docs pudo ser vista por otras personas. La falla se produjo a principios de este mes, fue detectada por los propios ingenieros de Google y afectó al 0,05% de los documentos.

En Google Docs se pueden crear documentos de texto, planillas de cálculo y presentaciones gráficas, sin instalar ni comprar ningún programa. Además, esos documentos se archivan en los servidores de Google y el usuario puede acceder a ellos desde cualquier computadora conectada a internet.

Ahora, la EPIC reclama que se investigue el nivel de seguridad que todos los sistemas "cloude computing" de Google, esto es, los servicios online basados en softwares que se pueden usar desde internet, como el webmail Gmail, el álbum de fotos Picasa y, el epicentro del problema, Google Docs, según informa el diario Clarín.

En la Argentina esa empresa ya está analizando la petición de la EPIC.

Saturday, February 7, 2009

El Pentágono recurre a la computación en nubes

El poder militar de EE.UU. usa servidores centrales de datos para ahorrar dinero y proteger la información de fallas del sistema informático

El Pentágono recurre a la computación en nubes

Cuando John Garing, del Departamento de Defensa de Estados Unidos, se reunió con personal de Microsoft y Amazon.com para informarse sobre la "cloud computing", o computación en nubes, le gustó lo que vio. Fue suficiente para que volviera a Washington listo para cambiar la forma en que funciona la tecnología gubernamental.

Estas compañías, junto con Google y Salesforce.com, están promoviendo la "cloud computing" para mejorar la eficiencia y reducir costos. La idea es almacenar aplicaciones e información en los centros de datos de las compañías, en vez de hacerlo en servidores locales. La palabra "cloud" (nube) se refiere a las amorfas fuentes de datos fuera de la red interna de un cliente.

Garing, que maneja la infraestructura tecnológica del Departamento de Defensa, está ahora imitando el enfoque de las compañías internamente, y ha desarrollado su propia "nube" que las agencias del Gobierno comparten. Ir más allá de eso para aprovechar los recursos del mundo corporativo podría no ser tan fácil. Aunque usar servidores centrales de datos podría ahorrar dinero y proteger la información de fallas del sistema, las agencias vacilan ante la idea de ceder el control de información sensible.

"Si yo fuera rey por un día, les diría a Amazon y Salesforce: '¿Por qué simplemente no usamos su nube?'", aseguró Garing en una entrevista con la agencia Bloomberg. "Aquí estamos encargados de los asuntos del país, y el Departamento de Defensa no puede permitir que sus sistemas de computación se caigan en forma alguna", explicó.

Durante un viaje a Seattle hace unos dos años, Garing se reunió con el máximo responsable de Microsoft, Steve Ballmer, y el arquitecto jefe de software de la empresa, Ray Ozzie. También visitó Amazon.com para hablar con el director de tecnología Werner Vogels.

Sin maquinaria

Las reuniones produjeron una epifanía, dijo Garing. Al ofrecer poder computacional en Internet, las compañías podrían liberar a sus clientes de tener que pagar por su propia maquinaria e instalaciones.

"La gente toma decisiones de compra relacionadas con el procesamiento de datos y no quiere construir cosas que ya no necesita construir", señaló. "Uno empieza a unir todo esto, junta todo y pronto se pregunta: '¿Por qué no estamos usando esto?'", dijo.

La expresión "cloud computing" se usa a menudo para describir servicios como el procesador de textos en línea de Google y el software para servicios al cliente de Salesforce.com, a los que se accede por Internet a través de un buscador de la Red en lugar de almacenarlos en una computadora.

Los clientes también pueden pagar para tomar prestadas partes de la infraestructura informática de Amazon.com y otros, alquilándolas para analizar cifras o construir nuevas aplicaciones, sin tener que comprar más servidores.

El concepto está prendiendo en el mundo de los negocios. The New York Times Co. ha usado el servicio "en nube" de Amazon.com para cargar imágenes de periódicos archivados y convertirlos a un formato más legible. Nasdaq OMX Group Inc. recurrió al servicio de Amazon.com para suministrar información histórica de negociaciones.

Wednesday, December 10, 2008

Microsoft le gana a Google la pelea por los programas de oficina

El buscador apuesta al modelo de “computación en las nubes”, que abre la posibilidad de trabajar, a través de Internet, desde múltiples computadoras sobre archivos y programas que no están alojados en la propia máquina personal del usuario. Pero por ahora la respuesta del mercado parece ser otra

Microsoft le gana a Google la pelea por los programas de oficina

Los programas de oficina como el procesador de texto y la planilla de cálculo son casi omnipresentes en las computadoras personales en todo el mundo, sin importar si son de escritorio (desktops) o portátiles (notebooks o netbooks). Google, el principal jugador de Interne, comenzó hace algunos años una estrategia para desbancar al rey de ese ambiente, Microsoft, que tiene en el Word y en el Excel a sus principales armas. Pero parece que las maniobras del buscador por ahora no tienen mucho efecto.

La jugada de Google se llama Google Docs, y se basa en el modelo de “computación en las nubes” (“cloud computing”, en inglés) que abre la posibilidad de trabajar, a través de Internet, desde múltiples computadoras sobre archivos y programas que no están alojados en la propia máquina personal del usuario.

Pero parece que la maniobra por ahora no tiene preferencias en el mercado: sólo el 1% de los usuarios encuestados en un estudio de mercado de la consultora Clickstream Technologies en Estados Unidos utilizó Google Docs, la plataforma “on line” de programas de oficina del buscador, en los últimos seis meses.

La mayoría de los usuarios de estos programas continúa utilizando como complemento a Google Docs a los paquetes ofimáticos de escritorio, sobre todo con Microsoft Office, que incluye además de los clásicos Word y Excel, al PowerPoint.

OpenOffice se queda con el 5% por ciento del mercado. En este caso, los usuarios de este paquete de código abierto son más independientes de las herramientas de Microsoft que los de Google Docs.

De acuerdo a los datos informados por la web Ars Technica, si se observa el grado de actividad, el panorama es más preocupante para Google. Los usuarios de Google Docs realizan apenas 40 acciones por sesión, mientras que los de Open Office hacen 548 por sesión, y los de Microsoft Office, 1797.

Las conclusiones que se pueden extraer es que por el momento los programas de oficina “on line” son utilizados por un porcentaje muy pequeño de usuarios, que encima los complementan con software de escritorio y los utilizan sólo para las tareas más básicas.

Además, la experiencia del usuario y la potencia de las aplicaciones de escritorio predominan sobre una virtud que tiene Google Docs: la disponibilidad de los documentos en cualquier equipo y la facilidad para compartirlos.

Sin embargo, falta tiempo para determinar si hay un ganador definitivo en esta pelea. Los programas de oficina “on line” recién comienzan su recorrido, aunque Microsoft puede mejorar todavía más sus armas preferidas.

Por las dudas
Microsoft no descuida el flanco y este año anunció Office Live, que será el equivalente de Google Docs para el Word, el Excel y el PowerPoint, para crear documentos “on line”, editarlos y compartirlos. Por el momento, la empresa de Redmond ofrece a los usuarios registrados del Microsoft Office la posibilidad de guardar sus documentos en servidores remotos de la propia compañía y acceder a ellos desde el navegador.

Lo que no queda claro aquí es si Microsoft ofrecerá Office Live sólo a los usuarios con licencia o desea cobrar algún tipo de suscripción.

Si fuera esta última la opción, será difícil de lucha contra las opciones gratuitas de Google Docs u otro jugador, Zoho, muy elogiado en blogs y medios especializados de tecnología.

Otra maniobra de Microsoft a favor de los servicios “on line” fue el anuncio de la llegada de Windows Azure, un entorno operativo que funcionará bajo el concepto de computación en la nube (“cloud computing”).

La llegada de IBM
Pero Microsoft y Google no estarán solos en este escenario. Según informó esta semana el diario The Wall Street Journal, IBM lanzó un nuevo servicio dirigido a empresas que haría innecesario comprar licencias del gigante del software mundial.

El producto presentado por IBM consiste en un conjunto de programas que se ejecutan en servidores remotos que funcionan con Linux, al estilo de Google Apps.

La diferencia con las propuestas de Google y de Microsoft, es que IBM ofrece la posibilidad de sustituir las PC por equipos mínimos que no tienen potentes procesadores o grandes discos duros. Sólo necesitan estar conectados a los servidores donde se aloja todo (programas y documentos).

El ahorro, de acuerdo a IBM, será muy grande. Por un lado, las empresas no tendrán que comprar computadoras caras y actualizarlas en forma continua. Por el otro, al no necesitar ningún sistema operativo ni software adicional, como un procesador de textos u hojas de cálculo, tampoco habrá que abonar las licencias anuales que permiten utilizar los programas propietario (Office, Windows) de forma legal.

El gigante de la informática tiene un aliado en la crisis económica internacional para alentar su servicio, que costará en los Estados Unidos entre 59 y 289 dólares por usuario. Según IBM, permitirá ahorrar a cada cliente unos 800 dólares por usuario.

Saturday, November 15, 2008

Almacenamiento para cloud computing

IBM hizo un lanzamiento masivo de hardware, software y servicios orientados a facilitar el paso de los tradicionales datos estáticos gestionados en compartimentos estancos, a una información dinámica que “sigue” a las personas a donde quiera que vayan en un entorno de cloud computing. Así, este nuevo modelo computacional en el que prevalecen las infraestructuras brindadas como servicio y los esquemas on demand, comienza a afianzarse en el plano internacional. ¿Cree usted que tendrá un rápido arraigo este concepto en América latina? Escríbanos a opine@itsitio.com.

El lanzamiento de IBM incluyó más de 30 tecnologías y servicios de infraestructura de información diseñados para afrontar el gran crecimiento y dinamismo de los datos, el aumento del costo de la energía, los problemas de seguridad y las mayores exigencias de los consumidores. Además, supone una inversión de U$S 2.000 millones, tres años de desarrollos y la participación de más de 2.500 investigadores de la compañía de nueve países diferentes.

Según IBM, el espacio ocupado por la información de cada individuo (la llamada "huella de información"), la digitalización del ocio, la asistencia sanitaria, la seguridad o las preferencias de compra, crecerá del actual volumen, 1 terabyte al año (equivalente al papel impreso de unos 50.000 árboles), a más de 16 terabytes en 2020.

La compañía señala tres elementos críticos para conseguir una buena infraestructura de la información, como parte de su estrategia en torno al centro de datos de la empresa del futuro: disponibilidad, consolidación y retención, y seguridad.

Disponibilidad escalable según la demanda de Internet
La infraestructura actual no está diseñada para gestionar a los dos mil millones de personas que estarán en la Web en 2011 ni los miles de millones de dispositivos y objetos que se espera que estén conectados. Las empresas tienen que estar preparadas para la homogeneización de entornos (cloud computing), ofreciendo a los consumidores acceso remoto a los datos y sistemas desde cualquier dispositivo y lugar gracias a soluciones escalables y que permitan ahorrar costes. En este sentido, IBM presenta:
  • Un sistema de gestión de almacenamiento en disco, resultado de la adquisición de XIV en enero. Con una exclusiva arquitectura grid, ofrece una gestión más sencilla, más posibilidades de mejorar el rendimiento, ajuste y reparación automáticos y una asignación de espacio más eficiente para reducir la complejidad y los costos a la vez que permite un acceso dinámico a datos.
  • El DS5000, un nuevo sistema de almacenamiento en disco para centros de datos de tamaño medio. Puede añadir interfaces y aumentar el rendimiento o la capacidad en función de la demanda de Internet y se puede reconfigurar sobre la marcha.
  • El software de virtualización, SVC, diseñado para consolidar volúmenes de datos, mejorar la utilización de los sistemas y lograr la eficiencia energética, escalabilidad y disponibilidad de sus aplicaciones críticas.
  • SOFS, una solución de virtualización flexible de fácil implementación.

Consolidación y retención
Según los analistas, el 50% de los centros de datos se quedará sin energía o sin espacio en 2008 y la energía consumida por los centros de datos de Estados Unidos crecerá del 1,5% al 2,5% del consumo total del país en los próximos cinco años. Los productos de IBM más destacados para hacer frente a este problema son los siguientes:
  • ProtectTier, un nuevo software y hardware que permitirá reducir las copias de datos duplicados con una proporción de 25 a 1 (resultado de la compra de Dilligent).
  • Onsite and Remote Data Protection, para conservar y hacer copias de seguridad de sus datos críticos fuera de sus instalaciones y garantizar la disponibilidad continuada en caso de desastre (fruto de la adquisición de Arsenal).
  • Sistema de cintas de alta densidad, el TS3500, que en un metro cuadrado de espacio puede almacenar hasta tres veces más cartuchos que otras estructuras.
  • Discos para servidores corporativos, DS8000, con protección RAID 6 y un 50% más de capacidad y mayor rendimiento.

Seguridad
Garantizar que la información del centro de datos esté protegida y con acceso restringido es una de las principales preocupaciones de las empresas. La reciente intromisión de un hacker en un centro de datos costó a la empresa afectada más de U$S 60 millones en daños por el robo de datos y el uso no autorizado de información de tarjetas de crédito de sus clientes. Por otro lado, la disponibilidad y la autentificación de los datos, desde las enormes bases de datos de empresas y gobiernos hasta los 1.000 millones de personas que se estima que usarán la Web móvil este año, es una prioridad clave.

  • Mejora en la oferta de almacenamiento en disco con DR550, que cuenta con unidades que permiten un 33% más de capacidad. Puede hacer particiones para incluir aplicaciones de ISVs y reducir consumo de energía hasta un 50%, con una opción combinada de disco y cinta.
  • TS1130, la unidad de almacenamiento en cinta de un terabyte que puede realizar copias de seguridad hasta un 54% más rápido que con la generación anterior.
  • Tivoli Key Lifecycle Management, que permite que los sistemas de almacenamiento en disco y cinta no sean vulnerables en caso de robo o pérdida.
  • Servicios de Gestión Remota de Infraestructura (RMIS por sus siglas en inglés) para monitorizar, asegurar y gestionar sus infraestructuras tecnológicas de forma eficiente a la vez que aumentan las cargas de trabajo.

Tuesday, August 26, 2008

Microsoft prepara el salto tecnológico más grande de la historia de Windows

Para una empresa como Microsoft, el cambio constante es una condición necesaria para la supervivencia. La compañía reconoce este hecho, y es por eso que en cada iteración de su sistema operativo Windows intenta reaccionar a las lecciones aprendidas de la iteración anterior y a las tendencias de mercado vigentes. Sin embargo, la marca Windows siempre se mantuvo constante. Hasta ahora.

Según revelan ciertos documentos internos de la empresa, Microsoft estaría haciendo lo impensado: diseñar un sistema operativo nuevo, totalmente “no-Windows”. Tales ideas podrían ser consideradas como herejías por algunos, mientras que otros podrían alabar a quien las tuvo. Dado que la empresa siente que ninguna tecnología existente es suficiente para los singulares desafíos que enfrenta Windows, el nuevo sistema operativo será un diseño enteramente nuevo, construido desde los cimientos. Su nombre código es “Midori”, y será lanzado en alguna fecha posterior al año 2010.

Midori se enfocará en un área emergente dentro del campo de la computación, denominada “cloud computing” (computación de nube). Básicamente, cloud computing consiste en un movimiento que tiende a trasladar el hardware y el software –y particularmente el almacenamiento– fuera de las PCs de los usuarios y dentro de grandes clusters. Gracias a la amplia dispersión del acceso a Internet de alta velocidad, un equipo conectado a Internet y comunicado en forma remota a un hardware de alta performance puede desempeñarse visualmente casi tan bien como un equipo con hardware dedicado. Al adoptar un sistema de hardware basado en servidor para los recursos de cloud computing, los costos caerán, impulsando la motivación para adoptar la nueva tendencia.

Los documentos internos de la empresa revelan que Microsoft estará poniendo foco en este aspecto centrado en Internet, enfatizando la conectividad. Midori estará basado en el sistema operativo experimental Singularity, el cual actualmente reside únicamente en los laboratorios de Microsoft Research. Además, Midori correrá en hardware nativo (x86, x64 y ARM) a través de hosting con el hipervisor Hyper-V, o bien dentro de un proceso Windows de futuros sistemas operativos.

Informes preliminares indican que Eric Rudder, vicepresidente senior de estrategia técnica en Microsoft, está a cargo del desarrollo del nuevo sistema operativo. Por su parte, Rob Helm, director de investigación en Directions on Microsoft, confirmó que los rumores son muy probablemente ciertos. “Eso suena posible; he escuchado rumores acerca de que Rudder tiene un proyecto de sistema operativo en su agenda”.

Los planes de Microsoft detallan esfuerzos para lograr que las aplicaciones de Windows y de Midori coexistan y trabajen juntas sin conflictos, si bien algunos esfuerzos también se estarían aplicando puramente a migrar aplicaciones a Midori. El nuevo SO estará construido sobre una arquitectura completamente asincrónica pensada para concurrencia de tareas y uso paralelo de recursos locales y distribuidos. Esto ayudaría a manejar diversos recursos de hardware y software sobre la red. También prevé un modelo de aplicaciones distribuidas basadas en componentes y guiadas por datos, además de administración dinámica de energía y otros recursos.

Sunday, August 17, 2008

Qué es la "cloud computing", la nueva forma de usar a la PC

F. Mollón, de EMC, explica cuál es el nuevo paradigma en la utilización de las computadoras

Cuántas veces hemos mirado nuestros cajones y hemos encontrado docenas de CDs y DVDs con información almacenada. Programas, gráficos financieros, enciclopedias, juegos, aplicaciones de negocios que, repentinamente, parecen ser un atado de artefactos extraños del pasado.

De un tiempo a esta parte, ha comenzado un cambio en la forma de utilizar las computadoras. Muchos de nosotros hemos dejado de comprar nuevo software para instalar en nuestro disco rígido, y empezamos a utilizar Internet como si fuera nuestra computadora, obteniendo desde ahí todo el soporte que necesitamos para trabajar, para vivir, para divertirnos. Es así que se produjo una inversión de roles, el valor de la PC ya no está determinado por lo que contiene sino por la red a la que está conectada, convirtiéndose así en una terminal.

Esto es lo que los expertos llaman “Cloud Computing”, concepto que básicamente se refiere a la idea de que funciones, aplicaciones y datos estén alojados en una red -la nube-, en vez de estarlo en las computadoras. Estos soportes, cruzados entre sí vía Internet, se convierten en terminales por medio de las que las personas pueden acceder a información alojada en dicha “nube”.

Este concepto está transformando incluso la manera en que las compañías operan y sus empleados colaboran. En vez de enviar por correo electrónico un documento y obtener como respuesta múltiples copias con distintos cambios y ediciones, "the cloud" permite a los empleados colaborar y realizar cambios sobre un mismo documento que está alojado, por supuesto, en “la nube”. Esta modalidad promueve una comunicación más ágil entre los equipos de trabajo y pasa de un esquema jerárquico a otro dinámico y autoorganizado.

Lo que le ha sucedido a las computadoras en los primeros años de este siglo, es como un reflejo de lo que le pasó a la energía mecánica a comienzos del siglo pasado. A fines del 1800, si uno quería prender una máquina, había que generar energía para poder hacerlo, molinos, vapor, etc. Pero a medida que las redes de energía se fueron ampliando, ésta pasó a ser un bien accesible desde centrales, liberando a la gente de tener que producirla de manera particular. Hoy la computación está transformándose en eso mismo.

Más barata y abundante, la electricidad cambió la sociedad y la cultura, propiciando el comienzo de los medios masivos, el consumo masivo y la modernidad. Podemos esperar que la abundancia y accesibilidad de la computación iguale estas consecuencias, cambiando muchas de nuestras actuales suposiciones sobre cómo trabajamos y cómo vivimos.

Un cambio que ya es obvio es la difusa línea que existe entre el software y los medios. El software que se consumía en un paquete como un producto material, ahora será entregado a los consumidores a través de los medios, de la Web.

Este fenómeno se evidencia con el auge de las redes sociales como MySapce y Facebook, que se han convertido en la aplicación central que la gente joven utiliza para organizarse y comunicarse con sus amigos y colegas. Ahora incluso la mediatización del software se está masificando a programas más tradicionales como procesadores de textos, e-mails, fotos, juegos, incluso impuestos. Todo esto alojado en una “nube” de información, lejos de nuestras computadoras.

Pero así como se vislumbran nuevos escenarios gracias a "the cloud", también debemos ser cuidadosos y no confiar a ciegas en todas las posibilidades que esta “nube” nos ofrece.

Hay que tener claro que no todos los participantes de esta red podrán garantizar la seguridad, autenticidad o disponibilidad de la información. Es por esto que las empresas deberán centrar sus esfuerzos en contar con tecnología que les permita asegurar a sus usuarios el acceso en tiempo y forma de la información, así como la tranquilidad de que ésta no se perderá ni será trasgredida.

En este sentido, los proveedores de tecnología nos enfrentamos a un desafío muy grande al tener que desarrollar y suministrar plataformas seguras, confiables, escalables y económicas, para dar la confiabilidad que "The Cloud" y los usuarios necesitan.

Friday, August 15, 2008

Microsoft se prepara para un mundo sin Windows

La mayor empresa mundial de software trabajaría en un sistema operativo que reemplazaría a la pieza central con la que construyó su imperio de la mano de Bill Gates en las últimas décadas. Midori se basaría en la "cloud computing" y en Internet.

Con la salida de Bill Gates el 27 de junio de Microsoft, la mayor empresa mundial de software inició una etapa de transición hacia un nuevo tiempo. En ese contexto ya evalúa la posibilidad de dar la partida de defunción a su pieza más valiosa: el sistema operativo Windows, presente en la gran mayoría de las computadoras personales del mundo.


Microsoft se prepara para un mundo sin Windows

De acuerdo a versiones difundidas por la prensa especializada estadounidense, la empresa de Redmond trabaja en Midori, un sistema operativo que sería el primero creado por la firma que no estará basado en Windows.

Puntos Importantes
  • Hoy las aplicaciones necesitan de un sistema operativo y que éstas estén instaladas de forma nativa en un PC.
  • Los sistemas operativos del futuro puedan ser en forma simultánea hipervisores con contenedores virtuales de aplicaciones que se ejecuten y que puedan transferirse a otros dispositivos sin que exista ningún tipo de dependencia entre aplicaciones ni con el sistema operativo.
  • Según los informes publicados, Midori resolvería estos aspectos y respondería a los servicios bajo demanda y al “cloud computing”.
El fundamento de Midori será Internet, la misma argamasa con la que construyó Google su imperio. El objetivo de los desarrolladores de Microsoft es erradicar las incompatibilidades entre aplicaciones y las dependencias entre éstas y el sistema operativo. La empresa también busca aprovechar las tecnologías de virtualización.

La compañía que fundó Gates no hizo aún comentarios sobre las versiones. Por los documentos publicados en la prensa, Midori es una demostración del sistema operativo Singularity, desarrollado por los investigadores de Microsoft, que incluye “procesos aislados de software” para reducir las dependencias entre aplicaciones individuales, así como entre aplicaciones y el propio sistema operativo.

Hoy las aplicaciones necesitan de un sistema operativo y que éstas estén instaladas de forma nativa en una PC. De acuerdo al analista tecnológico Brian Madden, los sistemas operativos del futuro podrían llegar a ser en forma simultánea hipervisores con contenedores virtuales de aplicaciones que se ejecuten y transferirse fácilmente a otros dispositivos sin que exista ningún tipo de dependencia entre aplicaciones ni con el sistema operativo.

Según los informes publicados, Midori resolvería estos aspectos y respondería a los servicios bajo demanda y al “cloud computing” (“nube computacional”, en inglés). “Microsoft se está preparando para el día en el que la gente ya no necesite Windows”, dijo Madden.

Una prueba de esta elección de Microsoft es su estrategia de virtualización, basada en su nuevo hipervisor, Hyper-V, sus iniciativas para virtualizar aplicaciones, y Midori. Según las versiones, este nuevo entorno se encontraría en fase de "incubación", es decir, se encuentra más cerca del mercado que de los departamentos de investigación y desarrollo.

Hoy en Redmond se trabaja en la versión 7 de Windows, con el objetivo de aliviar algunos de los dolores de cabeza provocados por la versión Vista. Windows 7 aún no tiene una fecha cierta de llegada al mercado.

Según la información publicada por SD Times, que menciona documentos internos de la compañía, el equipo responsable de desarrollo de Midori estaría liderado por Eric Rudder, que trabajó en el microkernel (el corazón del sistema) de Singularity, y contaría con la supervisión de Craig Mundie, el jefe de investigación y estrategia de Microsoft.

Aunque el sistema se desarrollaría desde cero, contendría elementos de otros proyectos fallidos como “Cairo” o de “WinFS”. Midori es un ejemplo de superación del modelo de venta de licencias, sobre el cual fundamentó su imperio Microsoft. Se trata de una manifestación del software más servicios, una tendencia que crece con fuerza en el mundo.

Las notas internas reveladas junto al proyecto Midori indican que “el futuro es tener una plataforma cloud computing y la entrega de aplicaciones a través de computadora personales, teléfonos, televisores y otros dispositivos, en el trabajo y en el hogar”. Estas modificaciones tecnológicas que se avecinan “impulsarán un cambio en los modelos de negocio, potenciando la publicidad, suscripciones, y las transacciones en línea”, afirman desde las oficinas centrales de Microsoft.

Aunque Microsoft, de acuerdo a SD Times, minimiza oficialmente la importancia de Midori al que califica “como un proyecto de investigación”, los documentos internos señalan que llegaría en la década próxima para reemplazar a Windows 7 o quizá a su sucesor. El nuevo sistema abandonará en forma definitiva la interfaz gráfica de usuario (GUI) utilizada en Windows.



La nueva apuesta
Cuando lanzó Windows, Gates y su equipo comprendieron y desplegaron dos conceptos relacionados a una escala que nunca se había visto: la fuerza de los efectos de las redes y el valor de establecer una plataforma tecnológica.

En un efecto de red, el valor de un producto crece a medida que aumenta el número de usuarios. Por ejemplo, es el caso de los mensajes electrónicos y los teléfonos. Una plataforma tecnológica es un conjunto de herramientas o servicios que otros pueden usar para crear sus propios productos o servicios. Cuantas más personas usen las herramientas, más popular puede hacerse la plataforma.

Gates aprovechó y combinó esas ideas para asentar el dominio de Microsoft en las computadoras de mesa, y extendió la influencia de la empresa entre fabricantes de PC y creadores de programas informáticos.

Pero hoy, Microsoft se está quedando muy atrás en la competencia de Internet y, según los analistas, esta vez se enfrenta a competidores mucho más fuertes, principalmente Google. Microsoft apenas ostenta menos del 10 por ciento de la cuota de búsquedas por Internet en EE.UU., mientras que Google tiene más del 60% y Yahoo aproximadamente un 20%.

Los programas de computación tradicionales y las pautas tecnológicas que Microsoft controla en este campo son mucho menos importantes cuando cada vez más programas son accesibles a través de un navegador (browser) y distribuidos a través de Internet desde grandes centros de datos controlados por Google y otros jugadores.

Pero en Microsoft no hay muchas señales de pánico, a pesar de su posición rezagada y del fracaso de su estrategia para ponerse al día con la compra de Yahoo.

Mundie afirma que Microsoft se prepara para un mundo más amplio de “cloud computing” y máquinas "clientes", no sólo PC sino también teléfonos móviles, coches, videoconsolas y televisores, todos con soporte lógico de Microsoft. "La siguiente gran plataforma es la unión de los clientes y de las nubes informáticas", dijo. Y hacia allí apunta Midori.

Gigantes tecnológicos se unen para nuevos desarrollos

HP, Intel y Yahoo! crearán un campo de pruebas conjunto para experimentar con aplicaciones informáticas.

Las empresas de servicios informáticos HP, Intel Corporation y Yahoo! anunciaron la creación de un campo de pruebas abierto a los investigadores de todo el mundo para desarrollar las tecnologías de la información.

Las tres compañías unirán sus fuerzas para ofrecer una base de datos que permita evaluar en internet software a gran escala.

El objetivo es potenciar el pujante campo de contenidos y aplicaciones destinados a interactuar con diferentes dispositivos conectados a internet, un fenómeno conocido como "cloud computing".

El proyecto cuenta con la colaboración de gobiernos e instituciones educativas, al eliminar las barreras logísticas y financieras que normalmente impiden la programación global en internet.

Entre los socios de HP, Intel y Yahoo! se encuentran la Infocomm Development Authority of Singapore (IDA), la University of Illinois en Urbana-Champaign, y el Karlsruhe Institute of Technology (KIT) de Alemania.

Cada uno de estas organizaciones alojará en sus sistemas una infraestructura que permita el "cloud computing", basada en hardware de HP, con entre 1.000 y 4.000 procesadores de Intel capaces de albergar investigación intensiva en datos asociada con su acceso y utilización a través de la red.

Estas plataformas entrarán en funcionamiento y serán accesibles a los investigadores de todo el mundo a final de este año.

"Crear campos de prueba a gran escala es importante porque reduce las barreras a la innovación y provee de una oportunidad para experimentar y aprender a lo grande", aseguró Andrew A. Chien, vicepresidente y director de Intel Research.

El "cloud computing" (nube de programación o de información) es una denominación informática que se refiere al entorno de software y servicios que existen en internet creados para facilitar el acceso a contenidos y la interacción del usuario con la red a tiempo real desde dispositivos como teléfonos móviles o cámaras de fotos.