mardi 31 mars 2009

Amazon et Microsoft boudent le manifeste ‘open cloud’

Amazon et Microsoft n’ont pas signé le manifeste favorable à des technologies ‘cloud’ interopérables

L’interopérabilité du cloud computing semble faire consensus parmi les différents acteurs concernés. Pourtant, la présentation d’un manifeste en faveur de l’ouverture de la technologie en a refroidi plus d’un. Amazon et Microsoft - qui revendique volontiers son désir d’ouverture - se sont par exemple refusés à signer le document. La firme de Redmond, qui s’est enrichie en commercialisant son OS, propriétaire et sa suite bureautiques, Microsoft Office, a récemment été convertie - de force - aux bienfaits de l’ouverture et de l’interopérabilité mais aussi du cloud.

Cette fois-ci, les choses semblent être différentes. Face à des acteurs de poids (Amazon, IBM, Google ou encore SalesForce) eux aussi positionnés sur le secteur jugé prometteur du cloud computing, le premier éditeur mondial a souhaité éviter de faire bande à part tout en évitant un engagement trop solennel. Amazon, Salesforce et Microsoft se sont ainsi est refusés à signé l’ "open cloud manifesto", une initiative portée par IBM et signée par d’autres acteurs de taille du secteur (Google, SAP, VMWare, RedHat, Juniper NetWorks, etc.).

Amazon, cité par vnunet.fr, a de son côté estimé que "la meilleure façon d'illustrer l'ouverture et la flexibilité pour les clients, c'est celle que l'on fournit actuellement et que l'on délivre." Le spécialiste américain de l’e-commerce a cependant assuré qu’il continuerait "à approfondir l'approche clientèle visant à leur assurer un maximum de flexibilité tout au long des discussions portant sur les normes." Cette relative prudence affichée par certains est, comme le souligne ZDNet, le signe annonciateur d’une guerre des standards que personne n’ose nommer pour le moment. Alors que chacun abat peu à peu ses cartes, d’aucuns sont peut-être tentés d’apposer à leurs technologies quelques verrous propriétaires, histoire de s’en garantir la primauté.

Pourtant, le manifeste en appelant les différents acteurs à réaliser un effort pour l’interopérabilité des offres ou en mettant en garde les entreprises contre la multiplication des standards, veut promouvoir la mise en place d’une saine compétition. Si le cloud s’avère aussi juteux que le prévoit le Gartner (56,3 milliards de dollars en 2009), les bonnes intentions affichées sur le manifeste risquent de fondre comme neige au soleil.

Source : http://www.silicon.fr/fr/news/2009/03/30/amazon_et_microsoft_boudent_le_manifeste__open_cloud__

lundi 30 mars 2009

Sun Microsystems met le web en boîte

13 années d’archives seront stockées dans des Blackbox de la compagnie

The Internet Archive sauvegarde inlassablement les données publiées sur Internet. « The Internet Archive préserve les données d’Internet. Toutefois, de plus en plus d’informations précieuses se retrouvent en ligne. La masse de données croît ainsi de façon exponentielle », commente Brewster Kahle, fondateur de cette organisation. Cette véritable mémoire du web comprend presque tout ce qui a été mis en ligne sur la Toile depuis 1996, soit plus de 3 pétaoctets de données. L’archive croit aujourd’hui au rythme de 100 téraoctets par mois. Ces informations seront maintenant stockées dans des Sun Modular Datacenter, les fameux Blackbox, des datacenters prêts à l’emploi livrés sous la forme d’un container.

« Nous avons travaillé en étroite collaboration avec The Internet Archive pour mettre en place une plate-forme technologique capable de gérer des quantités croissantes de données », déclare Dave Douglas, CSO et vice-président senior du cloud computing chez Sun Microsystems. « La technologie open storage et les Sun Modular Datacenter sont un choix adapté aux besoins de cette organisation. Ils fournissent les capacités de stockage nécessaires, avec un prix et une consommation électrique réduits. » Le Sun Modular Datacenter S20 propose, justement, une capacité de stockage maximale de 3 pétaoctets. Un premier conteneur sera ainsi hébergé sur le campus de Sun Microsystems, situé à Santa-Clara.

Source : http://www.silicon.fr/fr/news/2009/03/29/sun_microsystems_met_le_web_en_boite

vendredi 27 mars 2009

Antivirus : AV-Comparatives décerne de nouvelles étoiles

Le laboratoire indépendant de tests dévoile ses derniers résultats. Sur 17 solutions testées, seules 4 reçoivent les trois étoiles tant convoitées

Bonnes mentions pour Symantec, Eset (Nod 32), McAfee et Kaspersky. Les 4 solutions antivirus sont arrivés en tête des tests de février d’AV-Comparatives. Le laboratoire autrichien basé à Innsbrück a, une fois de plus, passé au crible 17 solutions antivirus. Au programme, 1,275 million échantillons de malwares identifiés au cours de ces neuf derniers mois et la capacité des outils à réagir et repérer les trojans et compagnie. La majeure partie des malwares utilisés étant alors de chevaux de Troie à plus de 70%, le reste étant constitué de portes dérobées ou bots (19,9 %), de vers (4,2 %) ou encore de virus Windows pour 1,9% d’entre eux.

Les chercheurs ont donc tendu leurs filets et ont noté ceux dont les mailles se révélaient être les plus larges. G Data AntiVirus 2009 s’en sort ici le mieux avec un résultat proche du 0. Loin, très loin devant Microsoft Live OneCare 2.5. En deuxième position arrive Avira AntiVir Premium 8.2 puis McAfee VirusScan Plus 2009 et Symantec Norton Anti-Virus 2009. La seconde étude s’attache à trouver, sur le panel de fichiers sains présentés, le nombre de faux-positifs. A ce petit jeu, Microsoft s’en tire de belle manière en arrivant en tête avec un nombre très faible de faux positifs. Suivent Sophos Anti-Virus 7.6.4, puis ex aequo la dernière mouture de l’antivirus F-Secure puis le Norton.

Concernant les traditionnelles étoiles, la distinction Advanced+ est décernée à Symantec, ESET, McAfee et Kaspersky. Un bon point pour l’éditeur russe puisqu’au dernier pointage, sa solution n’avait pas obtenu la note maximale. Deux étoiles ont ensuite été remises à l’allemand G DATA mais aussi AVIRA, Avast, eScan, TrustPort, F-Secure et BitDefender. Une étoile revient aussi, selon le laboratoire AV-Comparatives à AVG, Sophos et Microsoft dont la nouvelle solution Morro a été annoncée. Enfin hors classement figurent les solutions Authentium, Norman et Kingsoft.

Le rapport estdisponible ici.

Source : http://www.silicon.fr/fr/news/2009/03/26/antivirus___av_comparatives_decerne_de_nouvelles_etoiles

jeudi 26 mars 2009

Microsoft propose des programmes Open Source, dont PHP, aux développeurs Web

La plateforme d’outils gratuits de Microsoft pour les développeurs Web s’enrichit de programmes Open Source, et notamment des applications PHP

La promotion de ce langage de script par Microsoft, au même niveau que son propre langage ASP.Net, peut surprendre au premier abord. Toutefois, on se souvient que la collaboration de Microsoft avec Zend Technologies, l’inventeur de PHP, ne date pas d’hier. Et que tout comme il l’a fait avec JBoss, Microsoft préfère faire en sorte que les outils populaires – même Open Source et concurrents de ses propres produits - puissent tourner avec le maximum d’efficacité sur Windows, pour ne pas laisser le champ libre à Linux.

En l’occurrence, la version bêta de Microsoft Web Platform Installer 2.0 comprend donc, outre les propres outils Web gratuits de Microsoft (le serveur Web IIS, la base SQL Server 2008 Express, le framework .Net et l’atelier Visual Web Developer Express), une version de PHP pour Windows, ainsi que plusieurs outils Open Source et/ou gratuits écrits en .Net ou en PHP, pour mettre en place un blog (Wordpress, dasBlog, SubText, BlogEngine.Net), gérer du contenu (DotNetNuke, Umbraco, Acquia Drupal, SilverStripe CMS), supporter un wiki (ScrewTurn Wiki) ou une galerie photo (Gallery).

Source : http://www.lemondeinformatique.fr/actualites/lire-microsoft-propose-des-programmes-open-source-dont-php-aux-developpeurs-web-28325.html

mercredi 25 mars 2009

Novell met à jour son offre Linux

La plate-forme SUSE Linux Enterprise 11 met l’accent sur l’interopérabilité avec les technologies Microsoft

"Une étude récente menée par IDC et financée par Novell confirme que plus de 50 % des responsables informatiques prévoient d’accroître l’acquisition des technologies de serveurs et de postes de travail Linux cette année, en raison de la crise économique", déclare Jeff Jaffe, directeur général adjoint et directeur de la technologie chez Novell. "En lançant SUSE Linux Enterprise 11, Novell aide les professionnels de l’informatique à faire des économies tout en résolvant les différentes problématiques clés identifiées dans cette étude, telles que l’interopérabilité, l’assistance autour des applications critiques et la facilité de déploiement de Linux dans différents environnements."

Disponible en versions serveur et desktop, la SLE 11 offre deux nouvelles extensions : SLE Mono Extension, qui assure la reconnaissance des applications .NET sous Linux et SLE High Availability Extension, dédiée spécifiquement aux clusters de haute disponibilité. La SLE 11 couvre la majorité des plates-formes d’entreprise : x86 (32 bits et 64 bits), Itanium, IBM Power et IBM System z. Curieusement, la compagnie fait toutefois l’impasse sur l’ARM, malgré la présence d’un volet ‘électronique embarquée’ dans son offre.

Novell compte s’appuyer sur son large réseau de partenaires pour imposer sa SLE 11 : Cisco, Dell, Fujitsu Siemens, HP, Intel, IBM, Microsoft, NEC, Oracle, SAP AG, etc. Diverses solutions OEM devraient donc apparaitre prochainement dans les catalogues des constructeurs.

Source : http://www.silicon.fr/fr/news/2009/03/24/novell_met_a_jour_son_offre_linux

mardi 24 mars 2009

SAS prépare son propre cloud pour l'an prochain

Fort du succès de son offre de logiciel en ligne, SAS prépare son propre environnement de cloud computing pour l'an prochain

SAS, un des principaux acteurs du marché du décisionnel, se lance dans le cloud computing avec ses propres armes. Plutôt que de profiter de plateformes génériques déjà opérationnelles, comme celle d'Amazon, l'éditeur préfère investir dans la construction d'un datacenter de 3 500 m² en Caroline du nord. L'enveloppe globale atteindra 70 M$, dont 20 à 22 M$ consacrés à la construction proprement dite du site qui intègrera toutes les dernières innovations en matière d'économie d'énergie et de développement durable. La première tranche de serveurs, qui occupera 1 000 m², sera opérationnelle à la mi-2010. La seconde commencera à entrer en service d'ici trois à cinq ans lorsque la première aura atteint 80% de sa capacité de traitement.

Dans la continuité de SAS OnDemand

Le choix par SAS de mettre en place son propre environnement de cloud computing s'explique à la fois par l'ampleur de la quantité des données à manipuler et par la haute confidentialité qui doit entourer les données traitées. De plus, ce projet, s'inscrit dans la continuité de l'offre SAS OnDemand, prestation de logiciel en ligne qui croit de 30% par an. SAS OnDemand repose sur une infrastructure composée de serveur Sun, d'équipements de stockage NetApp et EMC. Les choix technologiques pour l'équipement informatique du nouveau datacenter n'ont pas encore été arrêtés, mais SAS utilise depuis quatre ans les logiciels de VMware pour supporter l'infrastructure de ses équipes de développement.

22% du chiffre d'affaires investis en R&D

Plus gros éditeur détenu par des actionnaires privés, SAS revendique un chiffre d'affaires de 2,26 Md$ pour 2008 (+5%), dont 43% en provenance de l'Europe, du Moyen-Orient et d'Afrique. La société affirme aussi investir 22% de son CA 2008 en recherche et développement. Elle compte plus de 11 000 salariés. En janvier dernier, Gartner Group plaçait SAS Institute parmi les sept principaux acteurs dans le monde du décisionnel (business intelligence) aux côtés d'IBM/Cognos, de Microsoft, de SAP/Business Intelligence, d'Oracle, d'Information Builders et de MicroStragegy. SAS se démarque en étant le mieux placé sur l'échelle des "visionnaires".
En revanche, il figure en bas du classement des sept premiers sur celle de la "capacité à exécuter". Il y côtoie tous les autres éditeurs spécialisés, le Gartner accordant plus de crédit dans ce domaine aux éditeurs généralistes.

Source : http://www.lemondeinformatique.fr/actualites/lire-sas-prepare-son-propre-cloud-pour-l-an-prochain-28307.html

lundi 23 mars 2009

Haut débit dans les DOM : France Télécom promet des efforts

Pendant ce temps, les ultra-marins se lassent d'attendre

Ca bouge un peu dans les DOM en matière de haut débit. Rappelons que dans les départements d'Outre-Mer, seulement 20% de la population dispose du haut débit. Et à quel prix ! Un abonnement à une offre double play (téléphone et Internet) reste supérieur à 43 euros mensuels en Guadeloupe et en Martinique. En Guyane, le tarif, pour une même prestation, dépasse très légèrement les 60 euros. Par ailleurs, la qualité de service est loin d'être au rendez-vous.

Suite à la fronde sociale qui a traversé ces départements, l'Arcep (le régulateur des télécoms) et le secrétariat d’Etat en charge de l’Outre-Mer ont promis des mesures. Il s'agit d'accélérer le développement des offres et "améliorer la qualité de service", selon le communiqué de presse de l'Arcep. France Telecom, opérateur très présent dans les territoires ultra-marins, notamment dans les Antilles françaises, devrait être invitée à ouvrir davantage son réseau aux opérateurs tiers pour "encourager" la concurrence.

Ce jeudi, France Télécom annonce qu'il s'engage à améliorer la qualité des services rendus dans les DOM aux opérateurs alternatifs locaux. L'opérateur historique lâche un peu de lest vis-à-vis de l'Etat. Il faut aussi dire que France Télécom est au centre d'une plainte déposée en 2008 par Mediaserv, basée en Guadeloupe. Ce dernier dénonce "notamment l'absence de services nécessaires au maintien du bon fonctionnement du haut débit dans les DOM, du fait notamment du décalage horaire existant entre les Caraïbes et la métropole". Selon elle, ce traitement expliquait "le taux élevé d'incidents signalés et les délais excessifs de rétablissement du service".

L'Autorité de la concurrence a estimé qu'"une qualité de service dégradée des offres de gros de haut débit dans les DOM (pouvait) crée, aux dépens des nouveaux entrants, une distorsion de concurrence (...), et ce d'autant plus que France Télécom détient une part de marché de l'ordre de 75% dans les DOM". Pour remédier à ces dysfonctionnements, celui-ci s'est donc engagé à mettre en place une cellule spécifique de prise en charge des incidents, dédiée aux opérateurs présents dans les Caraïbes (Guadeloupe, Guyane et Martinique), et à nommer un représentant à La Réunion. Prochaine étape : faire enfin baisser les tarifs ?

Source : http://www.silicon.fr/fr/news/2009/03/20/haut_debit_dans_les_dom___france_telecom_promet_des_efforts

vendredi 20 mars 2009

Lieutenant-Colonel Régis Fohrer : "La cyberguerre a déjà commencé"

Un phénomène où tous les Etats ont un rôle clé à jouer

Le 24 mars prochain aura lieu Forum International de la Cybercriminalité (FIC) à Lille. L'occasion pour nous de rencontrer en avant-première le Lieutenant-Colonel Régis Fohrer, chargé de mission Intelligence Economique et des nouvelles criminalités pour la région de Gendarmerie Nord Pas-de-Calais. Il est l'un des instigateurs de ce forum.

Silicon.fr : Le cyber-terrorisme ou la guerre informatique peut apparaître comme une notion nébuleuse. Quels sont les cas qui peuvent la caractériser ?

Lt-Col Régis Fohrer : Il est important de donner une définition large de la notion du cyber-terrorisme. Cela comprend tous les réseaux électroniques, tout ce qui peut avoir une interférence sur les réseaux. Un acte ou une volonté de nuire qui peut ne pas avoir d’influence directe sur une structure mais qui peuvent aboutir à du piratage. Prenez un avion dont les instruments de mesures peuvent être brouillés si une connexion Wi-Fi est présente à son bord. Plus près de nous, nous avons mené des travaux sur le Tramway de Douai qui est piloté à distance.

Quelles sont les technologies qu’utilisent les terroristes ? Sont-ils au fait des nouveaux outils 2.0 ou préfèrent-ils des méthodes plus traditionnelles de piratage ?

Il faut que les utilisateurs du Net aient une conscience civique du cyberespace. Savoir qu’il s’agit d’un nouveau continent qui ressemble plus à une jungle qu’autre chose. Un endroit où de nombreux prédateurs se trouvent. Les réseaux sociaux entrent typiquement dans cette logique. Il faut se rendre compte que tous ces outils sont autant de moyens d’attirer les regards curieux.

D’un autre côté, les botnets ou ordinateurs zombies sont les moyens le plus utilisés pour déstabiliser jusqu’à des Etats entiers (Estonie et Géorgie, ndr). On estime à 750.000 leur nombre à travers le monde mais on atteindra très bientôt le million.

Peut-on tracer une carte des Etats cybernétiques voyous sur un échiquier mondial ?

La Chine, par exemple, développe son propre Internet. Vu que les autorités brident les droits des internautes, un Net spécifique voit le jour qui entrera forcément en conflit avec le Web mondial. Des lieutenants chinois (Qiao Liang et Wang Xiangsui) ont d’ailleurs écrit en 1999 un ouvrage intitulé "La Guerre hors limites" qui montre combien l’Empire du Milieu sait utiliser les nouvelles méthodes de déstabilisation, y compris virtuelles. Le soldat est alors démilitarisé et le type de conflit proposé ressemble de près aux principes de la guérilla.

Prenez aussi le conflit israélo-palestinien, nous avons assisté à des atteintes aux souverainetés des Etats ou des belligérants en place, du fait de travaux de désinformation militaire claire, notamment dans la bande de Gaza.

Dans ce cas, quels sont les motifs qui poussent à l’action ? Est-ce le prolongement de moyens militaires ou de nouveaux buts à atteindre pour les terroristes ?

Trois ingrédients sont nécessaires pour mener une attaque cyber : du temps, un dessein et de l’argent. C’est à peu près tout. Sont acteurs : des Etats, des groupes néo-nazis mais aussi des ONG… tous peuvent commettre des actes très difficilement contrôlables. La France préfère parler de lutte informatique offensive plutôt que de cyber-guerre. Cela montre que la coopération est des plus utiles dans ce domaine. D’ailleurs un membre des services secrets américain sera présent à Lille pour ce Forum International de la Cybercriminalité à Lille…

Une collaboration saine qui a pour but de faire comprendre qu’il existe une réelle différence culturelle entre certains acteurs. Mais nous préférons penser en France que si nous n’avons pas de "guerre de retard" comme en 1940, la guerre a bel et bien commencé.

Source : http://www.silicon.fr/fr/news/2009/03/19/lieutenant_colonel_regis_fohrer____la_cyberguerre_a_deja_commence_

jeudi 19 mars 2009

IBM serait en pourparlers pour acheter Sun

Rumeurs anciennes, mais qui reviennent

Selon le Wall Street Journal qui a contacté des sources proches des deux enterprises, IBM serait en discussion pour acheter Sun Microsystems. La publication signale que l'opération pourrait être concrétisée dès cette semaine et estime à 6,5 Md$ le montant de la possible transaction. Les rumeurs d'un rachat de Sun ne sont pas nouvelles. Et qu'il s'agisse de Java, du cloud computing, des datacenters, du marché des télécoms, les raisons pour IBM d'être candidat ne manquent pas.

Sans surprise, ni IBM, ni Sun, contactés en France, ne souhaitent commenter ces rumeurs.

Source : http://www.lemondeinformatique.fr/actualites/lire-ibm-serait-en-pourparlers-pour-acheter-sun-28277.html

mercredi 18 mars 2009

La RC de Windows 7 pourrait être publiée en mai

La Release Candidate se confirme. Le prochain OS de Microsoft est toujours attendu pour début de 2010

Dernière ligne droite pour la sortie de Windows 7 ? Selon le site bien renseigné Neowin.net, la première et unique version Release Candidate (RC) du prochain système d'exploitation de Microsoft pourrait être mise en ligne vers la fin du mois de mai. Il y a quelques semaines, le même site évoquait la date d'avril.

Juste avant cette diffusion, Microsoft pourrait diffuser en avril une 'escrow build', sorte de pré-RC destinée à un petit groupe de testeurs comme il l'a fait avec le SP2 de Vista. L'information est toutefois à manier avec précaution puisque Neowin s'appuie sur une source russe qui elle même cite une source interne à Microsoft. Rappelons qu'une version RC (release candidate) donne une idée de la version quasi-définitive du système d'exploitation avant sa version définitive. Généralement, seuls quelques bogues sont corrigés entre les deux.

Par ailleurs, on sait déjà que Windows 7 ne connaîtra pas de bêta 2. Ainsi, la bêta 1, mise en ligne en janvier dernier, sera immédiatement suivie par une RC, qui devrait également être unique. Elle sera ensuite suivie par une RTM (Release to Manufacturing), dernière étape avant la commercialisation du produit qui devrait intervenir en janvier 2010. En attendant, les pré-versions de Windows 7 réservées aux testeurs continuent à pulluler sur les réseaux P2P. Ainsi la build 7057 qui semble très proche de la future version RC est diffusée depuis quelques jours sur les réseaux BitTorrent.

Source : http://www.silicon.fr/fr/news/2009/03/17/la_rc_de_windows_7_pourrait_etre_publiee_en_mai

mardi 17 mars 2009

Microsoft, Sun et Linux vont réfléchir ensemble à l’avenir des OS

Cette rencontre est la première du genre

Le Collaboration Summit est un évènement qui prendra place du 8 au 10 avril 2009 à San Francisco. Organisé par la fondation Linux, il proposera une session exceptionnelle regroupant des représentants du monde Linux, de Sun Microsystems et de Microsoft.

Pour la première fois, les participants pourront communiquer en direct et simultanément avec des représentants de ces mondes habituellement opposés. Jim Zemlin, directeur général de la fondation Linux, représentera le monde Linux. Chez Sun Microsystems, Ian Murdock, vice-président chargé des développeurs et de la communauté, sera présent. Enfin, Microsoft dégainera un atout de poids en la personne du turbulent Sam Ramji, directeur senior plates-formes et stratégie. Pour des raisons inconnues, Apple ne sera pas de la partie. Sam Ramji est un personnage à part chez Microsoft. Très favorable au développement de solutions open source, il a suivi de près la plupart des initiatives de la compagnie dans ce domaine (et elles sont nombreuses depuis quelques années, même si elles ne touchent pas directement les produits phares de la firme).

Ce débat aura pour but de définir les perspectives futures des systèmes d’exploitation. Gageons que le mot « interopérabilité » sera cité un très grand nombre de fois et que la discussion dérivera rapidement vers des sujets périphériques comme Office et .NET. Cette rencontre prometteuse sera également l’occasion de créer de nouveaux liens entre le monde du logiciel libre et celui de l’édition traditionnelle.

Source : http://www.silicon.fr/fr/news/2009/03/16/microsoft__sun_et_linux_vont_reflechir_ensemble_a_l_avenir_des_os

lundi 16 mars 2009

Le Web souffle ses vingt bougies

Il y a 20 ans déjà, au coeur du Cern (Organisation européenne pour la recherche nucléaire), Tim Berners-Lee esquissait les tout premiers contours du futur World Wide Web

« Un peu vague, mais prometteur. » C'est ainsi que Mike Sendall, son responsable de l'époque, visionnaire, avait accueilli sa proposition d'un nouveau système de gestion de l'information. Il lui a néanmoins laissé toute latitude pour mener à bien son projet. Sans lui, qui sait ce que seraient devenus Larry Page, Sergey Brin et Mark Zuckerberg ?

Première page Web de l'histoire !


C'est en 1990 que Tim Berners-Lee a véritablement donné naissance au Web. En septembre, il a reçu le système Cube de NeXT qu'il avait commandé. Cette machine, fabriquée par la société créée par Steve Jobs après son départ d'Apple, était alors un petit bijou avec un impressionnant système d'exploitation orienté objets appelé NextStep. Tout juste deux mois plus tard, en décembre, les premiers fils de la grande Toile reliaient quelques machines du Cern. Le Cube était devenu le tout premier serveur Web de l'Histoire !

En ce 13 mars 2009, deux décennies plus tard, Tim Berners-Lee revient avec émotion sur les lieux de son crime pour fêter dignement cet anniversaire : « Le Web a bien changé lui aussi, mais ses racines resteront à jamais ancrées au CERN. »

Grand utilisateur d'informatique, le Cern reste aujourd'hui un lieu d'innovation privilégié en la matière. L'organisme a ainsi beaucoup apporté aux réflexions sur le grid computing, aujourd'hui au coeur des infrastructures de 'cloud'. A l'automne dernier, à l'occasion de l'inauguration de son nouvel accélérateur de particules, le LHC (Large hadron collider), le chef de département IT du Cern avait partagé avec LeMondeInformatique.fr les détails de l'infrastructure IT qui soutient ce projet exceptionnel. « Lorsque les scientifiques du Cern rencontrent un obstacle technologique sur leur chemin, ils ont tendance à le surmonter, a confirmé Rolf Heuer, directeur général du Cern. Je suis heureux de pouvoir dire que l'esprit d'innovation qui a permis à Tim Berners-Lee d'inventer le Web ici-même, et au Cern de le développer, est toujours bien présent. »

[NdR : J'étais là aussi à cette époque, dans une université, et déjà très enthousiaste !]


Source : http://www.lemondeinformatique.fr/actualites/lire-le-web-souffle-ses-vingt-bougies-28253.html

vendredi 13 mars 2009

La publicité contextuelle, Saint-Graal de Google

La publicité contextuelle permet à Google de cibler bien plus précisément les internautes

Google a décidé de franchir le Rubicon. Le moteur de recherche vient tout juste de lancer son nouvel outil publicitaire : un lien contextuel basé sur les centres d’intérêt des internautes. Ce nouvel outil, déjà employé par Microsoft et Yahoo, permet au moteur de recherche et aux autres sites du groupe, d’afficher des liens publicitaires en rapport avec les centres d’intérêt et les recherches précédemment effectuées. Un cookie ou traceur, chargé du suivi de l’internaute et la collecte de données établit le profil de l'utilisateur. Muni de ces informations, Google élabore des catégories et affiche les liens publicitaires en conséquence.

Avec cette nouvelle incitative, Google fait d’une pierre deux coups. La firme de Mountain View peut enfin mettre à profit la technologie acquise grâce au rachat de DoubleClick, un spécialiste du trafic publicitaire acheté à prix d’or (3,24 milliards de dollars). Mais ce n’est pas tout. Le moteur de recherche, leader mondial de la publicité en ligne, peut également se servir de son immense base de données construite au fur et à mesure des années en collectant des données relatives aux habitudes des internautes. Aux Etats-Unis, le service suscite diverses réactions.

"C’est une [situation] vraiment sérieuse", affirme Marc Rotenberg, directeur exécutif du ‘Electronic Privacy Information Center’, cité par AP. "Je ne pense pas que le plus puissant moteur de recherche du monde devrait réaliser des profils des utilisateurs", s’inquiète-t-il. Pour un autre organisme, la ‘Progress and Freedom Fondation’, Google, loin de constituer un danger pour la vie privée des internautes, crée un "standard" en expliquant clairement son fonctionnement et en indiquant comment quitter le programme. En effet, le moteur de recherche offre d’une part la possibilité aux internautes de quitter le programme. D’autre part, une option permet également aux internautes de spécifier leur centre d’intérêt et d’influer sur le type de publicités liées aux résultats affichés.

Google, également soucieux de ne pas s’attirer les foudres des associations protectrices de la vie privée, a promis de ne pas réaliser de recoupements avec ses autres services, notamment Gmail, le client de messagerie du groupe. Avec les liens publicitaires contextuels, le groupe, bien moins éreinté que d’autres par la crise, espère faire sensiblement progresser ses revenus publicitaires. Les annonceurs ne devraient en effet pas longtemps rester insensibles aux charmes d’une approche qui promet de cibler précisément les internautes.

Source : http://www.silicon.fr/fr/news/2009/03/12/la_publicite_contextuelle__saint_graal_de_google

jeudi 12 mars 2009

Une spécialiste des objets au MIT reçoit le prix Turing

L'Association for computing machinery (ACM) met une femme à l'honneur en décernant à Barbara Liskov le prestigieux prix Turing

Cette récompense, considérée comme l'équivalent du prix Nobel de l'informatique, revient ainsi à cette professeur du MIT, qui succède au palmarès au Français Joseph Sifakis. Barbara Liskov est récompensée cette année pour l'ensemble de ses travaux, en particulier ceux concernant les techniques de programmation orientée objet, qui ont donné naissance à de nombreux langages comme Java et C++. L'ACM met en avant « ses contributions aux fondations théoriques et pratiques des langages de programmation (...), notamment liées à l'abstraction de données, à la tolérance aux pannes et à l'informatique distribuée ».

La première diplomée d'un Ph.D en informatique

La lauréate avait été la première américaine à obtenir un Ph.D (équivalent américain du doctorat) en informatique. Depuis 1972, elle est enseignante et chercheuse au MIT de Boston où elle dirige le groupe de méthodologie de la programmation au sein du laboratoire d'informatique et d'intelligence artificielle.

Le MIT est un grand pourvoyeur de récipiendaires du Turing Award. Parmi les nombreux lauréats issus du Massachussetts institut of technology figurent ainsi Ivan Sutherland ou Ron Rivest, le 'R' de l'algorithme de chiffrement RSA. En plus du prestige que constitue le prix Turing, les personnalités récompensées reçoivent un chèque de 250 000 $.

Source : http://www.lemondeinformatique.fr/actualites/lire-une-specialiste-des-objets-au-mit-recoit-le-prix-turing-28231.html

mercredi 11 mars 2009

Zenwalk 6.0, la distribution Linux adaptée aux petites configurations

Cocorico, ce système d’exploitation ultra léger a été créé par un développeur français

La version 6.0 de la distribution Linux Zenwalk vient de faire son apparition. Peu connu, cet OS a été lancé par le Français Jean-Philippe Guillemin (il fut initialement basé sur une Slackware).

Ce projet adopte une vision intéressante. La Zenwalk se veut ainsi parfaitement adaptée aux configurations d’entrée de gamme, ou aux machines affichant quelques années au compteur. Voilà un candidat de choix pour les entreprises recyclant des PC, un Pentium III, 128 Mo de mémoire vive et 2 Go d’espace disque étant suffisants pour faire fonctionner la Zenwalk. Alternativement, elle sera très efficace sur les ultraportables économiques, qui proposent une puissance limitée.

La Zenwalk demeure toutefois très moderne : gestion complète des paquetages logiciels, applications multimédias, jeux, design réussi, etc. Le secret de la légèreté de cette distribution réside dans le choix des logiciels. L’environnement de bureau est ainsi Xfce. La mouture 6.0 intègre le tout nouveau Xfce 4.6. Elle abandonne également le lecteur multimédia MPlayer au profit de Totem. Enfin, Gnome Office cède avantageusement sa place à OpenOffice.org 3.0.1. Afin de limiter l’occupation disque de cette suite bureautique, elle est séparée en deux paquets ; un premier comprenant Writer, Calc, Impress et Draw et un second composé de Math, Database et du support Java.

L’architecture connait aussi quelques modifications : l’installation est simplifiée, le temps de démarrage se veut plus court et un nouvel outil permet de gérer disques et réseau (avec ou sans fil). Le noyau Linux 2.6.28.7 est au cœur de la Zenwalk 6.0.

Source : http://www.silicon.fr/fr/news/2009/03/10/zenwalk_6_0__la_distribution_linux_adaptee_aux_petites_configurations

mardi 10 mars 2009

Windows 7 ne lira pas le Blu-ray

De manière native, Windows 7 ne devrait pas supporter la lecture de DVD Blu-rays. Pour autant, la gravure sera possible

Steven Sinofsky, le responsable développement de la division Windows vient d’annoncer que le prochain OS ne prendra pas en charge le format haute qualité Blu-ray de manière native. Traduction, un soft sera nécessaire pour lire les contenus vidéos ainsi édités. Etrange lorsque l’on sait qu’à partir du Service Pack 2 de Vista et dans Windows 7, la gravure sur disques Blu-ray sera prise en charge.

Selon le site Windows7center qui reprend les dires du responsable de Redmond, le Media Player et Windows Media Center seraient munis d’un système d’extensions les rendant compatibles. On devrait donc se retrouver avec un moteur de lecture externe comme ceux de WinDVD ou de PowerDVD pour lire les Blu-rays. Pour autant, cette solution n’e semble réellement fiable dans la mesure où le Windows Media Center fonctionne en 64 bits et ne devrait pas être compatible avec les codecs qui seraient proposés.

Conclusion : "La prise en charge des Blu-ray vidéos sera fournie par les concepteurs d'ordinateurs ou de lecteurs" explique Steven Sinofsky. On peut donc imaginer qu’il s’agit là de réticences par rapport à des licences et autres droits dont la Blu-ray disc Association et les nombreux promoteurs du Blu-ray pourraient réclamer. Ce type d’approche aura forcément des coûts qu’il faudra reporter une fois les accords et licences établis. A l’heure où les ventes de formats physiques peinent (DVD, CD audio), Microsoft continue d’adopter une approche par lecteurs. Bien différente de celle d’Apple et de son iTunes Store. La guerre des points de vue continue…

Source : http://www.silicon.fr/fr/news/2009/03/09/windows_7_ne_lira_pas_le_blu_ray

lundi 9 mars 2009

Microsoft cède : Windows 7 permettra de désactiver Internet Explorer

Un pas historique et un geste envers Bruxelles

Pour la première fois, la firme de Redmond a pris la décision d'inclure un utilitaire permettant de désactiver son navigateur Internet. Une simple boîte de dialogue sera nécessaire pour cette opération. L'information a été donnée par un petit groupe de testeurs de Windows 7, le prochain OS de Microsoft. Le navigateur, qui est toujours installé par défaut, peut être désactivé. L'opération s'effectuera directement via le panneau de configuration «Ajout/suppression de programmes» ; lequel permet de désinstaller ou désactiver d'autres composants Windows. Car Internet Explorer ne pourra pas être complètement désinstallé du système même si selon Microsoft, l'outil d'activation et désactivation permettra aux utilisateurs d'effacer toute trace visible d'Internet Explorer de leur ordinateur.

Rappelons qu’Internet Explorer a toujours été fortement imbriqué dans le système de Microsoft

Il faut aussi dire que Microsoft a tenté de faire front contre les avertissements de Neelie Kroes, commissaire européenne en charge de la concurrence. La Commission européenne ne renonce pas à épingler la moindre pratique jugée anti-concurrentielles chez le géant de Redmond. Les accusations de "vente liée" entre Windows et IE et la plainte déposée par Opera Software contraignent l’éditeur de Windows de respecter rigoureusement les règles de la concurrence, face à Firefox de Mozilla et autres Chrome de Google…

Pour Bruxelles, la situation est claire : le marché doit être ouvert à tous, sans distinction. Selon un porte-parole de la Commission, dont les propos sont reproduits par Les Echos, "la Commission pourrait envisager d’ordonner à Microsoft de donner à ses utilisateurs une chance effective de choisir quel navigateur concurrent ils veulent installer dans Windows à la place, ou en remplacement, d’Internet Explorer, et lequel ils veulent avoir par défaut". Traduction, Windows pourrait par défaut embarquer plusieurs navigateurs, une solution qui ne fait pourtant pas l'unanimité, notamment chez Mozilla.

Pour autant, si cette présence pouvait être jugée anticoncurrentielle il y a quelques années, l'émergence du haut débit a permis de donner de la visibilité aux offres alternatives et le choix aux consommateurs. Ainsi, la part de marché d'Internet Explorer est en constante baisse depuis quelques années. En annonçant la possibilité de désactivation d'IE, Microsoft se prémunit du risque de retard lors de la sortie de son nouvel OS -retard qu'occasionnerait une éventuelle condamnation des autorités européennes. Il reste qu’IE 8 sera toujours proposé par défaut dans Windows 7. Ce sera à l'utilisateur de le désactiver. Suffisant pour calmer les foudres de Bruxelles ?

Source : http://www.silicon.fr/fr/news/2009/03/08/microsoft_cede___windows_7_permettra_de_desactiver_internet_expolorer

Pilotage stratégique de la performance : la solution de SAS se détache selon Yphise

Le cabinet d'études français Yphise a évalué quatre solutions de pilotage stratégique de la performance d'entreprise

Il s'agit de celles d'IBM/Cognos, de Microsoft, de SAP et de SAS. L'offre Strategic Performance Management 2.4 de SAS présente la couverture fonctionnelle la plus large par rapport au cahier des charges établi.

Deux ans après sa première étude sur les solutions de pilotage stratégique de la performance, le cabinet Yphise se penche à nouveau sur cette catégorie d'offres qui aident les entreprises à gérer des objectifs et des transformations à tous les niveaux de son organisation, "des départements aux lignes métiers". Ces produits qui s'appliquaient auparavant aux objectifs financiers s'étendent désormais à des enjeux non financiers ou immatériels, rappelle le cabinet. Les solutions sont alimentées avec des informations provenant de sources diverses, ERP, mais aussi applications de gestion de risques, centre d'appels, courriels clients ou encore données du terrain. En suivant une méthodologie précise, Yphise a retenu quatre produits répondant aux exigences de son processus d'évaluation : Cognos Metric Studio, édité par IBM/Cognos, Microsoft Office PerformancePoint, de Microsoft, SAS Strategic Performance Management, de SAS, et SAP Strategy Management, de SAP.

Pour analyser les produits, le cabinet d'études a agrégé quelque 160 critères fonctionnels ou techniques sur quatre axes. Il en ressort que l'offre de SAS, Strategic Performance Management dans sa version 2.4, est celle qui fournit la meilleure couverture du cahier des charges établi par Yphise. Lors de la précédente étude réalisée en 2007 sur les outils de pilotage des performances, le cabinet avait déjà distingué la solution SAS.

Définition des indicateurs et suivi de la performance métier dans le temps

Plus précisément, le premier des quatre axes d'évaluation concerne la facilité avec laquelle l'entreprise peut définir des indicateurs en fonction de ses objectifs métiers. Le deuxième axe considère l'amélioration des stratégies opérationnelles en lien avec les objectifs (définition de délais, de priorités et de coûts associés aux objectifs, définition et affectation de plans d'action). Le troisième axe s'attache à la capacité de superviser la performance métier dans le temps : il faut en particulier, souligne Yphise, fournir des outils pour alimenter les indicateurs à partir de différentes sources et différents formats de données. Enfin, le quatrième axe du cahier des charges porte sur l'analyse et l'optimisation de la performance métier : un suivi facilité par les tableaux de bord, la gestion des portlets pour diffuser l'information, les capacités de personnalisation, les fonctions de collaboration, les représentations graphiques...

Sur chacun de ces quatre axes, la solution de SAS recueille la meilleure évaluation. Yphise énumère notamment l'intégration des objectifs financiers et immatériels dans la gestion de la performance de l'entreprise, un modèle de gestion des stratégies facile à personnaliser qui permet de gérer tout type d'objectifs, des modèles prédéfinis selon divers enjeux (conformité, gestion de risques, métiers)... Le cabinet relève aussi des points forts sur la gestion des actions opérationnelles liées aux objectifs et sur l'alimentation des indicateurs.

L'offre de SAP/Business Objects tire parti des outils de Pilot Software

Placée en deuxième position, la solution SAP Strategy Management, dans sa version 7, offre cependant une couverture complète du cahier des charges, souligne Yphise. Le précédent rapport du cabinet avait évalué les produits de gestion de performance de Business Objects. Cette fois-ci, la solution étudiée bénéficie de nouveaux atouts : elle dispose des fonctions de Pilot Software rachetée par SAP. Ce dernier a également construit une intégration (jugée intéressante par le cabinet d'études) avec son offre de GRC -governance, risk and compliance. A noter que SAP Strategy Management s'adresse tant aux clients SAP que non-SAP.

Sur l'offre de Microsoft, Office PerformancePoint Server version 1, l'évaluation du cabinet d'études montre surtout la bonne capacité à superviser la performance métier dans le temps, ainsi que des capacités avancées sur les autres axes d'évaluation. Cette solution facile à utiliser est livrée avec des assistants.

Enfin, si Cognos Metric Studio, version 8.4, fait également apparaître une bonne couverture du cahier des charges, elle n'a, selon Yphise, pas beaucoup évolué depuis la précédente étude effectuée en 2007. Le cabinet tient à souligner ses tableaux de bord et ses fonctions de reporting efficaces et rappelle que le produit met l'accent sur la gestion financière, avec des fonctions spécifiques de gestion de la planification, du budget ou des fonctions analytiques.

Source : http://www.lemondeinformatique.fr/actualites/lire-pilotage-strategique-de-la-performance-la-solution-de-sas-se-detache-selon-yphise-28206.html

vendredi 6 mars 2009

HP étudie l’impact du numérique face au papier

Curieusement, la nouvelle génération utilise plus le papier que l’ancienne

HP dévoile les résultats d’une étude menée sur plus de 1.400 employés de PME situées en Europe. Le but est de déterminer quelle importance a le support papier par rapport à l’outil informatique. Les Français préfèrent globalement le papier (75 %) à l’ordinateur (64 %). Mais la répartition par classe d’âge nous réserve une surprise de taille. Ainsi, les 16-24 ans plébiscitent le support papier à 84 %, alors que les 55-64 ans préfèrent l’ordinateur à 78 %.

Comment expliquer une telle différence ? Ceux qui travaillent majoritairement dans un bureau utilisent en général leur ordinateur. Par contre, les jeunes professionnels exploitent tout le temps disponible. 47 % des 16-24 ans avouent ainsi travailler pendant leur trajet et 37 % pendant leur week-end. Le couple stylo/papier est alors d’une flexibilité sans égale. C’est également un outil plus discret et apprécié que le smartphone, adopté seulement par 11 % des professionnels interrogés (mais 21 % des 45-54 ans).

"Cette étude nous apporte des éclairages inédits et intéressants et va nous permettre d’être encore plus pertinents dans notre approche des PME, de leurs besoins et de leurs modes de fonctionnement", explique Nathalie Chamblain, directrice marketing PME de la division IPG d’HP. "Les données générationnelles montrent très clairement que le papier et l’impression en général sont un vecteur de flexibilité dans le temps de travail et la façon d’appréhender sa vie professionnelle depuis chez soi ou en déplacement, tout autant sinon plus, que les écrans omniprésents dans nos environnements."

Source : http://www.silicon.fr/fr/news/2009/03/05/hp_etudie_l_impact_du_numerique_face_au_papier

jeudi 5 mars 2009

La fondation Linux prend la main sur le site Linux.com

Cet arrangement permet à la communauté Linux de disposer d’un nom de domaine à la visibilité sans égale

SourceForge vient tout juste de céder le nom de domaine Linux.com à la fondation Linux. SourceForge continuera pour sa part de vendre les espaces publicitaires du site. Cet accord est donc profitable pour les deux parties. Notez que le trafic du précédent site Linux.com avait grimpé de 21 % en 2008.

"Nous sommes ravis d’ajouter Linux.com à notre liste de services mis à la disposition de la communauté Linux", déclare Jim Zemlin, directeur exécutif de la Linux Foundation. "Avec cet arrangement, SourceForge montre son engagement pour Linux et la communauté open source. Nous nous réjouissons de cette alliance et de la perspective de présenter un site collaboratif complet par le biais de Linux.com. Nous avons l’intention de faire de ce site un point central pour le monde Linux."

La fondation Linux compte ainsi transformer ce site en un élément essentiel pour la communauté Linux, comprenant des informations, de la documentation et des logiciels. Selon les propres termes de la fondation, ce site sera créé "par la communauté et pour la communauté". Les aspects collaboratifs et communautaires seront donc au centre de ce site web. Tout un programme ! Une boîte à idées a été mise en place pour collecter les différentes initiatives. Notez que les forums déjà présents devraient rester en place ; une bonne nouvelle pour ceux qui fréquentaient déjà cet espace.

Source : http://www.silicon.fr/fr/news/2009/03/04/la_fondation_linux_prend_la_main_sur_le_site_linux_com

mercredi 4 mars 2009

Microsoft prépare le successeur de Live Search : Kumo

Le nuage ou araignée en japonais s’apprête à sortir. Echaudé par LiveSearch et le non-rachat de Yahoo, le géant de Redmond veut sa part du gâteau de la recherche Web


Le nom de domaine est posé, des premiers résultats dévoilés, Kumo est sur les rails. Le nouveau moteur de recherche de Microsoft devrait sortir à une date encore inconnue mais dévoile quelques unes de ses particularités. A en croire un blog du Wall Street Journal (allthingsD), Kumo devrait remplacer LiveSearch. En attendant le moteur est testé en interne par les employés du groupe qui vont pouvoir l’évaluer et en rapporter les dysfonctionnements. Pas encore de feuille de route précise donc mais des premiers tests.

Dans un secteur où Google domine largement (plus de 60% de parts de marché contre environ 10% pour Redmond), Microsoft a toujours lorgné du côté de la recherche Web. Dans un domaine aussi stratégique, celui qui contrôle l’annuaire est en quelque sorte maître de l’information. Une raison pour laquelle Steve Ballmer avait tenté à plusieurs reprises de racheter Yahoo afin de se doter d’une technologie de recherche performante. Peine perdue.

Selon des captures prises sur le blog les résultats des recherches seraient au stade expérimental puisque "40 % des requêtes sur les moteurs de recherche ne trouveraient pas de réponses. Pour ceux qui en trouvent, 46 % des sessions de recherche dépasseraient la barre des 20 minutes". Une position affirmée par Satya Nadella, vice-présidente de l'activité Recherche de Microsoft. Pour autant l’interface promet d’afficher sur la même page des résultats sur l’objet, vers du contenu (photo, paroles, chansons), des forums ou des sites professionnels de vente en ligne.


La firme de Redmond continue donc de batailler dans le sens d’une prise de parts de marché. Après avoir débauché Sean Suchter, en charge des technologies de recherche chez Yahoo, le géant est toujours attentif à la division Recherche et Développement de moteur de recherche. L'idée d'une acquisition de la division de recherche en ligne de Yahoo par Microsoft serait de nouveau sur les rails, à en croire des informations de presse. Steve Ballmer, le PDG de la firme Redmond, avait même déclaré à la mi-janvier que le moment de mettre la main sur cette division du portail américain était venu. Les deux firmes étant toutes les deux en pleine phase de transition.

Source : http://www.silicon.fr/fr/news/2009/03/03/microsoft_prepare_le_successeur_de_live_search___kumo

mardi 3 mars 2009

Microsoft met à jour App-V pour Windows 7

La solution de virtualisation d’applications est désormais compatible avec la nouvelle version de Windows

L’équipe Microsoft Desktop Optimisation Pack (MDOP) de Microsoft annonce la disponibilité immédiate de la solution de virtualisation d’applications App-V pour la version bêta de Windows 7. App-V est basé sur la technologie Softgrid acquise par Microsoft lors du rachat de la start-up Softricity en 2006. Le système permet aux utilisateurs d’exécuter des applications sans les installer sur une machine locale.

"Nous avons répondu à l’appel de nos clients qui souhaitent bénéficier rapidement d’un support pour Windows 7 afin qu’ils puissent procéder aux tests nécessaires en vue du déploiement du système d’exploitation dans leur entreprise", peut-on lire sur le blog officiel MDOP. "Nous avons le plaisir de vous annoncer la disponibilité immédiate d’App-V 4.5 CU1 pour la bêta Windows 7."

Une mise à jour spécifique du produit était nécessaire pour Windows 7 car, malgré l’étroite compatibilité entre Vista et son successeur sur le plan des applications, le produit redirige le registre, le système de fichiers et les appels de composants, et entre donc "dans la catégorie des rares applications ayant de profondes interactions spécifiques à une publication Windows". Selon Microsoft, App-V 4.5 CU1 comprend également quelques améliorations, notamment un accès instantané ou la suppression des applications affectées aux utilisateurs finaux.

En outre, l’équipe MDOP a révélé que la conception de la prochaine version d’App-V progressait et que le programme TAP (Technical Adoption Program) pour App-V 4.6 serait disponible sous peu. "Une fois publié, App-V 4.6 sera mis à la disposition de tous les clients MDOP existants et fournira de nouvelles fonctionnalités importantes, notamment la prise en charge des plates-formes 64 bits", indique Microsoft dans son blog. "Les clients intéressés par App-V 4.6 pourront se rendre sur Microsoft Connect en attente des inscriptions qui débuteront dans le courant du premier trimestre 2009."

Source : http://www.silicon.fr/fr/news/2009/03/02/microsoft_met_a_jour_app_v_pour_windows_7

lundi 2 mars 2009

Sauvegardez la virtualisation !

VMworld Eurpe 09, à Cannes la semaine dernière, la sauvegarde des environnements virtuels était au cœur des préoccupations

Parce que les machines virtuelles reposent physiquement sur un fichier, le stockage revêt un aspect essentiel. Sans virtualisation, l’entreprise utilise généralement un serveur physique pour faire tourner une application. Si le serveur tombe, l’application devient indisponible. Avec la virtualisation, un même serveur fait tourner plusieurs machines virtuelles. Si le stockage fait défaut, plusieurs applications tombent. C’est pourquoi il s’agit non seulement de protéger l’entreprise contre la perte de données ou de fichiers, mais aussi de pouvoir réagir efficacement en cas de problème sur une machine virtuelle.

Dans ce contexte, les opérations de sauvegarde et réplication s’imposent, de même que des mécanismes performants de restauration. "Dans une approche informatique traditionnelle, on déterminait l’infrastructure en fonction des applications (serveurs, réseau, sauvegarde). Avec la virtualisation, la nouvelle approche repose sur une infrastructure flexible et évolutive, sur laquelle les nouvelles applications consomment les ressources d’un pool de ressources matérielles. Cela nécessite une perspective globale avec un besoin d’orchestration", explique Richard Clifton, directeur adjoint chez NetApp.

À partir d’où organiser la sauvegarde ?

De plus en plus, les machines virtuelles (VM) hébergent des applications sous forme d’appliances (BI, ERP, etc.). L’infrastructure et les ressources nécessaires sont alors déterminées pour apporter la qualité de service (SLA) attendue selon l’application. Et bien entendu, la politique de sauvegarde et de réplication. "Les systèmes de backup traditionnels s’appuient sur les cycles libres du CPU. Or avec la virtualisation, -par définition- ces cycles sont réduits. Il s’agit donc de réinventer le stockage dans les contraintes d’un environnement virtualisé. Car l’agent traditionnel de sauvegarde ne peut plus travailler. Le backup doit donc intervenir au niveau bloc de la baie de stockage", affirme-t-on chez IBM.

"En fait, l’entreprise peut choisir entre trois options pour le backup de ses VM. La sauvegarde directement depuis la VM consomme beaucoup de cycles CPU et grève fortement les performances. En outre, elle est complexe, et rend difficile les opérations de type load-balancing [JD : équilibrage de charge], car la charge est imprévisible et accapare jusqu’à 50 % des performances. Si la solution opère directement depuis l’hyperviseur (comme le fait NetApp Open System SnapVault avec divers systèmes de stockage), elles consomment moins de CPU et rendent possible le load-balancing. Enfin, si les opérations s’effectuent directement au niveau de la baie de stockage, avec une perspective “True Infrastructure”, le résultat est plus simple, facilement gérable, et indépendant des VM et de leur logique", détaille Richard Clifton.

La déduplication devient la norme

Bien entendu, les dernières technologies performantes répondent aussi à l’appel pour le stockage des environnements virtuels. Et la majorité des acteurs l’intègre. "Si on dispose de deux machines virtuelles sous Windows 2003 sur le même serveur, de nombreux blocs identiques sont sauvegardés. Avec la déduplication, un tel bloc est stocké une seule fois, et les différentes VM concernées ne conservent que la référence du bloc [JD : pointeur]. Utilisée pour le stockage primaire comme pour la sauvegarde ou le mirroring, la déduplication permet de gagner jusqu’à 90% d’espace en environnement virtualisé. Une proportion qui peut même devenir plus importante pour des environnements de postes de travail virtualisés", assure-t-on chez IBM.

Tandis que Chris Carrier, directeur marketing technique chez EMC, renchérit : "La déduplication réduit le nombre d’entrées-sorties, le besoin en espace de stockage, et permet une restauration facile et rapide. Chez EMC nous lui associons la compression des fichiers inactifs (technologies Avamar et RecoverPoint) dans l’environnement d’exploitation Celerra, pour ensuite éliminer les copies." Et Richard Clifton confirme : "Nous utilisons la déduplication sur nos deux niveaux de stockage."

Vous prendrez bien un instantané avec différentiel ?

"Avec les logiciels EMC, la sauvegarde et la réplication des VM peuvent être automatisées en utilisant le même processus pour différentes VM, y compris sur plusieurs serveurs physiques. L’administrateur apprécie ce type de possibilité, ainsi que l’automatisation et le scripting évolué. EMC Replication Manager utilise l’API VMware pour tout répliquer de façon différentielle, avec possibilité de restaurer un snapshot à un moment donné. Avec la fonction de failback automatique de VMware Site Recovery Manager (via un plug-in VMware vCenter), l’administrateur Celerra peut rebasculer les opérations sur l’infrastructure virtuelle d’origine, en coordonnant toutes les étapes du processus de reprise après bascule (failover). Une manière de faire évoluer la restauration qui reste encore une tâche très manuelle en entreprise", annonce Chris Carrier.

Chez NetApp, Richard Clifton met en avant son approche spécifique : "Notre philosophie s’articule sur deux niveaux. Au premier niveau, nous créons un snapshot [image] directement sur le matériel de stockage primaire, sans impact sur les performances. NetApp recommande de planifier un snapshot toutes les heures, mais il est possible de réduire cette fréquence. Par ailleurs, avec ce système la restauration prend moins de 10 secondes. En parallèle, nous effectuons une réplication de deuxième niveau sur une infrastructure de stockage. Cette dernière n’est en fait utilisée que dans 10 % des cas de restauration."

Les challengers, installés en France, innovent aussi

Outre les quelques leaders cités, des challengers de plus en plus présents assistaient activement à cet événement. Mettant en avant la simplicité d’utilisation de leurs solutions et leur succès croissant, ils entendent aussi marquer leurs différences.

Veeam, née en 2006, propose sa solution Backup & Replication destinée aux infrastructures VMware. "Nous associons sauvegarde et réplication dans le même logiciel, pour accélérer la restauration des serveurs ESX. La simplicité de la virtualisation favorise l’explosion du nombre de machines virtuelles. Si certaines applications stratégiques nécessitent une réplication favorisant la continuité d l’activité, d’autres peuvent se satisfaire de solutions moins onéreuses. Ces deux techniques complètent le VCB (VMware Consolated Backup) sans stocker les images dans le proxy VCB. Un gain de temps et la possibilité de sauvegarde et réplication incrémentales, absentes dans VCB", explique Ratmir Timashev, CEO et co-fondateur de Veeam Software.

La version 3.0 du produit supporte les machines virtuelles ESXi (version gratuite d’ESX), une possibilité très demandée par les clients. Et le dirigeant entend marquer sa spécificité : "Nous proposons la possibilité de restauration de fichiers en quelques secondes, sans avoir à restaurer l’image d’abord. Et ce, sous Windows, Linux, Unix BSD, Mac, et d’autres. Tout le monde ne le propose pas. Par ailleurs, nous utilisons aussi la déduplication."

S’il a opté pour la compression plutôt que pour la déduplication dans sa solution, Vizioncore enregistre elle aussi de plus en plus de clients. Filiale de Quest depuis 2005, Vizioncore vient de lancer la nouvelle version de vRanger Pro sous Windows et Linux pour sauvegarder à chaud les serveurs physiques et les VM de VMware ESX. "Et nous planifions pour 2009 l’extension aux machines virtuelles Microsoft Hyper-V et Citrix Xen. Notre sauvegarde différentielle permet de n’enregistrer que les modifications après la sauvegarde d’une image complète. Et l’administrateur peut choisir la fréquence des backups selon ses besoins", souligne Élie Moubareck, directeur EMEA de Vizioncore.

Source : http://www.silicon.fr/fr/news/2009/03/01/vmworld_europe_09___sauvegardez_la_virtualisation__