vendredi 29 mai 2009

Microsoft lance 'Bing' (ex Kumo) son moteur de recherche anti-Google

Le nom du nouveau portail est bien 'Bing'. Il a une dimension encyclopédique... Modèle Wikipédia? Beaucoup d'ambitions

Cette fois, Microsoft semble avoir mis beaucoup d'atouts de son côté. On est au delà d'un semblant de retouches cosmétiques. L'enjeu est clairement de devenir l'alternative à Google. Et les arguments ne manquent pas. Steve Ballmer a insisté sur les nouvelles ambitions, le lancement de 'Bing' ayant eu lieu sur la conférence D7 en Californie. Le géant de Redmond ne doit pas se rater: c'est la 4è mouture de son moteur derecherche, et cette fois doit être la bonne.

Adieu donc, le terme 'Kumo' (le 'nuage', en japonais, s'est dispersé...). Bienvenu à un terme qui sonne : 'Bing', qui n'est pas sans rappeler Yahoo! (sans point d'exclamation...). Les premières impressions sont plutôt favorables. Le portail dispose notamment d'un "moteur de décision" (decision engine) permettant d'affiner "intelligemment" la recherche, au lieu de se perdre, comme sur d'autres portails, parmi les documents dont la seule pertinence est d'avoir été les plus... consultés.

Autre point intéressant, l'espace 'Explore pane" (panneau d'exploration) placé à gauche, conduisant à des 'web groups' spécialisés du sujet recherché et qui, c'est malin, s'adapte au contenu émanant de la recherche en temps réel. Autre atout, la fonction 'Best match' qui sélectionne a priori ce qui paraît le mieux répondre aux critères et à l'orientation de la recherche. Le 'Quick preview' est également un point intéressant, de même que la fonction "Instant answers".

Mais on retient, pour l'heure, le fait que, globalement, le portail a une dimension riche, disons "encyclopédique" non seulement dans son contenu mais dans son affichage. Il est clair que Microsoft a beaucoup investi sur cette mouture, qui doit faire oublier le demi-échec de Live Search. Rien que pour la promotion, le géant s'apprête à investir entre 80 et 100 millions de dollars. Les toutes prochaines semaines diront si le pari a des chances d'être gagné. Mais bienvenue à la concurrence.. face aux positions dominantes! La pente à remonter est très forte: la part de marché de Microsoft dans le 'search' ne serait que de 6%, selon certaines études récentes. Il sera accessible dans le monde entier à partir du 3 juin.

Source : http://www.silicon.fr/fr/news/2009/05/29/microsoft_lance__bing___ex_kumo__son_moteur_de_recherche_anti_google

jeudi 28 mai 2009

Un supercalculateur européen devient le 3e plus puissant du monde

Le haut du Top 500 des plus puissants super calculateurs est traditionnellement occupé par des monstres américains...

Pourtant, Jugene, installé au centre de recherche allemand Forschungszentrum Jülich devrait se hisser de la 11e place jusque sur la 3e marche du podium à l'occasion du prochain classement fin juin. La machine vient d'être mise à jour par IBM et est désormais animée par un total de près de 295 000 processeurs PowerPC 450 à 850 MHz installés par quatre sur des Blue Gene/P. Il devient ainsi également le troisième supercalculateur au monde à atteindre le Petaflop (un million de milliards d'opérations en virgule flottante à la seconde).

Le centre de recherche de Jülich spécialisé dans la physique et le supercalcul s'appuie sur cette ressource de taille pour ces travaux dans les domaines de la santé, de l'énergie et de l'environnement. Ce beau bébé nécessite d'ailleurs qu'on l'alimente avec une puissance électrique de 2,2 Mwatts. Jugene est installé aux côtés de deux autres supercalculateurs, dont JuRoPa (Jülich Research on Petaflops Architectures) constitué de serveurs Bull et Sun à base de Xeon 5570.

Source : http://www.lemondeinformatique.fr/actualites/lire-un-supercalculateur-europeen-devient-le-3e-plus-puissant-du-monde-28661.html

mercredi 27 mai 2009

Les contenus de Wikipedia passent sous licence Creative Commons

Wikimedia adopte la licence Creative Commons pour les contenus de son encyclopédie Wikipedia afin d'en favoriser la réutilisation. Une démarche préalablement soumise au vote des 17 500 membres de l'association

Les contenus qui alimentent l'encyclopédie collaborative Wikipedia, jusqu'à présent publiés sous licence GNU FDL, passeront à partir du 15 juin prochain sous licence Creative Commons Attribution/Share-Alike License (CC-BY-SA). Cette décision, qui répond à une volonté de faciliter la réutilisation de ces contributions, notamment celles à caractère éducatif, vient d'être approuvée par le conseil de surveillance de Wikimedia, l'association qui chapeaute Wikipedia.
Auparavant, la proposition avait recueillie les suffrages positifs de 75,8% des quelque 17 500 membres de Wikimedia (13,7% sans opinion et 10,5% contre), avec notamment une participation importante des représentants français, anglais, allemands, russes, espagnols, polonais, italiens et chinois.

L'actuelle licence (GNU Free Documentation License) continuera à être supportée dans certains cas, mais sur tous les sites gérés par Wikimedia, c'est bien la licence CC-BY-SA qui prévaudra. L'association autorise la réutilisation des contenus de ses sites sous condition que la source en soit créditée. Lorsque Wikipedia a été créé, en 2001, la licence Creative Commons n'existait pas encore. Son adoption permettra notamment d'abandonner l'obligation de joindre le texte de la licence à chaque copie, Wikimedia jugeant que cela compliquait le processus de réutilisation et d'agrégation des contenus de ses sites.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-contenus-de-wikipedia-passent-sous-licence-creative-commons-28655.html

mardi 26 mai 2009

Oracle refuse le support de ses logiciels à d'autres hyperviseurs x64 que les siens

Oracle durcit sa position vis-à-vis des hyperviseurs x86 concurrents des siens (Oracle VM, Sun xVM et, désormais, Virtual Iron qu'il vient de racheter)

Après avoir entr'ouvert la porte au support de ses applications sur ces hyperviseurs (ESX, Hyper-V, XenServer...), l'éditeur a fait brutalement machine arrière.

Selon le Burton Group, qui suit cette "affaire" pas à pas, Oracle a, le 8 mai dernier, précisé que le support qu'il apporte à ses logiciels sur des hyperviseurs tiers exclut désormais formellement ceux sur plateforme x86/x64. Par ailleurs, selon le New York Times, Virtual Iron qui a levé plus de 65 M$ depuis sa création a réalisé en 2008 un CA de 3,4 M$, en hausse de 128% par rapport à l'exercice précédent. Mais au prix de près de 18 M$ de charges d'exploitation. Son exercice s'est donc soldé sur une perte nette de 15,3 M$. Oracle n'a donc pas acheté Virtual Iron pour la qualité de ses résultats financiers mais, probablement, pour des raisons tactiques ou technologiques. Et sans doute à bas prix.

Source : http://www.lemondeinformatique.fr/actualites/lire-oracle-refuse-le-support-de-ses-logiciels-a-d-autres-hyperviseurs-x64-que-les-siens-28644.html

lundi 25 mai 2009

Navigateurs web : Google dévoile Chrome 2.0

Ce dernier remporte la palme du plus rapide des navigateurs web. Selon nos tests, il pourrait conserver cette place pendant longtemps

Google vient de passer son navigateur Chrome 2.0.172.28 en version stable, seulement huit mois après le lancement du projet. La compagnie n’aura donc pas attendu la fin des portages sous Linux et Mac OS X ou la mise au point du support des extensions. Ces deux éléments seront probablement dévoilés avec Chrome 3.0.

Quelques nouveautés sont cependant présentes : remplissage automatique des formulaires, mode plein écran, page de garde améliorée, etc. Mais c’est dans le domaine de la stabilité que cette mouture se démarque. Les développeurs ont ainsi éliminé plus de 300 bogues. De nouvelles versions des moteurs HTML (WebKit) et JavaScript (V8) sont présentes. Premier bénéfice, le score au test Acid3 grimpe à 100 %. Malheureusement, une erreur empêche le navigateur de devenir le premier produit « stable » à remporter ce test.

Selon les développeurs du projet, cette mouture de Chrome se veut 30 % plus rapide que précédemment. Dans la pratique, comment se comporte le navigateur face aux produits les plus véloces disponibles aujourd’hui ? Pour le savoir, nous l’avons comparé à la version bêta de Safari 4 (4.28.17.0). Pour Firefox, nous avons retenu les meilleurs scores décrochés par Firefox 3.5 Beta 4 et la compilation journalière du navigateur (en date du 22 mai 2009), Minefield 3.6a1pre.
Nous avons écarté de notre test Internet Explorer et Opera, qui se montrent trop lents, en grande partie à cause de leurs moteurs JavaScript d’ancienne génération.

Google Chrome face à la concurrence

Le V8 benchmark suite favorise nettement le navigateur de Google. Il met cependant l’accent sur certains éléments intéressants. La nouvelle version de cet outil évalue ainsi la capacité du navigateur à monter en charge. Chrome est ici le plus performant : il est 1,9 fois plus rapide que Safari et 7,8 fois plus véloce que Firefox.

Continuons avec le test SunSpider. Très équilibré, il évaluera les performances du moteur JavaScript lors de tâches classiques. Là encore, c’est Chrome qui prend la tête du classement. Il se montre respectivement 11,8 % et 32,4 % plus rapide que Safari et Firefox.

Terminons avec Peacekeeper, qui place Safari en première position, 15,6 % devant Chrome et 59,8 % devant Firefox. Malgré cette bonne note, Safari se fait largement doubler par Chrome en terme de fluidité d’affichage. En fait, il est possible que les nombreux bogues touchant cette version de test dans ce domaine fassent artificiellement grimper son score.

Le plus rapide des navigateurs web ?

In fine, Google Chrome est le plus rapide des navigateurs web actuels. Nos tests montrent qu’il conservera probablement cette première place lors de la sortie de Firefox 3.5 et de Safari 4. L’écart entre les trois produits se réduira toutefois de façon significative. Selon les sites, Google Chrome occupe aujourd’hui entre 1,4 % et 4,9 % de parts de marché. Gageons que cette nouvelle version saura booster ces chiffres.

Source : http://www.silicon.fr/fr/news/2009/05/22/navigateurs_web___google_devoile_chrome_2_0

Le gouvernement lance une consultation publique sur l'Internet du futur

Valérie Pécresse, Luc Chatel et Nathalie Kosciusko-Morizet lancent une consultation publique en ligne sur l'Internet du futur ouverte jusqu'au 13 juillet 2009

Il s'agit d'ouvrir au plus grand nombre les questions qui se posent autour des évolutions d'Internet en France, en termes de technologie, d'usage et même d'organisation. Les sujets évoqués sont organisés en six thématiques : technologies du coeur de réseau, réseaux d'accès, réseaux spontanés, Internet des objets, contenus, usages et services.

Les questions sont soit très pointues, soit très larges (« Pensez-vous que le thème de l'Internet du futur justifie la mise en place, en France, d'un 'pôle académique' de recherche de haut niveau consacré exclusivement à ce sujet et ayant vocation à fédérer les efforts français dans ce domaine ? ») et nécessitent clairement une connaissance du secteur. Les annexes qui accompagnent le questionnaire sont très détaillées mais également très techniques. « Le spectre des répondants est assez large néanmoins, nuance Pierre Bonis, conseiller technique au cabinet de NKM. Et il est certain que les spécialistes ou les chercheurs sont concernés directement. Mais nous acceptons aussi que l'on ne réponde qu'à deux ou trois questions. Des entreprises qui ne sont pas dans le secteur mais ont un intérêt dans tel ou tel sujet peuvent donner leur point de vue, par exemple. »

Cette consultation doit permettre de remonter des informations et les sujets d'intérêts des internautes. Mais c'est aussi un moyen de jauger l'intérêt du public pour ces sujets. Enfin, si rien n'est encore figé sur ce plan, Pierre Bonis confirme que les résultats pourraient servir aussi bien à définir des mesures d'accompagnement des entreprises par exemple en formation pour le passage à IPv6 qu'à une réorganisation des pôles associés à la recherche sur les thématiques étudiées, ou à de nouveaux types de financement de la R&D. A suivre !

Source : http://www.lemondeinformatique.fr/actualites/lire-le-gouvernement-lance-une-consultation-publique-sur-l-internet-du-futur-28631.html

vendredi 22 mai 2009

L'Afdel veut une voix commune des associations du logiciel face aux pouvoirs publics

Partenariats avec l'Aproged et Lessis, mise en place d'ambassadeurs auprès des associations numériques en région

L'Afdel aimerait fédérer les organisations professionnelles IT dans un dispositif plus global pour parler d'une voix commune aux pouvoirs publics. L'Association française des éditeurs de logiciels prépare aussi un index trimestriel des fusions/acquisitions. Depuis le début de l'année, une vingtaine de nouveaux éditeurs ont rejoint l'Afdel qui compte désormais 188 membres. Pour renforcer encore la pertinence de son action, l'Association française des éditeurs de logiciels vient d'engager plusieurs partenariats avec d'autres associations professionnelles d'acteurs de l'IT, centrées sur des secteurs d'activités spécifiques. « Nous sommes en train d'essayer de créer un comité de liaison afin de porter une voix commune », explique son président, Patrick Bertrand.

L'Afdel doit ainsi annoncer bientôt un partenariat avec l'Aproged qui regroupe les professionnels de la gestion de documents, ainsi qu'avec Lessis qui de son côté rassemble des éditeurs spécialisés dans le secteur de la santé. « Nous regardons aussi ce qui se passe dans le domaine du 'serious game' dont on parle beaucoup en ce moment ». L'idée, c'est de nouer des partenariats d'adhésion croisées, pour que les membres de l'Afdel puissent aller vers ces associations thématiques et vice-versa, chaque groupe ayant ses compétences propres. Le président de l'Afdel dit également travailler avec d'autres structures comme l'Aden [association pour le développement de l'économie numérique] présidée par Olivier Midière. « Notre objectif, c'est de fédérer les associations professionnelles indépendantes dans un dispositif plus global, qui pourrait s'apparenter à un 'skyteam' [NDLR : alliance de compagnies aériennes], ce qui permettrait de parler avec le gouvernement et les pouvoirs publics sur l'ensemble de ces métiers », explique Patrick Bertrand. Il regrette que Syntec Informatique, dans l'état actuel des choses, ne puisse pas jouer ce rôle pour cause de « mélange des genres ». « Tant que le Syntec n'aura pas dissocié son rôle de chambre professionnelle, porteuse d'une convention collective, et son rôle d'association professionnelle, nous aurons une difficulté institutionnelle dans ce domaine ».

La logique de rapprochement que le président de l'Afdel veut engager avec les regroupements d'éditeurs, il entend aussi la mettre en oeuvre avec les associations régionales. « Pourquoi vouloir absolument centraliser et rendre les choses trop parisiennes ? Il y a en région des associations TIC remarquables, à Lyon, Toulouse, Mulhouse, en Méditerranée, en Bretagne ; des associations extrêmement actives, mais qui se rendent compte qu'il faut un chapeau régional et européen pour regrouper les idées et porter un certain nombre de dynamiques ou de propositions de mesures. » L'Afdel compte nommer parmi ses membres des ambassadeurs dans chacune des régions pour travailler avec les associations du crû et organiser conjointement des événements.

Un index des fusions/acquisitions et l'extension à l'Est de l'EuroSoftware

Parallèlement à cette volonté de renforcer la représentativité de l'industrie du logiciel, l'Afdel conduit plusieurs projets. L'association s'apprête à lancer en juillet prochain un index trimestriel sur les fusions/acquisitions d'éditeurs. Celui-ci sera réalisé avec Corum, société spécialisée dans les fusions/acquisitions des entreprises du logiciel.

L'association a également décidé d'étendre aux pays d'Europe de l'Est le classement EuroSoftware des éditeurs de logiciels en Europe, réalisé avec l'ESA (European software association), la Basda (Business application software developers association), PwC et PAC. Le premier du genre a été livré en décembre dernier. Le palmarès 2010 sortira un peu plus tôt : « en septembre ou octobre prochain », promet Loïc Rivière, délégué général de l'Afdel. Il comprendra en outre des classements d'éditeurs engagés sur les modèles économiques particuliers que constituent le SaaS, l'Open Source et Internet.

Une police d'assurance spécifique 'homme clé'

Du côté des services proposés à ses adhérents, l'Afdel va compléter le dispositif de polices d'assurance spécifiques existant. « Le métier du logiciel a des particularismes en termes de responsabilité, notamment de responsabilité contractuelle », rappelle Patrick Bertrand. Il y a deux ans, l'association avait donc mandaté un courtier d'assurance pour mettre au point des polices qui soient adaptées aux métiers du logiciel et pas seulement aux métiers de l'IT en général. Désormais, en plus des polices 'responsabilité civile professionnelle' et 'responsabilité des dirigeants' qui existaient déjà, le nouveau dispositif, qui va s'appeler 'Software business assurance', comportera une police d'assurance 'homme clé' et une police multirisques qui couvre les locaux, les équipements et le patrimoine. « Dans une équipe de développeurs, certaines personnes sont clés du fait de leurs compétences, notamment techniques, explicite Patrick Bertrand à propos de la police d'assurance 'homme clé'. C'est un domaine très spécifique à la R&D. Certains développeurs sont détenteurs d'un savoir difficilement transmissible ».

La formation au coeur de tout

Parallèlement à tous ces chantiers, le président de l'Afdel revient aussi sur le sujet qui lui tient le plus à coeur, celui de la formation. « Il faut vraiment lancer un investissement massif de formation aux usages », insiste-t-il sans oublier pour autant l'importance de développement des infrastructures qui a notamment conduit l'Afdel à s'associer au plan de relance présenté par la Fieec (Fédération des industries électriques, électroniques et de communication). « Il faut absolument que le monde de la formation éduque des jeunes aux métiers du logiciel. C'est notre projet d'université des logiciels. Le logiciel, ce n'est pas seulement les métiers de codeur. Il faut du marketing, des gens qui connaissent le métier du client auquel on s'adresse, des juristes spécialisés dans la propriété intellectuelle... Toutes ces particularités qui font que le logiciel est une industrie qui délocalise très peu. »

Enfin, Patrick Bertrand estime qu'il faudrait aussi inscrire comme un socle de l'action des pouvoirs publics qu'à chaque fois qu'il y a un investissement public, il y ait l'obligation de prévoir un volet numérique, à l'instar de ce qui s'est mis en place pour le développement durable.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-afdel-veut-une-voix-commune-des-associations-du-logiciel-face-aux-pouvoirs-publics-28625.html

mercredi 20 mai 2009

L'inventeur de MySQL propose un clone du SGBD Open Source

Et si MySQL vivait de nouveau de ses propres ailes... sous un autre nom ?

C'est en quelque sorte l'ambition de Michael Widenius, alias Monty, le développeur originel de la base de données Open Source et fondateur de MySQL AB. Monty Widenius promeut aujourd'hui MariaDB, un clone de MySQL, ou plutôt « la même base, avec plus de fonctions et moins de bugs », nous a-t-il confié. La prise en main de la société par Sun, après un rachat pour un milliard de dollars en janvier 2008, avait été pour les fondateurs et dirigeants de MySQL quelque chose de difficile à supporter. Tour à tour, Michael Widenius, David Axmark et Marten Mickos ont quitté Sun, dénonçant à mots plus ou moins couverts une approche trop bureaucratique et le peu d'intérêt porté à la communauté Open Source.

Quel intérêt pour Oracle de soutenir l'activité de MySQL ?

Le rachat en cours de Sun par Oracle n'est pas fait pour arranger les choses, Oracle étant plutôt connu pour laisser végéter les technologies de base de données Open Source qu'il a eues entre les mains. Et puis quel intérêt aurait Oracle à développer le marché d'une base qui a démontré, cas clients à l'appui, que des dépenses inutiles en licences Oracle pouvaient aisément être évitées ?

Avec MariaDB, Michael Widenius aimerait remettre sur les rails l'idée qu'il a eue avec David Axmark au moment de la création de MySQL : une petite structure s'occupant de l'animation de la communauté des développeurs Open Source, et un réseau de partenaires apportant des technologies liées et des services. La différence majeure entre MariaDB et MySQL, indique-t-il, est tout simplement le fait que le premier est livré avec le moteur de stockage Maria par défaut.

Une branche - et non un « fork » - de MySQL

En effet, le système de gestion de de base de données (SGBD) MySQL peut fonctionner avec plusieurs moteurs. On se souvient par exemple que fin 2005 Oracle avait racheté Innobase, éditeur d'InnoDB, le moteur transactionnel préféré des utilisateurs de MySQL. Au travers de sa nouvelle société Monty Program AB, Michael Widenius s'est donc associé avec Percona, qui édite XtraDB, un clone d'InnoDB, au sein de l'Open Database Alliance.

Au final donc, Monty Widenius a recréé un MySQL - mais ne l'appelle pas ainsi car c'est Sun qui détient ce droit. En tout cas, insiste-t-il, il ne s'agit pas d'un « fork » (ce qui arrive quand deux groupes de programmeurs partent de la même base de code pour créer deux projets concurrents). « Un fork signifie que vous abandonnez le projet original, dit-il. C'est pourquoi j'appelle cela une branche : vous retrouvez tout MySQL. »

Une collaboration plutôt qu'une compétition

L'ambition du fondateur de MySQL n'est pas de reprendre tous les clients. « Il y a de très grands clients, note Michael Widenius, qui continueront d'être très bien servis par Sun. En revanche, nous serons là pour écouter et prendre en compte les besoins de tel ou tel client, et cela Sun ne sait pas le faire. De même, nous avons, nous, le savoir-faire pour animer une communauté Open Source. » Au final, dit-il, « le mieux serait de parvenir à une collaboration avec Sun/Oracle. J'en ai parlé avec Sun, puis avec Oracle, mais tant que la transaction n'est pas finalisée, ils ne peuvent pas se prononcer. »

Source : http://www.lemondeinformatique.fr/actualites/lire-l-inventeur-de-mysql-propose-un-clone-du-sgbd-open-source-28618-page-1.html

mardi 19 mai 2009

Linux : découvrez les avancées des prochaines Fedora et Ubuntu

L’Ubuntu 9.10 jouera la carte de la sécurité, alors que la Fedora 12 se focalisera sur l’architecture système

Les développeurs du projet Ubuntu viennent de dévoiler la première mouture de test de Karmic Koala, c’est-à-dire de l’Ubuntu 9.10. Au chapitre des nouveautés, nous trouvons des mises à jour de l’environnement de travail GNOME (2.27.1), du noyau Linux (2.6.30) et d’OpenOffice.org (3.1.0). La base des logiciels est également synchronisée avec celle de la Debian, le projet sur lequel s’appuie l’Ubuntu.

Cette première version alpha gère plus finement la consommation électrique de la machine et propose une architecture de nouvelle génération pour les solutions graphiques d’Intel. Enfin, le compilateur GCC 4.4 est utilisé pour l’ensemble de la distribution. Si tout ceci ne semble pas très excitant, nos confrères de Phoronix ont pu mesurer des performances en nette hausse. Vous pourrez tester le tout en vous rendant sur cette page web. Notez que la version définitive de l’Ubuntu 9.10 sera dévoilée le 29 octobre 2009.

La distribution Linux Fedora 12 sera disponible peu de temps après l’Ubuntu 9.10, soit aux alentours du 3 novembre 2009. Son développement n’a pas encore commencé (il débutera après la sortie de la Fedora 11, le 26 mai prochain), mais le wiki du projet décrit déjà quelques-unes des nouveautés qui seront présentes.

Du côté de l’architecture, Dracut se chargera de générer les scripts de démarrage. La gestion des volumes disque sera également facilitée par l’intégration de liblvm. Enfin, la Fedora 12 pourra accepter plusieurs utilisateurs simultanément, chacun utilisant son propre ensemble clavier/souris/écran sur une unique machine. D’autres avancées sont dédiées aux développeurs. Un système de fichiers spécifique fournira des informations de débogage à gdb, y compris lorsqu’il sera monté en tant que périphérique réseau. De plus, il sera possible d’utiliser des sondes au sein des logiciels.

Source : http://www.silicon.fr/fr/news/2009/05/18/linux_decouvrez_les_avancees_des_prochaines_fedora_et_ubuntu

lundi 18 mai 2009

Les plateformes de virtualisation représentent près de 20% des serveurs livrés

En croissance de plus de 26% en 2008, les livraisons européennes de serveurs destinés à la virtualisation ont dépassé les 18% du marché. Tout porte à croire que ce taux devrait grimper encore en 2009

En 2008, le nombre de serveurs livrés en Europe pour servir de plateforme de virtualisation a augmenté de 26,5% en 2008, affirme IDC, pour atteindre le chiffre de 358 000 unités, soit plus de 18% des livraisons totales (19,5 millions). En 2007, les serveurs destinés à la virtualisation ne représentaient que 14,6% des livraisons. En 2010, IDC estime que ce taux devrait atteindre 21%. Sachant que les dépenses en serveurs baissent mais que chacun peut faire tourner plusieurs VM (machines virtuelles), IDC pense que dès cette année, on comptera 10% de plus de VM que de serveurs physiques livrés.

C'est, bien sûr, le développement de la virtualisation sur l'architecture X64 qui explique cette forte accélération. IDC souligne que l'accroissement du parc virtualisé entraîne la nécessité de s'équiper en outils d'administration adéquats. Sans une gestion précise, la virtualisation peut entraîner une dangereuse prolifération ("sprawling") des VM. Les directions informatiques risquent de perdre le contrôle de leur création et de leur utilisation. La virtualisation a aussi des conséquences sur la répartition des rôles et des tâches au sein des équipes informatiques. Les barrières physiques disparaissant, les responsables des différentes activités (administration, gestion des serveurs, du réseau et du stockage) doivent ré-inventer des organisations et des méthodes de travail adaptées.

IDC constate aussi que les fournisseurs, conscients que la virtualisation va entraîner une diminution relative du nombre de machines vendues, révisent leur stratégie en conséquence afin de trouver d'autres sources de revenus.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-plateformes-de-virtualisation-representent-pres-de-20-des-serveurs-livres-28608.html

vendredi 15 mai 2009

Fin du piratage via la version RC de Windows 7 ?

Des chercheurs viennent d’annoncer la fermeture d'un botnet construit à partir de machines infectées d'une version piratée de la Release Candidate de Windows 7

Selon une équipe de chercheurs de la société Damballa, notamment spécialisée dans la sécurité informatique, un réseau botnets (comprendre ordinateur zombies organisés en réseau) aurait été établi avec des postes infectés d'une version piratée de la Release Candidate de Windows 7. A en croire le site Clubic, ces pirates auraient placé un cheval de Troie au sein du système d'exploitation de Microsoft. Ensuite distribué illégalement via les réseaux de téléchargement tels que BitTorrent, la version de l’OS de Microsoft aurait alors permis d’infecter nombre d’autres ordinateurs.

A la loupe, les mécanismes du fichier infectieux, à savoir codec.exe cacherait un cheval de Troie "générique" qui téléchargerait un faux logiciel anti-virus et installerait un rootkit indétectable par les solutions de sécurité légitimes. Faux anti-virus qui alertera l'utilisateur que son système est infecté (effectivement ou non) et l'invitera à acheter une nouvelle version du logiciel de sécurité pour désinfecter son environnement. Une forme moderne de racket connue sous le terme de scareware. La société de sécurité affirme aujourd'hui que le serveur de commande du botnet aurait été fermé le 10 mai dernier. Ce même jour, les chercheurs ont estimé que le taux d'infection était de l'ordre de 552 machines par heure...

De même, on estime à l’heure actuelle que le botnet regroupait sous sa coupe pas moins de 27.000 machines contrôlables depuis son serveur CetC (Command and Control). Toujours est-il qu’à l'heure actuelle, les experts ont enregistré 1.600 nouvelles installations de cette version piratée par jour. Les pays les plus touchés seraient ainsi les Etats-unis (10% de la totalité des machines infectées), les Pays-bas et l'Italie (7%).

Source : http://www.silicon.fr/fr/news/2009/05/14/fin_du_piratage_via_la_version_rc_de_windows_7__

jeudi 14 mai 2009

Google : Nouvelles options pour affiner la recherche

Google propose de nouvelles options de recherche

Rien de révolutionnaire dans la pertinence des résultats mais une ergonomie bien penser pour trouver ce que l'on cherche. Les nouveautés Google sont toujours très attendues des internautes. Celles qu'annonce l'entreprise de Mountain View ne devraient pas décevoir. Google vient de faire évoluer son moteur de recherche en introduisant de nouvelles fonctionnalités accessibles depuis la page de résultats. Il s'agit essentiellement de fonctionnalités de filtrage qui permettront à l'utilisateur d'affiner les résultats afin d'accélérer l'accès à la réponse qu'il cherche.

Un nouveau lien, pour le moment intitulé "Show Option" fait son apparition en haut à gauche de la page. Un clic dessus et une série d'options se déroule en colonne. Celles-ci permettent de limiter les résultats selon plusieurs thématiques : vidéos, forums, articles de presse. Dans le même esprit, des options de recherche limitées à une période données sont proposées : les dernières 24 heures, semaine ou année. Une autre option permet de filtrer les résultats en fonction de la durée d'une séquence vidéo. Ces filtres de recherche sont d'ailleurs cumulables. Par exemple, rechercher les vidéos de moins de 4 minutes dans les dernières 24 heures sur l'expression "sarkozy" (Google en trouve 199 à l'heure de la rédaction de ces lignes). Il semble donc que les options de filtrage s'adaptent dynamiquement en fonction des recherches.

Google va plus loin. Le moteur propose "Timeline", une option qui permet de suivre l'évolution d'un sujet dans le temps. Une frise historique s'affiche sous forme d'histogramme annuel sur lequel il est possible de cliquer pour concentrer la recherche sur une année ou un mois. Impressionnant d'efficacité (quand les serveurs de Google ne saturent pas). Autre mode de recherche, graphique cette fois. L'option "Wonder Wheel" affiche une sorte d'étoile dont les branches sont illustrées par des suggestions de recherche. Un clic sur l'une d'elles et une nouvelle étoile se déploie avec de nouvelles suggestions tout en mettant à jour les résultats de recherche dans la partie droite de la page (qui, du coup, supprime l'espace dédié aux annonces publicitaires AdWord). Pratique et rapide.

L'exploit de Google tient dans sa capacité à avoir dessiné une ergonomie efficace de recherche à l'aide des nouvelles options. Les résultats qu'elles permettent d'obtenir étaient déjà accessibles par d'autres biais, moins pratiques, pour la plupart d'entre elles. Il s'agit donc d'une avancée certaine dans l'usage du moteur. Pour le moment cette colonne d'options de filtrage n'est disponible que sur la version américaine du moteur (Google.com).

Source : http://www.silicon.fr/fr/news/2009/05/13/google_nouvelles_options_pour_affiner_la_recherche

mercredi 13 mai 2009

Piratage de logiciels : la France mauvais élève européen

Selon la BSA, le taux de piratage de logiciels reste élevé en France malgré les efforts constatés ces dernières années

Le piratage de logiciel est stable en France. Stable mais élevé. Il est passé de 42 % en 2007 à 41 % en 2008, selon la BSA. Soit un taux de piratage supérieure à la moyenne européenne occidentale qui s'établit à 33 % en 2008 (stable lui aussi par rapport à 2007). A l'heure du vote final de la loi Hadopi, voilà un rapport qui tombe à pic. Comme la musique et les films, les logiciels (notamment les jeux) sont également victimes du téléchargement illégal.

La Business Software Alliance est une organisation mondiale d'éditeurs et partenaires chargée de lutter contre la contrefaçon de logiciels en entreprise, notamment. La BSA compte notamment Microsoft, Adobe, Apple, CA, Symantec, IBM, HP, Cisco ou Autodesk parmi ses membres. Les chiffres que présente la BSA sont tirée de la 6e étude réalisée par IDC sur 110 pays pour le compte de l'association.

Si le taux de piratage dans l'Hexagone semble se stabiliser, le manque à gagner évolue significativement. En 2008, il s'établit à 2.760 millions de dollars contre 2.601 millions en 2007. Pourtant, la France fait des efforts. Son taux de piratage a baissé de 6 points depuis 2005. "Cette année encore, les résultats démontrent que notre action commence à porter ses fruits mais que nous avons encore fort à faire en France pour réduire davantage le piratage de logiciels", avance Natacha Jollet-David, porte-parole de la BSA en France, dans le communiqué. Selon la BSA, l'impact du piratage ne porte pas seulement sur le manque à gagner mais aussi sur le fonctionnement de l'industrie et, notamment, l'emploi. En France, une réduction de 10 points du taux de piratage sur quatre ans pourrait générer 14.465 nouveaux emplois et soutenir l’économie française à hauteur de près de 9 milliards de dollars, estime IDC. Un argument régulièrement mis en avant par la BSA.

La France n'est d'ailleurs pas le plus mauvais élève européen. En matière de piratage, elle a encore des leçons à (ne pas) prendre de la Grèce (57 % des logiciels piratés), de l'Italie (48 %) ou encore de Chypre (50 %). Des taux très inférieurs à ceux des pays émergeants qui s'envole au-delà de 80 % (95 % en Georgie, le record). Malgré ces chiffres alarmants, les efforts de la BSA semblent porter leurs fruits. "Au niveau mondial, plus de la moitié des 110 pays étudiés ont vu leur taux de piratage chuter et seulement 15 % d’entre eux ont constaté une augmentation", note l'organisation. Cependant, les éditeurs de logiciel estiment leur manque à gagner à 53 milliards de dollars à l'échelle mondiale. En hausse de 11 % en un an. La France compte pour plus de 5 % de ce manque à gagner.

Source : http://www.silicon.fr/fr/news/2009/05/12/piratage_de_logiciels_la_france_mauvais_eleve_europeen

Windows 7 sera prêt pour les fêtes de Noël

Sauf accroc de dernière minute, la RTM sera disponible vers le 15 août et la version définitive avant la fin de l’année

L’équipe de développement de Windows 7, au travers de la voix de Steven Sinofsky (vice-président senior, Windows et Windows Live Engineering Group), a souhaité faire un point sur l’évolution de ce système d’exploitation suite à la sortie de la Release Candidate. La prochaine étape sera la RTM (Release To Manufacturing), qui consiste à délivrer le produit aux constructeurs, lesquels peuvent alors préparer l’OS pour leurs différentes machines. Elle précédera la GA (General Availability), qui n’est autre que la sortie de la mouture définitive de l’OS.

Mais le chemin sera encore long avant d’arriver à la RTM. Il convient de tester le système en profondeur, d’éliminer les bogues les plus gênants et de prendre en compte les remarques des utilisateurs portant sur les différentes phases de l’installation et de l’utilisation de Windows 7 : installation du système, installation des logiciels, reconnaissance des périphériques, problèmes de stabilité et de sécurité, etc.

L’équipe d’ingénieurs de Microsoft rappelle également qu’elle devra adapter Windows 7 à près de cent langues différentes. Un travail de longue haleine. Sauf problème majeur, Windows 7 devrait toutefois passer en RTM vers le milieu du mois d’août. La disponibilité générale de l’OS serait alors programmée pour les fêtes de fin d’année, une période particulièrement favorable aux ventes d’ordinateurs.

Source : http://www.silicon.fr/fr/news/2009/05/12/windows_7_sera_pret_pour_les_fetes_de_noel

mardi 12 mai 2009

Virtualisation : Oracle fait grincer des dents chez VMWare

EMC, maison-mère de VMWare, tente d'inciter les utilisateurs à faire revenir Oracle sur sa politique de licence en matière de machines virtuelles

Le refus d'Oracle de supporter officiellement d'autres hyperviseurs que le sien fait grincer des dents. Chez EMC, la maison mère de VMware, deux vice-présidents ont pris la plume sur leur blog pour appeler les utilisateurs à une fronde contre la politique d'Oracle. Mais sachant qu'Oracle disposera très bientôt des technologies de Sun, son attitude n'est certainement pas près de changer.

L'éditeur, qui rechigne à accorder son support sur ses logiciels installés en VM, pratique aussi une politique de prix très dissuasive. Même si la VM Oracle n'utilise qu'une partie des processeurs physiques disponibles, Oracle facture l'ensemble de la configuration. Par exemple, même si une VM Oracle n'utilise que deux processeurs sur les huit présents, le prix à payer sera celui pour utiliser les huit. Il est ainsi très difficile de faire usage de VMware VMotion (déplacement des VM) sans enfreindre les licences accordées par Oracle.

En mars dernier, les analystes du Gartner ont pondu une note sur le sujet. Ils préviennent que si les utilisateurs ne respectent pas scrupuleusement les règles édictées par Oracle, ils s'exposent à des surcoûts conséquents. Ils expliquent que l'attitude d'Oracle exige d'y regarder à deux fois avant de se lancer dans une opération de virtualisation et d'envisager des solutions alternatives comme le portage sur un autre serveur ou la mise en place de configurations parallélisées. Oracle a aussi choisi de proposer son propre hyperviseur, Oracle VM, en choisissant le code open source Xen. En mars dernier, il a renforcé son hyperviseur avec Oracle Enterprise Manager 10g Release 5 (10gR5), une suite de gestion des VM.

Le projet de rachat de Sun par Oracle et la déclaration de Larry Ellison d'avoir une offre globale qui s'étend de "la base de données au disque" montre que l'éditeur n'est pas près de changer d'attitude. Dans la corbeille de Sun, Oracle va récupérer l'ensemble xVM qui se compose d'un hyperviseur, d'un outil d'administration (Ops Center), d'un gestionnaire de connexion (VDI) et d'un outil de virtualisation des postes de travail (VirtualBox).

Source : http://www.lemondeinformatique.fr/actualites/lire-virtualisation-oracle-fait-grincer-des-dents-chez-vmware-28579.html

lundi 11 mai 2009

OpenOffice.org 3.1 entre en scène !

Ce logiciel libre majeur gagne en puissance et en fonctionnalités

La version 3.1.0 de la suite bureautique open source OpenOffice.org est dorénavant disponible. Elle sera accessible sous Windows, Mac OS X, Linux (32 bits) et Solaris, et ce, en 29 langues. Vous pourrez télécharger cette mouture directement depuis le site web du projet. Attention ; les utilisateurs d’une distribution Linux 64 bits, devront encore attendre quelques jours.

Cette version de maintenance se focalise sur la stabilisation des composants existants. Toutefois, quelques nouveautés majeures font leur apparition. C’est ainsi le cas de l’anticrénelage qui s’appliquera maintenant aux éléments graphiques. Dans un autre registre, le module de bases de données (Base) pourra accepter des macros, ce qui permettra de créer des applications plus puissantes. D’autres fonctionnalités sont également ajoutées : le verrouillage des fichiers est amélioré et fonctionnera quelque soit les OS présents sur les PC d’un groupe de travail. Le traitement de texte Writer propose une meilleure gestion des notes et de la correction grammaticale. Le tableur Calc se veut plus intuitif à l’usage, mais – surtout – bien plus rapide que précédemment. Enfin, les utilisateurs de Base apprécieront la coloration syntaxique des requêtes SQL.

Cette mouture d’OpenOffice.org promet de connaitre un large succès. Le compteur de téléchargements officiel est disponible sur cette page web. Notez qu’OpenOffice.org 3.0 n’atteindra jamais le cap des 60 millions de téléchargements, puisque son compteur a été stoppé lors de la sortie de cette nouvelle version.

Source : http://www.silicon.fr/fr/news/2009/05/10/openoffice_org_3_1_entre_en_scene

jeudi 7 mai 2009

Microsoft XP Mode, le tremplin vers Windows 7

Instance virtualisée de Windows XP dans Windows 7, XP Mode assurera la compatibilité des applications Windows XP sur 7

Sera-ce au risque de doubler l'administration des systèmes ? Le point avec Julien Lesaicherre, chef produit Windows chez Microsoft.

L'un des principaux reproche fait à Windows Vista était l'incompatibilité matérielle et logicielle rencontrées lors des migrations depuis Windows XP. Pour éviter de renouveler l'erreur avec Windows 7 (construit sur le même noyau que Vista), Microsoft a introduit le module XP Mode (XPM). XPM est une instance virtualisée de Windows XP SP3 (un fichier image disque VHD) qui tournera dans Virtual PC 7 (probablement). L'intérêt principal de XPM sera de supporter les applications XP non compatibles au sein du futur OS de Microsoft officiellement annoncé pour début 2010. "L'objectif de XPM est de proposer une solution pour faire tourner les applications non compatibles avec Windows 7", confirme Julien Lesaicherre, chef produit Windows 7 chez Microsoft France.

Toutes les éditions de 7 ne profiteront pas de XPM. La machine virtuelle sera uniquement livrée avec les versions Professionnelle, Enterprise et Intégrale de l'OS. Si les éditions Professionnelle et Intégrale seront disponibles en boîtes et avec les nouveaux PC, la version Enterprise s'applique aux licences en volumes à travers le programme de Software Assurance. XPM s'adresse donc principalement aux entreprises. Dommage pour les particuliers qui souhaitent éventuellement conserver leur vieux scanner interfacé en SCSI non supporté par Vista/7.

Il est encore trop tôt pour savoir si, assurées de pouvoir continuer à utiliser leurs applications vieillissantes, les entreprises basculeront sans hésitation sur Windows 7. Ce qui est sûr en revanche, c'est que XPM alourdira inévitablement la tâche de l'administrateur IT. Car derrière un environnement d'exécution apparent, ce sont bien deux systèmes d'exploitation qu'il faudra administrer. "Il faudra gérer la partie Windows XP en plus de Windows 7", précise Julien Lesaicherre. Tant au niveau des applications (à commencer par les navigateurs) qu'au niveau de la sécurité globale des systèmes. Il faudra donc s'assurer, par exemple, de la mise à jour des deux systèmes alternativement et de leurs applications respectives.

Une configuration lourdingue dont l'éditeur a bien conscience et travaille en conséquence à sa simplification. Notamment pour les mises à jour de sécurité. "XPM est encore en version bêta et nous travaillons à rendre l'expérience la plus simple possible pour l'utilisateur à travers une version unique des mises à jour de sécurité", explique le chef produit. "Je ne promets pas qu'on y parviendra mais nous allons essayer d'unifier tout ça." Une bonne idée qu'on espère réalisable mais qui se limitera aux mises à jour des systèmes. Pas à celle des applications. Les solutions de sécurité (notamment) devront, elles, être gérées indépendamment selon 7 ou XP. Sans compter que cela multipliera par deux les dépenses logiciels pour un même service.

Quid du support de Windows XP dans le temps pour un système qui date de 2001 ? Microsoft vient d'arrêter le support sur la phase principale en avril dernier. "Cela veut dire que l'éditeur arrête le développement de nouvelles fonctionnalités de l'OS, qu'il n'y a plus d'évolution de ce côté là", explique Julien Lesaicherre, "mais les mises à jours de sécurité sont maintenues à travers la phase étendue, c'est-à-dire jusqu'en 2014." Au-delà, en revanche, il faudra définitivement oublier Windows XP. "XPM n'est qu'une béquille pas l'avenir, c'est un pansement qui va durer un certain nombre de mois, le temps que les éditeurs trouvent le moyen de mettre à jour leur applications pour 7."

Redmond attend beaucoup des éditeurs d'applications. Et pour qu'ils se tournent vers l'avenir, Microsoft met en œuvre un grand nombre de ressources à leur disposition. A commencer par un portail dédié à l'OS qui répercutera les applications compatibles. Julien Lesaicherre reconnaît cependant que "pour certains acteurs de niche, ça peut coincer". Mais rappelons que la rupture du noyau entre Windows XP et Vista/7 a été faîte pour renforcer la sécurité du système. Un choix draconien indispensable à l'époque face à une plate-forme attaquée de toutes parts. En la matière, Apple avait cependant mieux réussi son coup en permettant à Mac OS X de supporter OS 9 de manière plus transparente.

XPM assurera-t-il le succès de 7 pour autant? "La compatibilité avec XP est très attendue par le marché à cause des incompatibilités des applications et drivers constatés sous 7 et Vista." Même si ces incompatibilités sont de plus en plus résiduelles selon le responsable. "Selon les retours que nous avons de 7, il n'y a pas pléthore d'applications non compatibles. Mais il est important en termes de vision d'entreprise de réfléchir à la virtualisation et le changement d'OS ne doit plus être ressenti comme une rupture. Les technologies de virtualisation permettent d'assurer une continuité. Il s'agit de rassurer."

Julien Lesaicherre insiste cependant pour préciser que XPM s'adresse principalement aux petites structures. "Il s'agit d'une solution non managée, donc à gérer PC par PC." Pour les infrastructures à plusieurs centaines ou milliers de postes, "nous préconisons de se tourner vers des technologie plus professionnelles comme MED-V disponible dans le pack MDOP". MDOP (Microsoft Desktop Optimization Pack) est un ensemble d'outils de gestion et déploiement des postes en entreprises. "Une seule image suffit à déployer X milliers de postes", justifie le responsable. MED-V (Microsoft Enterprise Desktop Virtualization) permet de vérifier la compatibilité des applications en regard de l'OS. "XPM est dérivé de la technologie MED-V", précise Julien Lesaicherre. De quoi rassurer les derniers réticents à quitter Windows XP.

Source : http://www.silicon.fr/fr/news/2009/05/06/microsoft_xp_mode__le_tremplin_vers_windows_7

mercredi 6 mai 2009

Gouvernance d’Internet : Bruxelles souhaite une plus juste répartition du pouvoir

Pour la Commission, l’Icann devrait devenir un organisme multilatéral, supervisé par une autorité multiétatique

Pour la Commission européenne, l’indépendance de l’Icann, dont les liens avec le gouvernement américain seront rompus à partir du mois d’octobre prochain, devrait être l’occasion d’établir une nouvelle gouvernance du Web mondial. L’Icann (Internet Corporation for Assigned names and Numbers), créée en 1998, gère depuis plus de 10 ans l’attribution des « .com », « .org », « .net» et des noms de domaines (DNS). Depuis plusieurs années, les critiques sur le rôle et l’influence des Etats-Unis sur l’Icann se sont multipliées.

Pour Viviane Reding, commissaire européen en charge de la société de l’information, il est plus que temps de transformer l’Icann en organisme multilatéral. Ainsi la commissaire a, selon Reuters, appelé Barack Obama, le président des Etats-Unis, à se positionner en faveur d’ "un mode de gouvernance d’Internet nouveau, plus responsable, plus transparent, plus ouvert et plus multilatéral". L’Icann, selon Viviane Reding, devrait devenir un organisme indépendant, supervisé par un autre organisme, une sorte de "G 12 pour la gouvernance Internet" chargé de se pencher sur de grands thèmes tels que la sécurité du Web.

Ce "G 12" pourrait être constitué de deux représentants de l’Amérique du Nord, d’Amérique du Sud, d’Europe, d’Afrique, et trois représentants d’Asie et de l’Australie. Le président de l’Icann titulaire d’un siège au sein de cette assemblée, serait néanmoins dépourvu de droit de vote. La proposition européenne devrait ravir de nombreux organismes européens, à commencer par l’AFNIC (organisme chargé de la gestion des « .fr »), favorable à la mise en place de "contre-pouvoirs internationaux" et d'une plus juste répartition des pouvoirs concernant la gouvernance du réseau des réseaux.

Source : http://www.silicon.fr/fr/news/2009/05/05/gouvernance_d_internet_bruxelles_souhaite_une_plus_juste_repartition_du_pouvoir

mardi 5 mai 2009

OpenBSD passe en version 4.5

Une mise à jour de routine pour cet OS ultrasécurisé

OpenBSD est un des systèmes d’exploitation les plus sécurisés de la planète. Mené par le célèbre Theo de Raadt, ce projet est aujourd’hui exemplaire en termes de protection des données. Le nombre de vulnérabilités découvert demeure également incroyablement bas.

OpenBSD 4.5 est dorénavant disponible pour diverses plates-formes processeur, allant du traditionnel x86, en passant par les ARM, Itanium, MIPS, PowerPC et SPARC. Ne ne nous y trompons pas, toutefois : c’est bien la sécurité et non la portabilité qui demeure la cible prioritaire de cet OS. Cette mouture supporte de multiples nouveaux périphériques, y compris dans le domaine du réseau (avec ou sans fil), des périphériques de sécurité (chiffrement, génération de nombres aléatoires) et du stockage. OpenSSH 5.2 est également fourni par défaut. Il propose quelques corrections de bogues et de menues nouveautés. Il s’agit là plus d’une mise à jour de routine que d’une version majeure.

Le tout est livré avec des logiciels dont le code a été audité avec soin : Xenocara (basé sur X.Org), GCC (2.95.3 et 3.3.5), Perl 5.10.0, OpenSSL 0.9.8j, Sendmail 8.14.3, Bind 9.4.2-P2, ainsi qu’une version spécifique d’Apache 1.3. Au besoin, la base des logiciels comprend plus de 5500 références, dont Gnome 2.24.3, KDE 3.5.10, Firefox 3.0.6, Thunderbird 2.0.0.19… Attention toutefois, car le code de ces logiciels n’est pas passé sous la loupe experte des développeurs d’OpenBSD.

Source : http://www.silicon.fr/fr/news/2009/05/04/openbsd_passe_en_version_4_5

Google embauche 200 chèvres en intérim

Nouvelles tondeuses

Google a décidé de laisser les tondeuses à gazon à la remise pour se débarrasser des mauvaises herbes qui entourent son siège social de Mountain View, et qui représentent un risque d'incendie. A la place de machines bruyantes et polluantes, le groupe a décidé de faire appel à la gourmandise de deux cents chèvres qu'il a louées pour une semaine. « Nous ne plaisantons pas » tient à préciser Dan Hoffman, directeur immobilier de Google. Epinglé par Gartner et le WWF comme étant l'un des plus gros consommateurs d'énergie dans le secteur IT, Google a décidé de se racheter une conduite et de s'investir dans les énergies renouvelables. Apparemment tous les moyens sont bons pour en parler, même les chèvres. L'histoire ne dit pas si les saisonniers ongulés de Google verront leur contrat renouvelé l'an prochain.

Source : http://www.lemondeinformatique.fr/actualites/lire-google-embauche-200-chevres-en-interim-28540.html

lundi 4 mai 2009

PostgreSQL 8.4 arrive en version bêta

Ce petit bijou du monde des logiciels libres gagne en puissance et en fonctionnalité

Le logiciel de gestion de base de données relationnelle PostgreSQL est disponible en mouture 8.4 bêta 1. Les utilisateurs pourront soit télécharger une version prête à l’emploi, soit compiler le code source eux-mêmes. De fait, ce produit est disponible sous licence open source. La très permissive licence BSD est ici de mise. La première version de test de cette future mouture majeure apporte de multiples nouveautés. Issu de quatorze mois de travail, PostgreSQL 8.4 propose – aux dires des développeurs – des centaines de mises à jour et des douzaines de nouvelles fonctionnalités.

L’accent a été mis sur l’amélioration des performances. Les responsables du projet vous engagent à faire remonter des statistiques concernant les bénéfices constatés en terme de vitesse sur des applications réelles. La souplesse sera également de mise, avec des paramètres indépendants pour chaque base de données, ce qui facilitera le travail des développeurs. Enfin, le domaine de la sécurité n’est pas oublié. Ainsi, des certificats SSL pourront être utilisés lors de la connexion des utilisateurs à la base. Un bon point.

Sauf découverte d’un problème majeur, la version définitive de PostgreSQL 8.4 devrait apparaitre sur le web le 27 mai prochain. Si ce logiciel demeure moins connu que des ténors comme MySQL, ses qualités lui permettent de grignoter petit à petit des parts de marché.

Source : http://www.silicon.fr/fr/news/2009/05/03/postgresql_8_4_arrive_en_version_beta