vendredi 30 janvier 2009

Le labo commun Microsoft-Inria expose ses projets

Un rapport scientifique décrivant l'activité du centre de recherches commun sera présenté courant février

Deux ans après l'inauguration du laboratoire commun entre l'Inria et Microsoft, c'est un Bernard Ourghanlian (directeur technique et sécurité de Microsoft France) « content, et même plutôt impressionné » par les résultats obtenus, qui présente les projets menés conjointement par les chercheurs des deux entités. Toute une journée a été consacrée à l'événement hier, 28 janvier, à l'Ecole polytechnique. Dans la salle, « 200 personnes, essentiellement des chercheurs, venus du monde entier », précise Bernard Ourghanlian.

Un rapport scientifique décrivant l'activité du centre de recherches commun sera présenté courant février. En attendant, cette journée a été l'occasion d'aborder les 7 projets sur lesquels travaillent les chercheurs depuis janvier 2007 (et parfois avant, certains liens ayant été établis longtemps auparavant). Les travaux sont répartis en deux thèmes: « la sécurité et la fiabilité du logiciel d'une part, les interactions entre l'informatique et les autres sciences d'autre part ». Dans tous les cas, précise Bernard Ourghanlian, « ce sont les ingénieurs de recherche qui choisissent les sujets sur lesquels ils vont travailler ».

Dans le premier thème, il s'agit d'appliquer les mathématiques pour améliorer la sécurité et la fiabilité des logiciels. Trois projets sont regroupés sous cette ombrelle. Parmi eux, le recours à des programmes informatiques pour prouver des théorèmes mathématiques. La démonstration du théorème sur lequel travaille l'équipe d'une dizaine de chercheurs « tient sur 400 articles et 10 000 pages », explique Bernard Ourghanlian. Et encore, dit-il, « il n'est prouvé que parce qu'il a été lu par des pairs mathématiciens, qui l'ont déclaré correct avec une certitude de 99% ». Le projet vise à créer une bibliothèque de preuves élémentaires qu'un logiciel pourra utiliser pour obtenir une preuve parfaite. « Et inversement, on pourra utiliser les mathématiques pour prouver qu'un logiciel est correct. » A l'heure actuelle, seuls les projets informatiques où la sécurité des personnes est en jeu (gestion du trafic du métro, informatique embarquée dans les avions ou les voitures, gestion opérationnelle des centrales nucléaires, etc.) se permettent de prendre le temps de recourir à des méthodes formelles pour s'assurer de la fiabilité des logiciels.

Apporter des preuves formelles de sécurité dans un environnement distribué

Toujours dans le thème de « l'informatique de confiance » cher à Microsoft (qui s'échine ainsi à faire oublier ses failles de sécurité et autres bugs à répétition), le deuxième projet a pour but, dans une architecture distribuée, d'apporter des preuves formelles de sécurité. Qui permettront par exemple de prouver qu'une machine n'est pas sûre, ou au contraire qu'un protocole de sécurité est bien respecté. « Quand je suis connecté au site de ma banque, prend comme exemple Bernard Ourghanlian, je veux être certain que c'est bien le site de ma banque. Et réciproquement, ma banque veut être sûr que c'est bien moi. Ce n'est pas toujours simple. »

Dans le troisième projet tombant dans cette catégorie, il s'agit de recourir à une méthode (TLA, Temporal logic of actions) et à un langage (TLA+) pour s'assurer que ce qui est obtenu à partir d'un modèle est bien ce qui était voulu au départ. L'idée, expliquent les auteurs du projet, est de pouvoir « attraper les bugs dans un algorithme ou la modélisation d'un système avant même qu'il ne soit implémenté ».

Un dictionnaire mathématique en ligne et des interfaces homme/machine pour les scientifiques

Le deuxième thème de recherches, dont l'ambition est de mettre l'informatique au service des scientifiques, comporte quatre projets. Le premier vise à créer une sorte de dictionnaire dynamique de fonctions mathématiques, « de façon, explique Bernard Ourghanlian, à ce que les physiciens disposent d'une fonction de génération automatique de fonctions mathématiques, au travers d'une interface Web, avec la possibilité de modifier les paramètres et les variables d'une manière graphique ». Un premier prototype est d'ailleurs opérationnel.

Un autre projet, nommé Reactivity, s'intéresse aux interfaces homme/machine, et plus précisément à la manière dont un scientifique peut utiliser un outil informatique pour prendre ses notes et stocker ses informations, de façon à pouvoir ensuite les réorganiser et fouiller dedans. Les buts du projet sont aussi bien de pouvoir « capturer l'activité de l'utilisateur » que de lui permettre « d'interagir avec ses activités passées ».

La programmation par contraintes pour optimiser les algorithmes

Le projet de recherches combinatoires pour les e-sciences espère de son côté parvenir à des algorithmes d'optimisation capables de s'adapter aux problèmes combinatoires les plus complexes. Les 'solveurs' actuels, indiquent les responsables du projet, ne savent pas prendre en compte la complexité croissante des projets scientifiques. L'équipe travaille donc à optimiser ces outils avec de la programmation par contrainte. Bernard Ourghanlian souligne à ce propos qu'un module développé dans le cadre de ce projet, par Youssef Hamadi, sera intégré à la prochaine version de MS Project, qui doit justement aider les gestionnaires de projet à jongler avec les contraintes de ressources, de tâches, de budget, de temps... Le dernier projet vise à inventer des systèmes de modélisation permettant de fouiller dans les images et les vidéos, et d'en tirer des informations. Il avait déjà été en partie présenté lors des TechDays de Microsoft France, en février 2008.

Si Microsoft ne veut toujours pas dire combien il a investi exactement dans ce partenariat avec l'Inria (l'éditeur prenant en fait à sa charge la moitié des quelque 50 personnes du centre de recherches), Bernard Ourghanlian répète que ce type de recherches fondamentales est un investissement à long terme, et qu'en tant que tel, il n'est pas touché par un quelconque plan de réduction des coûts. Et en attendant les applications concrètes, 7 modules logiciels sont prêts et proposés au public en Open Source.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-labo-commun-microsoft-inria-expose-ses-projets-27947.html

jeudi 29 janvier 2009

Utiliser Gmail sans connexion, c'est possible

Une lacune bientôt comblée

Gmail, comme beaucoup de webmails, avait jusqu'ici un inconvénient majeur : sans connexion à Internet, il était impossible de consulter et gérer ses courriels déjà reçus sur son compte, à moins de les rapatrier sur son ordinateur via un gestionnaire de messagerie comme Outlook. Cette lacune sera comblée dans quelques jours pour tous les utilisateurs de Gmail en anglais. Il suffit d'installer Gears, une extension prévue pour les navigateurs Web, pour accéder à Gmail avec ou sans connexion. Gears fonction sous Windows, Linux, Mac OS, Windows Mobile et Android. Ensuite, en allant dans l'onglet « Labs » des paramètres du compte, l'utilisateur pourra activer la fonction « Offline ».

Techniquement, le fonctionnement hors-ligne est identique à celui de Gmail sous Android ou iPod Touch. Le webmail se charge de télécharger les messages sur le poste client, dans un cache qui se consulte dès que l'accès au Web est coupé. Hors connexion, il est possible de lire les messages, ouvrir les pièces jointes et rédiger de nouveaux courriels. Une connexion reste néanmoins nécessaire pour vérifier l'orthographe, ajouter des pièces jointes (plus tard, cette fonction se fera également hors ligne) et envoyer les courriels. Par la suite, l'offre - toujours en phase bêta comme Gmail lui-même - sera étendue à l'ensemble des versions linguistiques.

Source : http://micro.lemondeinformatique.fr/actualites/lire-utiliser-gmail-sans-connexion-c-est-possible-2485.html

mercredi 28 janvier 2009

Microsoft craint que Bruxelles impose aux fabricants de PC d'intégrer plusieurs navigateurs

La Commission européenne poursuit sa croisade contre les monopoles abusifs et la vente liée

La nouvelle enquête de la Commission européenne contre Microsoft fait craindre le pire à l'éditeur. Rappelons que Bruxelles a envoyé à Redmond une déclaration des griefs concernant le lien entre le navigateur Internet Explorer du groupe et Windows. La Commission estime, dans un avis préliminaire, que le lien entre Explorer et Windows contrevient aux règles de l'UE en matière d'abus de position dominante et que Microsoft s'expose, en cas de confirmation de cet avis, à une amende. Une de plus. Elle y tire les premières conclusions d'une enquête ouverte il y a tout juste un an, à la suite notamment d'une plainte d'Opera Software.

Encore une fois, Bruxelles conteste l'intégration systématique d'un logiciel Microsoft dans Windows, estimant que cette présence bride la concurrence puisque Windows équipe plus de 90% des PC de la planète. Déjà condamnée en mars 2004 pour des faits similaires, concernant MediaPlayer, la firme craint aujourd'hui une sanction identique. Dans sa déclaration à la SEC (le gendarme américain de la bourse) relative à ses résultats trimestriels, le groupe pense que la Commission va le contraindre à intégrer par défaut plusieurs navigateurs dans Windows et obliger les fabricants de PC à proposer des navigateurs alternatifs. Microsoft pense même qu'il devra payer une lourde amende basée sur son chiffre d'affaires européen.

Pour se défendre, Microsoft souligne qu'aujourd'hui, grâce à Internet, chacun peut installer les navigateurs de son choix. Reste qu'il est toujours impossible pour l'utilisateur de désactiver Internet Explorer, même s'il ne l'utilise pas.

Source : http://www.silicon.fr/fr/news/2009/01/27/microsoft_craint_que_bruxelles_impose_aux_fabricants_de_pc_d_integrer_plusieurs_navigateurs

mardi 27 janvier 2009

Le Macintosh fête son 25e anniversaire

Personne ne doutait qu'il s'agissait d'un événement historique

22 janvier 1984 : la foule assistant au Super Bowl, la finale du championnat de football américain, découvre un clip publicitaire réalisé par Ridley Scott, qui deviendra culte dans les années qui suivront. « Le 24 janvier, Apple Computer lancera le Macintosh. Et vous verrez pourquoi 1984 ne sera pas comme '1984' », scande le spot, en référence au roman de George Orwell. Le jour J, Steve Jobs dévoile la machine devant 3 000 personnes réunies à Cupertino. « Personne ne doutait qu'il s'agissait d'un événement historique », raconte l'analyste Richard Doherty, de l'Envisionering Group. Vendu 2 495 $, le Macintosh est le premier ordinateur personnel à fonctionner avec une souris et une interface graphique, en lieu et place de la ligne de commande. En réalité, l'Apple Lisa, lancé l'année précédente, reposait déjà sur une interface graphique, mais, vendu près de 10 000 $, il n'était pas parvenu à s'imposer. C'est donc le Macintosh, avec ses 128 Ko de mémoire vive, son processeur cadencé à 8 MHz, son écran monochrome 9 pouces et son lecteur de disquette 3 pouces, qui devient la première vedette de l'informatique personnelle.

En 1986, Apple met à jour sa machine en quadruplant la quantité de RAM embarquée (512 Ko), et en permettant aux utilisateurs d'y installer jusqu'à 4 Mo. L'année suivante, le Macintosh II voit le jour. La machine, qui constitue le haut de gamme de la marque à la pomme, rompt avec le format tout-en-un de ses prédécesseurs. Elle innove également en proposant des emplacements pour disques durs et en renfermant un processeur Motorola 68020 à 16 MHz. Parallèlement, Apple lance le Mac SE, qui complète la gamme, et permet au constructeur de compter un million d'utilisateurs de ses ordinateurs personnels.

La suite de cette 'success story' passe par le lancement des premiers Mac portables en 1989, l'abandon des processeurs Motorola 680x0 en 1993 au profit des Power PC, l'avènement du Power Mac G3 en 1997, une année qui marque également le retour de Steve Jobs à la tête du groupe après douze ans de disgrâce. En 1998, c'est au tour de l'iMac de voir le jour : Apple inaugure la présence des ports USB sur ses machines et délaisse les connectiques SCSI. L'iBook est commercialisé en 1999 et bénéficie d'un ravalement de façade en 2001, en même temps que sort le PowerBook G4, Mac OS X et l'iPod. En 2006, les puces Intel font irruption dans les Mac. Ce sont d'abord l'iMac et le MacBook Pro qui remplacent leurs processeurs PowerPC par les CPU Intel, puis, dans le courant de l'année, toute la gamme Mac. Le constructeur lance parallèlement Boot Camp et des outils de virtualisation, qui autorisent les utilisateurs à faire fonctionner Windows sur leurs machines estampillées d'une pomme.

En 2008, un an après la sortie de l'iPhone, le MacBook Air devient l'ordinateur portable le plus léger du marché. Il est construit en aluminium, comme les MacBook et Macbook Pro qui sortent en fin d'année. Encensés par les uns, décriés par les autres qui ne les voient que comme des machines réservées aux 'happy fews', les appareils signés Apple peuvent se targuer de compter un public fidèle. A tel point que, dans un marché des PC en pleine déconfiture, le constructeur américain se paye le luxe de voir ses ventes progresser de 9% sur un an au premier trimestre de 2009. Un trimestre présenté comme le meilleur de l'histoire d'Apple, mais qui est marqué par le retrait - provisoire - de Steve jobs pour raisons médicales. Et déjà les Cassandre redoutent que l'éloignement du patron charismatique ne signe le début de la fin d'Apple, vingt cinq ans après l'avènement du révolutionnaire Macintosh.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-macintosh-fete-son-25e-anniversaire-27918.html

lundi 26 janvier 2009

Mandriva met à jour sa solution de gestion de parc informatique

Pulse 2 est particulièrement bien adapté aux parcs hétérogènes

Mandriva vient de lancer la version 1.2 de son logiciel Pulse 2. Cet outil open source permet de gérer des parcs informatiques. Il comprend toutes les fonctions classiques comme l’inventaire logiciel et matériel ainsi que la détection automatique des problèmes potentiels. Pulse 2 met également l’accent sur l’administration des postes à distance : télédéploiement d’applications et de mises à jour, télémaintenance et prise de contrôle à distance. Un système de relai local permet de faciliter l’accès aux réseaux des entreprises.

Très universelle, cette solution supporte les postes de travail et serveurs fonctionnant sous Windows (de 2000 à Vista), Linux (Debian, Mandriva, Red Hat, Ubuntu), AIX, HP-UX et Solaris. La SUSE Linux et Mac OS X sont en cours de validation. « Les entreprises doivent gérer des systèmes d’information distribués de plus en plus hétérogènes, tout en assurant leur disponibilité globale », déclare Sébastien Lefebvre, directeur de la division produits et services d’entreprise chez Mandriva. « Le statut de logiciel libre de Pulse 2 lui confère des capacités d’intégration très fortes dans des environnements diversifiés. Il aide ses utilisateurs à prendre en charge cette diversité pour assurer les mises à niveau et le maintien en conditions opérationnelles des parcs informatiques, indépendamment du nombre de plates-formes cibles et de leur localisation, et réduit le temps et le coût consacrés aux tâches d’administration des systèmes. »

Source : http://www.silicon.fr/fr/news/2009/01/23/mandriva_met_a_jour_sa_solution_de_gestion_de_parc_informatique

vendredi 23 janvier 2009

Le ver Downadup poursuit ses ravages

La faille est corrigée depuis octobre 2008 mais l'épidémie se poursuit à grande vitesse

Le ver Downadup, aussi appelé Conficker, est en passe de devenir le vecteur de la plus grosse attaque contre les PC Windows depuis des années. Il faut dire que la propagation de ce malware se poursuit à grande vitesse alors que la faille qu'il exploite est corrigée depuis octobre...

Selon Panda Labs, au moins 1 PC sur 16 dans le monde est infecté par ce ver et 6% des systèmes scannés par l'éditeur sont touchés (soit 111.000 postes sur un parc de 2 millions de machines). "Ces chiffres sont réalistes", assure Ryan Sherstobitoff, chief corporate evangelist chez l'éditeur espagnol. "Conficker infecte un nombre toujours plus important de machines dans le monde et sa propagation est de plus en plus rapide". On peut alors craindre la constitution d'un réseau botnet colossal dont le but serait de détourner des infos personnelles, d'envoyer du spam ou d'attaquer des réseaux d'entreprise.

L'accélération de l'épidémie est observée depuis une semaine suite à la mise en ligne par des hackers d'un code open-source qui permet d'exploiter encore plus facilement la vulnérabilité. Par ailleurs, de nouvelles méthodes de propagation sont apparues notamment à travers la fonction 'autorun' des clés USB. Microsoft a tenté de réagir à nouveau en conseillant de désactiver la fonction Autorun. Mais ce conseil est jugé insuffisant par l'US-CERT (Computer Emergency Readiness Team). Rappelons que Downadup exploite une vulnérabilité dans le service Serveur de Windows qui permet l'exécution de code à distance si un système affecté recevait une requête RPC (Remote Procedure Call) spécialement conçue.

Selon Qualys, qui scanne des centaines de milliers de PC sur la planète, 30% des machines observées sont toujours non patchées et donc vulnérables à la faille. Quant à F-Secure, il estime à 9 millions le nombre de PC touchés. "Les pratiques de certaines entreprises dont leur gestion des correctifs sont tout simplement inacceptables", commente Wolfang Kandek, CTO de Qualys cité par Computerworld. Beacoup d'entreprises n'auraient en effet pas appliqué ce patch, notamment parce qu'il a été publié par Microsoft en dehors des cycles mensuels.

Les utilisateurs et les entreprises auraient-ils relâché leurs efforts en matière de protection ? En tout cas, Downadup aura réussi le tour de force de faire autant de dégâts que les précédents codes les plus malveillants, à savoir Sasser ou Blaster.

Source : http://www.silicon.fr/fr/news/2009/01/22/le_ver_downadup_poursuit_ses_ravages

jeudi 22 janvier 2009

OpenOffice 3.1 se dévoile un peu

Dans un peu plus de deux mois, OpenOffice.org sortira dans sa version 3.1

La suite bureautique, déjà disponible en version alpha, rassemblera quelque mille changements par rapport à l'opus précédent précédent. Outre la correction de certains bogues, dont l'un date de 2005 et porte sur le nom des fichiers, les améliorations portent surtout sur l'aspect visuel des documents créés avec OpenOffice. Par exemple, les dessins bénéficient désormais d'un anti-aliasing qui en lisse les bords, non seulement dans Draw (le logiciel de dessin), mais aussi dans le traitement de texte Writer, le tableur Calc ou l'outil de mise en page Impress. De même, les portions de textes et les images sélectionnées sont translucides, ce qui permet de les modifier ou de les déplacer plus facilement sans perdre le contexte les entourant.

OpenOffice 3.1 pense également aux adeptes du travail collaboratif à travers deux fonctions. La première permet de répondre aux notes laissées dans la marge par d'autres collaborateurs, sans faire de modifications directement dans le texte. La deuxième consiste simplement à accepter ou à rejeter les modifications faites au document par un collaborateur. Parmi les autres nouveautés proposées, citons en vrac : un menu contextuel lisible de droite à gauche pour les versions en arabe et en hébreu, une meilleure intégration de SQL dans Base, un correcteur orthographique amélioré, des options de tri supplémentaires dans Calc, ou une meilleure gestion des hyperliens. Les plus curieux peuvent déjà télécharger la version alpha. Les autres attendront la version finale prévue pour le 26 mars prochain.

Source : http://micro.lemondeinformatique.fr/actualites/lire-openoffice-31-se-devoile-un-peu-2477.html

mercredi 21 janvier 2009

Microsoft met à jour son offre ‘cloud computing’

Le SDK de Windows Azure est maintenant disponible dans une nouvelle version

Chez Microsoft, le marché du cloud computing est représenté par Windows Azure, présenté lors de la dernière PDC2008 de Los Angeles. Windows Azure est constitué aussi bien d’outils de développement que d’une plate-forme d’hébergement des applications et données. Depuis peu, la compagnie diffuse une nouvelle version de son kit de développement pour Windows Azure. La CTP (Community Technology Preview) de janvier 2009 se décompose en deux téléchargements : le kit de développement et les fichiers d’intégration à Visual Studio. CTP oblige, il ne faudra pas utiliser ce SDK (Software Development Kit) pour créer des logiciels destinés à être mis en production.

Microsoft assure qu’à l’aide de ces deux outils, programmer des applications fonctionnant en mode nuage sera aussi aisé que de développer des logiciels traditionnels (web ou desktop). C’est un pari ambitieux que fait là l’éditeur de Redmond. Ce SDK est disponible en moutures 32 bits et 64 bits. Elles ne fonctionnent que sous Windows Vista ou Windows Server 2008, équipés du framework .NET 3.5 SP1 et de SQL Express (2005 ou 2008). IIS 7.0 et ASP.NET doivent également être actifs et la présence du PowerShell est recommandée. Avec cette nouvelle version, l’intégration au sein de Visual Studio est en progrès. Les performances sont également en hausse. Enfin, quelques bogues majeurs ont pu être résolus.

Source : http://www.silicon.fr/fr/news/2009/01/20/microsoft_met_a_jour_son_offre__cloud_computing_

mardi 20 janvier 2009

Windows 7 se protège déjà

Trois antivirus sont déjà prêts pour le nouvel OS signé Microsoft

La firme de Redmond met en avant trois solutions de sécurité compatibles avec la version bêta de son prochain système d’exploitation Windows 7. AVG, Kaspersky et Symantec sont sur les tablettes du géant de l’informatique. A près d’un an de la sortie officielle de Windows 7, la firme développe donc des partenariats afin de sécuriser ses futurs produits. Ces trois solutions devraient même être proposées commercialement à la sortie de Windows 7. Alors que Vista ne proposait que McAfee, Windows 7 élargit ses horizons.

Une stratégie d’ouverture puisque Microsoft a prévu de sortir à l’orée de cet été sa propre solution de sécurité baptisée Morro. Un logiciel comprenant une protection antivirus et un antispyware. L’éditeur souhaite ainsi jouer des coudes avec les "géants" de la sécurité que sont McAfee et Symantec et leur couper l’herbe sous le pied en proposant un produit gratuit. A ces mots, certains éditeurs ne alors pas gênés pour critiquer cette approche. Kaspersky, et Symantec évoquaient un échec à retardement ou même une "capitulation de Microsoft". Désormais, les deux critiques se trouvent embarqués dans l’aventure Windows 7…

Du coup, le géant a décidé de collaborer avec des éditeurs indépendants. Microsoft a indiqué sur son site qu’il ne souhaitait pas se limiter à sa solution et aux trois solutions citées. D’autres éditeurs indépendants seraient déjà sur les rangs afin que "des solutions logicielles de sécurité soient disponibles pour les versions bêta et RTM (Ready To Manufacturer) de Windows 7". On devrait avoir un panel suffisamment représentatif des éditeurs de sécurité pour le prochain OS de Microsoft. Nous sommes, pour l’instant, loin de la situation de 2006 et 2007 où Microsoft s’était attiré les foudres des éditeurs en refusant de leur communiquer des informations pour accéder au cœur de Vista et ainsi leur permettre de le sécuriser correctement. Bruxelles avait alors tranché en faveur des éditeurs de sécurité…

Source : http://www.silicon.fr/fr/news/2009/01/19/windows_7_se_protege_deja

Google fait le ménage dans certaines applications accessoires

Google annonce la mort officielle de certains de ses services en ligne, pour la plupart, confidentiels

Google taille dans les activités qu'il juge accessoires. Le moteur de recherche a annoncé, par l'entremise de ses blogs internes, à la fois des disparitions, des gels et des mises en sommeil. Catalog Search, DodgeBall (réseau social sur mobile acheté en mai 2005), Jaiku (blog pour mobile acheté en octobre 2007) et l'éditeur maison de Mashup disparaissent. L'outil de signets en ligne Notebook n'accepte plus de nouveaux utilisateurs et Google Video plus de nouvelles vidéos. Si tous ces produits ont en commun un succès relatif par rapport aux millions d'utilisateurs d'autres services de Google, chacun a sa propre histoire.

Google Catalog Search était une activité accessoire de Google Book, spécialisé dans la numérisation de catalogues. Mi-2007, le fondateur de Dodgeball avait claqué la porte de l'éditeur en se plaignant d'avoir été placardisé, lui et sa technologie. Si Jaiku disparaît, son code serait mis à disposition si l'on en croit le site Searchengineland. Mais il n'est pas précisé sous quelle forme. Google invite les testeurs de son Mashup Editor à utiliser son App Engine en lieu et place. NoteBook, petit outil bien pratique pour noter à la volée des pages web intéressantes, n'évoluera plus et n'acceptera plus de nouveaux utilisateurs. Sur Google Video, il n'est plus possible d'uploader des vidéos. A cela rien d'étonnant, puisque Google a mis la main sur YouTube et que Google Video est positionné depuis 2007 sur la fonction de meta moteur de recherche. Mais Google Video acceptait des vidéos sans limitation de durée, alors que YouTube met la limite à 10 minutes.

Bien sûr, nombre d'utilisateurs de ces services sont amers et certains parlent de crise de confiance envers une entreprise qui mettait gratuitement en ligne des technologies élaborées. Dans un environnement économique difficile, Google doit sans doute surveiller de plus près son activité, mais les modules supprimés le sont plus par manque d'intérêt des utilisateurs.

Source : http://www.lemondeinformatique.fr/actualites/lire-google-fait-le-menage-dans-certaines-applications-accessoires-27870.html

lundi 19 janvier 2009

L'édifiant portrait de Marc L, fruit de ses traces numériques

C'est un exercice original et inquiétant auquel se sont livrés les journalistes du Tigre, un bimestriel présenté comme un « curieux magazine curieux »

L'idée : dresser le portrait d'un parfait inconnu à partir d'informations glanées sur le Web. Le sujet - ou plutôt la victime - de ce portait Google est Marc L, un architecte d'intérieur de 29 ans habitant dans l'ouest de la France, utilisateur de réseaux sociaux et autres outils du web 2.0. Des instruments pratiques pour rester en contact avec ses amis mais néanmoins redoutables : en y éparpillant des morceaux de vie privée, les internautes s'exposent à être dépossédés de leur identité numérique. En témoigne ce portrait « violemment impudique » de Marc L, écrit « pour la bonne cause » avec une pointe de sarcasme : « après tout, c'est de ta faute, tu n'avais qu'à faire attention. »

L'enquête sur la vie de Marc L débute à partir de quelques photos trouvées sur Flickr. En explorant les quelque 17 000 clichés mis en ligne par le jeune homme, on retrace ses voyages et découvre ses fréquentations et ses centres d'intérêt : séjour au Canada avec Helena et Jose en 2008, groupe de musique monté à la fin des années 1990 puis abandonné en 2002, retrouvailles avec Dom pour la fête de la musique en 2008. « Dom, c'est Dominique F., il est thésard à Bordeaux III », précise le Tigre.

Un passage sur Facebook nous apprend que Marc L est hétérosexuel, qu'il a fréquenté Jennifer, puis Claudia, dont les parents vivent boulevard V, à Bordeaux. Claudia travaille avec Lukas au Centre culturel franco-autrichien de la préfecture de Gironde. Les trois amis se voient régulièrement, pour jouer à la pétanque à Arcachon ou « fêter les sous de la CAF », comme le 31 mai dernier. L'histoire avec Jennifer avait duré deux ans. En 2006, les amoureux sont partis en vacances en Bretagne. « Tu avais les cheveux courts à l'époque, ça t'allait moins bien. »

La suite de l'article du Tigre regorge de détails sur la vie privée de Marc, que n'importe quel internaute curieux aurait pu dénicher en fouinant sur Google, Youtube, Pagesjaunes, les sites des journaux régionaux, etc. Ce qui est valable pour Marc l'est évidemment pour une multitude d'individus : si certains prennent grand soin de ne pas diffuser des informations personnelles, la plupart se laissent séduire par les outils qu'ils utilisent et éparpillent des pans de leur existence de ci, de là, sans avoir conscience de la facilité avec laquelle il est possible de rassembler les pièces du puzzle.

En savoir plus : Le portrait de Marc L, sur le Tigre

Source : http://www.lemondeinformatique.fr/actualites/lire-l-edifiant-portrait-de-marc-l-fruit-de-ses-traces-numeriques-27853.html

Les universités parisiennes pourraient vendre des immeubles

Des maisons sur une île de Bretagne, des châteaux, une forêt, des appartements à Paris : les universités de la capitale pourraient se défaire de ce patrimoine au profit des étudiants

Valérie Pécresse, la ministre de l'enseignement supérieur vient de proposer aux présidents des universités parisiennes de créer une fondation sur la « vie étudiante » destinée à améliorer le quotidien des étudiants parisiens. Plusieurs dizaines de millions d'euros pourraient certainement être obtenus si ces dernières acceptaient de se défaire de leur patrimoine immobilier « non universitaire ». Selon la ministre, elles n'y seraient pas hostiles.

Il existe en effet aujourd'hui une soixantaine de propriétés qui s'apparentent à un éventaire à la Prévert. Les universités de la capitale possèdent ainsi soixante-trois appartements rue Jacob et rue de Lille, en plein Paris chic, le château Richelieu en Touraine, le domaine de Ferrières en Seine-et-Marne, la villa Finaly à Florence qui date du XVème siècle, une forêt, des vignes et deux propriétés sur la charmante petite île de Bréhat (Côtes d'Armor). Ces legs faits avant 1968 sont indivis entre les universités parisiennes et sont aujourd'hui gérés par le rectorat de Paris. Certains de ces immeubles sont parfois loués pour des conférences et des congrès mais d'autres coûtent « très cher en entretien »,explique Valérie Pécresse.

Les maisons de l'île de Bréhat, léguées par le poète Edmond Haraucourt, auteur des célèbres vers «Partir c'est mourir un peu » accueillent quant à elles gratuitement des étudiants de la cité internationale universitaire de Paris pour des séjours estivaux. Cécile en a profité, il y a quelques années : «Nous étions logés dans une jolie maison en granit en haut d'une colline. Tout le monde se battait pour profiter de ce plan. Une autre maison, la plus belle, était utilisée par des cadres administratifs qui passaient ainsi des vacances à bon compte. Les étudiants avaient protesté et depuis, c'est rentré dans l'ordre ».

Valérie Pécresse tient en revanche à rassurer les universités qui craignent d'être amenées à vendre des bâtiments utilisés, cette fois pour les cours, en plein quartier latin, sous prétexte de rationalisation : «c'est du pur fantasme », affirme-t-elle, même si un récent rapport d'audit sur l'immobilier universitaire parisien révèle une situation très complexe, à la fois éclatée et enchevêtrée. Il recense 272 sites universitaires, dont 22 en moyenne par université ! Pas moins de 53 sites sont par ailleurs partagés entre plusieurs institutions. Parallèlement, la vie étudiante est réduite à la portion congrue, l'offre de restauration est insuffisante, les logements sont quasiment inexistants et de nombreux locaux d'enseignement sont vétustes…

Source : http://www.lefigaro.fr/actualite-france/2009/01/13/01016-20090113ARTFIG00696-les-universites-parisiennes-pourraient-vendre-des-immeubles-.php

vendredi 16 janvier 2009

Les informaticiens à l’école de l’amour

Une université allemande organise des cours de flirt pour les aspirants ingénieurs informatique. Et c’est la ruée

Ceci n’est pas un hoax. L’université de Potsdam, en Allemagne, a organisé un cours de « flirt » et de socialisation pour les aspirants ingénieurs informaticiens. Et c’est la ruée. 440 étudiants s’y sont inscrits, annonce un communiqué du 8/1/09 de l’établissement, sur son site internet, http://www.hpi.uni-potsdam.de.

Le cliché de l’informaticien boutonneux, terré derrière son écran 16 heures par jour, pour éviter ses semblables recouvre-t-il une réalité ? C’est en tout cas pour y faire face à ceci que cette université allemande a mis sur pied ce cours. Au programme : comment inventer le sms qui convaincra une fille de sortir, ou rédiger le mail pour séduire sa compagne de cours ? Encore plus osé : s’arracher de ces prothèses virtuelles, et s’avancer de façon désinvolte dans une fête, s’habiller de manière attrayante, discuter avec des inconnues…

L’expert es flirt au boulot

Pour éduquer ses étudiants, l’université à fait recours à l’expert national es séduction. Il s’agit de Philip von Senftleben, tout à la fois auteur prodigue, animateur radiophonique et animateur de conférence , toujours sur ce même sujet : le flirt. Son site internet s’intitule d’ailleurs tout simplement http://www.der-flirter.de. D’après l’université ce cours a sa raison, puisque le succès professionnel des étudiants dépend également de la réussite de leur vie affective. Mais la démarche devrait-elle être limitée à cette catégorie d’étudiants ? Vu les taux de natalité allemands, l’un des plus faibles d’Europe, ( 8,2 pour 1000 habitants contre 12,8 en France en 2007, d’après Eurostat), les cours auraient pu être subventionnés par le gouvernement.

Source : http://www.silicon.fr/fr/news/2009/01/15/les_informaticiens_a_l_ecole_de_l_amour_

Le projet d'astrophysique Planck s'offre un supercalculateur de plus de 12 Tflops

L'Institut d'Astrophysique de Paris (IAP) s'est doté d'un tout nouveau centre de calcul pour le projet Planck

Le satellite, qui a pris le nom du célèbre physicien, a pour vocation d'observer la lumière émise par l'univers tel qu'il était il y a plus de 13 milliards d'années, soit 380 000 ans après sa naissance. C'est la masse de données issue de ces observations (500 milliards de données brutes) qui devra être stockée et traitée par le biais des serveurs de l'IAP.

HP, SGI et Sun ont répondu à l'appel d'offre, mais c'est IBM et son partenaire Serviware qui l'ont emporté. Si en termes techniques, les configurations se sont révélées assez proches les unes des autres, l'IAP, qui pilote pour le projet pour le compte de l'Agence spatiale européenne, a opté pour la prestation de service de Big Blue. Sur des pièces vitales comme le commutateur Voltaire (qui assure l'interconnexion des noeuds du cluster), Serviware s'engage à résoudre le problème dans la journée. Sur des éléments moins cruciaux, il intervient au pire le lendemain (J+1). Il faut dire que la moindre panne sur la machine revient à gâcher le temps de fonctionnement d'un satellite dernier cri...

Les chercheurs voulaient un système économe, intégré et avec un système de fichiers fiable

Pour la troisième mouture de leur centre de calcul, les chercheurs ont listé trois exigences principales. Pour commencer, il fallait un système clé en main sur lequel les chercheurs n'auraient pas à intervenir avec le niveau de service idoine. Ensuite, la configuration choisie devait entrer dans une enveloppe thermique et énergétique finie, puisque la salle machine de l'Institut n'est en aucun cas extensible. Selon Philippe Parnaudeau, le système IBM installé devrait dépenser 50 kW à plein régime sachant qu'il fonctionnera plutôt entre 60 et 70% de ses capacités.

Enfin, dernière exigence, le système de fichiers devait être capable de gérer les masses de données issues du satellite de la façon la plus fiable possible. Le précédent calculateur s'appuyait sur le système Open Source Lustre. Mais Philippe Parnaudeau, chargé du cahier des charges et de l'infrastructure, précise que ce dernier « n'était pas assez mature lorsque [nous] l'avons testé ». Pour ces raisons, l'institut lui a donc préféré GPFS, le système de fichiers parallèle d'IBM.

Un cluster de 132 noeuds, avec 128 To de stockage rapide

Le système est un cluster iDataplex de 132 noeuds à base de quadri-coeurs Xeon E5472 à 3 GHz d'Intel (12Gflops par coeur, un cache de niveau 2 de 12 Mo, moins de 80W par processeur). Cette offre d'IBM, qui promet une puissance de plus de 12 Tflops, est destinée en particulier à réduire la consommation électrique et la dissipation de chaleur. C'est un commutateur Infiniband qui assure à la fois le passage de messages dans le cluster (MPI) et les échanges de données. Il assure une bande passante de 11,52 Tbps avec une latence de 420 ns. Le système de stockage rapide DCS 9900 d'IBM compte 160 disques pour une capacité utile de 128 To. Une configuration de stockage lente NFS lui ajoute 220 To.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-projet-d-astrophysique-planck-s-offre-un-supercalculateur-de-plus-de-12-tflops-27843.html

jeudi 15 janvier 2009

Un accès à Internet par satellite pour 35 euros mais restreint

Débit descendant de 2 Mbit/s (128 Kb/s en émission)

Les laissés-pour-compte de l'ADSL et du câble (2% de la population, soit 500 000 foyers environ) n'avaient que très peu de solutions pour accéder confortablement à Internet. Quelques expérimentations Wimax en régions, à La Roche-sur-Yon par exemple, un peu de réseau 3G, et pour finir les connexions bidirectionnelles par satellite. Des solutions alternatives facturées à chaque fois plus chères que les offres ADSL ou câble, de 50 à 100 € par mois environ !

Avec un débit descendant de 2 Mbit/s (128 Kb/s en émission), le Pack Internet Satellite de Nordnet, une filiale d'Orange, vient bouleverser le paysage avec un prix de 34,90 € par mois (avec un engagement de deux ans). Un prix serré qui inclut un kit antenne (sans l'installation), un routeur WiFi et une clef USB WiFi. En option, l'abonné pourra acquérir un kit TV à fixer sur la parabole pour recevoir les 19 chaînes de la TNT gratuite, un service de téléphonie IP et l'offre Noctambule pour télécharger sans compter pendant la nuit. C'est en effet le point noir de cet abonnement Internet haut débit : la réception de données est plafonnée à 1670 Mo par mois (300 Mo pour l'émission). Et une fois ce maximum atteint, le service est interrompu jusqu'au mois suivant ! Un service à réserver au courriel et au surf sur le Web. Avec un usage multimédia, vidéo en streaming sur YouTube ou DailyMotion, téléchargement de sharewares ou de démo de jeux, le plafond peut être crevé en un après-midi !

Si NordNet apporte un peu d'Internet aux zones blanches, il n'est toujours pas question de rivaliser avec les offres haut débit des zones éligibles à l'ADSL. Les concurrents comme Viveole (offre Sérénité, 1 Mbit/s à 40 € par mois avec un kit antenne à 349 €) ou Com2Sat (pack Tooway à 29,90 € par mois avec un kit antenne à 499 €) proposent ce même genre de restrictions, mais avec une dégradation du débit en cas de dépassement du quota mensuel.

Source : http://micro.lemondeinformatique.fr/actualites/lire-un-acces-a-internet-par-satellite-pour-35-euros-mais-restreint-2467.html

mercredi 14 janvier 2009

De nouveaux systèmes de fichiers pour le noyau Linux

C’est le futur de Linux qui se dessine au travers de ces deux nouveaux systèmes de fichiers

Excellente nouvelle, le système de fichiers Btrfs – initialement développé par Oracle – sera intégré en standard dans le noyau Linux 2.6.29. Ceci permettra sans aucun doute d’accélérer grandement le développement de ce système de fichiers de nouvelle génération. Il est probable que Btrfs cohabitera pendant longtemps avec l’Ext4 (disponible en version définitive avec le noyau 2.6.28), avant de devenir le système de fichiers par défaut des distributions Linux. Des procédures de conversion de l’Ext3 vers Btrfs sont déjà disponibles. Elles faciliteront la migration des partitions existantes.

Btrfs se veut plus rapide et plus solide que la plupart des systèmes de fichiers existants. Il supporte aussi de nombreuses fonctions avancées : instantanés, compression, vérification rapide, défragmentation en ligne, etc. Btrfs est toutefois encore en phase intensive de développement. Il ne pourra donc être utilisé sur un système mis en production.

Le noyau Linux 2.6.29 intégrera également Squashfs. Ce système de fichiers en lecture seule propose des fonctions de compression avancées (de type Gzip) et demande très peu de ressources. Ceci le destine spécifiquement au monde de l’électronique embarquée.

Avec ces deux apports, Linux sera donc encore plus adapté aux architectures très spécifiques, comme les centres informatiques (avec Brtfs) ou les systèmes enfouis (avec Squashfs).

Source : http://www.silicon.fr/fr/news/2009/01/13/de_nouveaux_systemes_de_fichiers_pour_le_noyau_linux

mardi 13 janvier 2009

Deux recherches sur Google consomment autant qu’une tasse de thé

Une formule un peu alambiquée d'un physicien d’Harvard. Mais elle a le don d’expliquer que les activités sur le Web consomment aussi de l’énergie… et polluent

Les scientifiques gratifient parfois la communauté de trouvailles des plus intéressantes. La position du professeur Alex Wissner-Gross, physicien de son état pour l’Université de Harvard, peut apparaître farfelue mais témoigne qu’aller sur Google revient à émettre 14 grammes d'émission de carbone. Le Times témoigne alors qu’il s’agit quasiment de l'empreinte énergétique d'une bouilloire électrique portée à ébullition (soit 15 g). Le quotidien britannique explique alors qu’avec "plus de 200 millions de recherches quotidiennes, la consommation électrique et les émissions de gaz à effet de serre provoquées par les ordinateurs constituent donc un vrai sujet d'inquiétude".

Il faut alors savoir que techniquement, lorsqu'un internaute fait une recherche sur un moteur de recherche tel que Google, sa requête est dirigée vers plusieurs serveurs parfois à des milliers de kilomètres. Google envoie ensuite l'information de celui qui a produit la réponse la plus rapide. Une méthode bien trop consommatrice selon le chercheur. D’autant qu’il existe certaines initiatives visant à réduire l’impact des recherches Google sur l’environnement. Des sociétés ou collectifs ont dès lors mis en place des moteurs de recherche (utilisant Google) avec une interface noire. Cette couleur a, en effet le don non seulement de moins consommer mais aussi d’économiser la plupart des écrans d’ordinateurs. Blackle.com ou noiroogle.fr en sont la traduction pour les tubes cathodiques ou junglekey.com pour tous les moniteurs. Innovantes et soucieuses de l’écologie mais des initiatives sur lesquelles le géant de Mountain View ne prend aucune part…

Dès lors, la problématique se pose de savoir s’il existe une véritable prise de conscience écologique des géants de l’Informatique basée sur l’impact des nouvelles technologies ? Une question à laquelle répond partiellement Nicholas Carr, auteur et spécialiste de ces questions. Il affirme que maintenir en vie un avatar sur Second life pendant un an consommerait autant d'énergie qu'un Brésilien moyen... Ces études continuent d'intéresser les scientifiques notamment depuis 2002 et le rapport des professeurs Roberson et Homan de Berkeley portant sur l’énergie consommée par les écrans d’ordinateurs personnels. Le monde de la Science amène alors ses observations. Autant d’idées qui pourraient pousser les géants à être plus "green" et devancer les appels de leurs utilisateurs.

Source : http://www.silicon.fr/fr/news/2009/01/12/deux_recherches_sur_google_consomment_autant_qu_une_tasse_de_the

L'Open Cloud Consortium veut promouvoir un cloud computing ouvert

Les universitaires américains à l'origine de l'OCC (Open Cloud Consortium) veulent favoriser la standardisation et l'interopérabilité des offres de cloud computing

En matière de cloud computing, la technique suit le marketing. Un groupe d'universités américaines vient de créer l'Open Cloud Consortium (OCC), une association qui a vocation à améliorer les performances des technologies impliquées dans le cloud computing, à y promouvoir l'utilisation des logiciels libres et l'interopérabilité entre chaque implantation. "Notre but est qu'il ne soit pas nécessaire de réécrire les applications si l'on change de fournisseur" explique Robert Grossman, président de l'OCC et directeur du Laboratory for Advanced Computing (LAC) et du National Center for Data Mining (NCDM) à l'université de l'Illinois.

Mise à disposition d'un banc de tests

Robert Grossman annonce cinq axes de travail :
  • le développement de standards pour le cloud computing, d'interfaces et de frameworks pour l'interopérabilité entre les différentes implantations,
  • le support des logiciels Open Source pour le cloud computing,
  • le développement de tests de performances (benchmarks) pour le cloud computing,
  • la mise à disposition d'un banc de tests, l'Open Cloud Testbed, se composant de quatre sites reliés entre eux par une connexion Ethernet à 10 Gigabit,
  • et le soutien d'ateliers et d'événements sur le sujet.

Seul Cisco soutient l'OCC pour l'instant

L'OCC travaille avec les logiciels open source suivants : Hadoop, développé par le consortium Apache, et Thrift, originaire de Facebook. Thrift est un framework qui permet de développer des services à partir de plusieurs langages (C++, Java, Python, PHP et Ruby). L'OCC a aussi mis au point Sector qui utilise le protocole UDP et non TCP. Couplé avec Sphere, développé par le National Center for Data Mining, il délivre des performances deux fois supérieures à celle d'Hadoop qui repose sur TCP.

Pour l'instant, seul Cisco, parmi les grands acteurs de l'industrie, apporte son soutien à l'OCC. Les autres (IBM, Microsoft, Oracle Amazon, Google...) ont, pour une raison ou pour une autre, moins d'enthousiasme à vouloir favoriser une standardisation du cloud computing qui profite surtout aux utilisateurs. Il reste à espérer que l'OCC parvienne à ses fins.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-open-cloud-consortium-veut-promouvoir-un-cloud-computing-ouvert-27802.html

lundi 12 janvier 2009

L'Etat publie les documents de référence de l'administration électronique

RGI, RGAA, RGS, CE... n'étaient jusqu'à présent que des sigles. Désormais les informaticiens peuvent accéder aux documents. Au delà du secteur public, tous les DSI peuvent utilement s'en inspirer

Depuis plus de deux ans, le fameux RGI (Référentiel Général d'Interopérabilité) fait couler beaucoup d'encre. Etabli par la DGME (Direction générale à la modernisation de l'Etat), ce document est censé établir les bonnes pratiques relatives aux systèmes d'information au sein des administrations, notamment en ce qui concerne les très conflictuels formats de fichiers, même si les sujets abordés sont très larges et touchent également, par exemple, les questions d'organisation.

Ce document est désormais disponible sur un site de la DGME : http://www.references.modernisation.gouv.fr ainsi que les autres référentiels établis par la DGME, comme le RGAA (Référentiel général d'accessibilité pour les administrations, qui concerne l'adaptation des SI aux handicapés), le RGS (Référentiel Général de Sécurité) et la Charte ergonomique des sites Internet publics qui détaille les bonnes pratiques en matière d'ergonomie Web, en plus des particularités propres aux sites publics, comme les conventions de nommage.

Un référentiel général de sécurité très détaillé

Sur le plan juridique, ces documents ne sont pas encore d'application obligatoire au sein des administrations puisque leurs différentes validations n'ont pas encore eu lieu. Le premier référentiel écrit, le RGI, est le seul à ne pas être du tout accessible sur le site au-delà d'une courte présentation. Visiblement, les conflits à son sujet ne sont donc pas éteints. A l'inverse, le RGS est quasiment finalisé et particulièrement détaillé dans ses recommandations.

Pour les DSI du secteur public, commencer à se conformer aux recommandations de ces référentiels ne peut qu'être une bonne idée, pour anticiper leur application obligatoire.
Et même, pour tous les DSI, appliquer ces référentiels disponibles gratuitement et issus d'une intense réflexion de spécialistes de haut niveau est tout autant une bonne idée. En effet, les cabinets de consultants en tous genres font payer fort cher des recommandations bien moins détaillées et pratiques.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-etat-publie-les-documents-de-reference-de-l-administration-electronique-27800.html

vendredi 9 janvier 2009

Les DRM n’ont plus la cote

Les décisions successives de deux géants de l’industrie contribuent à sonner le glas d’un système de protection largement critiqué

Largement utilisés par les géants de l’industrie du disque, les DRM (ACC, WMA, etc), véritables cadenas numériques, ont, au cours de ces derniers mois perdu la cote. La Warner, géant mondial de la musique en ligne vient d’annoncer sa volonté de tester en France la commercialisation de titres, garantis sans DRM. La phase d’expérimentation devrait se terminer le 31 décembre prochain. Deux plates-formes Fnacmusic et Virginmega, devraient proposer les titres sans verrous de la Major. "Le timing est bon (pour cette expérimentation, ndlr). La loi a lancé un signe positif, faisons aussi en sorte d'écouter les consommateurs", a indiqué à l’AFP Thierry Chassagne, président de Warner France.

Cette initiative fait suite à la toute récente déclaration d’Apple, annonçant la fin de l’utilisation des DRM sur sa plate-forme iTunes. La décision du géant mondial de la musique en ligne, aux 5 milliards de chansons vendues, révèle une tendance. Depuis de longs mois, la critique autour des DRM ne cessait d’enfler. Tour à tour loués par les éditeurs de musique puis vilipendés par les utilisateurs, les verrous techniques n’ont jamais fait l’unanimité. Considérés par les acheteurs et les commerçants comme un frein à l’achat de musique légale, les DRM ont longtemps été considérés comme le seul moyen efficace de lutter contre le piratage. Seul problème, il bride l'interopérabilité (le fait d'écouter un disque sur plusieurs supports) et freine l'exercice du droit à la copie privée.

Pourtant, certaines entreprises n’ont pas hésité à sauter le pas. EMI, géant de la musique ouvrait en 2007 son répertoire aux titres dépourvus de système de verrouillage numérique. Amazon, titan américain de la vente en ligne, proposait également en 2007, son propre service de musique en ligne dépourvu de DRM. Le site communautaire MySpace (News Corp.) annonçait en avril dernier le lancement d’un futur service de musique, avec de la diffusion de titres en streaming (à l’instar de Deezer) et la commercialisation de titres sans DRM. Rappelons qu'Universal, Rhapsody ou encore Napster avaient eux aussi délaissé les DRM.

En France, la fin prévisible des DRM constitue une véritable aubaine pour le gouvernement, à l’origine de la loi ‘Création et internet’ sensée lutter contre le piratage. L'abolition des DRM et, de fait, le fonctionnement des titres sur l’ensemble des baladeurs numériques ajoutent une corde de plus à l’arc de Christine Albanel, désireuse de voir une densification de l’offre légale.

Source : http://www.silicon.fr/fr/news/2009/01/08/les_drm_n_ont_plus_la_cote

Salesforce.com en panne : faut-il remettre en cause le modèle Saas ?

Après une sérieuse interruption du service de la plate-forme de services IT à la demande, des clients osent poser la question qui fâche

Salesforce.com, spécialiste de la gestion de la relation client (CRM) en mode Software as a Service, a subi une panne sérieuse dans la journée de mardi. 900.000 utilisateurs ont ainsi été privé de ce service durant une à trois heures selon les cas. Ce qui a provoqué la colère des clients concernés. Mais cette longue interruption de services soulève de nouvelles questions, quant à la fiabilité du modèle de services informatiques à la demande.

Selon Salesforce, cette panne a affecté toutes les zones entre 20H39 et 21H17 GMT le 6 janvier. "Un boîtier du coeur du réseau est tombé en panne à cause d'erreurs d'allocation mémoire", peut-on lire dans le document de report d'incident fourni par Salesforce. Elle a ainsi provoqué une vive inquiétude chez des clients américains. Un certain nombre d'entre eux se sont tournés vers la communauté de micro-blogging Twitter pour en savoir plus sur la panne. Le site Trust.salesforce.com de l'éditeur de la plate-forme ASP, qui était censée donner des informations sur l'état du système, était aussi tombé en rade.

Des avis de clients mitigés

"Salesforce, ne me lâche pas au moment où j'ai le plus besoin de toi ! " écrit un utilisateur Twitter. "Saleforces plante, Twitter/Google se fait hacker. Que va-t-il se passer ensuite ? Vais-je devoir revenir aux services téléphoniques et postaux?", se demande un autre utilisateur. "Salesforce à nouveau en panne aujourd'hui : encore un argument pour l'hébergement de logiciels en local", déclare un autre utilisateur. D'autres utilisateurs étaient plus tolérants. "J'adore Salesforce.com ; j'utilise ce service depuis des années et il est rare qu'il tombe en panne, ce qui fait de cette journée une exception (mais je ne suis pas inquiet) ", déclare un utilisateur. "Dans une autre vie, une panne de serveur aurait été mon problème. A présent, je peux laisser Salesforce s'occuper du sale boulot", argumente un autre.

"Salesforce.com a largement fait ses preuves en cas de soucis", estime Rob Bryant, consultant pour le cabinet Deloitte. "Mais à de rares occasions où les choses se passent mal, les responsables informatiques peuvent dormir sur leurs deux oreilles, en sachant que les ingénieurs senior les plus compétents s'attellent à résoudre le problème. Si une entreprise rencontrait le même problème en interne, la direction ne pourrait certainement pas contacter des experts IT aussi rapidement."

Une confiance dans le SaaS revue à la baisse ?

Pour Steve Moyle, chief technology officer de lSecerno (sécurité et bases de données), cet incident pose quand même de sérieuses questions sur la confiance que l'on peut attribuer à Salesforce.com. "Presque un million d'utilisateurs ayant sous-traité une fonction critique pour leur entreprise sont paralysés, et dans l'impossibilité d'accéder à leurs propres données client, ce qui affaiblit leur confiance dans le modèle", commente-t-il. "Les managers doivent s'assurer que toutes leurs données sont complètement protégées et sous contrôle, afin d'empêcher toute utilisation inappropriée de ces données.".

Salesforce.com a déclaré prendre "très au sérieux" les failles dans la performance du service, et a rappelé que toute nouvelle informations relative à cette panne sera immédiatement publiée sur Trust.salesforce.com.

Source : http://www.silicon.fr/fr/news/2009/01/08/salesforce_com_en_panne___faut_il_remettre_en_cause_le_modele_saas__

Dell va délocaliser toute sa production européenne de l'Irlande vers la Pologne

Conséquence : 1.900 emplois supprimés

Dell poursuit sa restructuration. Pressé de faire des économies afin de renouer avec la rentabilité, le fabricant texan a déjà annoncé sa volonté d''économiser 3 milliards de dollars d'ici à 2011. Outre les réductions de postes et une nouvelle organisation commerciale, le groupe se penche aujourd'hui sur ses usines. Des rumeurs laissaient entendre que le groupe allait se séparer de toutes ces unités de production. Finalement, Dell va une nouvelle fois délocaliser sa production.

Le constructeur va ainsi fermer son usine de production irlandaise qui a en charge le marché européen en mettant un terme aux contrats de ses 1.900 employés locaux. L’usine devrait par la suite être transférée en Pologne où les salaires sont inférieurs à ceux pratiqués en Europe de l’ouest. "Dell va transférer toute la production d'ordinateurs pour l'Europe, l'Afrique et le Moyen-Orient de Limerick (dans le Sud de l'Irlande, ndlr) dans l'usine polonaise" indique un communiqué de presse publié par le groupe, puis reproduit par l’AFP. "C'est une décision dure, mais c'était la bonne à prendre pour que Dell soit encore plus compétitif et en fasse plus pour ses clients", a justifié Sean Corkery, vice-président du groupe pour la zone Europe-Afrique-Moyen-Orient.

Certaines activités non liées à la production seront maintenues sur le site de Limerick, et qu'il conserverait ses équipes de vente, de marketing et de service après-vente situées à Dublin. La fermeture du site aura des répercussions négatives sur l’économie irlandaise. En effet, le géant américain représentait à lui seul quelque 5% du PIB du pays. Dell avait ouvert cette usine en 1990, époque où l'Irlande attirait tous les groupes internationaux. Elle avait employé jusqu'à 4.500 personnes au plus haut, un chiffre qui était depuis descendu à 1.900.

Objectif : s'adapter aux nouvelles conditions du marché qui s'oriente résolument vers les portables destinés au grand public, faire des économies et améliorer la profitabilité du groupe. Or les usines de Dell ne se sont pas adaptées à cette tendance : Dell restant fortement positionné sur le marché des PC de bureau professionnel (83% des ventes se font en entreprises).

Source : http://www.silicon.fr/fr/news/2009/01/08/dell_va_delocaliser_toute_sa_production_europeenne_de_l_irlande_vers_la_pologne

Windows 7 sera offert aux futurs acheteurs de PC sous Vista ?

Microsoft proposerait un système de mise à jour gratuite. Un moyen de ‘booster’ les ventes de PC pour l’année 2009

Selon nos confrères de Tech ARP, toutes les personnes qui achèteront un PC pourvu d’une licence de Windows Vista à partir du premier juillet 2009 bénéficieront d’une mise à jour gratuite vers Windows 7. Si cette information se confirme, la fin de vie de Windows XP et le début de carrière de Windows 7 coïncideront presque, Windows Vista servant alors de trait d’union entre les deux systèmes d’exploitation. Les constructeurs pourront commander des médias de mise à jour, qui devraient être distribués au public dès la sortie officielle de Windows 7… en espérant que Microsoft ne rate pas cette opération, comme cela avait été le cas avec les coupons de mise à jour vers Windows Vista.

Les possesseurs d’une licence de Windows Vista Édition Familiale Premium, Édition Professionnelle ou Ultimate, pourront migrer vers les moutures équivalentes de Windows 7. Ceux qui achèteront une machine pourvue de Windows Vista Édition Familiale Basique ne pourront toutefois pas passer gratuitement à Windows 7. De même, il sera impossible de profiter de cette mise à jour pour basculer d’une édition à une autre. Notez enfin que Windows 7 ne sortira pas à la même date dans l’ensemble du monde. Toutefois, les moutures anglaise, allemande, espagnole, française et japonaise devraient être disponibles simultanément.

À ce jour, Microsoft n’a confirmé officiellement aucune de ces informations.

Source : http://www.silicon.fr/fr/news/2009/01/08/windows_7_sera_offert_aux_futurs_acheteurs_de_pc_sous_vista__

Une seconde de trop pour Oracle CRS

La seconde ajoutée par les scientifiques à l'année 2008 a entraîné le redémarrage de certains noeuds de grappes de serveurs équipés de Cluster Ready Service d'Oracle

Après le bogue de l'an 2000, parlera-t-on du bogue de 2008 ? Pour Oracle au moins, la réponse est oui. La seconde supplémentaire ajoutée au 31 décembre 2008 n'a pas été prise en compte par son logiciel Cluster Ready Service, et a entraîné le redémarrage intempestif des noeuds sur lesquels il était installé.

Les scientifiques de l'IERS (Service International de la Rotation terrestre et des Systèmes de référence) ont ajouté cette seconde à la fin de 2008 pour que notre heure de référence (UTC, temps universel coordonné) reste synchronisé avec la révolution réelle de la Terre autour du soleil. Le 31 décembre dernier, les horloges du monde entier devaient donc indiquer 23 h 59 mn 60 s avant de finalement passer à 0 h 0 mn 0 s.

Les NTP (Network Time Protocole) intégrés au CRS d'Oracle, eux, sont directement passés de 59 s à 0 s, remettant le programme à zéro sans prévenir. La décision de l'IERS a pourtant été prise et rendue publique le 4 juillet dernier. Trop tard, semble-t-il, pour Oracle qui n'a pas prévenu ses utilisateurs, ni fourni de solution à ce problème avant lundi dernier, quand certains utilisateurs se sont étonnés de ces redémarrages intempestifs. Ces derniers affectent plus particulièrement les versions 10.1.0.2 à 11.1.0.7 d'Oracle Server Entreprise Edition installées sur Solaris 64-bits avec CRS. Hormis ce redémarrage, la seconde fantôme n'a causé aucun autre incident.

Source : http://www.lemondeinformatique.fr/actualites/lire-une-seconde-de-trop-pour-oracle-crs-27778.html

jeudi 8 janvier 2009

Microsoft au CES: lancement de Windows 7 bêta, et accords stratégiques

Ce 9 janvier, Steve Ballmer lancera officiellement la version test du futur Windows. Et deux accords anti-Google, avec Dell et Verizon

Confirmation des rumeurs (ou fuites "organisées"?) de ces jours derniers. Jusqu'ici, une partie d'une version préliminaire avait été soumise confidentiellement à un petit noyau de développeurs. A l'occasion de son discours d'ouverture du Salon CES de Las Vegas (8 au 11 janvier), le patron de Microsoft a officiellement annoncé le lancement de la version bêta de Windows 7. Elle sera disponible en ligne pour tous ce vendredi.

"Nous sommes partis pour livrer la meilleure version de Windows qui ait jamais existé", a déclaré Steve Ballmer. Windows 7 "va rendre la vie plus facile et plus rapide", a-t-il ajouté. Et de résumer les principales qualités du système: "simplicité, fiabilité, et vitesse". Un responsable de Microsoft a souligné que la version finale du système était prévue au plus tard en janvier 2010, soit trois ans après la sortie de Vista, confirmant ainsi le calendrier que l'on connaissait déjà.

Ce n'est pas seulement une déclaration de circonstance. Il s'agit pour l'éditeur de dire clairement qu'il va exister bientôt un successeur à Windows Vista. Nul doute que Steve Ballmer sera pressé de questions sur le calendrier de sortie. Car nombre d'entreprises, grandes et moyennes, ont tergiversé sur l'opportunité ou non de migrer vers Vista ou, au contraire, d'attendre un saut technologique suffisamment visible pour migrer tout leur parc de PC accroché à Windows XP, voire, pour une minorité, à Windows 2000. Mais encore faut-il être sûr des échéances (pas avant janvier 2010?) pour décider de tels investissements, impliquant souvent une remise à plat d'applications.

Par ailleurs, le géant de Redmond a également annoncé deux contrats stratégiques autour de Windows Live Essentials et du moteur de recherche Live Search, concurrençant directement Google. Il s'agit de contrats signés l'un avec l'opérateur Verizon et l'autre avec le constructeur Dell.

Ce dernier devrait pré-installer sur ses PC, dès février, ces solutions de recherche en ligne et des applications accessibles en téléchargement via Internet. Une victoire contre Google traditionnellement présent chez Dell. "Dell sera le premier grand fabricant de PC à pré-installer Windows Live Essentials sur tous leurs ordinateurs" a précisé Steve Ballmer. Verizon, quant à lui, installera tout ou partie de ces services sur ses terminaux mobiles.

Source : http://www.silicon.fr/fr/news/2009/01/08/microsoft_au_ces__lancement_de_windows_7_beta__et_accords_strategiques

mercredi 7 janvier 2009

Sortie de FreeBSD 7.1

La gestion des systèmes comprenant plusieurs processeurs ou cœurs est en net progrès

Le système d’exploitation open source FreeBSD 7.1 est maintenant disponible. Il est utilisable sur les architectures x86 32 bits et 64 bits, IA64 (Itanium et Itanium 2), PC98 (des machines proches des PC classiques), PowerPC et SPARC64. Cet OS se présente sous la forme d’un assortiment de CD-Rom d’installation, hormis pour les moutures x86 pour lesquelles des images de DVD sont également disponibles. L’installation est aussi possible directement à partir d’Internet.

FreeBSD 7.1 propose quelques changements d’architecture intéressants. DTrace peut maintenant être utilisé au sein du noyau. Cet apport permettra de faciliter l’optimisation future de l’OS et de ses applications. Le système de répartition des tâches ULE est utilisé par défaut sur les machines x86. Ce dernier améliorera les performances de l’OS sur les configurations multicœurs. Autre avancée dans le domaine du multicœur, des fonctions spécifiques permettent de lier un processus à un processeur ou à un cœur spécifique. De même, l’assignation des ressources est possible. FreeBSD continue donc à creuser l’écart dans le domaine des architectures multicœurs ou multiprocesseurs.

Le gestionnaire de démarrage permet également de booter sur des périphériques USB. Une bonne idée. Dans le monde du réseau, un nouveau client NLM (NFS Lock Manager) fait son apparition. Enfin, certains paquets logiciels majeurs sont mis à jour. Gnome passe ainsi en version 2.22.3 et KDE en mouture 3.5.10.

Source : http://www.silicon.fr/fr/news/2009/01/06/sortie_de_freebsd_7_1

Le Web compte 186 millions de sites enregistrés

La Toile continue de grandir

Selon la société britannique Netcraft spécialisée dans l'analyse du trafic Internet, le Web comptait fin 2008 pas moins de 186 727 854 sites, soit environ 30 millions de plus qu'une année plus tôt. En termes d'augmentation, le Web fait toutefois moins bien que lors des années précédentes. La croissance du nombre de sites sur la Toile s'est élevée à 17% en 2008, contre plus de 40% en 2006 et 2007. Le cap des 100 millions de sites Internet avait été atteint en novembre 2006. En 1995, le Web, qui effectuait ses premiers pas, comptait à peine 19 000 sites. La barre du million avait été franchie en avril 1997.

Il faut toutefois rappeler que Netcraft compte ainsi tous les noms de domaine enregistrés, et qu'un peu moins de la moitié sont en fait des sites Web actifs. Netcraft indique aussi qu'un bon nombre de sites n'ont en fait qu'un objectif : rediriger les internautes vers des sites à vocation pornographique et/ou malhonnête.

En savoir plus : les études de Netcraft

Source : http://www.lemondeinformatique.fr/actualites/lire-le-web-compte-186-millions-de-sites-enregistres-27751.html

mardi 6 janvier 2009

Wikipedia : la campagne de dons garantit le fonctionnement jusqu'en juin

La fondation Wikimedia, chargée du financement et du développement de Wikipedia, dispose de suffisamment de trésorerie pour alimenter les opérations de l'encyclopédie libre jusqu'en juin 2009

La fondation indique ainsi que les appels aux dons lancés début novembre 2008 ont permis de collecter 6,2 M$. Une somme issue des oboles de 125 000 contributeurs, qui servira à payer les 23 salariés ainsi qu'à la maintenance et à l'accroissement des infrastructures techniques de l'organisation et, notamment, « la gestion du trafic sur Wikipedia, le 4e site le plus populaire sur Internet », précise Wikimedia. Les dons sont d'autant plus importants pour la fondation que ses activités ne reposent pas sur l'insertion de messages publicitaires mais sur la générosité des sympathisants de cette information libre. En décembre, déjà, Wikimedia avait reçu 890 000 $ de la fondation Stanton, un montant qui sera utilisé pour travailler sur la simplification de MediaWiki, l'outil Open Source sur lequel repose Wikipedia.

« Cette campagne a prouvé que Wikipedia a de l'importance aux yeux de ses utilisateurs, et qu'ils soutiennent largement notre mission : diffuser librement le savoir à la planète », a commenté Jimmy Wales, le fondateur de l'encyclopédie, dans une lettre de remerciement adressée aux donateurs. Le 23 décembre, sentant l'élan de générosité des internautes se tarir quelque peu, Jimmy Wales avait relancé l'appel aux dons. Une initiative payante puisque, au cours des huit jours qui ont suivi, quelque 50 000 bienfaiteurs ont offert 2 M$ à la fondation. Laquelle a donc atteint le but qu'elle s'était fixé : totaliser 6 M$ de dons pour financer ses opérations jusqu'au mois de juin, c'est-à-dire jusqu'à la fin de l'exercice fiscal en cours.

Source : http://www.lemondeinformatique.fr/actualites/lire-wikipedia-la-campagne-de-dons-garantit-le-fonctionnement-jusqu-en-juin-27741.html

lundi 5 janvier 2009

Un brevet pour des PC payables à l'usage

Microsoft travaille sur une méthode permettant d'offrir des PC haut de gamme aux utilisateurs, et de leur facturer l'utilisation qu'ils en font

A terme, des forfaits pourraient voir le jour, sur le modèle de ce qui est pratiqué en téléphonie mobile. Mais le succès d'une telle méthode est loin d'être assuré... Prenez un PC gratuitement et ne payez que pour la puissance et les logiciels que vous utilisez. Tel pourrait être à l'avenir le slogan des vendeurs de PC (ou plutôt de services, dans ce cas), si le brevet que vient de déposer Microsoft devenait réalité. Intitulé « Metered Pay-As-You-Go Computing Experience », le principe décrit par Microsoft consiste à mesurer à la fois le temps d'utilisation et la consommation de ressources d'un utilisateur, de façon à ne lui faire payer que ce qu'il consomme. Cela grâce à une combinaison d'éléments matériels et logiciels embarqués dans le PC.

L'idée, explique Microsoft, est que le plus grand nombre de gens possible puisse s'équiper d'un PC haut de gamme, sans s'acquitter du prix facial d'un tel ordinateur. C'est l'usage de l'ordinateur qui serait facturé, soit grâce à des cartes prépayées, soit par prélèvement mensuel en même temps que le paiement de l'abonnement à Internet, soit par tout autre moyen de paiement connu...

Pourquoi payer plein pot une carte 3D utilisée seulement de temps en temps ?

Microsoft indique quelques exemples où une telle technologie serait utile : un logiciel de création graphique qui n'est utilisé qu'en certaines occasions festives, une carte 3D et plusieurs coeurs qui ne servent que de temps en temps pour un jeu alors que le reste du temps le PC fait tourner un traitement de texte et un navigateur Web, etc. Ce principe de paiement à l'usage est déjà mis en oeuvre pour les gros serveurs et mainframes, mais à un stade rudimentaire - activation d'un processeur, notamment, pour un pic de charge - par rapport à ce qui est décrit dans ce brevet. De même, Microsoft a de son côté déjà appliqué un peu ce principe avec son initiative Flexgo : des PC pour les pays émergents, vendus moitié prix avec un crédit de temps d'utilisation renouvelable.

Un plus grand verrouillage de l'utilisateur de PC

Le brevet va beaucoup plus loin, puisqu'il s'agit de tout instrumenter et mesurer, de la moindre application (commerciale, bien sûr : le brevet évite soigneusement de mentionner les logiciels gratuits et Open Source) au cycle d'horloge de chaque coeur, en passant par les gigaoctets du disque dur. Tout en gardant la possibilité de bloquer l'usage du PC en cas de défaillance du paiement, grâce à un module sécurisé intégré - capable de fonctionner tant en mode connecté qu'en mode déconnecté.

La gratuité des logiciels Open Source et des applicatifs Web écorne le modèle

Bien sûr, cela soulève plusieurs problèmes et questions. En premier lieu, les actions de l'utilisateur d'un ordinateur serait encore plus scrutées qu'elles ne le sont actuellement, ce qui ne passera pas sans soulever quelques polémiques de bon aloi. En outre, combien d'utilisateurs accepteraient de payer des applications à l'usage, quand l'Open Source fournit des alternatives crédibles que beaucoup de services applicatifs sont accessibles gratuitement sur Internet ? Quant à ses données personnelles, une sauvegarde externe deviendrait alors indispensable. Ensuite, le coût total de possession pourrait bien être plus élevé que le prix théorique d'acquisition de l'ordinateur ; Microsoft le reconnaît, mais explique que la répartition des paiements au cours du cycle de vie de la machine est un avantage (un peu comme louer une voiture plutôt que de l'acheter).

Enfin, cela changerait totalement la relation entre les fabricants de PC et les utilisateurs. Les premiers, explique Microsoft, y gagneraient car ils pourraient standardiser leurs lignes de produits et se concentrer sur le haut de gamme. Quant aux utilisateurs, ils devraient ne plus avoir qu'un interlocuteur, sur le modèle de ce qui se pratique avec les téléphones mobiles : l'opérateur subventionne le terminal, perçoit l'abonnement et facture les services supplémentaires. Nul doute que les fournisseurs d'accès à Internet devraient se montrer intéressés par cette nouvelle possibilité de garder des clients captifs. Ils pourraient ainsi proposer des forfaits différenciés : pour la bureautique, pour les joueurs occasionnels. On imagine déjà le succès de la super promo du forfait avec jeu 3D illimité le soir et le week-end !

Source : http://www.lemondeinformatique.fr/actualites/lire-un-brevet-pour-des-pc-payables-a-l-usage-27733.html