mardi 30 septembre 2008

Gartner tire à boulets rouges sur les éditeurs d'antivirus

« Pourquoi payer davantage chaque année pour des antivirus qui en donnent moins ?

Vice-président de Gartner, Neil MacDonald a fait part de ses réflexions sur le marché des antivirus lors de la conférence IT Security Summit organisée par le cabinet à Londres. Et son constat est rude pour les éditeurs. Neil MacDonald s'interroge en effet sur « l'immunité du marché de la sécurité à la tendance qui affecte le reste de l'industrie » : en règle générale, qu'il s'agisse de logiciel ou de matériel, explique l'analyste, les prix baissent d'année en année alors que les produits s'améliorent. Dans le domaine de la sécurité, les logiciels perdent souvent de leur efficacité alors qu'apparaissent de nouvelles menaces tandis que les prix restent élevés. Neil MacDonald donne donc un premier conseil aux entreprises : montrer à son fournisseur qu'on est prêt à changer de logiciel. « Je sais que c'est dur de changer, dit-il, mais il faut vraiment entrer en négociations, et faire savoir à l'éditeur que vous n'avez pas peur de changer. »

La sécurité adaptative : l'idéal d'un système immunitaire pour l'informatique

L'analyste, qui a passé les 18 derniers mois à étudier le domaine de la « sécurité adaptative », aimerait amener les éditeurs d'outils de sécurité à revoir l'architecture de leurs produits. Il estime en effet que les logiciels sont trop souvent destinés à effectuer une tâche unique, comme empêcher les intrusions ou protéger un point d'accès. Du coup, cela conduit les utilisateurs à multiplier les outils, et cela complique également leur travail. Pour lui, au contraire, les logiciels devraient envisager les menaces dans leur contexte, et apporter une réponse globale, chaque module coopérant avec les autres, comme un véritable système immunitaire.

« Les éditeurs ne nous permettent pas de donner vie à cette vision, regrette Neil MacDonald. Ils proposent trop de produits ponctuels, induisant trop de complexité. »

Source : http://www.lemondeinformatique.fr/actualites/lire-gartner-tire-a-boulets-rouges-sur-les-editeurs-d-antivirus-27035.html

lundi 29 septembre 2008

Eric Besson a remis le Lutèce d'Or du meilleur projet Libre à OpenOffice

La fondation Gnome, OpenOffice, l'April et la Région Ile de France sont parmi les projets, associations ou collectivités qui ont été récompensés cette année par les Lutèces d'Or, remis à l'occasion de la manifestation Paris Capitale du Libre

La cérémonie s'est déroulée lors d'un dîner mercredi soir, en présence d'Eric Besson, secrétaire d'Etat au développement de l'Economie numérique. Avant d'inaugurer la cérémonie, Eric Besson nous a accordé une interview exclusive où il nous a expliqué comment son travail s'insérait dans la politique générale du gouvernement et les raisons qui l'ont poussé à venir à Paris Capitale du Libre. Il estime qu'il faut donner davantage de visibilité aux logiciels libres, mais s'empresse de préciser que sa démarche n'exclue pas les logiciels propriétaires : « le logiciel libre et les logiciels propriétaires ne s'opposent plus les uns aux autres, ils sont devenus complémentaires, une espèce d'hybridation qu'il faut saluer. » L'interview d'Eric Besson en vidéo

Les Lutèces d'Or ont ensuite été remis en présence du secrétaire d'Etat. Ces prix annuels récompensent des projets, des personnes ou des communautés pour leur contribution exceptionnelle au Logiciel Libre.

Le palmarès des Lutèces d'Or 2008

Cette année, ont été récompensés :
  • Meilleure action communautaire menée : Le programme « GNOME Outreach Program: Accessibility » de la Fondation Gnome qui vise à la meilleure prise en compte de la problématique de l'accessibilité dans les projets Open Source. Les autres nominés étaient OW2 et Sésamath.
  • Meilleure action de promotion du Libre menée : l'association Veni, Vidi, Libri a pour objectif de promouvoir les licences libres en menant des actions de sensibilisation et des formations juridiques sur ces licences auprès des auteurs de logiciels. Les autres nominés étaient l'Université de Versailles Saint Quentin en Yvelines et Expolibre/Apitux.
  • Meilleur projet de développement libre réalisé : La « poule ou l'oeuf » est le premier moteur de créations de livres en ligne. Les autres nominés étaient Sensio Labs pour le Projet Symfony et Talend Open Studio.
  • Meilleur projet du Libre réalisé par une collectivité locale ou un centre hospitalier : l'association « Les enfants @ l'hôpital » pour Kolibri, une plateforme de travail partagé, libre, qui favorise en particulier des dialogues entre des « hommes remarquables » (explorateurs et savants) et les enfants malades et handicapés hospitalisés en France (3 000 à ce jour). Les autres nominés étaient Projet Liberaccès et la Mairie de Rueil Malmaison.
  • Meilleur projet Libre réalisé par une administration ou une collectivité publique : Météo France pour son site Web, l'un des plus visités de France, entièrement en technologies libres. Les autres nominés étaient le Projet Plume et Promotée « Clé en main » par Legta des Eméyères.
  • Meilleur projet Libre réalisé par une PMI-PME : l'implantation d'ERP 5 Express par 3 Plus. Les autres nominés étaient France 24 et Sensio Labs pour le framework PHP « Symfony ».
  • Meilleur projet Libre réalisé par un grand groupe : la forge logicielle Codendi de Xerox. Les autres nominés étaient les projets Phenix de France Telecom et Solipsis d'Orange Labs.
  • Meilleur projet Libre réalisé au niveau mondial : OpenOffice, qui a également gagné largement le prix de l'applaudimètre de la soirée. Ce prix a été remis par Eric Besson. Les autres nominés étaient OpenSuse build service et Lyx - The document processor.
  • Meilleure stratégie logiciel libre mise en oeuvre : Mairie de Rueil Malmaison. Les autres nominés étaient : France Telecom pour le projet « Phenix » et Atos Origin SMO.
  • Lutèce de la personnalité de l'année : Bdale Garbee, directeur technique mondial Logiciel Libre et Linux chez HP, responsable de la stratégie Open Source du constructeur aux Etats-Unis.
  • Prix Spécial du Jury : il a été remis à l'April, qui a su devenir une structure de promotion du Logiciel Libre particulièrement active et efficace.
  • Grand prix du jury : il a été remis à la Région Ile de France.

Source : http://www.lemondeinformatique.fr/actualites/lire-eric-besson-a-remis-le-lutece-d-or-du-meilleur-projet-libre-a-openoffice-27015.html

La Cnil refuse le recours aux empreintes digitales dans les établissements scolaires

Le contour de la main pour accéder à la cantine, oui.
L'empreinte digitale pour entrer dans un établissement scolaire, non

Dans une décision rendue publique hier, la Cnil vient de préciser sa doctrine en matière d'utilisation des procédés biométriques dans les écoles. La Commission nationale informatique et libertés a en effet refusé que soient utilisés des dispositifs recourant aux empreintes digitales pour contrôler l'accès et la présence des élèves dans les établissements scolaires.

La Cnil motive son refus de deux façons. D'abord, elle juge qu'un tel dispositif ne devrait être utilisé qu'en cas « d'un fort impératif de sécurité ». Or, dit l'organisme, « le contrôle d'accès à un lycée ainsi que le contrôle de présence des élèves n'ont pas pour objet de sécuriser l'accès d'un nombre limité de personnes à une zone bien déterminée, représentant un enjeu majeur dépassant l'intérêt strict de l'organisme ».

Un risque d'usurpation d'identité existe

Ensuite, la Cnil considère que l'empreinte digitale est une donnée biométrique « à trace ». Autrement dit, chacun laisse des empreintes sur tous les objets de la vie courante. Celles-ci constituent autant de traces qui « peuvent être capturées à l'insu des personnes et être utilisées notamment pour usurper leur identité. C'est pourquoi leur utilisation doit être strictement limitée et encadrée ». Il y a deux ans, la Cnil avait bien autorisé l'usage de la biométrie dans les écoles, mais il s'agissait de contrôler l'accès à la cantine - pour le processus de paiement - et la donnée biométrique utilisée était le contour de la main. Un élément beaucoup plus difficile à capturer, et qui change d'une année sur l'autre. La Cnil avait d'ailleurs exigé, à l'époque, que les données biométriques soient effacées à la fin de chaque année scolaire.

Source : http://www.lemondeinformatique.fr/actualites/lire-la-cnil-refuse-le-recours-aux-empreintes-digitales-dans-les-etablissements-scolaires-27018.html

vendredi 26 septembre 2008

Une pré-version de Windows 7 dans un mois

Si beaucoup de captures d'écran plus ou moins authentifiées circulent déjà sur le Web, personne en dehors de Microsoft n'a jusqu'ici pu prendre en main le futur système d'exploitation Windows 7

Ce ne sera plus le cas à partir du 28 octobre. En effet, à cette date l'éditeur tiendra sa PDC (Professional Developer Conference), et livrera à l'ensemble des participants un disque dur externe de 160 Go. Celui contiendra entre autre une version alpha de Seven préinstallée et prête à fonctionner. En revanche, on ne sait pas encore si les participants à l'autre grande conférence de développeurs, la WinHEC en Novembre, en recevront également une version. Ni quand la version bêta officielle sera disponible. Quant à la date de sortie finale, si sur le site de Microsoft elle est toujours listée comme devant intervenir courant 2009, l'éditeur a déjà prévenu qu'il faudra plutôt compter sur le début de l'année 2010.

Source : http://micro.lemondeinformatique.fr/actualites/lire-une-pre-version-de-windows-7-dans-un-mois-2320.html

jeudi 25 septembre 2008

iRex lance un lecteur de livres électroniques pourvu d'un grand écran

Le Digital Reader 1000 pourra afficher sans problème des documents au format A4

iRex Technologies (une société située aux Pays-Bas) est l'un des grands promoteurs du papier électronique, technologie qui permet de produire un affichage quasi similaire à celui d'un livre imprimé, sans rétro-éclairage et avec une consommation électrique nulle lorsque le texte affiché ne change pas. Pour résumer, le concept du papier électronique est relativement similaire au « télécran » qui trônait dans nombre de chambres d'enfants.


L'iRex Iliad « seconde édition » est un produit relativement économique, utilisant du papier électronique et un système d'exploitation open source, basé sur Linux. La compagnie lance aujourd'hui la série iRex Digital Reader 1000, qui comprend un écran à 16 niveaux de gris de taille confortable : 10,2 pouces, soit 25,9 cm, pour une résolution de 1024 x 1280 points. Le 1000S ajoute à ceci un écran tactile, permettant une interaction plus riche (prendre des notes, par exemple). Enfin, le 1000SW est pourvu d'une connectique Wi-Fi et Bluetooth.

Cette gamme s'articule autour d'un processeur Freescale i.MX31L et de 128 Mo de mémoire vive. Pour le stockage des documents, un port SD Card est disponible (une carte d'une capacité de 1 Go est livrée en standard). L'iRex Digital Reader 1000 pourra relire les fichiers PDF (non protégés), TXT, HTML, Mobipocket, ainsi que des images (Jpeg, PNG, Gif, Tiff et BMP). L'interface est d'ores et déjà disponible en français. Le tout pèse 570 grammes, avec une épaisseur de seulement 1,2 cm.

L'Irex Digital Reader 1000S est aujourd'hui disponible au prix de 599 euros. Pour la version 1000, il vous faudra attendre quelques semaines, son prix public étant de 499 euros. Enfin, le tarif et la date de disponibilité de la mouture 1000SW ne sont pas encore connus.

Source : http://www.silicon.fr/fr/news/2008/09/24/irex_lance_un_lecteur_de_livres_electroniques_pourvu_d_un_grand_ecran

mercredi 24 septembre 2008

Adobe lance sa Creative Suite 4

Photoshop est le logiciel qui a le plus profité de cette refonte

Avec la Creative Suite 4, Adobe a tenté d'unifier l'interface de tous ses logiciels. La communication entre les produits de la firme sera facilitée par la présence de la technologie Adobe Dynamic Link. De plus, Device Central permettra de créer et tester du contenu destiné aux téléphones mobiles et aux appareils électroniques grand public.

La Creative Suite 4 comprend les logiciels suivants : InDesign (PAO), Photoshop et Photoshop Extended (édition d'images), Illustrator (dessin vectoriel), Dreamweaver, Fireworks et Contribute (édition de sites web), After Effects (effets graphiques), Premiere Pro (édition vidéo), Soundbooth et OnLocation (outils audio), Encore (création de DVD et disques Blu-ray), Bridge (gestionnaire de médias), Acrobat Pro et Flash Professional. Ouf !

La compagnie ajoute à ceci Version Cue, un gestionnaire de fichiers réseau permettant de centraliser et partager les documents. Chaque produit peut être acheté seul, ou sous forme de packs. Le tout sera disponible courant octobre.

Les nouveautés sont nombreuses, comme l'apparition d'extensions Flash au sein de certains logiciels. Elles touchent cependant en tout premier lieu Photoshop, le produit phare d'Adobe. Ce dernier est disponible pour la première fois en version 64 bits pour Windows (mais malheureusement pas pour Mac OS X). Dans certains cas, cela permet à cette application de ne plus utiliser le fichier d'échange du système d'exploitation, les gains en terme de vitesse atteignant alors un facteur de dix.

Le logiciel utilise également la puissance des GPU intégrés dans les cartes graphiques pour accélérer les opérations de calcul. Là encore, c'est une première pour la compagnie. Espérons que cette technique sera prochainement utilisée dans les autres produits de cette gamme.

Source : http://www.silicon.fr/fr/news/2008/09/23/adobe_lance_sa_creative_suite_4

mardi 23 septembre 2008

Disponibilité de la version 7.0 de PC-BSD

Ce système d'exploitation 'open source' de type Unix est facile à installer et immédiatement utilisable

PC-BSD 7.0 est disponible en téléchargement à cette adresse. Il est présenté sous forme de CD, DVD ou d'image « bootable » pour des clés USB ou VMware. Ce système d'exploitation open source (sous licence BSD) est basé sur le code source de FreeBSD 7, dont il reprend toutes les qualités. Il s'installera sur la plupart des PC. La configuration recommandée comprendra un processeur Pentium 4 (ou supérieur), un minimum de 512 Mo de mémoire et de 12 Go d'espace disque.

PC-BSD se destine tout particulièrement aux utilisateurs les moins habitués au monde Unix. Il propose un outil d'installation graphique, un accès à la vaste logithèque de FreeBSD et un noyau précompilé pour une utilisation desktop. L'OS ajoute à ceci son propre système de paquetages (PBI), qui comprend tous les logiciels classiques (Firefox, OpenOffice.org, VLC media player, etc.). Certains applicatifs Windows sont directement disponibles sous forme de PBI. Ils fonctionnent à l'aide Wine. Une excellente idée.

Bon point, la reconnaissance des périphériques externes est automatique (appareils photos numériques, clés USB…). L'environnement graphique est KDE 4.1.1. X.Org 7.3 est livré avec les pilotes 3D propriétaires de Nvidia, ce qui garantit un fonctionnement correct sans devoir mettre en place des paquetages complémentaires après l'installation du système. Nous regrettons toutefois que l'environnement Gnome ne puisse être installé aisément. C'est un choix qui vise à simplifier la prise en main du système par les néophytes.

Source : http://www.silicon.fr/fr/news/2008/09/22/disponibilite_de_la_version_7_0_de_pc_bsd

McAfee s'offre Secure Computing pour 465 millions de dollars

L'éditeur renforce son offre à destination des entreprises

Opération majeure de croissance externe pour McAfee. Le spécialiste de la sécurité, numéro deux mondial, annonce ce lundi avoir signé un accord pour le rachat de son compatriote Secure Computing. L'éditeur versera 5,75 dollars par action en cash, valorisant sa cible à 413 millions de dollars. Avec les actions à droits préférentiels (84 millions), la valeur totale de Secure Computing atteindra 465 millions de dollars.

Ce rachat ré-amorce le mouvement de concentration dans un secteur dominé par Symantec et McAfee (sur le segment des anti-virus).

L'opération requiert l'accord des régulateurs et celui des actionnaires de Secure, et la finalisation du deal est espérée en fin de 4ème trimestre. Secure sera ensuite intégré à la division Network Security de McAfee. Cette opération permettra à McAfee de se renforcer sur le marché professionnel. Secure Computing est considéré comme le leader mondial des passerelles de sécurisation d’entreprise. Il est le numéro un mondial des appliances de sécurisation Web selon IDC.

Secure Computing détient 11% du marché mondial des appliances de sécurisation Web face à Blue Coat, McAfee et Trend Micro. Le marché des appliances de sécurisation Web est particulièrement en forme, il a atteint 256,7 millions de dollars en 2007. Selon les prévisions, il devrait atteindre 745,4 millions de dollars dans les cinq prochaines années. IDC prévoit un taux de croissance annuel cumulé de 23,6% par an pendant les cinq prochaines années.

"La position de leader de Secure Computing sur le marché de la sécurisation Web s’explique par sa capacité à proposer un portefeuille complet d’appliances de sécurisation des accès Web qui protègent les entreprises contre les menaces Web 2.0", souligne Brian Burke, Directeur de Programme pour IDC. Il y a moins de 10 jours, Secure Computing s'offrait Securify, fournisseur de solutions de gestion des identités. La transaction s'élève à environ 15 millions de dollars. Ce qui ajoutera une corde à l'arc McAfee...

Source : http://www.silicon.fr/fr/news/2008/09/22/mcafee_s_offre_secure_computing_pour_465_millions_de_dollars

lundi 22 septembre 2008

Sortie de VMware Fusion 2 pour Mac OS X

Cette version apporte de meilleures performances et une sécurité accrue

VMware présente la seconde version de son outil de virtualisation pour Mac OS X. La mise à jour de VMware Fusion vers la version 2 sera gratuite pour tout possesseur de la première mouture. Au menu, une meilleure intégration de l'environnement Windows au sein du Mac (Windows-on-Mac) et des performances revues à la hausse, en particulier sous DirectX. Jusqu'à quatre processeurs (virtuels) pourront être affectés à une machine virtuelle.

"Avec VMware Fusion 2, les inconditionnels des ordinateurs Mac exécuteront très facilement l'application Windows de leur choix sans rien perdre du plaisir que l'environnement Mac leur procure", déclare Pat Lee, directeur du groupe des produits grand public de VMware. "Notre ambition est de faire tomber les barrières entre Windows et Mac en rendant possible l'utilisation conviviale, en natif sur Mac, de n'importe quelle application Windows, avec le maximum de transparence et de sécurité. Nous souhaitons que nos clients se rendent compte à quel point Windows est bien plus performant sur Mac."


La compagnie déclare que plus d'une centaine de nouveautés et améliorations sont disponibles. Des instantanés automatiques des machines virtuelles (AutoProtect) permettront de récupérer plus facilement le système d'exploitation en cas de plantage grave. Le logiciel est livré avec un abonnement de un an à McAfee VirusScan Plus. Enfin, Unity, qui permet de lancer les applications d'une machine virtuelle directement au sein de l'interface du système hôte, supporte dorénavant les applications Linux. Point intéressant, VMware Fusion 2 gère également la virtualisation de Mac OS X Leopard Server.

VMware Fusion est disponible au prix d'environ 79,95 euros TTC.

Source : http://www.silicon.fr/fr/news/2008/09/21/sortie_de_vmware_fusion_2_pour_mac_os_x

Une nouvelle bêta pour Google Chrome

Cette mise à jour corrige quelques bogues, dont une faille de sécurité et plusieurs sources de plantages

La version 0.2.149.30 du navigateur web Google Chrome est disponible depuis le 17 septembre 2008. La mise à jour sera automatique, le logiciel lançant cette procédure toutes les cinq heures environ. Dommage que l'utilisateur ne soit pas averti de l'installation d'une version plus récente de ce logiciel. Cette mouture corrige tout d'abord une faille de sécurité peu critique. Lorsque le texte fixé dans l'attribut « title » était trop long, la charge processeur pouvait monter à 100% et l'onglet pouvait se fermer inopinément.

Google Chrome conserve une trace locale du contenu texte des sites que vous visitez. Dorénavant, il ne le fera plus pour les sites sécurisés (https). Il conviendra cependant de vider le cache de Chrome pour retirer les informations tirées des sites https, prélevées par des versions antérieures de ce logiciel. Dans certains cas Google Chrome ne transmet plus les données saisies dans la barre d'adresse à un moteur de suggestion externe. C'est le cas si l'adresse comprend un nom d'utilisateur, un mot de passe, des paramètres d'appel à une page, ou s'il s'agit d'un site sécurisé (https).

La gestion des greffons est également améliorée. La lecture de vidéos à partir de Flash provoquera moins de problèmes. Les applets Java seront enfin capables de communiquer avec du code JavaScript présent dans la page. D'autres petits détails ont été réglés, en particulier avec le greffon 3dvia. Dernier point, Google Spreadsheets fonctionne maintenant correctement sous Google Chrome.

Source : http://www.silicon.fr/fr/news/2008/09/21/une_nouvelle_beta_pour_google_chrome

vendredi 19 septembre 2008

Dell s'inquiète d'une demande qui ne redémarre pas

Dell s'est inquiété, mardi dernier, d'une baisse de la demande persistante sur le marché informatique qui devrait être plus importante que prévue

Au cours de la conférence annuelle d'investisseurs de la Bank of America organisée à San Francisco (Californie), le directeur financier Brian Gladden a ainsi déclaré que l'entreprise s'attendait à un ralentissement de la demande mondiale du marché informatique au cours de ce troisième trimestre tout en visant une croissance de ses ventes supérieure à celle du secteur sur l'année. A la suite de cette annonce, le marché a sanctionné l'action Dell qui a plongé de plus de 10%. Au 2e trimestre, l'américain avait publié un bénéfice en baisse de 17% à 616 millions de dollars. A l'occasion de cette annonce, Dell avait déjà fait part de la prudence persistante en matière de budget en informatique aux Etats-Unis, prudence qui a gagné les marchés d'Europe de l'Ouest et certains pays d'Asie.

Pas de reprise de la demande en septembre

Selon Brian Gladden, aux Etats-Unis, dans les PME et bien évidemment le secteur de la finance, la tendance à la baisse continue. Et les budgets de certaines administrations sont gelés. En Europe, le Royaume-Uni et l'Europe du Sud sont particulièrement touchés, alors que l'Allemagne reste plutot faible. L'Europe de l'Est et le moyen Orient demeurent, eux, satisfaisants. Le directeur financier de Dell a cependant insisté sur un recul particulier des affaires depuis le début de l'été. Selon lui, le mois de juillet a été faible tout comme le mois d'août. Mais, comme il le rappelle, août est toujours un mois difficile à cause des vacances en Europe. A cela, cette année, se sont ajoutés les JO en Chine. Mais le problème, comme le constate le directeur financier de Dell, c'est que nous sommes à mi septembre, et que la demande ne redémarre toujours pas.

Il est à noter, en dehors de la conjoncture économique internationale, que le constructeur qui peine à assurer le virage du PC de bureau au portable, a aussi subi la baisse des prix du marché sur ce type de produits. Au point qu'il envisagerait de fermer certaines de ses usines . Parmi les raisons qui expliquent une telle démarche, les mauvais résultats récents figurent en bonne place .

Source : http://www.lemondeinformatique.fr/actualites/lire-dell-s-inquiete-d-une-demande-qui-ne-redemarre-pas-26940.html

Mobile : le HTC sous Android sera vendu 199 dollars

Le fabricant tablerait sur 600 à 700.000 unités vendues. Optimiste ?

Les informations à propos du premier téléphone mobile sous Google Android fabriqué par HTC filtrent de plus en plus. On savait déjà que le terminal sera présenté le 23 septembre et sera commercialisé par T-Mobile USA (Deutsche Telekom). Aujourd'hui, le Wall Street Journal révèle que le terminal (baptisé Dream ou G1) sera vendu 199 dollars (soit le prix de l'iPhone) avec un abonnement dédié voix et data. Ces informations n'ont pas été confirmées.

Reste que ce HTC Dream est très attendu. Selon une source proche du dossier, le terminal sera un smartphone à large écran tactile (3 pouces) et à clavier complet. Un logo Google sera présent sur la coque. Selon Andy Rubin, le directeur de la plate-forme mobile de Google, le terminal "va en mettre plein la vue. Si nous arrivons avec une daube, les gens s'en iront et ce sera une perte de temps", a-t-il déclaré. Mais selon certaines rumeurs, le terminal serait un peu moins performant que l'iPhone d'Apple, sa cible numéro un. Attendons le 23 pour se faire une idée... En tout cas, HTC affiche ses ambitions et compte écouler jusqu'à 700.000 exemplaires de son bébé.

Rappelons qu'Android est un OS open-source pour mobile qui doit permettre à Google de faire une entrée remarquée dans ce secteur. Compatible avec la plupart des normes industrielles existantes, il permet notamment aux fabricants de mobiles d'intégrer facilement les services stars de Google que sont Search, GMail, Calendar, Picasa, Blogger, Maps ou encore YouTube. En outre, constructeurs et opérateurs seront libres de le personnaliser. Il est aussi ouvert aux développeurs tiers, nerf de la guerre pour populariser un OS avec des applications dédiées.

Soutenu par plusieurs équipementiers, qui ont rejoint l'Open Handset Alliance, Android pourrait rapidement se faire une (petite) place sur le marché. Pour autant, l'initiative n'inquiète pas les géants des OS mobile comme Nokia (Symbian) ou Microsoft (Windows Mobile) qui eux aussi se concentrent sur des plates-formes orientées services (OVI et Windows Mobile) et qui se partagent l'essentiel du marché. Le Gartner a ainsi comparé Android au dernier représentant des OS linux pour mobile. Des solutions encore peu utilisées et qui sont souvent critiquées par les industriels du secteur car trop disparates.

Source : http://www.silicon.fr/fr/news/2008/09/18/mobile___le_htc_sous_android_sera_vendu_199_dollars

jeudi 18 septembre 2008

Microsoft et Cray inventent le supercalculateur de bureau

Surprise. Microsoft se lance dans le HPC de bureau avec le monstre sacré du supercalcul, Cray. Mieux encore, l'éditeur équipera dès octobre le CX1 de son Windows HPC Server 2008. En avance sur son planning...

Il fut un temps où le seul nom de Cray allumait des petites étoiles dans les yeux des informaticiens férus de calcul. De là à disposer un jour d'une des petites merveilles du constructeur sur son bureau... Et pourtant, si eux en ont rêvé, Microsoft, lui, l'a fait. Il dévoile avec Cray, un supercalculateur de bureau.


Selon Kyril Faenov, DG de l'équipe HPC de Microsoft, le CX1 serait disponible dès octobre. Il compte jusqu'à 8 noeuds et un total de 16 Xeon d'Intel (au printemps, le fondeur est devenu partenaire de Cray, qui travaillait jusque là avec AMD.) Les Xeon sont au choix des bi ou quadri-coeurs, au choix. Chaque noeud possède jusqu'à 64Go de mémoire et l'ensemble dispose d'un maximum de 4 To de stockage. Les systèmes mixent des lames de calcul, de stockage et de visualisation en fonction des besoins.

Le CX1 tournera dès octobre sous Windows HPC Server 2008

Le partenariat de Microsoft avec Cray n'est pas exclusif et l'éditeur en envisage d'autres pour mettre au point des petits frères au CX1. Certains pourraient être dévoilés en même temps que Windows HPC Server 2008. En effet, bien que compatible avec Linux, le CX1 tournera sous l'OS HPC (High performance computing) de Microsoft. Prévu initialement pour la fin de l'année, celui-ci pourrait être disponible dès lundi. Reste à savoir si Microsoft, qui n'a jamais percé dans le domaine, répondra aux attentes d'un secteur particulièrement exigeant. Pour l'instant, les deux partenaires n'annoncent aucune mesure de puissance pour la machine.

Compact, le CX1 est destiné aux applications de simulation et modélisation, particulièrement gourmande en puissance. Le projet pourrait paraître incongru, mais ces applications longtemps réservées aux chercheurs et aux scientifiques se répandent de plus en plus hors des laboratoires dans l'industrie pour la conception de produits, dans la finance pour anticiper, dans l'animation vidéo pour modéliser les images, voire même dans le commerce pour simuler le comportement des clients dans les magasins, etc. Enfin, même si le CX1 s'installe sur le bureau et ne prend que peu de place, ce n'est pas un netbook. Il faudra compter entre 20000 et 60000 $ pour s'en offrir un. Mais pour un supercalculateur, c'est un vrai prix d'ami.

Source : http://www.lemondeinformatique.fr/actualites/lire-microsoft-et-cray-inventent-le-supercalculateur-de-bureau-26929.html

Symantec lance la cuvée Norton Internet Security 2009

C’est sur les terres espagnoles que Symantec a décidé de lancer sa nouvelle gamme de sécurité. L’éditeur martèle qu’il a entendu les critiques des consommateurs

Madrid - Une Formule 1, des avions de chasse, puis, apothéose, chacune des personnes présentes à la convention se croit embarquée dans une fusée spatiale. Voilà comment Symantec entend faire passer le message que le Norton Internet Security cuvée 2009 est plus rapide que les moutures précédentes.

Rowan Trollope, le Vice-President de Symantec joue les chronométreurs et ironise : "52,77 secondes ! A partir de l’installation, tout est plus rapide". En quelques clics, l’installation se fait. L’éditeur semble donc avoir choisi de miser sur la simplicité ainsi que sur la rapidité d’installation et d’utilisation. Le responsable, présent à Madrid, ajoute : "Nous avons pris conscience que la plupart des solutions de sécurité ralentissent considérablement les postes. C’est pourquoi nous pensons être les plus rapides pour les scans de malwares".

Cette version de Norton a-t-elle pris en compte toutes les critiques des utilisateurs qui considèrent parfois les outils proposés par l'éditeur comme de véritables "usines à gaz" ? Pour Valérie Brunhes, directrice commerciale 'consumer' Europe du Sud, l’expérience et les retours consommateurs sont la clé de voûte de l’évolution de Norton : "Nous essayons d’agir, penser, bien qu’étant des professionnels, comme des consommateurs afin de répondre au mieux aux attentes mais aussi d’adopter les mêmes positions que nos clients". Des avis dont on connaîtra bientôt la teneur, dès que Norton Internet Security 2009 sera disponible fin septembre.

A la loupe, la cuvée 2009 dispose certes d’une interface plus soignée permettant notamment de connaître en un coup d'oeil l'état de sécurité de son poste. Reste que Symantec a fait le choix de conserver sa stratégie concernant le classique système de signatures anti-virus alors que les concurrents comme McAfee ou TrendMicro ont choisi la "voie des cieux" en utilisant la technologie de cloud computing. Rappel. La méthode est une approche sur le poste local et une partie hébergée dans les laboratoires de l’éditeur. Finies donc les bases de données de signatures hébergées sur l’ordinateur des utilisateurs, et leur mise à jour à intervalle fixe. Avec cette méthode, une connexion est établie en temps réel avec les serveurs de l'éditeur au moment où la menace est détectée.

Symantec a, pour sa part, choisi d’élaborer Norton Insight. L’outil utilise le partage de connaissances de scans. Lee Sharrocks, vice-président des ventes EMEA s’explique : "Quand un programme est déclaré sécurisé, il ne sera, à l’avenir, plus scanné. Le terme 'community tested' va alors apparaître. Il signifie que les scans de malwares ont été faits par d’autres utilisateurs". L'éditeur reste donc toujours dans l’optique de rapidité, d’autant que Norton Internet Security 2009 exécutera la plupart des tâches lorsque l’utilisateur n’est pas sur son poste (en mode veille).

Le reste des outils de ce véritable pack de sécurité regroupent un anti-spyware, un filtre anti-spam, un mode anti-phishing ainsi qu’un programme gérant les identités. Bref, tout l’arsenal de ce qui se fait traditionnellement en matière de sécurité informatique. Avec Norton Internet Security 2009 et Norton Antivirus 2009, Symantec espère bien rester leader du marché. Avec 50 millions de clients, l’éditeur joue donc la sécurité (sic).Il compte néanmoins continuer sa progression dans le secteur et poursuivre sa politique d’acquisition de nouvelles compagnies dès le premier trimestre 2009.

Quant au prix de la version 2009 de Norton, il ne varie pas puisque Norton Internet Security 2009 Premier (Norton 2009 et Ghost 12, sorte de Recovery Mode) est proposé à 69,99 euros pour trois utilisateurs et le Norton Antivirus 2009 a 39,99 euros. De quoi conserver de bonnes habitudes.

Source : http://www.silicon.fr/fr/news/2008/09/17/symantec_lance_la_cuve_norton_internet_security_2009

mercredi 17 septembre 2008

La révision des politiques publiques réduit-elle les dépenses informatiques de l’Etat ?

Les ministères de l’Economie et du Budget mutualisent leurs projets informatiques. Ces derniers devraient représenter un investissement de 555 millions d’euros en 2009

Les dépenses des ministères de l’Economie et du Budget en matière de TIC (logiciels et services) devrait atteindre 555 millions d’euros en 2009, soit un taux de croissance inférieur à celui des dépenses TIC de l’Etat en général. Ces dernières devraient croître de 6,1% par an d’ici 2009, contre 4,3% pour les deux ministères pré-cités. C’est ce qu’estime le cabinet Markess, dans un communiqué du 12 septembre. L’agence, spécialisée dans l’impact des technologies sur les organisations, a passé en revue les projets des ministères de l’économie et celui du budget.

Projets interministériels

Révision générale des politiques publiques (RGPP) oblige, les deux vont vers une mutualisation de leurs projets. C’est le cas de trois d’entre eux, qui, pour certains, vont également impacter d’autres ministères. « L’opérateur national de paie, ONP, qui est sous la tutelle du ministère du budget, impactera tous les ministères. Même si ces derniers gardent la maîtrise de leurs ressources humaines, ils devront respecter ce socle commun » explique Aurélie Courtaudon, chargée de l’étude chez Markess.

En revanche, d’ici trois ou quatre ans, les deux ministères de l’économie et du budget devraient avoir uns solution de gestion de ressources humaines commune, Sirius. « Pour l’instant, chaque direction métier a son propre logiciel » ajoute Aurélie Courtaudon. Parmi les autres projets partagés, il y a également Chorus, le projet de système d’information comptable et financier, qui est géré par l’ AIFE, l’agence pour l’informatique financière de l’Etat, sous la tutelle du ministère du budget. Le déploiement de la téléphonie sur IP sera également partagé, géré par le service système d’information rattaché au secrétariat général commun aux deux ministères.

Chorus : 150 millions d’euros

Ces projets représenteront une part non négligeable du budget estimé des ministères. Chorus devrait revenir à 150 millions en 2008, et l’ONP à 29 millions d’euros. Certaines directions métiers ont également des budgets importants, comme la direction des finances, qui gère le projet Copernic, ou celle des douanes, notamment engagée dans des chantiers de dématérialisation des déclarations.

Et il faut ajouter des projets applicatifs « qui touchent quasiment tous les domaines métiers et transverse de l’organisation (gestion de contenu, collaboration, décisionnel, applications de contenu…) » décrit le communiqué de Markess. Dernier volet « les projets des entités sous tutelle de ces ministères, comme l’ANPE/Unedic » ajoute Aurélie Courtaudon. La nouvelle entité devra rapprocher les systèmes d’information des deux organismes, notamment sur les fonctions support.

Source : http://www.silicon.fr/fr/news/2008/09/16/la_revision_des_politiques_publiques_eduit_elle_les_depenses_informatiques_de_l_etat___

Mac OS X passe en version 10.5.5

La mise à jour corrige notamment des problèmes de stabilité

Nouvelle mise à jour pour Leopard. Apple vient de mettre en ligne la version 10.5.5 de Mac OS X qui apporte des "améliorations globales du système d'exploitation, offrant à votre Mac une meilleure stabilité, compatibilité et sécurité".

Du côté de la sécurité, les correctifs s'attachent à résoudre des problèmes liés à la manipulation d'images au format TIFF, JPEG, PNG et PICT. Surtout, un patch comble définitivement la fameuse faille DNS. Rappelons que cette faille a été découverte en juillet par l'expert Dan Kaminsky qui a d'abord gardé l'information secrète. Elle aurait pu permettre à des pirates de rediriger n'importe quelle adresse Internet vers d'autres sites de leur choix ou leurs propres systèmes.

Un premier correctif avait été publié en août mais la rustine n'était pas totalement efficace. Un mois plus tard, le patch semble fonctionnel mais certains critiquent le manque de réactivité de la pomme. Dans le reste de la mise à jour, on trouve certains correctifs améliorant la stabilité des Macs et notamment de TextEdit et de la lecture de vidéo . Spotlight, Active Directory et la synchronisation de l'iPhone avec iCal et le carnet d'adresses ont également été améliorées. Apple met également à jour Tiger avec la publication d’un correctif pour la version Mac OS X 10.4.11 qui corrige les failles de sécurité récemment découvertes.

Pour télécharger cette mise à jour, cliquez ici

Source : http://www.silicon.fr/fr/news/2008/09/16/mac_os_x_passe_en_version_10_5_5

Les éditeurs de sécurité adaptent leurs produits pour la virtualisation

Coup sur coup, lors du dernier VMworld, McAfee et Symantec ont présenté leurs solutions de sécurités dédiées aux machines virtuelles

La sécurité des environnements virtuels s'invite au coeur de la conférence VMworld, à Las Vegas. Les deux éditeurs de sécurité, McAfee et Symantec, y présentent en effet leurs solutions dédiées. Le premier à ouvrir le bal est McAfee avec sa suite Total Protection for Virtualization. Celle-ci regroupe plusieurs logiciels déjà existants - VirusScan, AntiSpyware, Host Intrusion Pevention et ePolicy Orchestrator - et y ajoute une fonction permettant de vérifier l'état des machines virtuelles « offline », c'est à dire sans avoir à les activer. La licence sera également simplifiée car il n'en faudra qu'une par serveur physique, et non une par machine virtuelle comme c'est actuellement le cas. Total Protection for Virtualization fonctionnera pour des environnements Linux et Windows et sera disponible à la fin de l'année. Aucun prix n'a encore été communiqué.

Son rival, Symantec, a présenté un prototype baptisé Symantec Security Virtual Machine. Il s'agit d'une machine virtuelle tournant sous Linux et dédiée à la sécurité, prévue pour être installer sur un serveur physique et qui protègera les autres machines virtuelles installées sur le même serveur en utilisant les API VMSafe développées par VMWare. Aucune date de sortie n'a encore été avancée. McAfee a présenté un prototype similaire en février. Et il faudra attendre encore quelques mois avant que VMware n'intègre les API VMSafe dans ses propres produits.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-editeurs-de-securite-adaptent-leurs-produits-pour-la-virtualisation-26924.html

mardi 16 septembre 2008

Dassault Systèmes met à jour son outil gratuit de modélisation 3D

La compagnie est assez méconnue pour ses initiatives dans le domaine grand public… à tort

Dassault Systèmes propose la seconde version de son outil de modélisation 3D 3DVIA Shape. Ce logiciel pour Windows (XP ou supérieur) est totalement gratuit. Il offre pourtant des fonctionnalités intéressantes. Simple d'usage, il permet aux artistes de créer des scènes 3D (Shape), de remixer des éléments 3D existants (Remix) et de publier le tout sur le site www.3DVIA.com (Publish).

Ce site web rassemble plus de 45.000 utilisateurs enregistrés, lesquels partagent leurs créations et objets 3D, qui pourront être réutilisés par d'autres participants. Une idée originale. « Le nouveau logiciel 3DVIA Shape élargit la création de contenus 3D à une toute nouvelle catégorie d'utilisateurs et représente un nouveau lieu où nos artistes 3D peuvent partager leurs travaux », déclare Lynne Wilson, senior vice president et general manager 3DVIA chez Dassault Systèmes. « La nouvelle fonction de remix 3D simplifie la publication en 3D, tout en la rendant plus conviviale. Nous sommes impatients de voir ce que les utilisateurs vont en faire
L'interface utilisateur et les performances de cette nouvelle version de 3DVIA Shape ont été améliorées. Des tutoriaux vidéo ont également été ajoutés, ce qui simplifiera la prise en main de cet outil. Notez que si le logiciel n'est disponible que sous Windows, les utilisateurs Mac OS X (quid de Linux ?) pourront - eux aussi - aller consulter les galeries présentes sur le site www.3DVIA.com.

Source : http://www.silicon.fr/fr/news/2008/09/15/dassault_systemes_met_a_jour_son_outil_gratuit_de_modelisation_3d

VLC media player passe en version 0.9

Cette nouvelle mouture place la barre très haut

Le lecteur audio/vidéo open source VLC media player est maintenant disponible en version 9.2 (nom de code « Grishenko »). Cette mouture majeure apporte de multiples avancées face à la 0.8.6. Tout d'abord, l'interface pour Windows et Linux est entièrement refondue. Il en va de même avec le panneau de configuration, plus simple d'usage, quoique toujours aussi complet.

Le nouveau support des listes de lecture est plus qu'appréciable. L'équipe de développement de ce logiciel a pensé à ajouter la gestion des podcasts (qui proposent des flux audio ou vidéo), des émissions de télévision diffusées sur Internet et même du service Freebox TV, qui permet de lire les chaînes du bouquet de Free sur un PC. Notez que la lecture de musique s'accompagne de l'affichage de la pochette de l'album.

Le nombre de formats supportés croit de façon substantielle : APE Audio, Atrac3, Dirac, Flash, H.264 PAFF, RealVideo, VC-3, etc. Les décodeurs existants sont également améliorés alors que de nouveaux filtres font leur apparition. Enfin, les utilisateurs de Windows seront heureux d'apprendre que les périphériques DVB (TNT, satellite ou câble) sont supportés. Cette fonction, qui était déjà disponible sous Linux, fait de VLC media player un outil efficace pour la lecture des programmes de la télévision numérique. L'encodage au format FLV (Adobe Flash) est maintenant possible, alors que celui en H.264 sera plus rapide qu'auparavant. Bonne nouvelle pour les développeurs, VLC media player supportera dorénavant des greffons externes.

Ce projet lancé initialement par des élèves de l'École Centrale Paris est aujourd'hui maintenu par une équipe de développeurs habitant plus de vingt pays différents. Une belle réussite.

Source : http://www.silicon.fr/fr/news/2008/09/15/vlc_media_player_passe_en_version_0_9

Une technologie d'archivage pour les 10 000 prochaines années

Inventer un support qui durerait 10 000 ans -une éternité !

C'est la principale retombée technologique du Projet Rosetta, qui vise a conserver une trace des langues menacées de disparition (50% à 90% pourraient disparaître d'ici un siècle). Rosetta tire d'ailleurs son nom de la pierre de Rosette qui, déchiffrée par Jean-François Champollion en 1822, a permis de comprendre les hiéroglyphes. Le projet de conception de ce type de disque a pris forme au sein de The Long Now foundation, dont la vocation est de créer une bibliothèque qui durerait dix siècles.

Entre 1000 et 100 000 pages sur un support de 5 cm de diamètre

Premier résultat des travaux en cours, le HD Rosetta est un support à base de silicium et de nickel développé par la société Norsam Technologies. Il accepte des enregistrements analogiques (optiques) ou numériques, résiste à l'épreuve du temps et des éléments (champs électromagnétiques, fortes variations de température, eau salée). Et sa pérennité est sans commune mesure avec celle de tous les autres supports de stockage.

Norsam affirme que l'on peut stocker pour une durée record entre 1000 et 100 000 pages par support de 7,5 cm de diamètre (3 pouces). Le stockage analogique est recommandé pour s'émanciper des problèmes de compatibilité, de standardisation et d'obsolescence des formats de fichiers et des programmes informatiques. Le prix reste toutefois prohibitif : 25 000 dollars pour chacun des cinq premiers prototypes... Norsam espère néanmoins faire baisser les prix du HD Rosetta pour le rendre accessible au plus grand nombre.

Source : http://www.lemondeinformatique.fr/actualites/lire-une-technologie-d-archivage-pour-les-10-000-prochaines-annees-26906.html

Tim Berners-Lee annonce la création de sa fondation pour le futur du Web

Tim Berners-Lee, le père du Web, vient d'annoncer la prochaine création de sa fondation, dont les buts principaux consisteront à étendre les capacités d'Internet et à faire en sorte que le plus grand nombre puisse y avoir accès

La World Wide Web Foundation, prévue pour être lancée au début de l'année prochaine, promouvra « un Web ouvert et libre », explique Tim Berners-Lee. Elle s'attachera à la défense de la démocratie, la liberté des internautes de s'exprimer et d'accéder à tous les contenus.
Parallèlement, la fondation se concentrera pour trouver des solutions afin de permettre aux 80% de la population mondiale n'ayant pas accès au Web d'y accéder.

Une dotation de 5 M$ pour commencer

Face à ces buts ambitieux, le père du WWW considère qu'il est important que le Web bénéficie à l'humanité dans son ensemble et pas seulement à quelques privilégiés. Première contributrice à la W3C Foundation, la Knight Foundation injectera 5 M$ pour lancer les activités. Cette dernière, focalisée sur la défense du journalisme, estime qu'Internet est un outil essentiel à la liberté d'expression et de la presse.

Source : http://www.lemondeinformatique.fr/actualites/lire-tim-berners-lee-annonce-la-creation-de-sa-fondation-pour-le-futur-du-web-26913.html

lundi 15 septembre 2008

WinZip 12.0 cible le marché des médias numériques

La version 12.0 introduit de nouveaux algorithmes améliorant la sauvegarde de données et offrant un taux de compression d'un fichier image de 25%

WinZip Computing a annoncé ce 12 septembre le lancement de la version 12.0 de son célèbre utilitaire de compression et de stockage, ciblant les utilisateurs multimédia. Au-delà des améliorations de l'interface, l'édtieur a introduit de nouveaux algorithmes de compression comme le LZMA (Lempel- Ziv-Markov chain Algorithm). D'après l'éditeur, un nouvel algorithme JPEG pour cette version 12.0 peut compresser une image avec un taux allant jusqu'à 25 % sans en affecter la qualité. WinZip 12.0 ajoute une prise en charge des formats de fichier d'image disque 7Z, CD/DVD .ISO et .IMG.

Une nouvelle règle de mot de passe pour les archives compressées permet "la personnalisation du cryptage du mot de passe pour lui donner la complexité souhaitée". Les administrateurs de la version Pro peuvent également spécifier les méthodes de cryptage disponibles pour chaque utilisateur et désactiver les fonctionnalités de cryptage pendant l'installation MSI. Les deux versions sont disponibles pour Windows XP et Vista. Le logiciel WinZip a été acheté par le concepteur d'applications graphiques Corel en mai 2006.

Source : http://www.silicon.fr/fr/news/2008/09/12/winzip_12_0_cible_le_marche_des_medias_numeriques

Une bêta 1 de Windows 7 en décembre ?

Le successeur de Vista devrait être lancé en janvier 2010

Le calendrier du prochain Windows, nom de code Seven, semble se préciser. Nous savions déjà que la firme entendait désormais appliquer de nouveaux cycles de production, soit un système d'exploitation tous les trois ans. Sachant que Windows Vista est sorti le 20 janvier 2007, Windows 7 devrait donc faire son apparition début 2010, avec une RTM fin 2009.

Aujourd'hui, selon la très bien renseignée Mary Jo Foley de ZDnet.com, une première bêta de Windows 7 sera mise en ligne à la mi-décembre de cette année. Les tests en grandeur nature dureront donc 12 ou 13 mois. Selon elle, certains utilisateurs spécialement choisis auraient déjà accès à des pré-versions du futur OS et de son système multi-touch. Selon les sources citées par la journaliste, cette première version test à grande échelle sera présentée une semaine avant Noël mais pas avant. Certains pensaient que Microsoft aurait profité WinHEC (Windows Hardware Engineering Conference) en novembre pour introduire le nouvel OS mais visiblement ce n'est pas le cas.

Et du côté des entreprises ? Selon Didier Burdinat, patron des produits Windows que nous avons interrogé il y a quelques mois, les entreprises attendent en général le SP1 d'un système d'exploitation pour migrer. Il est donc peu probable que Windows Seven soit adopté par les professionnels avant mi-2011. Néanmoins, nous sommes en droit de nous demander si un cycle de trois ans entre chaque système n'est pas trop court. De fait, il est difficile pour une entreprise d'adopter un système d'exploitation en version SP1 (environ 18 mois après sa sortie), alors même que le suivant arrivera 18 mois plus tard. Il nous semble probable que certains clients traîneront les pieds face à ce rythme imposé, quitte à sauter une génération. Celle de Vista ?

Source : http://www.silicon.fr/fr/news/2008/09/12/une_beta_1_de_windows_7_en_decembre__

vendredi 12 septembre 2008

Mandriva sort sa distribution pour les netbooks

L'éditeur français Mandriva a annoncé une version de sa distribution Linux pour ce type d'ordinateurs et optimisée pour l'Atom d'Intel

Le système était déjà présent sur des ultraportables comme le Classmate d'Intel. Mandriva Mini, c'est son nom, démarre en moins de 30 secondes et propose une ergonomie pensée pour des écrans de 9 à 10 pouces maximum. Les principaux codecs multimédia sont disponibles pour Mandriva Mini.

Mais ne cherchez pas à télécharger cette version, elle ne sera fournie qu'aux constructeurs en OEM. Les premiers modèles à en bénéficier seront les ultraportables Gdium d'Emtec, déjà livré avec une distribution Mandriva sur clé USB depuis juillet.

Source : http://micro.lemondeinformatique.fr/actualites/lire-mandriva-sort-sa-distribution-pour-les-netbooks-2297.html

Les billets de train s'installent dans une clé USB

La SNCF teste un nouveau titre de transport dématérialisé sur une clé USB sans contact. Celle-ci vient compléter la panoplie des mobiles et autres cartes bancaires sans contact

Dans les prochaines semaines, un millier de cobayes recevront dans plusieurs régions de France, une clé USB faisant office de ticket sans contact pour leurs déplacements en TER (Trains Express Régionaux).C'est la petite société innovante Neowave qui a été retenue pour le prochain test de billet sans contact de la SNCF.


La clé embarque une carte à puce afin de sécuriser les informations. Elle utilise deux modes de connexion. L'USB sert tout simplement à recharger ou à acheter son billet sur le site web de la SNCF en toute tranquillité- et d'éviter ainsi les files d'attente. Le mode sans contact, lui, permet au contrôleur de la SNCF de vérifier la validité du titre de transport installé sur la clé, en lisant celle-ci par simple passage sur son terminal.

Une solution en question, à l'heure débutent les mobiles sans contact

La clé USB embarque également jusqu'à 4 Go de mémoire pour les donnée personnelles, et à terme des certificats d'authentification. La RATP devrait également lancer un test pilote utilisant cette clé USB. La question se pose de la viabilité d'une telle solution à l'heure où les téléphones mobiles se mettent au sans contact tout comme les cartes bancaires, via l'intégration de composants NFC.

Reste qu'il y a encore très de peu de téléphone sans contact sur le marché et qu'il faudra plusieurs années avant que le parc complet de mobiles ne soit "sans-contact". Quant aux cartes bancaires, elles ne se connectent pas aisément à un PC, puisqu'il faut disposer d'un lecteur spécifique. Ce qui laisse une fenêtre de tir pour la clé USB sans contact. Cette clé USB SNCF pourra aussi être utilisée comme titre de transport Navigo dans les transports parisiens.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-billets-de-train-s-installent-dans-une-cle-usb-26887.html

jeudi 11 septembre 2008

Hyper-V Server 2008 de Microsoft sera gratuit

VMware ne va pas du tout apprécier

La technologie Hyper-V est au cœur de Windows Server 2008. Microsoft va prochainement lancer l'hyperviseur Hyper-V Server 2008. À l'instar de VMware ESXi, la machine démarre directement avec Hyper-V Server 2008, lequel inclut une version épurée de Windows Server 2008.

Ce produit sera disponible prochainement en téléchargement gratuit. Contrairement à Windows Server 2008, aucune licence n'est cependant fournie pour les machines virtuelles (avec Windows Server 2008 Enterprise, quatre systèmes virtuels Windows Server 2008 peuvent être déployés, sans surcoût). Cette solution sera toutefois idéale pour des opérations de test et de développement, ou tout simplement pour déployer une série de serveurs virtuels fonctionnant sous Linux. Les compagnies qui disposent déjà de licences de systèmes d'exploitation serveur, pourront également les réutiliser à moindre coût.

Notez qu'Hyper-V Server 2008 est limité à des configurations comprenant un maximum de quatre processeurs x86 64 bits (monocœurs, bicœurs ou quadricœurs). Il peut gérer un maximum de 128 machines virtuelles et de 32 Go de mémoire physique. Les machines virtuelles disposent d'un maximum de quatre processeurs (virtuels) 32 bits ou 64 bits, avec au mieux 31 Go de mémoire. Certaines fonctions de Windows Server 2008 sont accessibles : reconnaissance des images disques au format VHD, support du chiffrement des partitions (BitLocker), sauvegarde en ligne (Live Backup) et création d'instantanés (Snapshots). Notez que System Center Virtual Machine Manager pourra gérer les machines fonctionnant sous Hyper-V Server 2008.

Source : http://www.silicon.fr/fr/news/2008/09/10/hyper_v_server_2008_de_microsoft_sera_gratuit

mercredi 10 septembre 2008

L'informatique monumentale derrière l'accélérateur de particules du CERN

Le 10 septembre, le CERN inaugure le plus puissant accélérateur de particules du monde

Wolfgang von Rüden, chef du département IT, a confié au MondeInformatique.fr les détails de l'infrastructure informatique qui aidera les scientifiques à comprendre la naissance du monde.

Le 10 septembre, le CERN (Organisation européenne pour la recherche nucléaire) inaugure enfin le LHC (grand collisionneur de hadrons), l'accélérateur de particules le plus puissant du monde. Ce tunnel souterrain de 27 km, situé sur la frontière franco-suisse près de Genève, sera le lieu d'expériences de physique attendues depuis des années.

Les particules seront précipitées à grande vitesse les unes contre les autres. De ces collisions naîtront de nouvelles particules censées aider les scientifiques à mieux comprendre la naissance de notre monde. Pour récupérer les résultats de ces expériences, le LHC héberge de gigantesques détecteurs (45 m de long sur 22 m de haut) remplis de cellules de mesure qui enregistrent les traces de ces nouvelles particules et les convertissent en données numériques. « Ces détecteurs correspondent à ce que pourraient être des caméras de 150 millions de pixels », explique Wolfgang von Rüden, chef du département IT du CERN.

Près de 15 peta-octets de données générées chaque année

Lorsque le LHC aura atteint sa vitesse de croisière, sans doute début 2009, les expériences scientifiques menées à bien seront à l'origine d'un peta-octet de données chaque seconde... Après plusieurs nettoyages successifs afin de ne conserver que les données utiles, il en restera encore près de 1 Go par seconde. « L'équivalent d'un DVD toutes les cinq secondes », note Wolfgang von Rüden, chef du département IT du CERN. A raison de 100 jours de fonctionnement environ par an, cela représente presque 9 Peta-octets de données auxquelles il faut ajouter les informations de simulation. Ce sont donc 15 millions de milliards d'octets qui sortiront chaque année des essais du LHC !

Autant dire qu'un datacenter classique, même des plus puissants, n'y suffirait pas ! Aussi, dès les débuts du projet, l'organisation a opté pour un système de grille de données et de calcul (grid). Les quantités astronomiques d'informations que les scientifiques devront étudier sont distribuées sur différents systèmes pour être stockées et prétraitées.

Une grille de trois niveaux répartie sur tous les continents

L'infrastructure serveur compte trois niveaux. Le premier, le tier 0, installé au Cern, stocke l'ensemble des informations sur disque et sur bande magnétique (5 Petaoctets de capacité de stockage sur disque et 16 Petaoctets sur bande). Onze autres centres informatiques dans le monde constituent le tier 1 (sept en Europe dont un à Lyon, deux aux Etats-Unis, un au Canada et un à Taïwan). Chacun obtient une copie des données et des métadonnées associées (calibrage, conditions de l'expérience, etc.). Enfin, plus d'une centaine de centres distribués viennent en tier 2 (dont un à Orsay, un à Marseille, un à Nantes, un à Clermont-Ferrand, etc.)

Toutes ces informations sont synchronisées en temps réel avec l'ensemble des sites distants sur des bases Oracle. Les scientifiques des différents pays travaillent ainsi sur les toutes dernières données sorties du LHC. « Nous travaillons directement avec Oracle sur la technologie Streams qui permet une telle synchronisation, explique Wolfgang von Rüden. Nous avons un projet commun avec eux, tout comme avec Intel, HP ou Siemens, par exemple, dans le cadre de l'initiative Openlab. »

Des technologies poussées dans leurs derniers retranchements

« You make it, we break it, c'est ce que nous disons à nos partenaires technologiques », plaisante le responsable IT. Vous le fabriquez, nous le cassons. Une boutade qui reflète bien la réalité. « Nous poussons les technologies dans leurs derniers retranchements. Nous avons souvent les versions bêta, voire alpha, des machines, par exemple. »

Le centre du CERN (tier 0) héberge des grappes de PC classiques ainsi que quelques serveurs. Les plus puissants comptent quatre quadri-coeurs Intel. « En 2009, à Genève, nous devrions avoir une grille de 100 000 coeurs, détaille Wolfgang von Rüden. Et sans doute 150 000 coeurs, dès l'année d'après. » Pour choisir les machines qui constituent ces grappes, étonnamment le CERN fait appel au benchmark SpecINT qui mesure les capacités de calcul sur les nombres entiers des PC. Alors que la plupart du temps, les applications scientifiques s'appuient sur la performance en virgule flottante. « Les performances des entrées/sorties entre machines n'ont pas tellement d'importance, justifie ainsi Wolfgan von Rüden. Et finalement, le calcul en nombres entiers correspond davantage à notre charge de travail que le calcul en virgule flottante. Les analyses de données auxquelles les scientifiques procéderont impliquent davantage de comparaisons de données que de calculs en virgule flottante. »

Une grille sous Linux avec un gestionnaire inspiré du projet EGEE

La grille fonctionne sous un Linux appelé Scientific Linux. Il s'agit d'une version compatible au niveau binaire avec la distribution de Red Hat, dont le noyau a été cependant quelque peu modifié par le CERN. Le système de gestion de la grille est un environnement Open Source qui s'appuie entre autres sur les techniques du projet Globus mais aussi sur des développements du CERN dans le cadre du projet européen EGEE (Enabling Grids for E-sciencE) qu'il chapeaute.

Le réseau interne s'appuie sur Ethernet et le backbone sur du 10 Gbps. Quant aux liens entre les sites, sans surprise, il s'agit de fibre dédiée. « Nous avons besoin de marge pour nos communications, raconte Wolfgang von Rüden. Si un centre a un problème quelconque de transmission, il transfère ses données avec retard, et donc en quantité plus importante. Ce qui exige davantage de bande passante. » Ce sont environ 2 Go de données qui transitent chaque seconde sur les réseaux entre les centres de données. « Mais nous avons déjà eu, lors des essais, des pointes à 3 ou 4 Go. »

Economiser l'énergie et l'espace, Green IT oblige

Il est à noter qu'avec une telle infrastructure, le CERN surveille sa consommation électrique et donne, lui-aussi, dans le green IT. Dans ses appels d'offre, s'il regarde évidemment le prix des machines, il tient également compte « de la consommation électrique par rapport à la puissance de calcul fourni, ainsi que d'autres paramètres tel que le volume occupé ou la connexion au réseau, ajoute Wolfgang von Rüden. Cela nous permet de favoriser les fournisseurs qui offrent des solutions plus écologiques. »

Le centre de calcul date des années 70 et consomme environ 4,7 MW avec une charge utile inférieure à 3 MW. « Il a été adapté aux besoins du LHC, mais dans les limites du possible, regrette le responsable IT. Et il est loin d'être aussi efficace que des solutions modernes. » Le CERN mène des études pour un nouveau centre plus adapté et plus performant qui verra le jour probablement vers la fin de 2011.

Reste que demain, parmi les 6 000 employés du site genevois, 350 informaticiens assisteront avec fierté, mais forcément un peu d'angoisse, à l'inauguration. Ils ont passé des heures et des jours à mettre en place l'infrastructure informatique du LHC. Ils ont réalisé deux tests grandeur nature, en février et en mai, qui ont duré chacun quatre semaines. Alors pour eux, le Graal n'est sans doute pas le Boson de Higgs, la particule chérie des scientifiques, mais tout simplement le bon fonctionnement de la grille.

Source : http://www.lemondeinformatique.fr/actualites/lire-l-informatique-monumentale-derriere-l-accelerateur-de-particules-du-cern-26876-page-1.html

Dernière ligne droite pour OpenOffice.org 3.0

Cette première RC est une bonne occasion de découvrir la nouvelle version d'OpenOffice.org

La Release Candidate 1 d'OpenOffice.org 3.0 est téléchargeable sur cette page. Elle est disponible pour Windows, Mac OS X Intel (en version Aqua), Linux x86 (32 bits et 64 bits) ainsi que Solaris (Sparc et x86). Notez que cette version n'est actuellement disponible qu'en anglais. La date de sortie de la mouture finale n'est pas encore connue, mais elle risque fort d'être très proche. Depuis la version bêta, aucune réelle nouveauté n'a été ajoutée. Rappelons donc ce qu'OpenOffice.org 3.0 apportera face à l'actuelle version 2.4.1. Commençons par les filtres d'import/export : import des documents issus de Microsoft Office 2007, support de l'ODF 1.2 et - via une extension - import des documents PDF.

Le traitement de texte offre un mode multipage et une gestion des notes améliorée. Pour le tableur, 1024 colonnes, un 'solveur' et un meilleur support des macros VBA sont de la partie. L'outil de dessin vectoriel est nettement plus puissant qu'auparavant (gestion des tableaux, opérations complexes sur les images, etc.), ce qui a une incidence directe sur le module de présentation. Notez que ce dernier pourra, à l'aide d'une extension, intégrer une console de présentation.

Nous avons également tout particulièrement apprécié le design de l'interface (en particulier celle du tableur) ainsi que le nouveau gestionnaire d'extensions. OpenOffice.org 3.0 se hisse au niveau des plus grands et obligera la concurrence à redoubler d'efforts.

Source : http://www.silicon.fr/fr/news/2008/09/09/derniere_ligne_droite_pour_openoffice_org_3_0

McAfee veut révolutionner la sécurité avec Artemis

La déesse de la chasse est, selon l’éditeur de sécurité, un nouveau service en temps réel via Internet censé réduire les menaces

McAfee Artemis est un nouveau service Internet hébergé par McAfee Avert Labs censé renforcer la sécurité contre les virus, vers, chevaux de Troie et autres malwares. La nouveauté réside dans le fait qu’Artemis est capable de protéger immédiatement un ordinateur en ligne en cas d’attaque, sans qu’il soit nécessaire de mettre à niveau les fichiers de signatures.

Une prise de position de la part de l’éditeur qui se démarque de la concurrence. McAfee cherche là à rompre avec la méthode des mises à jour des signatures toutes les heures, grâce à des bases de données. Pour Jeff Green, le vice-président de McAfee Avert Labs, il y a nécessité d’une nouvelle approche : "Avec une progression annoncée de 300 % du nombre de programmes malveillants par rapport à l’année dernière, nous sommes face à un véritable déluge de menaces. Il insiste, Artemis est le premier système de défense qui fonctionne à la vitesse d’Internet et assure une protection inégalée". McAfee nous promet donc une détection instantanée de la menace qu’elle soit connue ou non. Ce qui reste bien évidemment à vérifier.

Par ce procédé, l’éditeur cherche à éviter les risques entre le moment où la menace est identifiée et celui où sa signature est installée sur le poste. En détail, quand Artemis détecte un fichier douteux sur un ordinateur, il se connecte en temps réel aux serveurs de McAfee pour savoir si le fichier est malveillant ou non. Cette vérification ne prend alors que quelques secondes. Le service Artemis est gratuit dans la mesure où il est disponible dans McAfee Total Protection Service. La solution est d’ailleurs déjà disponible pour les professionnels et le sera au cours du mois pour McAfee VirusScan Enterprise et les produits grand public. Il sera alors baptisé Active Protection.

Source : http://www.silicon.fr/fr/news/2008/09/09/mcafee_veut_revolutionner_la_securite_avec_artemis

mardi 9 septembre 2008

Virtualisation : l'Hyper-V de Microsoft devient gratuit

Microsoft change de stratégie

Pour s'imposer sur le secteur de la virtualisation, face à VMware, numéro un mondial. Son outil phare, l'Hyper-V Server 2008, sera désormais proposé en téléchargement gratuit, d'ici trente jours. Disponible pour les machines sous Windows ou Linux, l'Hyper-V, auparavant facturé 28 dollars, est accompagné d'une version allégée Server Core de Windows Server 2008.

Une décision annoncée à l'occasion d'autres présentations de nouveautés, toujours dans le champ de la virtualisation. Un secteur que Microsoft investit en frappant fort puisqu'il s'est entouré d'une vingtaine de partenaires pour l'épauler et promouvoir ses solutions, dans le cadre du programme « Get Virtual ». Dans la liste, on trouve AMD, Citrix, Dell, HP, IBM, Novell ou encore Sun Microsystems.

L'éditeur a également levé le voile sur son System Center Virtual Machine Manager (SVCMM) 2008, qui permet aux entreprises de centraliser l'administration de leurs infrastructures virtuelles. L'outil est compatible avec les produits Microsoft (Windows Server 2008 Hyper-V, Server 2008 Hyper-V ou Virtual Server 2005 R2), mais aussi avec VMware Virtual Infrastructure 3, solution de VMware.

Microsoft a pris un virage résolument offensif dans sa stratégie de virtualisation, après avoir pendant longtemps freiné les entreprises qui en étaient adeptes ; l'éditeur leur facturait un temps des frais pour l'utilisation de différents systèmes d'exploitation virtuels.

[NdR : Merci à Georges P. pour cette information ;-) ]

Source : http://www.zdnet.fr/actualites/it-management/0,3800005311,39383097,00.htm

Oracle Fusion Applications : les développements progressent

A l'occasion de sa toute prochaine conférence Open World (21-25 septembre, San Francisco), Oracle devrait faire un point sur l'avancée des développements réalisés autour de sa suite applicative Fusion Applications

Voilà plus de trois ans qu'Oracle travaille sur sa suite Fusion Applications qui doit réunir le meilleur des grands progiciels de gestion qu'il a rachetés depuis 2005 (PeopleSoft, JDE et Siebel , en tête). Sa prochaine conférence Open World (21-25 septembre 2008, San Francisco) devrait permettre d'en savoir un peu plus sur les développements en cours.

La livraison de cette suite applicative était à l'origine annoncée pour 2008, avec une première salve prévue pour 2007. Le déroulement de ce calendrier a pour l'instant été respecté puisqu'Oracle a effectivement présenté en novembre dernier, sur l'édition 2007 d'Open World, les premières pièces de Fusion Applications. Celles-ci sont axées sur la gestion de la relation client (GRC, en anglais CRM) et sont proposées en ligne (sur le mode 'Software as a service').

Fusion Applications embarque l'analyse de données

Depuis, l'éditeur a fourni peu de détails sur les étapes suivantes. Il semble toutefois que les développements progressent bon train, selon un billet posté fin août sur le blog de Floyd Teter, un utilisateur américain, familier des applications Oracle depuis une dizaine d'années. Une visite au siège social de l'éditeur a permis à cet utilisateur privilégié de constater « de visu » les avancées fonctionnelles, « bien réelles », de Fusion Applications. « Pas de présentations PowerPoint, ni de prototypes semi-opérationnels », relate Floyd Teter qui affirme avoir vu « d'authentiques applications » et avoir assisté à l'exécution de transactions ainsi qu'à l'exploration de données, à partir d'une application analytique pouvant descendre jusqu'aux détails de la transaction.

Il décrit des fonctions inspirées de la démarche Web 2.0, qui mettent l'accent sur la collaboration entre utilisateurs et qui proposent des outils d'analyse au sein du contexte fonctionnel. Espérons qu'Oracle profite d'Open World 2008 pour révéler à un public plus large les progrès réalisés sur Fusion Applications.

Une livraison progressive qui prendra du temps

En juin dernier, à l'occasion de la présentation des résultats financiers annuels, Larry Ellison, PDG d'Oracle avait annoncé une livraison de la suite sur plusieurs années, à partir de 2008. « Nous allons continuer à livrer des applications Fusion jusqu'à ce que nous ayons une version Fusion de chacune des applications que nous commercialisons. Mais cela nous prendra du temps », avait-il alors reconnu.

Source : http://www.lemondeinformatique.fr/actualites/lire-oracle-fusion-applications-les-developpements-progressent-26861.html

lundi 8 septembre 2008

Microsoft, Red Hat, Sun et HP se ruent sur la virtualisation du client

Tous les fournisseurs ont compris les enjeux de la virtualisation. Red Hat et Sun veulent en profiter pour venir titiller Citrix et Microsoft dans leur pré carré sur le terrain du poste client

Coup sur coup, Microsoft, Red Hat, HP et Sun ont donné un coup de fouet à leurs offres pour la virtualisation du poste de travail. L'enjeu est de taille. Non seulement, les positions sont moins établies qu'au niveau des serveurs -où VMware et Microsoft vont dominer le marché, mais les perspectives sont colossales. Le but est de proposer à toutes les entreprises de réaliser d'énormes économies en centralisant (virtualisant) des postes de travail qui leur coûtent des fortunes à maintenir. De plus, c'est l'occasion de contester l'hégémonie de Microsoft.

Red Hat rachète le spécialiste Qumranet

L'éditeur de Windows va lancer sa propre solution d'ici quelques semaines. D'ici là, HP, Red Hat et Sun ont choisi de tirer les premiers. Hier, HP a procédé à une vague d'annonces où la virtualisation du poste de travail occupe une belle place. On notera en particulier qu'il s'est rapproché de Citrix avec l'adoption de XenDesktop au sein d'HP VDI.

Chez Red Hat, on se prépare à proposer une virtualisation des postes clients en annonçant le rachat de Qumranet dont la virtual desktop infrastrucure (VDI) s'appelle SolidICE. Bien sûr, Qumranet est un adepte de Linux. SolidICE repose sur un KVM (Kernel-Virtual Machine) développé en interne, mais mis à disposition en Open source.

V2.0 pour la xVM VirtualBox multi-plateforme de Sun

Quant à Sun, la version 2.0 de sa xVM VirtualBox, en open source elle aussi, affirme sa vocation multi-plateforme en ajoutant le support de Windows Vista 64 bit et de Red Hat à celui des autres Windows, de MacOS, de différentes distributions de Linux (dont Ubuntu et Suse), de Solaris et d'Open Solaris. xVM VirtualBox permet de créer des VM sur des serveurs Solaris, pour tous ces OS. En grand constructeur qui se respecte, Sun accompagne ce lancement d'une offre de services et de support 24/24. La société dirigée par Jonathan Schwartz revendique 6,5 millions de téléchargements pour les versions précédentes de xVM VirtualBox. Une goutte d'eau à l'aune du potentiel du marché.

Source : http://www.lemondeinformatique.fr/actualites/lire-microsoft-red-hat-sun-et-hp-se-ruent-sur-la-virtualisation-du-client-26854.html

Alfresco est adopté par Adobe

La compagnie l'utilisera sur son site Acrobat.com. Une formidable nouvelle pour cette solution 'open source'

Le logiciel de partage et de collaboration documentaire Alfresco sera utilisé sur le site Acrobat.com d'Adobe. Ce service en ligne gratuit - actuellement disponible en version bêta - regroupe des fonctions de stockage de fichiers, de partage et de conversion vers le format PDF. Il offre également un traitement de texte en ligne (Buzzword) et un système de webconférence (ConnectNow).

"Nous sommes ravis d'élargir notre partenariat avec Adobe en participant à Acrobat.com", déclare John Powell, CEO d'Alfresco Software. "En faisant reposer notre logiciel sur des standards existants et sur la technologie open source, nous changeons le regard que portent les entreprises sur la gestion de contenu, et nous la rendons plus accessible, abordable et flexible. Nous contribuons ainsi à la démocratiser, en facilitant son intégration dans des applications hébergées et professionnelles avec des interfaces RIA de nouvelle génération, comme Acrobat.com ou Adobe LiveCycle."

La plate-forme Alfresco assurera les tâches de partages de fichiers. Selon Alfresco Software, la base pourra atteindre plusieurs millions de documents et de multiples téraoctets de données. De plus, le partage de fichiers sur Acrobat.com sera directement possible depuis Adobe Reader. Voilà une excellente idée. "Avec sa plate-forme open source, Alfresco assure à Acrobat.com un socle de gestion de contenu fiable et sécurisé, nous donnant les moyens de fiabiliser les services de collaboration documentaire dispensés à nos clients via le web", précise Erik Larson, directeur du marketing et de la gestion produit d'Acrobat.com. "Les fonctionnalités d'Alfresco nous ont clairement permis d'accélérer la mise sur le marché d'Acrobat.com."

Source : http://www.silicon.fr/fr/news/2008/09/05/alfresco_est_adopte_par_adobe

vendredi 5 septembre 2008

Le netbook de Dell est dans les bacs !

Les acheteurs devraient avoir le choix entre un système d’exploitation Linux ou Windows XP

C'est fait, le netbook du numéro deux mondial des PC est aujourd'hui disponible, notamment sur le site Internet du groupe texan. Le fabricant rejoint donc, un peu tard, la cohorte des vendeurs de netbooks, espérant bien tirer son épingle du jeu. Le Mini Inspiron 9 (1,035 kg) , est proposé à 370 euros (hors livraison), un prix proche de ceux proposés par la concurrence. Deux OS, Windows XP ou Linux Ubuntu 8.04, devraient être disponibles.


Dans le capot, rien de révolutionnaire étant donné les restrictions Microsoft. Il est doté d'un Intel Atom cadencé à 1,6 GHz, de 1 Go de mémoire vive (DDR2), d'un disque flash de 16 Go, d'un écran de 8,9 pouces et d'une carte graphique Intel GMA 950. On y trouve également une webcam de 1,3 million de pixels. Côté connectivité, le Dell propose le Wi-Fi 802.11g et le Bluetooth 2.0, 3 ports USB 2.0, un connecteur vidéo VGA, et un lecteur de carte SD/SDHC. L'autonomie n'est pas annoncée (batteries de 4 cellules).

Le fabricant pourrait également mettre en place des services en ligne ainsi qu’une application de stockage de documents. La machine devrait disposer d’un écran légèrement inférieur à neuf pouces. "Le succès d'Asus est impressionnant, il y a une véritable niche pour ces produits. En même temps, même avec 10 millions de machines écoulées cette année, le marché reste marginal. Mais nous pensons qu'il y a un créneau pour nous. Nous allons annoncer des choses à la rentrée, des produits seront présentés en septembre mais je ne peux pas en dire plus", nous expliquait il y a peu Thierry Labbé, directeur général de Dell France.

Rappelons qu’au mois d’août précédent, HP, un autre géant américains des PC, a lui aussi proposé deux modèles de netbook. L’offre de ces machines très légères destinées aux utilisateurs nomades continue de s’étoffer. Rappelons que le "prophète" en ce domaine, Asus avec son Eee PC, a ouvert la voie pour une toute nouvelle famille de PC et accessoirement, à un filon rentable. Selon le Gartner, les fabricants pourraient écouler 5,2 millions de machines d’ici la fin 2008 et 50 millions d’ici 2012. Ces projections juteuses aiguisent les appétits des fabricants. Il reste à savoir si les acheteurs, noyés sous une dizaine de produits aux capacités très proches se laisseront tentés.

Source : http://www.silicon.fr/fr/news/2008/09/04/le_netbook_de_dell_est_dans_les_bacs__

Le projet GNU fête ses 25 ans

Happy Birthday, to you

Fondé en 1984, le projet GNU vient de souffler sa vingt-cinquième bougie. Cet acronyme (récursif !) signifie « GNU's not Unix », une pointe d'humour pour rappeler qu'il avait été lancé initialement pour fournir des versions open source des outils présents dans le monde Unix.

Nous devons cette initiative au 'bouillant' Richard Stallman, connu pour avoir développé l'éditeur de texte GNU Emacs et une grande partie du compilateur GCC (GNU C Compiler). Réputé pour ses nombreux « coups de gueule », ce personnage sympathique a réussi à fédérer une large communauté.

Le projet GNU est sponsorisé essentiellement par la Free Software Foundation (FSF), elle même présidée… par Richard Stallman. Toute l'histoire du projet GNU et de la FSF est intimement liée à la licence GNU GPL (GNU General Public License), qui est aujourd'hui adoptée par un nombre considérable de logiciels.

Divers projets sont développés directement par les équipes du projet GNU. C'est le cas de la plupart des outils en ligne de commande qui sont utilisés par les systèmes d'exploitation de type Unix (libres ou non). Les distributions Linux s'architecturent ainsi en général autour du noyau Linux et des outils GNU (sans compter X.Org et les applications graphiques proposées par d'autres équipes de développement). C'est pourquoi nous parlons couramment de systèmes d'exploitation « GNU Linux ».

Les membres du projet GNU disposent de leur propre noyau open source, du nom de GNU Hurd. Techniquement très avancé, il souffre toutefois d'un rythme de développement trop lent, face à Linux et aux systèmes d'exploitation BSD.

N'hésitez pas à visiter les sites du projet GNU etde la FSF. Vous y trouverez une boutique, avec des goodies indispensables pour fêter dignement cet évènement (et participer au financement de la FSF).

Source : http://www.silicon.fr/fr/news/2008/09/04/le_projet_gnu_fete_ses_25_ans

Format OOXML : Trois pays critiquent le manque de neutralité de l'ISO

Des représentants du Brésil, de l'Afrique du Sud et du Venezuela mettent en cause le rejet de leur appel auprès de l'ISO de la décision de reconnaître comme norme internationale le format OOXML de Microsoft Office

Ils questionnent la neutralité, tant de l'ISO (Organization for Standardisation) que de l'IEC (International Electrotecnical Commission) vis-à-vis des fournisseurs. Cette défiance se traduit par la menace à peine voilée de ne plus reconnaître les standards de l'ISO en matière technologique dans leurs pays respectifs.

Rappelons que Microsoft ne s'est décidé à "standardiser" le format OOXML que lorsque le format ODF avait déjà été reconnu par l'ISO. ODF est unanimement considéré comme "ouvert" et permet donc à tous les éditeurs de l'utiliser. A l'inverse, Microsoft a toujours gardé la main sur ses formats bureautiques. L'éditeur d'Office, qui avait lutté pied à pied pour empêcher des organismes publics ou des entreprises d'adopter ODF comme format de référence, s'est tardivement décidé à proposer le format OOXML comme standard de l'ISO. Son but étant de pouvoir à nouveau répondre aux appels d'offres qui réclament un format normalisé.

Mené tambour battant, le processus de standardisation d'OOXML a été critiqué par des représentants de certains pays. Quoi qu'il en soit, OOXML sera élevé au rang de standard international sous l'appellation ISO/IEC DIS 29500.

Source : http://www.lemondeinformatique.fr/actualites/lire-format-ooxml-trois-pays-critiquent-le-manque-de-neutralite-de-l-iso-26846.html

jeudi 4 septembre 2008

Firefox retarde la sortie de sa bêta 3.1

Mozilla retarde la disponibilité de la bêta de Firefox 3. La décision suivrait-elle l'apparition surprise du Chrome de Google?

Toujours est-il que la prochaine mouture du navigateur de Mozilla est repoussée d'au moins trois semaines. Initialement prévue le 9 septembre, elle n'aurait finalement pas lieu avant octobre.

Normalement, la mouture intègrera TraceMonkey, un moteur d'exécution des applications Web en JavaScript (comme Gmail ou les Google Apps) aussi vite que si elles étaient installées sur l'ordinateur de l'utilisateur. Avec les nouveaux records de vitesse annoncées pour le Chrome de Google, qui vient de détrôner Firefox 3.0.1, Mozilla veut peaufiner les réglages.

Source : http://micro.lemondeinformatique.fr/actualites/lire-firefox-retarde-la-sortie-de-sa-beta-31-2286.html

Le navigateur Chrome de Google a son propre moteur Javascript

Cette fois, Chrome est là. On peut déjà télécharger sa version bêta. Le navigateur de Google, open source et doté de capacités multiprocessus, promet la puissance et la disponibilité. Il exploite un tout nouveau moteur Javascript maison.
Chrome est en route. Quelques heures plus tôt que prévu, Google a sorti son navigateur des cartons. Après une fuite dans la blogosphère, le logiciel a presqu'autant défrayé la chronique sur le web que Gustav, l'ouragan ou Bristol, la fille de la co-listière de John McCain.

Quand Google, ennemi juré de Microsoft, lance un concurrent à Internet Explorer, on comprend l'ampleur du buzz. Mais, selon David Kadouch, chef de produit chez Google, qui a présenté le bébé à Paris : Chrome est plus qu'un navigateur, c'est « une plateforme d'exécution pour les applications Web de demain. » La version bêta de Chrome pour Windows peut être téléchargée chez Google. Les utilisateurs de Linux et de Mac, habitués, devront attendre, sans plus de précision de délai.

Promouvoir le cloud computing, sans passer par Internet Explorer

Il est facile de comprendre que Google ait décidé de mettre au point son propre navigateur. Le maître du moteur de recherche rappelle sa foi indéfectible dans le développement du 'cloud computing'. Aujourd'hui, la plupart des internautes accèdent aux applications en ligne proposées par Google via Internet Explorer. « Imaginez comme il doit être pénible de dépendre de votre pire ennemi pour interagir avec vos clients ! », constate Tristan Nitot, président fondateur de Mozilla, sur son blog.

Mais surtout, ce type d'environnement nécessite un navigateur puissant et disponible. « Or, 60% du marché est aux mains d'un Internet Explorer, peu performant (et peu sécurisé) et qui évolue très peu », continue le papa de Firefox. Les 30% restants utilisent justement Firefox. Mais Tristan Nitot dit se réjouir de voir un nouveau concurrent. D'autant qu'il appartient à la communauté du logiciel libre.

Un tout nouveau moteur Javascript

Pour assurer la performance, Google s'est donc attaqué aux couches basses de Chrome. Il a notamment redéveloppé, « en partant de zéro », un moteur Javascript. Selon l'éditeur, V8 permettrait de charger et d'afficher les pages Web « beaucoup plus rapidement que les versions actuelles des autres navigateurs. » Un turbo précieux pour l'exécution des applications Web de prochaine génération, plus riches.

Mais l'atout principal de Chrome, ce sont ses capacités multiprocessus qui permettent d'exécuter simultanément plusieurs processus indépendants. Chaque session Web, lancée dans un nouvel onglet ouvert sur l'interface du navigateur, s'exécute indépendamment des précédentes. Si un processus se bloque, les autres n'en sont pas affectés. En cas de ralentissement global, Chrome repère aussi le processus en cause, afin de le supprimer. Fini le blocage dû à trop de fenêtres ouvertes ? A suivre.

Chrome et V8 reversés dans la corbeille Open Source

Google se plaît à rappeler régulièrement qu'il veut oeuvrer pour le bien de tous. Avec Chrome, il va jusqu'à se défendre de faire de l'ombre à d'autres navigateurs... Tristan Nitot, sur son blog, estime en tous cas, qu'il s'agit d'une bonne nouvelle pour Mozilla. Sans doute, cela dit, parce que c'en est une moins bonne pour Microsoft. Google affirme donc chercher à faire progresser l'innovation dans le domaine des navigateurs.

Il verse ainsi ses développements dans le terreau Open Source afin que chacun tire parti des avancées réalisées et apporte de nouvelles contributions. Le projet libre s'appelle Chromium. Le précieux moteur Javascript V8, fruit du travail d'une de ses équipes de développeurs au Danemark, tombe aussi dans la corbeille communautaire.

Une inspiration puisée chez Apple et Mozilla

Gears pour l'accès aux applications hors ligne, des options de sécurité anti phishing, une interface utilisateurs à base d'onglets, Chrome exploite les outils Google mais s'inspire aussi beaucoup de l'Open Source. Il explique s'appuyer ainsi sur le moteur de rendu WebKit (dérivé du projet Khtml), au coeur du Safari d'Apple et avoir emprunté des fonctions de sécurité, notamment, à Firefox.

Les promesses de Chrome sont sans aucun doute alléchantes. Reste à le mettre à l'épreuve.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-navigateur-chrome-de-google-a-son-propre-moteur-javascript-26833.html

mercredi 3 septembre 2008

David Kadouch, Google:'Chrome est un environnement de travail'

Le navigateur 'made in Mountain View' est en ligne depuis ce mardi 20h

Quelles sont ses spécificités, quelles sont les ambitions du géant de la recherche ? Elements de réponse avec le product manager en charge du projet...

Google a créé la sensation en cette rentrée avec la sortie surprise de Chrome, son navigateur Internet 'open source'. Disponible depuis ce mardi soir en bêta en 43 langues, cette application illustre une nouvelle fois, les velléités du géant de la recherche dans le marché de l'applicatif. Certes, Chrome est un navigateur mais pour Google il s'agit surtout d'une plate-forme pour applications. Son objectif : retenir l'utilisateur qui se servira de Chrome pour surfer mais aussi pour travailler à travers des applications SaaS (software as a service; hébergées ou en cloud-computing). De là à penser que Chrome puisse 'coiffer' Windows, il n'y a qu'un pas, même si nous sommes encore très loin de ce tableau idylique pour l'adversaire numéro un de Redmond.

Qu'en est-il de la partie navigateur ?

L'ambition de Chrome est d'allier simplicité et efficacité, un postulat également mis en avant par Firefox dont pas mal d'éléments ont inspiré Chrome. "Nous voulons changer la manière d'utilisr le Web", nous explique David Kadouch, product manager chez Google. "Le monde du Web est de plus en plus riche mais l'expérience est souvent frustrante, Chrome répond à cette frustration et est prêt aux développements futurs".

Concrètement, Chrome est très épuré et léger (une installation sur le disque dur reste nécessaire). Il joue la carte de la stabilité. Principale innovation : les pages ouvertes dans les onglets sont indépendantes les unes des autres. "Un onglet affecté ne plante pas tous le navigateur grâce à une technologie multi-process. On peut alors fermer une page plantée sans avoir à rebooter le navigateur", explique David Kardouch. Cette technologie permet également plus de rapidité, affirme Google. On peut également faire glisser très facilement un onglet vers une autre fenêtre.

Google a également mis l'accent sur l'ergonomie avec une 'omnibox' qui sert à la fois de moteur de recherche et de boîte pour taper une adresse url. Cette boîte donne également accès à l'historique. "La fonction recherche n'est pas limitée au moteur de Google. Tous les moteurs sont disponibles, Chrome est ouvert.", souligne le product manager. Concrètement, en tapant le mot 'musée' dans la boîte, Chrome propose des liens directs, des suggestions Google (ou autres), ou encore des pages déjà visitées. Il reste à vérifier si, dans l'usage, cette boîte unique ne prête pas à confusion.

Côté sécurité, Chrome met à jour des listes noires de sites de phishing et avertit l'utilisateur en cas de surf sur un site piégé. Par ailleurs, un mode de navigation privée permet de surfer sans laisser aucune traçe. Concernant les mises à jour du navigateur, cible numéro des exploitations de failles, Google reste néanmoins évasif. Pourra-t-il être réactif et livrer régulièrement des mises à jours critiques ? "C'est un défi pour nous, nous sommes en train de travailler sur ce sujet. Mais je ne peux vous donner la fréquences des mises à jour", concède David Kardouch.

Pour autant, la fonction navigateur n'est que la partie émergée de Chrome. D'ailleurs, l'application possède un gestionnaires des tâches (permettant de stopper des processus comme les onglets, les plug-ins ou les applications en ligne, comme celui de Windows) qui illustre bien la vision 'multi-applications' de Google.

"On considère que Chrome est une plate-forme de travail et d'utilisation d'applications Web existantes, comme celles de Google ou futures. On ne s'en cache pas, l'objectif est de retenir l'utilisateur dans cet environnement de travail et de loisirs et de répondre à tous ses besoins", souligne David Kardouch. Et reléguer Windows au rôle de couche inférieure, servant simplement à démarrer le PC ? Quant à une déclinaison pour le mobile (sous Android), elle n'est pas prévue pour le moment.

Le grand public est-il prêt pour cette vision complètement décentralisée de l'usage informatique ? "On n'y est peut être pas encore aujourd'hui mais les choses avancent vite, même si le local ne dispraîtra pas. On pense que le cloud computing sera porté par le grand public plus que par l'entreprise, rien que pour des questions de mobilité". Evidemment, dans ce nouveau paysage, Google règnerait en maître.

Mais le géant de la recherche reste réaliste et refuse par exemple d'évoquer des objectifs chiffrés. "Nous voulons accélérer l'innovation avec un produit ouvert"... Google tient surtout à bâtir un nouveau modèle économique. D'ailleurs, il n'est pas interdit de penser que la publicité pourra faire son apparition sur Chrome. "Ce n'est pas prévu pour le moment" répond Google.

Pour télécharger Google Chrome

[NdR : Installation très rapide et premières impressions excellentes !]

Source : http://www.silicon.fr/fr/news/2008/09/02/david_kadouch__google__chrome_est_un_environnement_de_travail_