vendredi 27 février 2009

La version finale du SP2 de Vista en approche

Les testeurs MSDN et TechNet ont reçu une version RC du Service Pack

Le SP2 de Vista sera bientôt disponible. En effet, la version Release Candidate du Service Pack vient d'être diffusée auprès des testeurs MSDN et Technet avant une version ouverte à tous dans les prochains jours. Cette version RC devrait être la dernière avant la mise en ligne d'une version finale et publique. Sa date de publication reste encore inconnue, selon le site Tech ARP, elle devrait intervenir en mai ou en juin.

Très attendu, ce SP2 comprend l'ensemble des correctifs déjà publiés mais aussi quelques améliorations quant à la compatibilité de Vista avec le Bluetooth. Il devrait également comprendre une prise en charge de la gravure des disques Blu-ray directement depuis l'OS. On devrait également trouver Windows Search 4, le moteur de recherche interne de Windows, et une meilleure compatibilité avec les processeurs 64 bits de VIA. Enfin, le SP2 permettra aux fichiers exFAT de supporter l’empreinte des dates UTC (temps universel coordonné) pour assurer une meilleure synchronisation des fichiers sur les différents fuseaux horaires de la planète.

Objectif de cette SP2 : améliorer la perception de Vista chez les utilisateurs et permettre à l'OS de poursuivre sa percée, notamment dans les entreprises, très réticentes à le déployer. Une tendance qui s'est amplifiée depuis que Microsoft a annoncé Windows 7 pour l'année prochaine...

Le SP2 de Windows Server 2008 passe égamlement en RC. "Le SP2 propose l'environnement de virtualisation Hyper-V sous forme de fonctionnalité totalement intégrée dans Windows Server 2008", ajoute un porte-parole de Microsoft. Ce service Pack apporte également une gestion améliorée de l'alimentation des serveurs et des postes de travail, notamment via la fonctionnalité de Stratégies de groupes. D'autre part, "le SP2 améliore la compatibilité descendante des clés de licence Terminal Server", souligne Brandon LeBlanc. "Windows Server 2008 avait passé [le format de] ces clés de 512 à 2 048 octets, ce qui avait posé des problèmes aux clients utilisant d'anciennes versions de Terminal Server. SP2 permet également aux clés de licence des applications Citrix de fonctionner sur Windows Server 2008."

Source : http://www.silicon.fr/fr/news/2009/02/26/la_version_finale_du_sp2_de_vista_en_approche

jeudi 26 février 2009

Steve Ballmer promet une version finale de Windows Azure avant fin 2009

L'offre de 'cloud computing' de Microsoft devrait sortir dans une version finalisée au moment de la prochaine conférence développeurs, la PDC de novembre prochain

Azure, nom de ce Windows dans les nuages et des services associés, avait justement été dévoilé lors de la PDC 2008 de Los Angeles.

Dans un entretien avec des analystes financiers sur les perspectives futures, le PDG de Microsoft Steve Ballmer a affirmé que l'éditeur sera en mesure de commercialiser cette nouvelle offre avant la fin de l'année. Toutefois, aucun détail n'a été donné pour l'heure sur la tarification. Microsoft a juste laissé entendre qu'il respecterait le principe de la tarification à l'usage, mais que les clients acceptant de payer à l'avance pourraient bénéficier de réductions de tarifs.

Source : http://www.lemondeinformatique.fr/actualites/lire-steve-ballmer-promet-une-version-finale-de-windows-azure-avant-fin-2009-28145.html

mercredi 25 février 2009

XenServer devient gratuit : VMware clairement visé

Cette annonce signera-t-elle le renouveau de Xen… ou sa fin ?

La nouvelle est tombée ce lundi : Citrix XenServer sera disponible gratuitement fin mars. Citrix XenServer sera accessible en version illimitée : il supportera les hôtes Linux et Windows, permettra la conversion physique vers virtuel et virtuel vers virtuel, ainsi que la migration des machines virtuelles sans interruption de service. La compagnie tirera dorénavant ses revenus de Citrix Essentials, un outil de gestion avancé des machines virtuelles, disponible aussi bien pour Citrix XenServer que Microsoft Hyper-V. Ce dernier sera disponible à partir du 7 avril, en deux moutures : Enterprise Edition à 1.500 dollars par serveur et Platinum Edition à 5.000 dollars par serveur.

La compagnie fait front commun avec Microsoft contre VMware : "cette initiative vise à accélérer l’adoption de la virtualisation en éliminant les barrières de coût et de complexité qui ont été mises en place depuis trop longtemps", affirme Simon Crosby, CTO, virtualization management division chez Citrix. "Plus vite nous pourrons aider nos clients à virtualiser les millions de serveurs qui ne le sont pas encore, et plus vite ils pourront transformer leurs centres de données statiques en centres de prestations dynamiques où chaque application sera livrée comme un service à la demande."

Serguei Beloussov, CEO de Parallels a une vision nettement plus caustique : "je prédis que Citrix finira par stopper le développement de XenServer, car ce n’est pas un composant nécessaire pour XenApp. Cela pourrait être alors la fin de Xen. Nous devons applaudir la branche serveur de Microsoft : Xen aurait pu être un concurrent sérieux pour eux, mais il a fini par devenir un partenaire et fournisseur de technologie."

Source : http://www.silicon.fr/fr/news/2009/02/24/xenserver_devient_gratuit___vmware_clairement_vise

Firefox passe devant Internet Explorer !

Cela semble être le cas, tout du moins chez les développeurs web

Depuis plusieurs années, les parts de marché du navigateur web Mozilla Firefox montent sans discontinuer, au détriment d’Internet Explorer de Microsoft. Nous attendions donc le moment – inévitable – où l’offre libre de la fondation Mozilla passerait devant sa concurrente. Selon W3Schools, c’est ce qui est arrivé en janvier 2009 : Firefox, avec 45,5 % de parts de marché (dont 39,5 % pour Firefox 3.0), passe devant l’ensemble des versions d’Internet Explorer, qui cumulent 44,8 % de parts de marché. Vous remarquerez aussi que Google Chrome est installé sur 3,9 % des PC, une adoption rapide, mais qui ne se fait pas au détriment de Firefox. Au final, depuis septembre 2008, Chrome aura toujours devancé Opera et Safari.

Le site W3Schools produit des statistiques d’utilisation des navigateurs web, qui reflètent assez fidèlement (grâce à un très large échantillon de visiteurs), le taux d’adoption des différents produits chez les développeurs web et les webmasters. Dans la pratique, ces taux correspondent à ceux constatés chez les utilisateurs ‘classiques’ 12 à 18 mois plus tard, et ceci pour plusieurs raisons. Premièrement, les professionnels du web sont des early adopters, prompts à utiliser les nouvelles technologies. Ils sont également des prescripteurs qui imposeront leurs choix à leurs clients, afin d’assurer un bon niveau de compatibilité avec les applications qu’ils ont développées. W3Schools est donc un excellent baromètre de l’évolution des habitudes des utilisateurs. Reste à savoir si les statistiques de janvier se confirmeront sur le marché grand public.

Source : http://www.silicon.fr/fr/news/2009/02/24/firefox_passe_devant_internet_explorer__

mardi 24 février 2009

Le mode SaaS n'est pas toujours moins cher, rappelle Gartner

Les directions informatiques ne doivent pas partir du principe que le mode SaaS (software as a service), qui fournit le logiciel en ligne contre un abonnement, est moins cher que la licence classique qui s'installe dans l'entreprise

Un petit rappel bienvenu de Gartner, qui explique qu'il y a eu autour du SaaS une bonne dose de « battage » ayant pu conduire les entreprises à se faire de fausses idées sur le sujet. Ainsi si ce mode est moins coûteux pendant les deux premières années de son utilisation, puisqu'il n'y a ni licence à payer ni matériel à acheter, le coût total de possession sur cinq ans pourrait être moins élevé avec les solutions dites « on-premise », c'est-à-dire installées en interne. Pour faire ce calcul, Gartner prend en compte la dépréciation du matériel d'un point de vue comptable. Engageant à adopter un point de vue réaliste sur le SaaS, Robert DeSisto, vice président de Gartner, met en garde : « Ce qui est préoccupant, c'est que certaines entreprises déploient ce type de solutions en s'appuyant sur de fausses hypothèses. »

Le paiement à l'usage est rarement une réalité, selon Gartner

Dans un rapport listant les cinq assertions les plus communes autour du Saas (Fast checking : The five most-common SaaS assumptions), Gartner avertit par exemple que ces applications en ligne ne sont pas nécessairement plus rapides à mettre en oeuvre que des solutions plus classiques. Si les fournisseurs indiquent généralement 30 jours comme délai normal de mise en route, certains logiciels requièrent jusqu'à sept mois, indique par exemple le rapport.
Les entreprises se trompent encore quand elles pensent qu'elles seront facturées à l'usage, poursuit Gartner. « Dans la grande majorité des cas, les clients ont été amenés à signer des contrats pré-établis comportant une redevance fixe. »

Attention aussi aux idées reçues dans l'autre sens

Mais, par ailleurs, le rapport de Gartner note que les entreprises peuvent aussi sous-estimer le mode SaaS. Nombre d'entre elles ont ainsi l'impression qu'elles ne pourront pas intégrer le logiciel en ligne avec leurs applications internes ou leurs sources de données ; alors que ces données peuvent être au départ chargées vers l'application SaaS, puis mises à jour régulièrement, ou mises à jour en temps réel au moyen de services Web. En outre, rappelle Gartner, il ne faut pas oublier que les applications SaaS peuvent être personnalisées et qu'elles ne se limitent plus depuis longtemps à des fonctions de base.

Source : http://www.lemondeinformatique.fr/actualites/lire-le-mode-saas-n-est-pas-toujours-moins-cher-rappelle-gartner-28125.html

Le projet openSUSE ne sera pas abandonné

Les temps sont durs, même dans le monde des logiciels libres

Dans une lettre ouverte, Pascal Bleser et Bryen Yunashko, membres du directoire du projet openSUSE se veulent rassurants : malgré la vague de licenciements programmée chez Novell, le système d’exploitation Linux openSUSE ne sera pas mis de côté.

Les auteurs de ce courrier électronique rappellent ainsi que "l’openSUSE est un projet communautaire, conduit par Novell et la communauté open source. Au sein de ce projet, nous ne faisons aucune distinction entre les employés de Novell et les autres participants. À ce titre, les personnes qui ont été licenciées demeurent toujours des membres importants de ce projet, et nous nous réjouissons de la possibilité de continuer à travailler avec elles comme avec les autres membres, pour le bien de notre communauté, de notre distribution Linux et du logiciel libre en général." En d’autres termes, chômage ou pas, un programmeur reste un programmeur : vu sous cet angle, le projet openSUSE ne risque donc pas de manquer de bras (sic.). Les deux auteurs soulignent également que Novell reste toujours aussi engagé dans la poursuite de ce projet, ce qui demeure d’autant plus logique que l’activité Linux a crû de façon importante au sein de la compagnie.

Si ce courrier peut prêter à sourire (jaune), vu de France, il reflète toutefois une réalité : pratiquement tous les Américains connaissent un membre de leur famille qui a perdu son travail au cours de neuf derniers mois. C’est dans ce contexte que Novell a prévu de se séparer de près de 100 employés. La descente aux enfers semble ralentir mais la croissance n’est pas encore à l’ordre du jour.

Source : http://www.silicon.fr/fr/news/2009/02/23/le_projet_opensuse_ne_sera_pas_abandonne

lundi 23 février 2009

Gateway revient en Europe pour séduire les entreprises

Le marché européen de l'informatique professionnelle compte un nouvel acteur

Gateway, racheté en 2007 par Acer, débarque en effet sur le vieux Continent pour s'attaquer au segment des moyennes et des grandes entreprises. En réalité, ce n'est pas la première incursion de Gateway en Europe : le constructeur était présent en Grande-Bretagne jusqu'en 2001, mais s'était par la suite concentré uniquement sur le marché américain.

Ce retour en Europe illustre la stratégie multimarque sur laquelle Acer base son activité : Packard Bell vise le grand public, Acer mise sur la mobilité pour séduire à la fois les consommateurs et le marché du Soho, et Gateway cible les entreprises de plus grande dimension. Aux Etats-Unis, ce dernier adopte pourtant une approche différente en s'adressant à la fois au grand public et au secteur professionnel. Mais Antonio Papale, à la tête de la division EMEA d'Acer, entend dissiper toute confusion : en Europe, Gateway sera « exclusivement dédié au B2B. Nos produits ne seront jamais disponibles pour les consommateurs. »

Postes clients, serveurs et services

Le constructeur lancera dans un premier temps des postes clients (trois gammes de desktops et autant de PC portables) construits autour de processeurs Intel. Dans le courant du deuxième trimestre, il proposera ensuite des serveurs (deux racks et une tour) et complètera son offre par deux moniteurs. Ces produits seront disponibles, pour commencer, en Italie, Espagne, Allemagne, Benelux, Royaume-Uni, dans les pays nordiques et la France. Dans un an, Gateway prévoit de couvrir le reste de la zone EMEA.

En ce qui concerne la France, les premières machines devraient être disponibles au début du mois d'avril. Comme dans les autres pays européens, le modèle de vente pour lequel a opté le constructeur sera exclusivement indirect : un unique distributeur (Techdata) approvisionnera une batterie de revendeurs qui devront s'adresser uniquement au marché professionnel. Et, avant de chercher à séduire les entreprises, Gateway entend convaincre les revendeurs de référencer ses machines. Pour cela, le fabricant met en place le 'Business first partner program', une organisation à travers laquelle « nous allons sélectionner 35 à 50 partenaires auxquels nous garantirons une très bonne marge ainsi que de nombreux avantages commerciaux et opérationnels », explique Nordine Ouidja, responsable produits Gateway pour l'activité mobile et les services. En contrepartie, les revendeurs s'engagent à offrir un certain nombre de services à leurs clients, du service après-vente à la maintenance à distance, en passant par la gestion de parc. Pour les épauler dans leur tâche, ils pourront se connecter au portail partenaire et trouver des informations sur l'état de leurs ventes, accéder à des documents marketing, trouver de l'assistance technique ou de l'aide pour les réponses aux appels d'offre.

Source : http://www.lemondeinformatique.fr/actualites/lire-gateway-revient-en-europe-pour-seduire-les-entreprises-28111.html

vendredi 20 février 2009

Microsoft remballe son offre bureautique sur abonnement

Equipt, l'offre bureautique sur abonnement de Microsoft, n'aura même pas eu le temps d'atteindre la France : Microsoft a décidé d'arrêter sa commercialisation

Equipt regroupait la version Home & Student d'Office 2007, l'antivirus OneCare, et des outils associés à sa messagerie instantanée Live Messenger. Lancée en juillet dernier, l'offre était proposée aux Etats-Unis 70$ par an, par un revendeur aujourd'hui en liquidation judiciaire, Circuit City. Toutefois, le retrait de cette offre ne semble pas être lié aux déboires du distributeur. Ce serait plutôt la décision de l'éditeur de remplacer OneCare par un service gratuit, Morro, qui aurait sonné le glas du package. C'est ce qu'explique l'équipe en charge de l'offre, qui annonce qu'Equipt s'éteindra le 30 avril prochain.

De fait, si les éditeurs d'antivirus savent fidéliser leurs clients en leur proposant des abonnements, cela devient plus difficile quand l'offre n'inclut que des services gratuits et une suite bureautique souvent facilement remplaçable par un équivalent gratuit en ligne ou Open Source.

Source : http://www.lemondeinformatique.fr/actualites/lire-microsoft-remballe-son-offre-bureautique-sur-abonnement-28107.html

jeudi 19 février 2009

Deux nouveaux documents de travail sur HTML 5

Extensions XML et JavaScript

Le W3C (World Wide Web Consortium) a publié deux nouveaux documents de travail sur la version 5 d'HTML, en développement depuis 2004. L'un sur HTML 5 proprement dit, l'autre sur les différences entre cette version 5 et la version 4. Compatible avec le code de la version 4 (figée en 1997), la version 5, qui a vocation à réunir les extensions XML d'HTML 4 (XHTML 1) ainsi que les API JavaScript dans un même référentiel, est fortement orientée vers la structuration des documents et l'intégration d'éléments multimédia. Sur ce dernier point, il doit intégrer la fonction Canvas pour l'intégration de graphiques en 2D.

Source : http://www.lemondeinformatique.fr/actualites/lire-deux-nouveaux-documents-de-travail-sur-html-5-28092.html

mercredi 18 février 2009

Analyse textuelle : SPSS classifie les réponses libres des questionnaires

Pouvoir classifier les remarques et les commentaires

Dans la gamme de solutions d'analyse textuelle de l'éditeur SPSS, le logiciel Text Analysis for Surveys est destiné à accélérer le traitement des réponses libres des questionnaires, notamment dans le domaine de la gestion de la relation client (CRM). L'application vient de sortir dans une version 3.0, qui peut analyser les réponses dans six langues (anglais, français, allemand, espagnol, néerlandais et japonais). En recourant à la technologie de traduction linguistique Language Weaver, il est même possible de traiter jusqu'à trente langues.

Text Analysis for Surveys permet d'automatiser la classification des remarques (sentiments positifs ou négatifs) exprimées dans les commentaires des enquêtes de satisfaction, recueillies par les centres de contacts lors d'échanges avec les clients, ou bien encore, pourquoi pas, récupérées sur les forums de sites Web consacrés à des produits. Généralement, l'analyse de ces commentaires doit être recodée pratiquement à la main et, de toutes façons, confiée à des professionnels. « C'est un processus coûteux et non réutilisable », souligne Eric Martin, responsable produit chez SPSS France. Le logiciel mis au point par SPSS permet d'identifier les grands thèmes abordés dans les réponses libres et de créer des catégories de façon automatisée, sans qu'il soit nécessaire de lire ces commentaires et de les ressaisir mot à mot. S'il s'agit d'un questionnaire soumis aux clients d'un hôtel, par exemple, les catégories créées pourront s'appliquer à la situation géographique, l'accueil, la chambre, la restauration, etc.

Text Analysis for Surveys recourt à différentes techniques de traitement du langage naturel comme l'extraction multilingue de concepts, l'analyse sémantique, la classification basée sur les statistiques, ou encore l'analyse des liens utilisés dans les textes. Cette dernière permettra de faire la distinction entre « jolie chambre » (opinion positive) « mais accueil détestable » (opinion négative). La version 3.0 du logiciel est livrée avec quelques dizaines de catégories prédéfinies pour traiter des enquêtes de satisfaction destinées à des clients ou à des employés, ou s'appliquant à un produit. Un nouvel outil d'assistant guide l'utilisateur dans la création des nouveaux projets. Le prix de l'application démarre à 4 000 euros.

Source : http://www.lemondeinformatique.fr/actualites/lire-analyse-textuelle-spss-classifie-les-reponses-libres-des-questionnaires-28090.html

mardi 17 février 2009

Des nouvelles du portage de Google Chrome sous Mac OS X et Linux

Le navigateur web du géant de la recherche Internet se prépare à sortir sur de nouveaux OS

Excellente nouvelle pour les utilisateurs de Mac OS X, le navigateur web Google Chrome arrive sur leur système d’exploitation préféré. Selon les développeurs, le code se compile sans problèmes, et Google Chrome arrive même à afficher quelques pages web. Certes, les bogues sont nombreux, mais une étape importante dans le développement de la mouture Mac OS X de Google Chrome vient d’être franchie. Mike Pinkerton nous propose la première copie d’écran de cette version.

Curieusement, c’est une sorte de retour aux sources pour ce logiciel, puisqu’il utilise le WebKit, un moteur de rendu HTML proposé par Apple pour les besoins de Safari. C’est toutefois dans KHTML de Konqueror (environnement graphique KDE) que le WebKit prend ses racines. Et là encore, bien bonne nouvelle, le développement de la version Linux de Google Chrome est également en cours.

Le choix du toolkit graphique n’était pas connu jusqu’alors. Nous savons maintenant qu’il s’agira de GTK+. Google Chrome sera donc un candidat de choix pour l’environnement graphique Gnome, qui marque de nombreux points depuis quelques mois. Sa légèreté pourra également être mise à profit par Xfce. Il existe déjà un navigateur web allégé pour cet environnement de bureau, du nom de Midori (qui repose – lui aussi – sur le WebKit et GTK+). Notez enfin que le navigateur web Epiphany pourrait, lui aussi basculer vers le WebKit. Un véritable plébiscite pour ce framework !

Source : http://www.silicon.fr/fr/news/2009/02/16/des_nouvelles_du_portage_de_google_chrome_sous_mac_os_x_et_linux

lundi 16 février 2009

Linux : la nouvelle Debian est officiellement disponible !

La plus célèbre de toutes les distributions Linux est enfin accessible dans sa nouvelle livrée

La distribution Linux Debian est téléchargeable en version 5.0 (nom de code « Lenny »). Elle est le fruit de 22 mois de développement. Cette distribution Linux de référence met tout particulièrement l’accent sur le respect des standards : LSB 3.2 (Linux Standard Base) et FHS 2.3 (Filesystem Hierarchy Standard).

La Lenny propose une architecture moderne, comprenant le noyau Linux 2.6.26, la libc6 2.27, GCC 4.3.2, Xen 3.2.1 et X.Org 7.3. Du côté des applications graphiques, nous trouvons un ensemble solide, quoique pas toujours d’actualité : Gnome 2.22.2, KDE 3.5.10, Xfce 4.4.2, OpenOffice.org 2.4.1, Gimp 2.4.7, Iceweasel 3.0.6 (Firefox) et Icedove 2.0.0.19 (Thunderbird). Les administrateurs de serveurs seront heureux d’apprendre que la Debian renouvelle aussi son offre dans ce domaine : Apache 2.2.9, Samba 3.2.5, PHP 5.2.6, Perl 5.10.0, MySQL 5.0.51a et PostreSQL 8.3.6.

Dans tous les domaines, la Debian renoue donc avec une relative modernité. Cette distribution Linux est disponible pour de multiples architectures, allant des processeurs x86, aux puces ARM, MIPS, PowerPC, SPARC, etc. Avec plus de 28.000 paquets logiciels, la Debian 5.0 est plutôt complète. Les développeurs ont donc multiplié les offres pour faciliter son installation. En version x86 32 bits, elle est ainsi disponible sous forme de 31 CD-Rom, 5 DVD-Rom ou même un disque Blu-ray ! Des versions minimalistes sont également disponibles : les paquets sont alors téléchargés directement sur les serveurs miroirs du projet.

Source : http://www.silicon.fr/fr/news/2009/02/15/linux___la_nouvelle_debian_est_officiellement_disponible__

Windows 7 RTM sera disponible à Noël

3 ans exactement après Vista

Le calendrier est donc quasi-officiel. Microsoft a mis fin au suspense concernant la sortie de son prochain système d’exploitation, laissant entendre que Windows 7 serait disponible dès Noël prochain.

Dans un webcast dédié au nouveau système d’exploitation, l’éditeur a confirmé que Windows 7 serait fourni aux fabricants (RTM) exactement trois ans après la publication de la version RTM de Vista, en octobre 2006. “L’objectif est de fournir une version RTM de Windows 7 trois ans après celle de Windows Vista”, a déclaré l’éditeur en réponse à une question. Le webcast, animé par Mark Russinovich de Microsoft, s’est attardé sur les nouvelles fonctionnalités du prochain système d’exploitation, notamment une meilleure gestion de l’alimentation, une consommation processeur réduite et un contrôle des applications renforcé. “Nous avons consacré énormément d’efforts à la durée de batterie”, a déclaré Mark Russinovich.

L’éditeur aurait par ailleurs réduit la consommation énergétique de quelque 400 éléments du système d’exploitation et poursuivrait encore ses améliorations. Ceci passe par la gestion de l’alimentation sans sacrifier la vitesse des performances. “Les performances ont été un problème majeur avec Vista”, rappelle Mark Manasse, chercheur chez Microsoft Research. “Mais je suis ravi et assez étonné de constater à quel point les performances du système d’exploitation m’ont agréablement surpris. Je l’ai testé sur des systèmes personnalisés et sur des systèmes virtuels et je dois dire que j’ai été très impressionné par ses performances.” Le nouveau système d’exploitation intègrera également une fonction appelée Power Configuration, qui analysera la machine en une minute et fournira des recommandations afin de réduire la consommation d’énergie.

Globalement, Microsoft a passé énormément de temps à tenter d’éviter les problèmes de compatibilité qui ont longtemps dissuadé les utilisateurs de passer de XP à Vista. “Lorsque nous prenions part aux premières réunions ouvertes organisées au début du projet, nous avions défini certains objectifs”, explique Erik Lustig, responsable produit de Windows Fundamentals. “Si une application fonctionne avec Vista, elle devrait fonctionner avec Windows 7 et si elle s’exécute sous Vista, elle devrait s’exécuter plus vite sous Windows 7.”

Source : http://www.silicon.fr/fr/news/2009/02/13/windows_7_rtm_sera_disponible_a_noel

vendredi 13 février 2009

Microsoft offrira Windows 7 aux acheteurs de PC sous Vista, la rumeur enfle

Seules trois versions de Vista pourront bénéficier d’une mise à jour : la version familiale, la version professionnelle et la version intégrale

La rumeur ressort à nouveau. Histoire de tirer un maximum de revenus de Vista, Microsoft va faire un geste commercial d’envergure. La firme de Redmond offrira à tous les prochains acheteurs de PC sous Vista, particuliers et professionnels, une mise à jour gratuite vers Windows 7. La stratégie est claire. La firme de Redmond souhaite ainsi encourager les achats de Vista en évitant une pause. En effet, la sortie de Windows 7, prévue pour 2010, pourrait franchement ralentir la vente de PC sous Vista, un scénario catastrophe que l’éditeur veut à tout prix éviter.

Selon TechARP.com, le blogue indonésien à l’origine de l’information, l’opération pourrait débuter le 1er juillet prochain et se prolonger jusqu’au 31 février 2010. Toutes les personnes qui achèteront un PC pourvu d’une licence de Windows Vista à partir cette date bénéficieront d’une mise à jour gratuite vers Windows 7.

La mise à jour devrait concerner trois versions : Vista familiale premium, la version professionnelle ainsi que la version intégrale. Les différentes versions Vista, donneront droit à des mises à jour bien spécifiques. Les titulaires d’une version familiale de Vista pourront obtenir une mouture familiale de Windows 7. Quant aux possesseurs de Windows Vista professionnel, ils pourront obtenir une version professionnelle de Windows 7. La version intégrale de Vista donnera droit à une version intégrale du futur OS.

Joint par la presse, Microsoft n’a pas souhaité commenter l’information. Pour certains analystes, l’information semble "raisonnable", d’autant plus que la firme de Redmond a déjà réalisé des opérations commerciales similaires. Tous les acquéreurs de PC sous OS Windows XP, entre octobre 2006 et mars 2007 avaient ainsi pu bénéficier d’une mise à jour gratuite vers Vista.

Dans le cas de Vista, la manœuvre relève d’avantage de l’opération de la dernière chance. Lancée en 2007, Windows Vista a très tôt été critiqué pour sa lourdeur et sa grande consommation en ressources. Les entreprises s’étaient montrées très frileuses. Cette prudence affichée a très fortement ralenti l’adoption de Vista en milieu professionnel. Malgré quelques tentatives pour sauver Vista (une campagne de publicité avec Jerry Seinfeld, the mojave experiment), la firme de Redmond avait fini par annoncer puis confirmer le lancement d’un prochain système d’exploitation, le fameux Windows 7 qui apparaîtra en 2010.

Finalement, si cette information se confirme, la fin de vie de Windows XP et la naissance de Windows 7 coïncideront presque, Windows Vista servant alors de trait d’union entre les deux systèmes d’exploitation.

Source : http://www.silicon.fr/fr/news/2009/02/12/microsoft_offrira_windows_7_aux_acheteurs_de_pc_sous_vista__la_rumeur_enfle

Live@edu monte en puissance

L’arrivée d’Outlook Live fait progresser sensiblement cette offre

Live@edu est une solution de communication et de travail collaboratif destinée au milieu éducatif. Elle est entièrement gratuite et sans inclusion de publicités. Tout le monde de l’enseignement peut y avoir accès : les élèves et les professeurs mais aussi (et c’est une nouveauté) les anciens élèves. Bon point, elle est compatible aussi bien avec Windows que Mac OS X ou Linux.

Apparu il y a environ 18 mois, Live@edu intègre plusieurs produits : Office Outlook Web Access, Office Live Workspace, SkyDrive, Live Messenger, etc. Les technologies Exchange et Active Directory sont au cœur de cette offre. Particularité intéressante, le client de messagerie électronique est en avance de phase sur les autres solutions proposées par Microsoft. Ainsi, le classique Outlook Web Access cède aujourd’hui la place à Outlook Online. Premier bénéfice de ce nouveau composant, il fonctionne indifféremment sous Internet Explorer, Mozilla Firefox et Apple Safari (sans mode dégradé !). Il affiche également l’état de présence de la personne. Pratique pour la messagerie instantanée. Enfin, il s’intègre mieux aux autres produits de la suite et gère le filtrage, le regroupement des messages par conversation ainsi que les listes de diffusion (avec modération possible de la part de l’administrateur).

Aujourd’hui, Live@edu compte 3,5 millions d’utilisateurs dans le monde. En France, les écoles d’ingénieurs, de commerce et les IUT sont les plus friands de cette offre. Microsoft compte toutefois se rapprocher des universités dans le courant de l’année.

Source : http://www.silicon.fr/fr/news/2009/02/12/techdays_2009___live_edu_monte_en_puissance

Techdays'09 : Microsoft explique Azure en détail

Service et plateforme

C'est l'inconvénient avec les concepts à la mode : lorsqu'une technologie s'en réclame, tout ou presque peut être dit pour la définir, les notions de 'cloud' et de 'Saas' (Software as a service) se mélangeant allègrement. C'est ce qui est arrivé avec Azure, le « Windows dans les nuages » de Microsoft, dévoilé en octobre dernier et actuellement dans sa phase 'preview'. Si bien que les développeurs, mais aussi des décideurs IT et des administrateurs systèmes se sont pressés dans les sessions consacrées à Azure lors des Techdays.

Un distinguo à opérer entre les services Azure et la plateforme Azure

D'abord, il faut distinguer la plateforme Azure des services de la plateforme Azure. La première est « un système d'exploitation dans le nuage », qu'il convient de voir comme « une troisième plateforme de déploiement, après la plateforme client (desktop/mobile) et la plateforme serveur ». Stève Sfartz a d'ailleurs insisté sur cette continuité: « c'est un continuum, vous restez dans un environnement de développement connu. »

A côté de ce Windows Azure - l'offre de 'cloud computing en tant que telle -, figurent des services complémentaires, apportés des applicatifs Microsoft hébergés : la manipulation de données avec des services SQL Server, par exemple, ou le transactionnel avec des services Biztalk. Le fait d'avoir proposé en même temps ces services applicatifs en ligne - qui s'apparentent au Saas - a largement contribué à la confusion initiale.

Le déploiement dans Azure repose sur le téléchargement de deux fichiers

La plateforme Azure - sans ces services - est donc un environnement de déploiement d'applications créées avec Visual Studio, l'atelier de développement de Microsoft, dûment secondé du SDK (kit de développement) Azure. Une fois que le développeur a créé son compte dans Azure, la publication des programmes dans ce Windows hébergé est simplissime : l'outil crée deux fichiers, un package de l'application et un fichier de configuration XML, qu'il suffit de télécharger depuis la page d'accueil de son compte Azure.

Nul besoin de se préoccuper, lors de la création du programme, du fait que cela tournera sur une machine virtuelle, ou des capacités de montée en charge. « La gestion des ressources est transparente pour vous », explique Régis Mauger. Tout est géré par ce que Microsoft appelle « la fabrique ». C'est elle qui alloue les capacités (en fonction du nombre d'instances déterminé dans le fichier de configuration), gère l'équilibrage de charge, la récupération en cas d'incident, la réplication de données...

« Votre code sera capable de supporter la charge, quelle qu'elle soit »

La version de prévisualisation d'Azure permet aujourd'hui de monter jusqu'à deux instances ; dans la version finale, l'éditeur du logiciel déterminera librement le nombre d'instances dont il pensera avoir besoin - sachant que cela pourra évoluer à la hausse ou à la baisse. « Votre code sera capable de supporter la charge, quelle qu'elle soit », assure-t-on chez Microsoft. La seule contrainte sera la tarification. Celle-ci n'est pas encore finalisée, mais on sait déjà que comme toute offre de cloud, le coût grimpera en fonction des ressources utilisées. D'où l'intérêt, soulignent les architectes, de tout de même bien optimiser le code, pour qu'il consomme le moins de ressources possibles.

L'application tournant dans Azure dispose de sa propre URL (avec une terminaison en cloudapp.net, qui peut être masquée à l'aide d'une redirection), et peut communiquer avec d'autres services accessibles en ligne, grâce aux protocoles Soap ou Rest.

Des tables, des queues et des Blobs dans le « cloud storage » d'Azure

Les données que l'application doit manipuler sont stockées dans le « cloud storage » d'Azure, qui peut prendre trois formes : des tables, des files d'attente de messages et des blobs (Binary large objects, containers pour stocker de gros fichiers binaires, comme des photos ou des vidéos). Chacun de ces formats dispose d'une URL distincte, permettant au développeur d'y accéder librement. Quelques outils, dont un est fourni en guise d'exemple dans le SDK d'Azure, donnent la possibilité de manipuler plus facilement ces données (dont le total est limité à 50 Go dans la 'preview'). Des traitements sur ces données peuvent être effectués de façon asynchrone, dans le nuage, « l'équivalent d'un traitement batch », précise Stève Sfartz.

La grosse difficulté aujourd'hui concerne le débogage des applications. Certes, Azure dispose d'un mode 'préproduction', pour y faire tourner une application avant de la mettre en production, mais on ne peut y déboguer un programme. Il faut donc faire le maximum de tests en local, sachant que le SDK reproduit en local « la fabrique ». Dans ce cas, les données sont stockées dans une base SQL Express, mais il est possible de les charger dans Azure, et d'utiliser un outil tiers comme Fiddler pour examiner les flux, afin d'identifier les points de l'application posant problème. Autre limitation imposée aux développeurs : dans la mesure où Azure s'appuie sur la version 7 du serveur Web IIS de Microsoft, le travail de conception doit s'effectuer sur Vista ou Seven, XP n'étant pas compatible avec IIS 7.

Au final, les choses sont donc plutôt claires, mais cela pourrait se complexifier à l'avenir, avec le support de langages natifs, et la possibilité de déployer dans Azure ses propres machines virtuelles.

Source : http://www.lemondeinformatique.fr/actualites/lire-techdays-09-microsoft-explique-azure-en-detail-28057.html

jeudi 12 février 2009

TechDays 2009 : Microsoft dévoile certaines fonctions de Visual Studio 2010

La future mouture de l’environnement de développement de Microsoft apportera son lot de nouveautés

Visual Studio est un produit phare pour l’éditeur de Redmond. Aujourd’hui, Visual Studio 2008 et .NET 3.5 SP1 sont des offres stabilisées et fiables. L’année 2010 sera toutefois celle du changement : Visual Studio 2010 et .NET 4.0 transformeront l’environnement de développement de la firme. Nous avons déjà eu l’occasion de parler du greffon VS.PHP. Visual Studio 2010 se voudra encore plus ouvert aux solutions tierces. Ainsi, il sera possible de l’étendre via .NET et d’insérer des commentaires complexes directement dans le code. L’éditeur utilisera également la technologie WPF, un saut qualitatif important pour cet IDE (Integrated Development Environment), qui sera ainsi nettement plus moderne.

La compagnie nous a présenté certains de ses futurs SDK (Software Development Kit ou kit de développement logiciel) : celui de Windows Azure (cloud computing), de Surface (l’outil tactile de la firme). Même Live Mesh a eu droit au chapitre. De nouveaux outils d’automatisation étaient de la partie. Ils permettront de suivre avec précision les phases de tests. En cas de problème, une vidéo de la session est mise à disposition des développeurs. Pratique !

Pour la programmation parallèle, nous avons eu droit à une démonstration d’un futur outil de profiling, puissant, mais encore à l’état embryonnaire. Dans ce domaine, tous les regards sont cependant tournés vers PFX, les extensions parallèles de .NET. "Nous souhaitons fournir 90 % des fonctionnalités de l’offre d’Intel, pour 50 % de leur complexité", commentent les responsables de la compagnie. Le message est donc clair : Visual Studio est et doit rester un outil simple d’usage.

Source : http://www.silicon.fr/fr/news/2009/02/10/techdays_2009___microsoft_devoile_certaines_fonctions_de_visual_studio_2010

mercredi 11 février 2009

Windows XP sera maintenu jusqu'en 2014

Après le 14 avril, le support de l'OS passera en mode "étendu"

Windows XP est coriace, malgré sa mort commerciale, le système d'exploitation de Microsoft est loin d'avoir dit son dernier mot. La durée de vie de l'OS a ainsi été étendue à plusieurs reprises. Rappelons qu'en principe, l’acquisition de nouvelles licences OEM devait s’achever le 31 janvier 2009. Mais en décembre dernier, Microsoft décide que les constructeurs pourront placer leurs commandes avant la date butoir, et être livrés jusqu’au 30 mai 2009. Le manque de succès de Windows Vista est largement responsable de ce changement. Par ailleurs, les constructeurs de netbooks pourront intégrer Windows XP dans leurs machines jusqu’en 2010.

Du côté du support, Microsoft avait initialement décidé d'arrêter les mises à jour le 14 avril prochain. Mais la firme explique aujourd'hui qu'après cette date, le support passer en mode "étendu". Explication : les mises à jour critiques de sécurité continueront d'être publiées et cela jusqu'en 2014... Bref, avec ce type de décisions, Microsoft prend acte des difficultés de Vista à s'imposer, notamment sur le marché professionnel. Certaines entreprises semblent ainsi faire l’impasse sur Windows Vista, pour passer directement à Windows 7 dont la sortie est prévue l'année prochaine.

Dans le même temps, il s'agit de répondre à l'attente des utilisateurs de netbooks, sachant que 80% de ces machines vendues au 3e trimestre sont équipées de XP. Pour Redmond, l'arrêt pur et simple des mises à jour de l'OS devenait alors impossible.

Source : http://www.silicon.fr/fr/news/2009/02/10/windows_xp_sera_maintenu_jusqu_en_2014

mardi 10 février 2009

Les mots de passe restent encore trop prédictibles

Les spécialistes de la sécurité le répètent à l'envi : l'homme est la première source de vulnérabilité d'un système informatique

L'analyse réalisée par la blogueur Robert Graham sur les 20 000 mots de passe dérobés et publiés suite au piratage du site phpbb.com en constitue une nouvelle illustration. Alors que les bonnes pratiques recommandent d'associer lettres et chiffres dans un mot de passe, le tiers des utilisateurs du site Web se contentent ainsi d'un mot issu d'un dictionnaire. Parmi eux, la grande majorité choisit un terme simple, désignant un fruit ou une couleur par exemple, plutôt qu'un concept abstrait ou un vocable à l'orthographe délicate. Plus évident encore, 16% des mots de passe sont des prénoms, un choix qui facilite la tâche des pirates désirant accéder au compte d'un utilisateur dont ils connaissent l'identité. D'autant que, selon Robert Graham, la plupart des prénoms trouvées dans la liste des mots de passe subtilisés sont très répandus (Thomas, Michael, Charlie), ce qui accrédite l'idée que les utilisateurs ont recours à leur propre prénom, ou à ceux de personnages célèbres ou de proches.

Dans le top 5, on trouve '123456' et 'qwerty'

Pour 14% des utilisateurs, le mot de passe est composé d'une suite de touches adjacentes du clavier. Là encore, par son caractère prédictible, ce choix affaiblit la sécurité. Dans le top 5, figurent ainsi '123456', 'qwerty' et '12345'. On retrouve aussi des combinaisons d'apparence plus rusée ('1a2z3e' ou '1aqw2zsx', deux codes « exprimés en azerty ») qui, par leur fréquence, n'en constituent pas moins une piètre protection. Enfin, aux côtés des 4% d'utilisateurs qui optent pour le terme 'password' ou une anagramme, le top 2 de la liste des mots de passe des visiteurs inscrits sur phpbb.com est occupé par 'phpbb'.

Source : http://www.lemondeinformatique.fr/actualites/lire-les-mots-de-passe-restent-encore-trop-predictibles-28021.html

lundi 9 février 2009

Ubuntu vs. Vista vs. Windows 7 : le verdict

Contrat rempli pour l’OS fétiche du monde des logiciels libres, qui écrase aussi bien Windows Vista que Windows 7

Les comparatifs entre Windows et Linux se multiplient, mais ne sont pas toujours pertinents. Celui posté sur Tux Radar intéressera tout particulièrement les professionnels, car il se concentre sur les problèmes de déploiement, de temps de démarrage… et de performance. Ce test est effectué sur une machine moderne pourvue d’un Intel Core i7 920 (comprenant quatre cœurs et cadencé à 2,66 GHz), de 6 Go de mémoire vive et de deux disques durs de 500 Go. Le choix des OS est cohérent : Ubuntu 8.10 (stable) et Ubuntu 9.04 (alpha) côté Linux, Vista (stable) et 7 (bêta) dans le clan Windows. Les versions 32 bits et 64 bits sont testées dans chacun des cas.

Contrairement aux idées reçues, Linux s’installe bien plus rapidement que Windows et avec moins d’interventions de la part du technicien. Un bon point pour les déploiements en masse de cet OS. L’Ubuntu occupe également très peu de place. L’installer sur un netbook pourvu de 8 Go ou 12 Go de disque Flash est très largement envisageable. Nous ne pouvons en dire de même avec Windows 7, bien trop gourmand en espace de stockage : ici, un disque de 16 Go ou 20 Go semble être le minimum vital.

C’est une constante, Linux met plus de temps à démarrer que Windows. Par contre, une fois le bureau affiché, cet OS est entièrement chargé en mémoire, alors que Windows continue à lancer des services et à effectuer d’autres tâches pendant un temps qui peut atteindre les dix minutes. La stratégie employée est donc différente. Linux se rattrape sur le temps avant extinction de la machine, ici très court. Notez que si l’Ubuntu 9.04 64 bits adopte le système de fichiers ext4, elle reprend la seconde place de ce classement, 2,2 secondes derrière la version 32 bits de Windows 7. Pas mal ! La manipulation de données sur le disque dur couronne Linux comme grand champion. Avec l’ext4, les résultats grimpent encore, et parfois de plus de 25 % ! Il est à noter que Windows n’est pas très bon lorsqu’il s’agit de supprimer des fichiers, cette opération pouvant prendre parfois beaucoup de temps (ou parfois très peu). Linux ne fait toutefois guère mieux, la suppression de très gros fichiers (plusieurs gigaoctets) étant systématiquement assez longue sous ext3.

Performances pures : Windows repasse en tête

L’article de Tux Radar se termine sur un test de performance cross-plate-forme relativement complet. Ici, les performances de Windows sont supérieures à celles de Linux. Relativisons toutefois : les performances des versions 32 bits de Windows sont nettement supérieures à celles des versions 32 bits de Linux. Par contre, les moutures 64 bits des OS proposent des performances presque identiques, quoique toujours en faveur de Windows. Cet écart entre les OS 32 bits et 64 bits s’explique aisément : Windows et ses applications sont adaptés à l’ensemble des spécificités des processeurs du marché. Si vous disposez d’un Pentium MMX, l’unité multimédia MMX sera utilisée dès que possible. Si vous disposez d’un Core 2 Duo, le système s’adaptera aux optimisations spécifiques à cette puce (présence du SSE, instructions plus rapides, etc.). Bref, le code est presque toujours exécuté au mieux, car les optimisations sont dynamiques.

Linux pourrait faire de même, mais les développeurs adoptent une approche souvent différente. Ainsi, il est compilé avec un jeu fixe d’optimisations, compatible avec une majorité de processeurs : en mode 32 bits, les unités multimédias (MMX, SSE, etc.) sont tout simplement ignorées, le système étant compilé pour fonctionner sur des 386 pourvus d’une unité de calcul sur les nombres flottants. Vous disposez d’un Core 2 Duo qui propose du SSE et accélère certains traitements ? Hélas, le code ne prendra que rarement en compte ces spécificités. En mode 64 bits, les choses changent : les processeurs x86 compatibles avec ces instructions sont tous de la classe Pentium et intègrent tous les unités multimédias MMX et SSE. Aussi, le compilateur se fixe un lot d’optimisations de base bien plus conséquent. En conséquence les performances grimpent.

Au final, les résultats sont peu glorieux pour Windows Vista et Windows 7. L’Ubuntu bat ses deux OS à plate couture. La situation s’inverse toutefois lorsque les performances pures sont mesurées. Windows reprend alors l’avantage. Cependant, si vous optez pour une mouture 64 bits de Linux, cette différence de vitesse sera imperceptible (moins de 1 %).

Source : http://www.silicon.fr/fr/news/2009/02/06/ubuntu_vs__vista_vs__windows_7___le_verdict

vendredi 6 février 2009

VMware lance un client ‘open source’ pour les postes de travail virtuels

View Open Client est une version limitée, mais totalement fonctionnelle, de VMware View Client

Au fil des ans, VMware aborde le monde des logiciels libres avec de moins en moins de timidité. La firme avait précédemment fourni des pilotes paravirtualisés pour le noyau Linux. Aujourd’hui, elle offre une version open source de son client VMware View Client.

VMware View Open Client est disponible sous licence LGPL 2.1. Cet outil permettra aux hôtes Linux de se connecter à des bureaux Windows distants. La sécurité est au centre de cette offre avec la possibilité d’utiliser un tunnel SSL et une authentification SecurID. Ses faibles besoins en ressources (2 Mo d’espace de stockage et 128 Mo de mémoire) permettront de l’adapter aussi bien aux clients légers qu’aux terminaux mobiles.

Pour Jocelyn Goldfein, vice-présidente et directrice générale de la division des postes de travail de VMware, "maintenant que le code source de VMware View Open Client est disponible, les constructeurs vont pouvoir optimiser facilement leurs équipements pour créer les meilleures solutions de postes de travail virtuels. De ce fait, il deviendra possible de réduire le coût total des environnements de postes de travail en privilégiant des équipements de moyenne gamme, mais qui offriront les mêmes caractéristiques que les équipements de haut de gamme."

Attention toutefois, car – contrairement à la version commerciale de VMware View Client – cette application ne supporte pas la redirection USB, la lecture locale des flux multimédias et l’utilisation simultanée de plusieurs écrans. Ce logiciel ne fonctionnant qu’en conjonction avec des produits de la compagnie, il est étonnant que cette dernière n’ait pas libéré l’ensemble des fonctionnalités de VMware View Client. Gageons toutefois que la communauté comblera rapidement ce manque.

Source : http://www.silicon.fr/fr/news/2009/02/05/vmware_lance_un_client__open_source__pour_les_postes_de_travail_virtuels

jeudi 5 février 2009

Avec Latitude, Google localise vos proches grâce à leurs mobiles

Impossible de mentir désormais...

La firme de Mountain View annonce pouvoir géolocaliser (sur une carte) une personne grâce à son téléphone portable ou tout autre matériel bénéficiant de propriétés sans fil. L’application appelée Latitude est en fait une extension de la capacité qu’ont les mobiles à pouvoir être localisables sur GoogleMaps. Lancée en 2007, cette application peut désormais s’étendre à l’environnement familial. Ainsi, un unique bouton permet aux parents de savoir où se situe leur progéniture.

Une application qui soulève des interrogations quant au respect de la vie privée de ses utilisateurs. Sur ce point, la firme promet qu’elle n’enregistre aucun des déplacements de ses utilisateurs. Seul le dernier endroit où la personne se trouve lors de la demande est communiqué. "Hormis l'aspect ludique, nous reconnaissons la sensibilité de ce type de données, aussi avons nous intégré à l'application des droits de contrôle sur la vie privée ", indique Google dans un blog annonçant le service. "Non seulement vous contrôlez précisément qui a accès à votre position, mais vous décidez également quels endroits peuvent être vus."

Pour le moment, l’application fonctionne sur 27 pays dont les Etats-Unis et compte se déployer à une échelle encore plus large. Côté OS, Latitude fonctionne avec les appareils Symbian, Blackberry, les mobiles fonctionnant sous Android ainsi que les smartphones dotés de Windows Mobile. Un large panel afin de toucher le plus d’utilisateurs possible. C’est dans cette optique que l’application devrait être compatible avec l’iPhone et l’iPod Touch d’Apple. De plus, afin de pouvoir couvrir l’ensemble du matériel nomade, Latitude peut être installé sur un ordinateur portable. Cet accès est alors utile pour ceux qui ne disposent pas d’un mobile de type smartphone.

Reste que Google est confiant sur les utilisations de son application. Des responsables estiment même qu’à l’avenir des opportunités marketing pourraient bien se faire jour. Toujours est-il que la firme investit beaucoup depuis deux ans dans le secteur des services pour mobiles. Un marché porteur ?

Source : http://www.silicon.fr/fr/news/2009/02/04/avec_latitude__google_localise_vos_proches_grace_a_leurs_mobiles

Six versions pour Windows 7

La firme persiste et signe dans sa stratégie de déclinaison

Comme avec Vista, Microsoft prévoit de décliner au maximum son nouvel OS, Windows 7. Un pari risqué qui n'a pourtant pas été payant dans le passé... Mais Redmond persiste : six versions du système d'exploitation seront commercialisées, au risque de troubler les consommateurs même si l'éditeur souligne que deux versions majeures viseront le gros du marché.

Quelles seront ces versions ?

  • Starter pour des machines ciblées type netbooks (OEM)
  • Home Basic pour les marchés émergents
  • Home Premium pour le grand public (avec AeroGlass, AeroBackground, Windows Touch, MediaCenter, lecteure native de DVD, Mobility Center)
  • Professionnel pour les petites entreprises (avec EFS, Mobility Center, Presentation Mode)
  • Entreprise pour les grands comptes (avec BitLocker, AppLocker, DirectAcess, BranchCache)
  • Ultimate pour ceux qui souhaitent la version la plus complète

Malgré cette profusion, Microsoft assure qu'il concentrera ses efforts sur Home Premium et Professionnel qui selon l'éditeur représenteront 80% des ventes. Le groupe précise également que cet éventail est également pensé pour s'adapter à toutes les configurations possibles, de la plus simple à la plus musclée. Ce qui reste à vérifier. Par ailleurs, les fonctionnalités de Windows 7 seront bel et bien différentes selon les versions : Home Basic sera ainsi dépourvue d'Aero et de MediaCenter.

Les prix ne sont pas encore connus mais il se confirme que les utilisateurs de versions différentes pourront acheter une mise à jour à un prix d'appel. Si le passage de Vista vers Windows 7 n'impliquera pas de formatage, celui de XP vers le nouvel OS entraînera l'effacement total des données présentes sur le disque dur. Enfin, au niveau des partenaires, Redmond a lancé 'Windows 7 Readiness Program'. Cette initiative permettra aux constructeurs et aux développeurs d'avoir accès à une documentation précise et à des essais de compatibilité. Objectif, favoriser l'adoption des spécificités du nouvel OS auprès de l'écosystème Microsoft et éviter les problèmes de compatibilité observés lors du lancement de Vista.

Rappelons que Windows 7 devrait être lancé entre la fin de cette année et le début 2010.

Source : http://www.silicon.fr/fr/news/2009/02/04/six_versions_pour_windows_7

mercredi 4 février 2009

Biométrie : Sony mise sur l'identification veineuse

Avec sa technologie « Mofiria », Sony veut développer une alternative plus fiable à la reconnaissance d'empreintes digitales

Ici, ce ne sont pas les lignes de la peau qui sont analysées, mais le réseau veineux. Des lumières LED infrarouges éclairent le doigt, et un capteur CMOS enregistre l'image du réseau vasculaire. Comme une empreinte dactyloscopique classique, la disposition des vaisseaux sanguins est propre à chaque individu. Mais étant situés à l'intérieur du corps, ils sont moins sensibles aux aléas extérieurs (brûlure du doigt, graisse ou sueur pouvant fausser le résultat des capteurs).

Si la lecture d'empreinte veineuse n'est pas une première en biométrie, la version développée par Sony a l'avantage d'être assez petite pour s'installer sur un ordinateur ou un téléphone portable. Elle est en plus très rapide : il faut en moyenne 0,015 seconde pour réaliser une reconnaissance avec un ordinateur, et 0,025 seconde avec un téléphone. Sony prévoit les premiers déploiements commerciaux pour cette année.

Source : http://micro.lemondeinformatique.fr/actualites/lire-biometrie-sony-mise-sur-l-identification-veineuse-2494.html

mardi 3 février 2009

GoogleEarth 5.0 plonge dans l’océan

Puisque 70% de la Terre est composé d’océans, il était logique pour Google d’étendre son outil au monde du silence

Depuis la semaine dernière certaines rumeurs (fondées) évoquaient l’arrivée de nouveaux outils pour GoogleEarth, le service gratuit de localisation et de cartes. Des informations confirmées ce lundi 2 février avec l’arrivée de GoogleEarth Ocean, une nouvelle extension du désormais connu programme made in Mountain View. A la loupe, cette nouvelle extension regroupe plusieurs nouveautés. La plus notoire étant "Océan". A priori rien de vraiment très sexy mais il s’agit d’une cartographie de certains points clés du globe tel que la fosse des Mariannes ou le Rift. Des plages, des endroits paradisiaques mais aussi d’autres durement touchés par la pollution.

Car outre l’intérêt relatif de cette nouvelle mouture, GoogleEarth 5.0 permet de sensibiliser les internautes à l’environnement. Les vidéos disponible sur la carte est disponible grâce notamment à des partenariats avec le National Geographic, la BBC, ou la Fondation Cousteau. Un intérêt que commente Florence Diss, responsable des partenariats Géographiques de Google : "Tout l’intérêt est de faire partager utilisateurs et communautés scientifique autour du monde marin". Les internautes sur Google Earth peuvent en effet poster des vidéos, photos, ou encore des descriptions de plages ou d’endroits sous-marins méritant le détour. Francine Cousteau, présidente de l’ONG du même nom explique simplement l’intérêt de cette application : "Le Commandant avait pu grâce à la télévision accéder à un monde qui était fermé. Maintenant Internet ouvre une nouvelle voie grâce à Google". On peut donc revoir à loisir les combinaisons argentées des plongeurs aux bonnets rouges lors de leurs pérégrinations dans le monde du silence.

Autres extensions de Google Earth 5, la possibilité de voir de vieilles images des villes et leur construction au fil des années. Une barre chronologique est alors disponible pour voir l’évolution de votre agglomération préférée. Enfin en choisissant de prendre un peu d’altitude, les services Google ont décidé de "cartographier" la surface de Mars. Sur ce point, ne comptez pas sur une résolution excellente mais sur quelques layers (icônes renvoyant sur des informations).

Autant de nouveautés certes peu innovantes mais qui ouvrent une brèche vers de nouvelles applications ou de nouveaux usages toujours sur le modèle du gratuit. Sur ce point les responsables de Google se font plus discrets. Florence Driss explique : "L’usage s’apparente à celui d’un navigateur, c’est-à-dire libre. Mais nous ne monétisons pas GoogleEarth" … mais on y pense aurait-elle pu ajouter. Reste que cette nouvelle version de Google Earth est disponible en 40 langues allant du français à l’hébreu en passant par l’arabe… mais pas encore le dauphin.

Source : http://www.silicon.fr/fr/news/2009/02/02/googleearth_5_0_plonge_dans_l_ocean

Une erreur humaine paralyse Google pendant près d'une heure

Rapidement, Google a réagi à ce dysfonctionnement

« Ce site risque d'endommager votre ordinateur ». Samedi 31 janvier, les internautes qui ont effectué des requêtes sur Google ont invariablement obtenu des résultats frappés de cet avertissement. A en croire le moteur de recherche, tous les sites Internet - quels que fussent leur objet et leur origine géographique - présentaient le risque de contenir un malware. Et pas question de braver l'avertissement de Google : en cliquant sur les résultats des recherches, les utilisateurs aboutissaient sur une page leur proposant invariablement de modifier leurs critères, de sélectionner un autre site ou de consulter le site StopBadware.org, qui liste les sites malveillants. De fait, vers 14h30 (heure de Paris), l'ensemble des sites Web était inaccessible à partir de l'hégémonique moteur de recherche.

Rapidement, Google a réagi à ce dysfonctionnement. Sur son blog officiel, le moteur a ainsi confessé qu'il s'agissait « tout simplement d'une erreur humaine ». Dans un premier temps, Google a reporté la faute sur le site StopBadware.org, qui lui fournit une série de critères permettant de dresser une liste des sites dangereux. Mais, contrairement à ce que Google a indiqué, StopBadware.org ne lui communique pas un catalogue d'URL à placer en liste noire. « Google génère sa propre liste », explique le site injustement mis en cause, pour dissiper tout malentendu.

Dans la foulée, Google a rectifié le tir en expliquant que l'erreur prenait sa source dans une manipulation malheureuse. Dans la liste noire des sites malicieux établie par le moteur, une main maladroite aurait en réalité coché l'URL « / », contribuant à y placer l'ensemble des pages Web recensées par Google. Rapidement débusquée, la défaillance a été corrigée en une quarantaine de minutes. Google a félicité ses équipes pour avoir mis le doigt sur l'origine du problème et a « présenté [ses] excuses à tous ceux qui ont été gênés (...) ainsi qu'aux propriétaires de sites dont les pages ont été injustement étiquetées. Nous allons enquêter méticuleusement sur cet incident et mettrons en place des moyens de vérification plus solides pour empêcher que cela se reproduise. »

Source : http://www.lemondeinformatique.fr/actualites/lire-une-erreur-humaine-paralyse-google-pendant-pres-d-une-heure-27970.html

lundi 2 février 2009

OpenOffice.org 3.0.1 arrive en version française

Cette version de maintenance de la célèbre suite bureautique libre apporte quelques nouvelles fonctionnalités

La version 3.0.1 de la suite bureautique open source OpenOffice.org est disponible en français à cette adresse (pour Windows, Linux – 32 bits ou 64 bits – et Mac OS X). Cette mouture corrige une foule de bogues repérés dans l’ensemble des modules de l’application. Elle propose également plusieurs nouveautés. Le travail avec des documents présents sur des partages réseau sera ainsi plus aisé. OpenOffice.org peut verrouiller les fichiers, afin d’en interdire l’accès à d’autres utilisateurs. Cette fonction, auparavant uniquement présente pour les formats de fichiers propres à OpenOffice.org, est maintenant disponible même lorsque vous travaillez sur d’autres types de documents.

Le module de correction présent dans le traitement de texte Writer permet dorénavant de vérifier la grammaire d’un texte. C’est un ajout intéressant, la suite bureautique se limitant jusqu’à présent à la seule vérification de l’orthographe. Cet outil accepte tout moteur de correction de la grammaire, comme celui proposé par le projet LanguageTool. Ce dernier sera donc maintenant parfaitement intégré à OpenOffice.org. Dans la pratique, LanguageTool ne donne pas toujours des résultats très pertinents. Il est cependant d'ores et déjà largement aussi efficace que le moteur intégré à Microsoft Word. Toutefois, quelques bogues gênants devront être corrigés dans la mouture française.

Cet ajout bienvenu à Writer boostera sans aucun doute les chiffres de téléchargement de la suite bureautique. Actuellement, environ 36 millions de téléchargements ont été dénombrés. Ce chiffre ne prend pas en compte les installations effectuées à partir des dépôts logiciels des distributions Linux.

Source : http://www.silicon.fr/fr/news/2009/02/01/openoffice_org_3_0_1_arrive_en_version_francaise