vendredi 12 mars 2010

12 comptes en ligne par Français

Les Français disposent en moyenne de 12 comptes numériques sur Internet, dont 2 à 3 adresses e-mail et 1 compte sur quatre sites dites d'e-commerce, selon le premier baromètre Acsel-Caisse des Dépôts présenté jeudi 11 mars. Une large majorité des internautes a par ailleurs déjà effectué une démarche administrative en ligne


Ce baromètre, qui ambitionne de mesurer l'opinion publique sur la question des identités numériques, révèle le niveau de confiance des Français dans les services numériques. Ainsi, 89% des internautes ont déjà effectué une démarché administrative en ligne, 85% ont déjà acheté en ligne, et 80% consultent leurs comptes numériques. Pour l'administration en ligne, seuls 11% des utilisateurs de ces services craignent que leurs identités soient utilisées abusivement et 10% redoutent des problèmes d'authentification. L'e-administration marque des points de confiance dans l'expérience des usagers (47%), la caution des administrations en général (43%) et les garanties techniques de sécurité (44%).

Seuls 24% craignent le piratage de leur compte sur les services de banque en ligne. Leur confiance repose avant tout sur les garanties techniques de sécurité (75%) et la crédibilité des banques en général (61%). En revanche, les craintes de piratage sont plus élevées sur les sites de commerce en ligne (43%). Dans ce cas, la confiance des internautes repose principalement sur la notoriété des sites (71%).

Les informations jugées les plus sensibles par les internautes ont un rapport avec la santé (71%), la vie personnelle (51%) et la carte d'identité (49%).

En moyenne, les Français interrogés disposent de 12 comptes en ligne ; 2 à 3 adresses e-mail, 1 à 2 adresses de messagerie instantanée, 2 profils pour les utilisateurs de forums, 1 à 2 comptes pour les utilisateurs de messagerie et 1 compte sur 4 sites d'e-commerce. Globalement, cette enquête indique que 68% de la population française est connectée à Internet, et 76% des internautes se connectent tous les jours, le plus souvent en haut débit (94%). Ce baromètre a été réalisé par l'Idate (Institut de l'audiovisuel et des télécoms en Europe) en octobre 2009 auprès de 700 internautes interrogés en ligne et 300 personnes non-internautes sondées par téléphone.

Source : http://www.lemondeinformatique.fr/actualites/lire-12-comptes-en-ligne-par-francais-30138.html

jeudi 11 mars 2010

Google lance sa place de marché logicielle professionnelle

Google enrichit sa plate-forme logicielle avec une multitude d’applications distribuées par des éditeurs indépendants. Accessible depuis le Google Apps Marketplace

Le Google Apps Marketplace fait aujourd’hui son entrée. Ce service est dédié exclusivement à la vente d’applications pouvant s’intégrer aux Google Apps, l’offre de services web de la compagnie. Les thématiques du site correspondent aux besoins des professionnels : comptabilité et finance, outils d’administration, calendrier et planification, gestion des clients, gestion des documents, productivité, gestion de projet, ventes et marketing, sécurité et conformité, gestion des flux d’informations…

Ces applications peuvent adopter n’importe quelle forme, à partir du moment où elles sont conçues pour s’intégrer à un domaine Google Apps. Les plus populaires risquent toutefois d’être celles capables d’interagir avec les applications web de Google. Le modèle économique adopté par la firme est classique : les éditeurs devront payer un droit d’entrée de 100 dollars pour accéder à la boutique, puis Google conservera 20 % des revenus générés lors des ventes.

Plus de cinquante éditeurs sont aujourd’hui présents sur cette place de marché. Il est difficile de déterminer le nombre de produits référencés par cette plate-forme, le moteur de recherche du Google Apps Marketplace ne pouvant afficher plus de 1000 résultats. Au mieux, nous pouvons affirmer que le nombre de produits référencés dépasse d’ores et déjà cette limite.

Source : http://www.silicon.fr/fr/news/2010/03/10/google_lance_sa_place_de_marche_logicielle_professionnelle

mercredi 10 mars 2010

Adobe annonce la disponibilité de Photoshop sur Android

Une nouvelle version de Photoshop est désormais disponible pour les smartphones Android. Elle autorise notamment l’accès à l’éditeur d'images pour les développeurs de l’OS de Google

L’éditeur Adobe continue de proposer Photoshop pour l’ensemble des plateformes mobiles. Après l’iPhone et Blackberry, le logiciel est désormais disponible pour les smartphones Android. L’application Phtotoshop.com Mobile 1.1 rend possible l’édition d’images aux développeurs sous Android. La plate-forme permet ainsi à Adobe de proposer aux développeurs d'intégrer le moteur de retouche d'images dans leurs applications. Les développeurs vont ainsi pouvoir ajouter quelques lignes de code à leurs applications en utilisant les outils d'édition du logiciel d'Adobe disponibles.

A la loupe, Photoshop permet des fonctions de retouche et de partage photo aux utilisateurs du système d'exploitation mobile de Google. Adobe introduit même une nouvelle série d’effets de retouche. Adobe Photoshop.com Mobile for Android 1.1 est téléchargeable gratuitement et en anglais dans tous les pays depuis l’Android Market.

Source : http://www.silicon.fr/fr/news/2010/03/09/adobe_annonce_la_disponibilite_de_photoshop_sur_android

mardi 9 mars 2010

Office 2010 pour les entreprises : sortie officielle le 12 mai

Les entreprises avec contrat de licence en volume pourront télécharger Office 2010 dès le 12 mai. Microsoft offre par ailleurs la migration gratuite d’Office 2007 vers la version 2010 à condition d’acheter une édition d’Office 2007 avant le 30 septembre

Les entreprises avec un contrat de licence en volume pourront se procurer la version finale d'Office 2010 à compter du 12 mai, a annoncé l'éditeur. Les autres entreprises, ainsi que les particuliers, devront quant à eux patienter jusqu'en juin, une échéance confirmée par Microsoft à l'occasion des TechDays de février.

Pour promouvoir la nouvelle mouture de sa suite bureautique, la firme de Redmond a lancé le 5 mars une offre commerciale, ou « garantie technologique », à destination des clients d'Office 2007 .

Des migrations gratuites et des réductions pour encourager l'adoption d'Office 2010

« Il est possible de se procurer Office 2010 en avance de phase en achetant une licence d'Office 2007 en boîte, téléchargement ou OEM » indique Microsoft sur son blog dédié à la suite bureautique. Selon les termes de cette garantie, tout acheteur d'une édition Office 2007 entre le 5 mars et le 30 septembre 2010 pourra gratuitement télécharger une édition équivalente de la version 2010 d'Office. Une version DVD est également proposée moyennant toutefois le paiement de frais d'envoi et de traitement (dont le prix n'est pas communiqué).

Sont éligibles à cette offre de téléchargement les étudiants (disposant d'un email valide dans un des établissements listés par Microsoft), les acheteurs d'un PC avec une licence OEM d'Office, et les clients de la boutique Microsoft Store ayant acheté Office 2007. En revanche les salariés d'une entreprise disposant d'Office 2007 dans le cadre de la Software Assurance ne sont eux pas concernés.

Microsoft, qui espère bien garder captifs les utilisateurs d'Office, propose par ailleurs (du 5 mars au 8 mai 2010) une réduction de 25 euros (en réalité un remboursement différé) sur Office Famille et Etudiant 2007.

Source : http://www.zdnet.fr/actualites/informatique/0,39040745,39713623,00.htm

lundi 8 mars 2010

Google Chrome : après la traduction, la géolocalisation

Google Chrome fait le plein de nouvelles fonctionnalités : récemment, les traductions automatiques et aujourd’hui la géolocalisation

Le navigateur Google Chrome se porte bien. Il compte aujourd’hui près de 6,4 % de partisans parmi les utilisateurs de navigateurs Internet dans le monde - un chiffre en augmentation constante. Le seuil des 7 % est à portée de main.

Le géant de moteurs de recherche a décidé récemment de jouer un coup médiatique autour de son navigateur, probablement pour fêter l’arrivée du ballot screen de Microsoft. Ainsi, une nouvelle version bêta de Google Chrome renforce le contrôle des données personnelles et apporte une nouvelle fonctionnalité : la traduction automatique des pages. Mais ce n’est pas tout : la version de développement progresse également rapidement. Jusqu’alors, les responsables du projet s’étaient concentrés sur la correction des bogues et la finalisation des versions Mac OS X et Linux. Chrome 5.0 semblait donc ne devoir apporter aucune nouvelle fonctionnalité. La version 5.0.342.1 propose toutefois du neuf : un support préliminaire de la géolocalisation.

Cette fonctionnalité n’est actuellement utilisable qu’avec les versions Windows et Mac OS X de Google Chrome. Notez que Chrome Frame, un module qui permet d’embarquer le moteur de Google Chrome au sein d’Internet Explorer, se dote lui aussi d’un support de la géolocalisation (dans sa mouture de test 5.0.342.0). Enfin, Google signale que le cap des 3000 extensions vient d’être franchi (3192 au moment de l’écriture de cet article).

Source : http://www.silicon.fr/fr/news/2010/03/05/google_chrome___apres_la_traduction__la_geolocalisation

vendredi 5 mars 2010

La version définitive d’Opera 10.50 disponible pour Windows

Le navigateur web Opera 10.50 fait son entrée sous Windows. Il met l’accent sur les performances

Le développement du navigateur web Opera s’est largement accéléré après la sortie de la version 10.10, le 23 novembre 2009. Elle a été suivie par une première version de test d’Opera 10.50, le 22 décembre 2009. Au menu, le moteur de rendu HTML Presto 2.5 – incluant un support du tag vidéo de l’HTML5 –, un nouveau sous-ensemble graphique – qui pourra à terme profiter de l’accélération matérielle –, une meilleure intégration à Windows 7 et un interpréteur JavaScript de nouvelle génération, Carakan. Grâce à cette dernière technologie, Opera revient enfin dans la course en terme de performances.

La version bêta d’Opera 10.50 a été diffusée le 11 février. Tout s’est alors enchainé : une seconde bêta le 24 février, et cinq release candidate diffusées en seulement deux jours. In fine, la version définitive d’Opera 10.50 pour Windows a fait son entrée hier sur les serveurs de la compagnie (vous pouvez la télécharger ici). Pour les moutures Mac OS X, UNIX et Linux, seules des versions de test sont aujourd’hui disponibles, quelques menus problèmes restant à corriger.

En précipitant la sortie de cette nouvelle version, l’éditeur norvégien joue un beau coup. Rappelons en effet que le ballot screen de Microsoft est maintenant actif en Europe, une région où les parts de marché d’Opera sont meilleures que dans le reste du monde (4,23% contre 1,86% sur le marché mondial début mars selon StatCounter). En misant sur la rapidité de traitement, Opera pourrait gagner de nouveaux partisans.

Source : http://www.silicon.fr/fr/news/2010/03/03/la_version_definitive_d_opera_10_50_disponible_pour_windows

jeudi 4 mars 2010

Pour équiper les écoles, Speechi parie sur le nomadisme

Parmi les prestataires intéressés par le marché de l'école numérique, se glisse un français : Speechi

Né en 2004 à Lille, il a d'abord proposé un logiciel, « speechi », destiné aux professeurs de l'enseignement supérieur. A partir de leurs présentations powerpoint, ce logiciel permettait de créer, dès la fin du cours, un site avec la présentation permettant aux étudiants de revoir le cours ou aux absents d'en prendre connaissance.

Ensuite, la société Speechi s'est portée sur les Tableaux de bord interactifs (TBI) avec la licence de l'américain Lovidia pour le TBI eBeam. Originalité : ce TBI favorise le nomadisme, il pèse seulement 300 grammes et permet aux enseignants de faire cours sans passer par une salle multimédia. L'enseignant emmène son tableau avec lui. Dans la foulée, Speechi a également mis au point une valise numérique, l'ITsac qui comporte un PC portable, un vidéoprojecteur, une caméra etc.., le tout préconnecté afin, là encore de favoriser le nomadisme.

Pour vendre ses produits, Speechi passe essentiellement en indirect, sans grossiste, mais avec un réseau de 2 revendeurs par région. La société en recrute encore, soit pour la branche entreprises (20% du chiffre d'affaires environ) soit pour l'international, où elle commence à se développer.

Source : http://www.lemondeinformatique.fr/actualites/lire-pour-equiper-les-ecoles-speechi-parie-sur-le-nomadisme-30058.html

mercredi 3 mars 2010

Les Cnil européennes sermonnent Google Street View

Les Cnil européennes tancent Google et sa politique de conservation des données. Les photos de rues de Street View sont dans le colimateur

Au sein du G29, le groupement des Commissions informatique et libertés européennes, dont fait partie la Cnil française (commission nationale de l'informatique et des libertés), on tenu un discours offensif à l’égard des services proposant des images floutées. Google Street View est au centre du viseur.

A en croire l'AFP, le G29 a donc adressé le 11 février une lettre à Google lui reprochant de conserver trop longtemps les originaux des photos floutées mises en ligne. Le géant conserve les images dans ses bases de données pendant une année afin de « corriger d'éventuelles erreurs ». Un délai trop long que les Cnil souhaitent réduire à 6 mois. Motif invoqué : le taux d'erreur sur les images de Google Street View est « très bas » et ne justifie pas de garder si longtemps les images originales.

Il faut préciser que le floutage des images de Street View est automatique et qu’il cache non seulement les visages mais aussi les plaques d'immatriculation, certains noms de rue et panneaux de signalisation. Pour autant, les Cnil souhaiteraient que les populations soient averties du passage des Google cars, notamment via la presse. Une disposition qui va dans le sens d’une bonne information mais qui pourrait bien avoir d’autres effets que ceux attendus (notamment le rejet des habitants d'un quartier).

D’un autre côté, Google n’est pas exempt de tout reproche puisque nombre de clichés rapportent des personnes nudistes errant librement dans leur jardin ou sur la plage… Toujours est-il que le droit au retrait des images existe bel et bien puisque certaines villes ont expressément demandé au géant de retirer des images les concernant. Etre ou ne pas être sur Street View, là subsiste l’interrogation.

Source : http://www.silicon.fr/fr/news/2010/03/02/les_cnil_europeennes_sermonnent_google_street_view

mardi 2 mars 2010

Skype 4.2 met l’accent sur la connectivité… et la haute définition

Accès aux bornes Wifi publiques, transferts d’appels, suivi de la qualité d’écoute et support de la HD sont au programme de la nouvelle mouture de Skype

La version définitive de Skype 4.2 est maintenant accessible sous Windows (4.2.0.152). Elle apporte plusieurs nouveautés. Elle permet tout d’abord de se connecter aux points d’accès Wifi publics, qui pourront être utilisés afin de passer des appels. Cette solution est facturée à la minute. L’autre grande nouveauté touche le mode vidéo, qui est maintenant compatible avec la haute définition (1280 x 720 points). Attention toutefois, car une webcam HD sera nécessaire. Privilégiez un modèle pourvu d’un encodeur H.264 matériel, qui réduira nettement la charge de votre PC. Un indicateur de qualité est également de la partie. Il fait le tour des éléments essentiels : entrée et sortie audio, bande passante disponible et puissance de la machine. Enfin, le transfert d’appel signe son grand retour.

Skype 4.2 s’adapte mieux aux spécificités de Windows 7. Attention toutefois, car l’icône de la fenêtre reste en permanence présente dans la barre des tâches (même lorsque cette dernière est réduite). Seule solution pour désactiver cette ‘fonctionnalité’, lancer Skype en mode de compatibilité pour Windows Vista SP2. Espérons que sous la pression des utilisateurs l’éditeur proposera prochainement un correctif permettant d’activer et de désactiver cette fonction.

Source : http://www.silicon.fr/fr/news/2010/03/01/skype_4_2_met_l_accent_sur_la_connectivite__et_la_haute_definition

lundi 1 mars 2010

R&D : Un algorithme pour doper l'analyse de données

Des chercheurs du laboratoire de Zurich d'IBM ont développé un algorithme mathématique capable d'analyser en quelques minutes plusieurs teraoctets de données brutes

« Il trie, effectue des corrélations et analyse des millions de séries de données aléatoires, une tâche qui pourrait demander plusieurs jours à des supercalculateurs », décrit l'un des chercheurs, Costas Bekas. Fruit de deux ans de travaux, l'algorithme totalise moins d'un millier de lignes de code. Il permettra d'effectuer des modélisations sur des données provenant de capteurs ou de compteurs 'intelligents'. Parmi ses applications possibles, il pourrait être mis à profit pour améliorer les prévisions météorologiques, analyser la consommation électrique ou les niveaux de pollution de l'air et de l'eau, ou encore être utilisé évaluer des risques financiers collectifs ou individuels, énumère Costas Bekas. « Ce qui nous intéresse, c'est de mesurer la qualité de la donnée. L'analyse efficace d'importants volumes de données requiert de nouvelles méthodes mathématiques qui réduisent la complexité des calculs ».

Source : http://www.lemondeinformatique.fr/actualites/lire-retd-un-algorithme-pour-doper-l-analyse-de-donnees-30033.html

vendredi 26 février 2010

Le nouveau noyau Linux 2.6.33 met l'accent sur l'infra et la virtualisation

Le tout nouveau noyau Linux 2.6.33 fait son entrée. Linus Torvalds en a détaillé les nouveautés, en particulier dans les domaines de l’infrastructure et des pilotes

Une nouvelle version du noyau Linux, estampillée 2.6.33, vient de faire son entrée. Comme à l’accoutumée, elle a été présentée par Linus Torvalds. Les changements présents dans ce noyau sont décrits sur cette page web du site Kernel Newbies. La nouveauté la plus marquante est probablement l’arrivée de DRDB (Distributed Replicated Block Device), qui peut être vu comme le Raid 1 appliqué au monde du réseau. Cette technologie sera appréciée dans le monde des clusters de haute disponibilité. Autre avancée intéressante, les sondes systèmes sont plus nombreuses et plus efficaces. Sans être aussi puissantes que le célèbre DTrace de Solaris, elles permettront aux développeurs d’optimiser le fonctionnement du noyau et des applications.

Compcache est une technologie expérimentale permettant de stocker le fichier d’échange sous forme compressée. Elle sera utile sur les systèmes disposant de peu d’espace de stockage, mais aussi sur ceux n’en disposant pas : en plaçant le fichier d’échange compressé dans un disque virtuel, vous augmentez la capacité mémoire disponible.

De nombreuses modifications concernent le support matériel. Ainsi, le pilote open source Nouveau, dédié aux cartes graphiques NVIDIA, fait officiellement son entrée au sein du kernel Linux. Contre toute attente, les pilotes Android font leur sortie, alors que ceux permettant le support d’Hyper-V restent présents. À l’instar de Microsoft, VMware propose maintenant des pilotes open source (réseau et affichage) permettant d’adapter Linux à ses solutions de virtualisation.

Dernière nouveauté, presque passée sous silence dans le résumé proposé par Kernel Newbies, le support de la commande TRIM est enfin disponible. Linux pourra donc maintenant exploiter pleinement les disques flash.

Source : http://www.silicon.fr/fr/news/2010/02/25/le_nouveau_noyau_linux_2_6_33__met_l_accent_sur_l_infra_et_la_virtualisation

jeudi 25 février 2010

Le 'ballot screen' est disponible pour les utilisateurs de Windows

Les internautes utilisant Internet Explorer ont désormais le choix du navigateur. Le 'ballot screen' (ou écran de choix) est disponible via les mises à jour Windows

Aussitôt dit, aussitôt fait. Microsoft vient de rendre disponible, ce 24 février, son écran de choix du navigateur Internet - qui répond aux exigences de la Commission européenne afin de garantir l'exercice de la concurrence. Grâce à une mise à jour, l'éditeur vient de mettre en ligne un patch pour ses systèmes d'exploitation Windows XP, Vista et Windows 7.

Désormais tout un chacun peut choisir plus facilement son navigateur par défaut et non plus se borner aux seules versions d'Internet Explorer. Si la mise à jour n'est pas obligatoire (classée comme facultative), son installation nécessite un redémarrage. Ensuite, un écran de choix affiche les différents navigateurs Internet du marché, dans un ordre a priori aléatoire - conformément au compromis élaboré avec les autorités de Bruxelles.

A la loupe, ce sont 5 navigateurs parmi les plus populaires qui sont proposés: Firefox, Chrome, IE, Opéra et Safari apparaissent donc dans un ordre aléatoire. Les 7 autres, à savoir AOL, Maxthon, K-Meleon, Flock, Avant, Sleipnir et Slim suivront dans la liste. Une liste qui pourra être remise à jour tous les 6 mois.

Source : http://www.silicon.fr/fr/news/2010/02/24/le__ballot_screen__est_disponible_pour_les_utilisateurs_de_windows

mercredi 24 février 2010

Single Sign-On : le projet Shibboleth se rapproche de SharePoint

Grâce à Microsoft et à l’Université Pierre et Marie Curie, la technologie SSO Shibboleth est maintenant compatible avec SharePoint. Ce projet adopte une licence open source

Shibboleth est une technologie de Single Sign-On (authentification unique) qui permet, comme son nom l’indique, de simplifier l’accès aux ressources protégées. Une seule authentification sera nécessaire pour accéder à du contenu, et ce, y compris si les sites hébergeant les ressources sont proposés par des entités différentes.

Microsoft et l’Université Pierre et Marie Curie viennent de publier une extension sous licence open source (CeCILL-B), permettant de connecter la solution de collaboration SharePoint à Shibboleth. Elle est compatible avec Windows SharePoint Services 3 et Microsoft Office SharePoint Server 2007. Microsoft signale dans son communiqué que les versions ultérieures de ces logiciels seront supportées. Cette initiative n’est pas totalement désintéressée, le GIP Renater ayant mis en place – en février 2009 – un service technique de confiance basé sur Shibboleth. L’extension shib4moss permettra donc à SharePoint de se connecter à ce réseau. Un élément important si Microsoft souhaite conserver ses parts de marché dans le monde de l’enseignement et de la recherche.

Notez également que le projet shib4net permettra d’accéder au système d’identification Shibboleth depuis toute application écrite avec la plate-forme .NET.

Source : http://www.silicon.fr/fr/news/2010/02/23/single_sign_on___le_projet_shibboleth_se_rapproche_de_sharepoint

mardi 23 février 2010

Nuance lance un lecteur PDF adapté aux professionnels

Nuance PDF Reader se veut un concurrent sérieux d’Adobe Reader. Il offre des fonctionnalités de conversion et d’accès dédiées spécifiquement aux professionnels

Nuance est un éditeur connu pour ses solutions de numérisation (PaperPort), de reconnaissance optique de caractères (OmniPage) et de reconnaissance vocale (Dragon NaturallySpeaking). La compagnie propose également des solutions de gestion des fichiers PDF. Elle ajoute aujourd’hui à cette gamme un lecteur de PDF gratuit, Nuance PDF Reader. Certes, les offres alternatives à Adobe Reader sont nombreuses, mais le poids de l’éditeur devrait lui permettre de sortir de la mêlée.

Nuance PDF Reader met l’accent sur la compatibilité avec les formats PDF et XPS ((XML Paper Specification de Microsoft). Il permettra également la conversion d’un document PDF en fichier Word ou Excel, une opération menée au travers de l’outil en ligne proposé par la compagnie. Enfin, il est particulièrement bien adapté aux besoins des professionnels : annotations, remplissage des formulaires, gestion des porte-documents PDF, ouverture et enregistrement sur un serveur SharePoint, etc.

« Nuance est ravi de proposer le premier lecteur de PDF gratuit qui se connecte à un logiciel de conversion en cloud. Notre offre ultra fonctionnelle est de surcroît plus compacte et plus sûre », constate Frédéric Delahais, general manager EMEA chez Nuance Communications.

Nuance PDF Reader est disponible dès aujourd’hui, pour Windows, à partir de cette page web.

Source : http://www.silicon.fr/fr/news/2010/02/22/nuance_lance_un_lecteur_pdf_adapte_aux_professionnels

lundi 22 février 2010

Le CNLL veut unifier la voix des entreprises du logiciel libre en France

Dix associations régionales s'organisent en Conseil national pour porter la bonne parole du logiciel libre auprès des pouvoirs publics

L'industrie du logiciel libre continue de se structurer. Notamment en France où dix associations régionales d'entreprises du logiciel libre (Alliance Libre, Cap Libre, Collibri (Cap Digital), GT LL (System@tic), Libertis, OSS@TV (Telecom Valley), PLOSS, PLOSS RHA, Pôle Nord, ProLibre) se réunissent pour créer le Conseil national du logiciel libre (CNLL). Une initiative qui a nécessité 2 ans de travail. L'annonce officielle a eu lieu hier, jeudi 18 février. Le CNLL sera représenté par Patrice Bertrand, directeur général de la société Smile.

« Le CNLL a pour vocation de parler au nom de l'ensemble de la filière économique du logiciel libre, sans discrimination, afin de faire connaître les bénéfices du logiciel libre dans le contexte actuel de relance économique, et de faire entendre les demandes de ses membres auprès des pouvoirs publics », explique le communiqué. La CNLL représentera pas moins de 200 entreprises sur le territoire. De quoi effectivement bénéficier d'une légitimité certaine pour défendre les intérêts de l'économie du libre au plan national. L'économie de l'open source est perçue comme un secteur porteur économiquement pour nombre d'analystes. Début 2009, le cabinet Pierre Audoin Consultants estimait le marché du logiciel libre à 1,1 milliard d'euros rien qu'en France. Avec une croissance annuelle annoncée de 30%. Un vrai pied de nez à la crise.

Outre la voix unifiée de ses membres que la CNLL compte faire entendre auprès des pouvoirs publics, l'association agira auprès des collectivités mais aussi à l'international. Elle apportera également un panel de compétences pour accompagner les organisations dans leur démarche d'adoption de solutions open source. Surtout, elle visera à organiser les synergies entre acteurs des différentes régions. « le CNLL sera un point d'entrée incontournable pour représenter les atouts et les enjeux du logiciel libre sur tout le territoire français, en parlant d'une même voix au nom de plus de 200 acteurs du logiciel libre », résumee Eric Flaux, président de l'association rennaise CapLibre.

La CNLL s'inscrit donc comme une nouvelle brique à un paysage déjà structuré autour de l'April (promotion et défense du libre), l'Aful (logiciels libres et interopérabilité), ou encore l'Adullact (développeurs/utilisateurs de logiciels libres pour l'administration et les collectivités territoriales) notamment. Le nouveau Conseil participera notamment à l'Open World Forum 2010 (en septembre) dont il reçoit le soutien par la voix de son président Philippe Montarges. En revanche, le CNLL précise que ses membres « ne se reconnaissent pas dans le mode de gouvernance qui a été mis en place au sein de la FNILL », la Fédération nationale de l'industrie du logiciel libre initiée par l'entreprenant PDG de Linagora, Alexandre Zapolsky.

Source : http://www.silicon.fr/fr/news/2010/02/19/le_cnll_veut_unifier_la_voix_des_entreprises_du_logiciel_libre_en_france

vendredi 19 février 2010

Microsoft fait entrer les réseaux sociaux dans Outlook 2010

Microsoft enrichit son module Outlook Social Connector d'une extension pour gérer ses contacts LinkedIn depuis la boîte de messagerie. Suivront bientôt Facebook et MySpace

Microsoft poursuit son offensive dans les réseaux sociaux. L'éditeur vient d'annoncer qu'Outlook 2010 intégrera les flux issus de LinkedIn, Facebook et MySpace. Cela permettra de regrouper derrière une seule application, la messagerie en l'occurrence, les activités en ligne de ses contacts. Du moins ceux présents sur les trois plates-formes de réseautage annoncées.

Dans les faits, seul LinkedIn est aujourd'hui intégré à Outlook. Facebook et MySpace doivent l'être dans le courant du semestre. Les impatients peuvent déjà tester la fonctionnalité en téléchargeant la version bêta d'Office 2010 dont la version stable devrait être finalisée en juin prochain selon le calendrier des sorties présenté aux récents TechDays. Il leur faudra ensuite installer le plug-in dédié disponible depuis le site de LinkedIn.

Cette extension permettra donc aux utilisateurs d'Outlook de suivre les activités et mises à jour de leurs contacts LinkedIn. Lesquels peuvent s'avérer nombreux puisque la plate-forme revendique plus de 60 millions d'utilisateurs répartis dans 200 pays. Des interactions entre les deux applications sont également prévues. Ainsi, les coordonnées des contacts sont automatiquement synchronisées dans Outlook lorsqu’elles sont mises à jour sur LinkedIn. De même, il est possible d'ajouter des connexions LinkedIn directement depuis votre boîte de réception. Ce qui évite des allers-retours entre la boîte de messagerie et la plate-forme relationnelle en ligne.

D'une manière générale, les paramètres d'accessibilité du profil de l'utilisateur du réseau social seront conservés par Outlook. Ce qui devrait éviter d'éventuelles polémiques sur la gestion de la vie privée. Microsoft a donc décidé d'intégrer l'existant (les réseaux sociaux les plus populaires, même s'il manque nombre d'acteurs au premier rang desquels Twitter) plutôt que de lancer sa propre plate-forme de réseautage comme tente de le faire Google avec Buzz.

Il faut dire que les tentatives de Redmond en la matière, notamment en jetant des passerelles entre Messenger et Hotmail sur fond d'environnement Windows Live (photos, contacts, profil, etc.), n'offrent pas une visibilité suffisante à l'éditeur pour faire cavalier seul. Surtout dans le monde de l'entreprise.

L'intégration des réseaux sociaux dans l'application de messagerie s'inscrit à travers la fonctionnalité Oulook Social Connector annoncée précédemment. Celle-ci permet d'afficher un certain nombre d'informations (deniers emails échangés et rendez-vous, documents partagés, statuts de ses réseaux...) propres aux contacts référencés dans une « conversation ». Social Connector permet notamment de connecter Outlook à Sharepoint. Il s'ouvre aujourd'hui à LinkedIn.

Source : http://www.silicon.fr/fr/news/2010/02/18/microsoft_fait_entrer_les_reseaux_sociaux_dans_outlook_2010

jeudi 18 février 2010

Google Buzz mode d'emploi

Si vous possédez un compte Gmail, il est très probable que vous ayez dû activer la fonction Google Buzz de votre messagerie. Devenu membre du réseau social de Google, voici comment l'utiliser au mieux

Lancé récemment, il était presque impossible pour les utilisateurs d'un compte Gmail de passer à coté de Buzz, le réseau social de Google. Pratiquement obligés de cliquer, de nombreux d'utilisateurs sont devenus, parfois malgré eux, les premiers membres du troisième plus gros réseau social après Facebook et Twitter. A peine un jour après, les accusations concernant le non-respect de la vie privée ont fusées, a tel point que le buzz s'était retourné contre la firme de Mountain View.

Cacher vos contacts

Contrairement à Twitter où les utilisateurs affichent le nombre des 'followers' à leur page, les utilisateurs de Google Buzz ont de multiples raisons de garder certaines informations privées. En effet, s'il est possible de se cacher derrière un pseudonyme sur Twitter, les listes d'abonnées sur Google Buzz sont publiques et contiennent de nombreuses informations comme, par exemple, les noms, prénoms, adresses e-mail ou encore leur blogs personnels des contacts. Avec la suggestion automatique des profils d'abonnés, ce procéder peut conduire à des situations inconfortables pour les utilisateurs qui auraient supprimés ou ajoutés des contacts jugés indésirable par leur entourage. Il est possible de cacher les listes de ses abonnés et abonnements, pour les protéger en se rendant dans les paramètres de son profil Google et de désactiver leur affichage.

Apprendre à gérer l'interface de Buzz

Si vous êtes débordés par le flux d'informations trop massif de votre page, des filtres sont disponibles par défaut en bas à gauche du menu. Ils trient ou actualisent les affichages de vos contacts. Pour les configurer, il suffit de gérer ces derniers à partir de votre messagerie Gmail. Sachez qu'il est évidemment possible de cacher les « buzz » des personnes qui ne vous intéressent pas et même d'arrêter de les suivre. Concernant vos propres buzz, il est possible de les supprimer, les modifier et de les passer sous silence.

Habiller le texte

Même si la fenêtre de statut pour Buzz ne dispose pas de toutes les options d'habillement de la police des traitements de texte, boîtes e-mail et blogs, sachez qu'il suffit d'entourer votre texte * d'astérisque * _ d'underscore _ ou de - tirets - pour transformer votre texte en gras, italique ou rayé.

Des add-ons en complément

Pour mieux intégrer Buzz à leur environnement internet, les utilisateurs de Chrome peuvent d'ores et déjà télécharger Chrome Buzz, un module qui intègre les options de Buzz directement dans le navigateur, offrant aux utilisateurs un accès à leur compte indépendamment de la page de messagerie Gmail.

Supprimer son compte Google Buzz

Même s'il existe un lien pour désactiver Google Buzz en bas au centre de la page Gmail, celui-ci ne permet pas de supprimer son compte Google Buzz. Il existe tout de même un moyen pour se désinscrire totalement du réseau. Pour empêcher aux autres utilisateurs d'accéder à votre profil, il faut, d'abord cliquer sur la liste de vos abonnés depuis votre compte Buzz et les bloquer manuellement un à un. Idem pour ce qui est des profils auxquels vous êtes abonnés. Ensuite, vous devez supprimer votre profil Google en vous rendant dans vos paramètres profils et en cliquant sur supprimer mon profil en tout bas de page. Désactivez ensuite Buzz depuis la fenêtre Gmail comme indiqué au-dessus, vous serez alors totalement déconnecté du réseau.

Source : http://www.lemondeinformatique.fr/actualites/lire-google-buzz-mode-d-emploi-29959.html

Le tableur open source Gnumeric 1.10 fait son entrée

Gnumeric est maintenant accessible en version 1.10. Il sera plus que jamais adapté au monde du calcul numérique professionnel

Gnumeric est le tableur du projet Gnome Office. Cet outil est aujourd’hui disponible en version 1.10, la première mouture stable majeure depuis la sortie de la 1.8, il y a plus de deux ans. S’il n’est pas en mesure d’aller contrer des mastodontes comme Excel ou Calc, ce produit confirme ses qualités dans le monde du traitement massif de données et du calcul scientifique. Les feuilles ne sont ainsi plus limitées à 256 colonnes et 65 536 lignes. Lors de la création d’un document, vous pouvez choisir librement sa taille.

Le logiciel se veut également plus rapide, moins gourmand en mémoire et plus riche : nouvelles fonctions, nouveaux types de graphiques, outils d’analyses statistiques en progrès, etc. Il est livré avec ssgrep, un logiciel d’une puissance appréciable puisqu’il sera capable d’effectuer des opérations de recherche sur un ensemble de documents. Ssgrep reconnait tous les formats de fichiers supportés par Gnumeric (y compris les formats Excel et OpenOffice.org). Dommage que cet outil ne soit pas disponible indépendamment de Gnumeric.

Enfin, Gnumeric 1.10 améliore sa compatibilité avec les fichiers issus d’Excel et d’OpenOffice.org. Le tout fonctionnera avec la plupart des distributions Linux, une adaptation pour Windows étant en cours de développement. Estampillée 1.9.16, elle reprend d’ores et déjà la plupart des nouveautés de Gnumeric 1.10.

Source : http://www.silicon.fr/fr/news/2010/02/17/le_tableur_open_source_gnumeric_1_10_fait_son_entree

mercredi 17 février 2010

Piratage : un revendeur français condamné pour contrefaçon

Jugé coupable de contrefaçon, un revendeur informatique du Sud Ouest a été condamné à verser près de 35 000 euros

Le tribunal de grande instance de Bayonne a condamné un revendeur de solutions informatiques installé dans le Sud-Ouest de la France pour contrefaçon des logiciels Microsoft. L'événement remonte au 14 décembre dernier. Le revendeur, dont le nom, ni celui de son entité commerciale, ne sont pas révélé, vendait des logiciels développé par Redmond sans licence d’utilisation, et à des prix plus compétitifs que ceux du marché. Une pratique qui a poussé le tribunal à condamner le revendeur indélicat pour concurrence déloyale et contrefaçon des marques.

Le contrefacteur a donc été condamné à verser 27 761,49 euros en dommages et intérêts à Microsoft, 5 000 euros en réparation du préjudice résultant d’une pratique de concurrence déloyale, et 1 500 euros en réparation du préjudice moral subi du fait de la contrefaçon de la marque. Soit plus de 34 000 euros. Le communiqué ne précise cependant pas le nombre de logiciels illégalement distribués, ni lesquels et encore moins le chiffre d'affaires généré. Dans tous les cas, le tribunal a ordonné la cessation immédiate de ces agissements. C'est bien le moins.

Selon Microsoft, qui s'appuie sur des études réalisées par IDC pour son compte, le taux de piratage s'élève à 41 % en France en 2009 (au printemps). Un taux inférieur à celui constaté dans la région Sud Ouest (quitaine, Poitou Charente, Midi-Pyrénées, Limousin) qui atteint 49 %. Pour l'éditeur de Windows, « ces pratiques frauduleuses sont souvent synonymes de perte de chiffre d’affaires, de création d’emploi et de croissance économique et le plus souvent au détriment de TPE/PME innovantes. A cet égard, le manque à gagner s’élève à 270 millions d’euros pour la région en 2007 ».

La vente directe de logiciels contrefaits n'est pas le seul vecteur de distribution illégale. Sont également visées les plates-formes de ventes en ligne. En juin 2009, le TGI de Paris condamnait trois particuliers (à des peines de 5 000 à 75 000 euros) qui vendaient sur Ebay des logiciels originaux Microsoft à des prix bien inférieurs à ceux du marché. Le tribunal n'a pas reconnu la légalité de leur démarche puisqu'ils revendaient des logiciels OEM qui ne peuvent en théorie pas être vendus séparément du matériel qu'ils accompagnent.

La vente en ligne est désormais une pratique mondiale bien difficile à combattre. Pour sa seule personne, Microsoft nous apprend qu'il a mené plus de 63 actions en justice, dans 12 pays différents, rien qu'en 2008, contre des revendeurs en ligne. Et qu'il a l'intention d'intensifier sa lutte. Un problème qui ne se pose pas avec les modèle des services en ligne à la demande (SaaS)...

Source : http://www.silicon.fr/fr/news/2010/02/16/microsoft_fait_condamner_un_revendeur_francais_pour_contrefacon

mardi 16 février 2010

HPC : avec Cyclone, SGI adapte le modèle IaaS au monde du calcul

Un supercalculateur à la demande ? C’est ce que permet l’offre Cyclone de SGI, qui est accessible en mode IaaS ou SaaS

Le spécialiste du monde HPC (High-Performance Computing) SGI lance aujourd’hui son service de calcul à la demande. Cyclone est disponible au choix en tant qu’offre IaaS (Infrastructure as a Service) ou SaaS (Software as a Service). Un supercalculateur en mode cloud ou des applications HPC à la demande, deux niveaux d’accès sont accessibles.

« Cyclone répond aux besoins des professionnels devant obtenir rapidement des résultats », explique Mark J. Barrenechea, CEO de SGI. « Par le biais d’Internet, nos clients peuvent maintenant avoir accès aux ordinateurs les plus rapides du monde et payer seulement pour ce qu’ils utilisent. Cyclone leur permettra de se concentrer sur leur activité au lieu de se soucier de la mise au point d’infrastructures complexes. »

Les centres de calcul de la compagnie s’appuient sur des clusters SGI Altix se composant de processeurs Intel Xeon, Intel Itanium ou Tilera TILE. Au besoin, des GPU ATI ou NVIDIA peuvent venir en renfort. Le tout est piloté soit par la Novell SUSE Linux Enterprise, soit par la Red Hat Enterprise Linux. Pour son offre SaaS, SGI distribue les solutions de plusieurs ISV : AcuSolve, Blast, ClustalW, Fasta, Gamess, Gaussian, Gromacs, Lammps, LS-Dyna, HMMER, Namd, Numeca, OpenFoam et OntoStudio. D’autres logiciels devraient prochainement rejoindre le catalogue de la compagnie.

Le tout est accessible au prix de base de 0,95 dollar par cœur et par heure de calcul.

Source : http://www.silicon.fr/fr/news/2010/02/15/hpc___avec_cyclone__sgi_adapte_le_modele_iaas_au_monde_du_calcul

lundi 15 février 2010

OpenOffice.org 3.2 fait son entrée !

Plus rapide, plus puissante et plus compatible, la suite bureautique OpenOffice.org 3.2 promet de faire un carton

La suite bureautique OpenOffice.org est particulièrement populaire en France, avec 19 % de parts de marché. Les responsables de ce projet open source viennent de dévoiler la nouvelle version 3.2, que vous pourrez télécharger en moutures Windows, Linux x86 32 bits et Mac OS X Intel, à partir de cette page web. Près de 500 extensions et plus de 100 modèles sont également disponibles (ici et ).

Au menu, un temps de démarrage plus court de 30 % par rapport à la mouture 3.1.1 et une meilleure compatibilité avec les formats de fichiers ODF 1.2 et OOXML. De nombreuses nouveautés sont intégrées à cette version, la plupart touchant le tableur (Calc) : amélioration du remplissage automatique, des tris, des filtres, des fonctions statistiques et meilleure prise en charge des cellules fusionnées, du copié/collé, etc. L’assistant de création de diagrammes se veut également plus efficace et plus riche qu’auparavant. Même constat avec le module de traitement de texte (Writer), qui propose une fonction de complétion automatique des mots plus puissante. Enfin, les outils de présentation (Impress) et de dessin vectoriel (Draw) prennent en charge des commentaires qui faciliteront la communication au sein d’un groupe de travail.

Notez que la prochaine mouture d’OpenOffice.org, programmée pour juin 2010, proposera une nouvelle interface utilisateur.

Source : http://www.silicon.fr/fr/news/2010/02/12/openoffice_org_3_2_fait_son_entree__

Microsoft met à jour sa technologie d'activation de Windows 7

Microsoft a revu la manière dont il authentifie les copies de Windows 7

L'éditeur veut que les utilisateurs certifient leur version en utilisant une nouvelle méthode de vérification par signature électronique pour s'assurer que les systèmes d'exploitation utilisés sont bien sous licence. Ce mode de contrôle s'ajoute à la clé d'authentification du processus d'enregistrement.

Joe Williams, directeur général de l'Organisation mondiale du programme Windows Genuine Advantage, a expliqué que ces nouvelles procédures étaient nécessaires pour contrecarrer les méthodes de contournement du processus de vérification mises en évidences. « Les contrefacteurs ont fait évoluer leurs méthodes et nous y répondons», a t'il déclaré. Les utilisateurs de Windows 7, abonnés aux mises à jour automatiques, auront leurs copies à nouveau contrôlées par le processus d'activation mis en place par l'éditeur. « Ceux qui disposent de copie de Windows 7 obtenues légalement ne devraient même pas remarquer la vérification, » a déclaré Joe Williams. Ce sera la première mise à jour de Windows 7 utilisant cette technologie d'activation. La mise à jour, en ligne à partir de mardi, et disponible via Windows Update une semaine plus tard, a été qualifiée d' « importante » pour Windows 7 Ultimate, Enterprise, Professional et Home Editions Premium. Et, bien que cette méthode de contrôle soit applicable à toutes les versions de Windows 7, Microsoft ne l'utilisera pas pour Windows Starter et Windows Basic. « Ces deux éditions ne sont pas souvent piratées, » a précisé Joe Williams. La nouvelle activation ne sera pas non plus appliquée aux clients en entreprise.

Des faussaires imaginatifs

Comme les signatures utilisées par les logiciels antivirus, celle de Microsoft ira chercher dans l'OS les éléments attestant que les procédures d'autorisation ont bien été validées. Avant Windows 7 et Vista, les contrefacteurs utilisaient largement les clés des produits OEM pour valider des copies multiples ou parvenaient à mouliner l'algorithme pour générer des clés. « Depuis, Microsoft a cessé de livrer des clés de produit pour licencier les copies multiples et a amélioré son algorithme, » a déclaré Joe Williams. Mais les contrefacteurs ont trouvé d'autres techniques, visant pour un certain nombre à tromper Windows 7, en faisant croire notamment à l'installeur qu'il copiait une version OEM pré-activée, ou préinstallée. Cette approche consistait probablement aussi à changer des entrées de registre, certains paramètres clés, les fichiers de licence de base et/ou certaines informations sur le secteur de démarrage. Pour créer des parades aux clés d'enregistrements des faussaires, Microsoft achète ou acquiert des copies piratées de son OS. A ce jour, l'éditeur a créé près de 70 signatures différentes.

La re-validation, un processus "indolore"

Joe Williams a affirmé que« le processus de re-validation de Windows 7 serait indolore (sic) pour l'utilisateur. » En ce qui concerne les mises à jour automatiques, le programme sera téléchargé, installé et exécuté automatiquement. Ceux qui ont choisi la mise à jour manuelle devront télécharger le programme. Une fois installé, celui-ci ira chercher des ressources d'activation connues. Si aucune n'est trouvée, le programme se mettra en sommeil pendant une période de 90 jours, avant de se réactiver à nouveau pour revérifier les signatures de Microsoft et exécuter un nouveau scan. Par contre, si le logiciel trouve des caractéristiques prouvant qu'il s'agit d'une copie piratée de Windows, il mettra l'OS en mode « non activé, » ce qui signifie que le fond d'écran passera au noir et affichera des messages persistant pour signaler à l'utilisateur l'état non activé de son système d'exploitation. « Aucune fonctionnalité ne sera entravée, » a expliqué Joe Williams. Cette précision intervient alors que l'éditeur avait bloqué l'utilisation de Vista en cas de copie illégale.

Cependant, certains ont posés la question de savoir ce qu'il adviendrait si le processus détectait de faux-vrais OS, c'est à dire identifiant un ordinateur comme piraté, alors qu'en réalité, il possède une clé authentique, mais qu'il a été restructuré d'une manière qui corresponde à une signature illégale. Joe Williams a assuré que les chances pour que cela se produise sont « très faibles », du fait que le processus vérifie un ensemble de signatures.« Si tous les éléments autorisant l'utilisation du logiciel sont présents, le système de vérification ne désignera pas une version comme non authentifiée,» a souligné Joe Williams.

Eviter les programmes malveillants

Néanmoins, si mince soit cette probabilité, les utilisateurs de Windows 7 ne vont pas prendre le risque de voir leur copie authentique révoquée par le processus de vérification du système d'exploitation de Microsoft. D'autant que Joe Williams a donné d'autres raisons pour justifier la vérification. « Les gens pourraient avoir acheté leurs machines auprès de « revendeurs malhonnêtes » qui ont utilisé des copies piratées de Windows, » a t-il commenté.

S'appuyant sur un étude menée par Media Surveillance, qui a révélé que 32% des copies de Windows téléchargées illégalement contenaient du code malveillant, il a également fait valoir que, si ces copies installées illégalement avaient été piratées, peut-être à partir d'Internet, elles sont peut-être infectées par des codes malveillants, tels que des virus, des chevaux de Troie ou des enregistreurs de frappe. En outre, une copie piratée de Windows peut s'avérer instable. « Une clé illégale d'activation de Windows Vista qui agit sur l'horloge a causé plus d'un million de plantage système, selon une compilation des crashs collectée via Watson, l'outil de rapport d'erreurs de Microsoft » a t-il ajouté.

Source : http://micro.lemondeinformatique.fr/actualites/lire-microsoft-met-a-jour-sa-technologie-d-activation-de-windows-7-2990.html

vendredi 12 février 2010

Avec Matlab, MathWorks part à l’assaut des GPU

Outil bien connu des mathématiciens, Matlab pourra maintenant déléguer ses tâches de calcul à des GPU

Nous nous sommes entretenus avec Gilles Guillemain, directeur commercial chez MathWorks, au sujet de l’évolution de Matlab, une solution populaire chez les scientifiques, les chercheurs et les industriels. Elle connait également un large succès dans les milieux financiers, en particulier grâce à la Datafeed Toolbox, qui permet d’accéder à des flux de données en temps réel.

Sur quelles avancées travaillez-vous dans le monde du calcul parallèle?

Avec le Distributed Computing Server (côté serveur) et la Parallel Computing Toolbox (côté client), nous adressons déjà le marché des supercalculateurs. En partenariat avec NVIDIA, nous avons également présenté une première version bêta de la Parallel Computing Toolbox capable d’interfacer Matlab à CUDA. Une seconde version de test sera diffusée dans deux ou trois mois. Elle permettra d’utiliser les cartes graphiques NVIDIA en direct, sans passer par CUDA. Cette technologie sera livrée en mouture définitive le premier septembre 2010.

Excel pourra prochainement paralléliser ses calculs. Une concurrence pour Matlab?

Les deux produits restent différents : Matlab se place plus en amont en terme d’analyses de données. Nous adressons les besoins des ingénieurs financiers et des gestionnaires de risque. Excel est plus axé sur le business intelligence ‘prédéfinie’. Quoi qu’il en soit, nous pouvons nous aussi paralléliser nos calculs et accéder aux bases de données (JDBC ou ODBC). Des macros Matlab peuvent même être embarquées au sein d’Excel.

Le projet open source (et gratuit) Scilab est-il une menace pour Matlab?

La concurrence stimule notre créativité et nous pousse à ajouter de la valeur à nos produits. Scilab existe depuis plusieurs années, mais l’écart entre ce projet et Matlab reste encore significatif. Nous disposons par ailleurs d’une communauté très active (Matlab Central) et nous proposons des tarifs accessibles pour les étudiants (99 dollars) et les professionnels de l’enseignement ou de la recherche académique. Les mathématiciens pourront également se rapprocher du réseau Mathrice.

Source : http://www.silicon.fr/fr/news/2010/02/11/avec_matlab__mathworks_part_a_l_assaut_des_gpu

jeudi 11 février 2010

Google annonce une offre d'accès Internet à 1 Gigabit

Quand Google se lance sur le marché des fournisseurs d'accès, il ne fait pas semblant. Mais son réseau à 1000 mégabits se limite pour l'heure au cadre expérimental

Les projets d'opérateur de réseau Internet de Google ne faisaient plus mystère ces derniers temps. Mais le géant de Mountain View n'était pas très éloquent sur les détails de ses ambitions. Aujourd'hui, Google vient d'apporter quelques précisions à celles-ci. Et on ne peut pas dire qu'il fasse les choses à moitié. Le numéro 1 des moteurs de recherche voit en effet les choses en grand et plus précisément sur le long terme puisque il annonce planifier une expérimentation d'un réseau à 1 gigabit par seconde (1 Gbit/s). Soit 10 fois plus véloce que les 100 megabits des réseaux fibre optique qui commencent à équiper nos villes. Pas moins. A titre de comparaison, l'opérateur américain Verizon, le plus innovant en la matière, propose du 50 Mbit/s (en réception) sur fibre optique pour... 140 dollars par mois.

« Nous prévoyons de construire et tester un réseau large bande à ultra haut débit dans un petit nombre de lieux d'expérimentation aux États-Unis, précisent Minnie Ingersoll et James Kelly, responsables produits infrastructure chez Google. Nous allons fournir des débits Internet plus de 100 fois plus rapide que ce que la plupart des Américains disposent aujourd'hui avec des connexions résidentielles en fibre optique [FTTH] à 1 gigabit par seconde. Nous avons l'intention d'offrir un service à un prix compétitif à au moins 50.000 foyers et possiblement jusqu'à 500 000. »

Pour l'heure, Google ne précise pas ce qu'il entend par «prix compétitif» ni quels seront les heureux bénéficières de ce réseau ultra rapide. Et pour cause: il n'en sait rien (même s'il doit avoir sa petite idée). Car l'enjeu de la fourniture d'accès Internet n'est pas tant économique qu'expérimental. « Notre objectif est d'expérimenter de nouvelles façons de rendre l'accès Internet meilleur et plus rapide pour tout le monde », confirment les responsables du projet. Ils entendent notamment vérifier ce que feront les développeurs d'une telle vélocité et les usages qui les accompagneront d'une part; d'autre part, Google veut tester de nouvelles techniques de déploiement de la fibre et de partager les connaissances acquises pour accélérer les déploiement de réseaux optiques. D'ailleurs, Mountain View proposera un réseau ouvert sur lequel viendront se greffer les opérateurs Internet tiers pour le plus grand choix des internautes. Une vision idyllique de l'infrastructure de réseau de communication comme on souhaiterait le voir plus souvent, en France notamment.

Aucune date de lancement n'est précisée. Dans un premier temps, Google part à la recherche des zones à fibrer et invitent communautés (Etats, municipalités, associations, universités, Armée et autres organisations) à se porter volontaire en renseignant un formulaire depuis le site dédié. L'idée étant de réussir à identifier les communautés et lieux de déploiement de ce réseau de future génération avant la fin de l'année. Ensuite, commenceront les travaux de déploiement. Bref, il ne faut pas espérer voir fonctionner ce réseau ultra rapide avant 2011 au mieux, plus probablement 2012. Répétons-le, le seul territoire des Etats-Unis est concerné par l'initiative.

Faute d'avoir réussi à influencer la Federal Communication Commission (FCC), le gendarme américain des télécoms, d'intégrer des projet ambitieux dans son plan national de réseau haut débit, Google fait donc cavalier seul. Sera-t-il rejoint par d'autres opérateurs locaux malgré le risque évident de concurrence que le géant de la recherche en ligne affiche à travers son nouveau projet?

Quoi qu'il en soit, Google ne serait pas le premier à proposer du gigabit au marché résidentiel. En 2005, l'opérateur HKBN (Hong Kong Broadband Network Limited) lançait bb1000, une offre à 1 gigabit par seconde disponible auprès de 800.000 foyers de Hong Kong (une zone métropolitaine il est vrai plus facile à fibrer qu'un pays à la géographie accidentée). Une technologie présentée à l'époque comme pouvant monter jusqu'à 64 Gbit/s. Et si Google allait vérifier sur la côte chinoise ce que font les développeurs de tous ces débits...

Source : http://www.silicon.fr/fr/news/2010/02/10/google_annonce_une_offre_d_acces_internet_a_1_gigabit

mercredi 10 février 2010

TechDays 2010: Microsoft précise le calendrier de sortie de ses prochains logiciels

Visual Studio 2010, .NET 4.0, Office 2010, SQL Server 2008 R2, Windows HPC Server 2008 R2, les nouveautés Microsoft seront nombreuses cette année

Selon IDC, le marché du PC repart à la croissance. La période est donc particulièrement propice au lancement de nouvelles offres logicielles. Après Windows 7 et Windows Server 2008 R2, Microsoft se prépare à mettre sur le marché de multiples nouvelles versions de ses produits phares. La compagnie a profité des TechDays 2010 de Paris pour rappeler diverses dates de sorties.

Visual Studio 2010 et .NET 4.0 sont tous deux attendus pour le 12 avril. L’environnement de développement de Microsoft adoptera une nouvelle interface graphique écrite en WPF et se montrera plus moderne, et plus fonctionnel. Il permettra aussi de faciliter l’écriture d’applications Internet riches (RIA), en réduisant les difficultés liées à la séparation entre les parties clientes et serveur. Le tout s’accompagnera de la sortie de Team Foundation Server 2010. Du côté de .NET, la plus grosse nouveauté reste le support des technologies présentes dans les nouveaux OS de Microsoft. En toute logique, il sera rapidement suivi par Silverlight 4.

Office 2010 est également un produit très attendu. La première release candidate de cette nouvelle suite bureautique sera prochainement rendue publique. La mouture définitive d’Office 2010 sera livrée en juin. Concernant les Office Web Apps (Word, Excel, PowerPoint et OneNote), les professionnels disposeront d’une version sans publicité, alors que les particuliers pourront accéder à une mouture gratuite affichant des publicités. Ce service sera compatible avec la plupart des navigateurs et des terminaux mobiles : Internet Explorer, Firefox, Safari, Windows Mobile, Blackberry, etc.

Les parts de marché de SQL Server ont crû de 14 % en 2009. SQL Server 2008 R2 arrivera courant mai. Il supportera jusqu’à 256 processeurs. Cette mouture mettra l’accent sur la business intelligence, les fonctions de data mining et la création de rapports (avec Report Builder 3). De quoi renforcer le succès de cette solution dans le monde des applications critiques. Lionel Billon, chef de produit SQL Server & BI, se veut rassurant quant au développement de la version gratuite : elle sera maintenue et de nouvelles fonctions feront leur entrée de façon régulière.

Concernant le cloud computing, Windows Azure ajoutera une nouvelle corde à son arc : le support des machines virtuelles créées par les utilisateurs. À priori, elles fonctionneront sous Windows. Toutefois, la compagnie ne cache pas que si certaines solutions doivent aller vers Linux, elle saura s’adapter. Une déclaration relativement générale, mais qui pourrait s’appliquer à Azure. Rappelons en effet qu’Hyper-V est optimisé pour Linux. L’ajout de cette facette IaaS (Infrastructure as a Service) à Windows Azure s’effectuera… dans le courant de l’année.

Dernière annonce ; un an après la sortie de Windows HPC Server 2008, la mouture R2 est d’ores et déjà sur les rails et devrait être lancée vers la fin de l’été. Si Windows HPC Server 2008 se limitait à quelques centaines de nœuds, la R2 est validée pour des clusters comprenant plusieurs milliers de nœuds.

Source : http://www.silicon.fr/fr/news/2010/02/09/techdays_2010__microsoft_precise_le_calendrier_de_sortie_de_ses_prochains_logiciels

mardi 9 février 2010

TechDays 2010 : les bons chiffres de Windows 7

Microsoft peut respirer : Windows 7 est un succès, et ce, aussi bien chez les particuliers qu’au sein des entreprises. Plus de 60 millions de copies ont été vendues en moins de quatre mois

Les TechDays sont sans aucun doute l’évènement Microsoft drainant le plus de participants de par le monde. Cette édition ne déroge pas à la règle et devrait rassembler plus de 16 000 personnes sur trois jours. C’est autant que la PDC et le MIX. Un bon score pour cet événement parisien, qui s’explique en grande partie par sa gratuité, mais aussi par la qualité de ses 300 sessions.

En seulement deux ans, toutes les branches Windows ont été renouvelées. La plus attendue était Windows 7. Après Vista, Microsoft ne pouvait se permettre un nouveau revers dans le monde desktop. Moins de quatre mois après son lancement, la compagnie peut souffler. Thomas Serval, directeur division plateforme et écosystème chez Microsoft France (à droite sur notre photo), dévoile ainsi que plus de 60 millions de copies de Windows 7 ont été écoulées. Plus de 57 % des entreprises envisagent de migrer vers cette nouvelle offre d’ici 12 à 18 mois. C’est une excellente nouvelle pour la firme, mais aussi pour les éditeurs de logiciels, qui pourront exploiter les nouvelles fonctionnalités présentes dans ce système d’exploitation.

Selon Microsoft, la sécurité du système, sa modernité et sa rapidité de mise en route sont au cœur de ce succès. Il faut ajouter à ceci la présence d’outils d’administration et de déploiement matures, et certaines technologies novatrices, comme DirectAccess, qui permet d’étendre le réseau privé de l’entreprise sur le net, sans devoir installer un VPN.

Mais ce que la compagnie ne dit pas, c’est que d’autres éléments ont probablement joué : tout d’abord, le cycle de renouvellement des entreprises est souvent compris entre 8 et 10 ans. Ceci explique à la fois le succès de Windows 7, mais aussi le relatif échec de Windows Vista, lequel est arrivé trop tôt. De plus, l’intégration du Windows XP mode au sein des versions professionnelles de l’OS est une aubaine pour les entreprises, qui pourront utiliser leurs anciennes applications sans risque. Rappelons que ce mode consiste à faire fonctionner Windows XP au sein de l’outil de virtualisation Virtual PC. Le tout est gratuit – y compris la licence du système d’exploitation – et s’intègre parfaitement à l’OS.

D’autres phénomènes ont également eu un impact positif sur l’adoption de Windows 7. Ainsi, les responsables de Sogeti nous ont confié que l’un de leurs clients, qui avait décidé d’opter pour une solution de chiffrement, a finalement préféré migrer vers Windows 7. De fait, ce dernier intègre une version améliorée de BitLocker et la migration vers le nouvel OS de Microsoft proposait le même coût de revient que celui de l’achat d’une solution de chiffrement tierce. Dans ces conditions, il n’y a évidemment pas à hésiter.

Le pari Windows 7 semble donc gagné. Preuve en est, si les sessions Windows 7 des TechDays 2009 ont connu une affluence record, ce sont celles liées à Windows Azure qui ont été aujourd’hui l’objet de toutes les attentions.

Source : http://www.silicon.fr/fr/news/2010/02/08/techdays_2010___les_bons_chiffres_de_windows_7

lundi 8 février 2010

VMware Forum : IaaS, PaaS et SaaS, le nouveau visage de VMware

VMware sort aujourd’hui des solutions de virtualisation pour aborder le domaine plus large de l’IT as a Service

« Pourquoi diable VMware a-t-il racheté SpringSource et Zimbra ? » Cette question, nombre de personnes ont pu se la poser. Stéphane Arnaudo, senior manager partner organisation EMEA, a tenté d’apporter une réponse claire à cette problématique, lors de la séance plénière du VMware Virtualization Forum 2010 de Paris. Pour la compagnie, tous ces produits s’inscrivent dans une seule et même stratégie : utiliser l’IT comme un service. Dans la couche la plus basse, nous trouvons l’infrastructure en tant que service, l’IaaS (Infrastructure as a Service), qui est proposée en interne (cloud privé) ou hébergée dans un datacenter externe (cloud public). La virtualisation est au cœur de ce domaine d’activité.

Au-dessus, se trouve la plate-forme, qui peut aussi être délivrée sous forme de service. C’est le concept du PaaS (Platform as a Service). L’acquisition de SpringSource s’inscrit dans cette stratégie. C’est aujourd’hui le framework applicatif Java le plus utilisé du marché. VMware ne cache toutefois pas que cela n’est qu’un premier produit au sein de son offre PaaS, qui comprendra à terme des solutions Ruby on Rails (Ruby), Django (Python), .NET et PHP.

Enfin, la dernière couche est le logiciel, utilisable là encore sous la forme d’un service, le fameux SaaS (Software as a Service). L’outil de messagerie collaborative Zimbra rentre dans cette offre. La compagnie se veut claire : d’autres produits rejoindront prochainement son catalogue SaaS.

Si chacune de ses offres est disponible individuellement (et devrait le rester), elles prennent une toute autre dimension lorsqu’elles sont utilisées de concert. C’est bel et bien dans cette optique que les acquisitions récentes de VMware prennent tout leur sens. In fine, la compagnie souhaite devenir un acteur de référence de « l’IT as a Service » au sens large. Les clients disposant déjà de leurs outils adopteront l’IaaS. Ceux souhaitant créer des applications se fixeront naturellement sur des offres PaaS. Enfin, les sociétés désirant simplement ‘consommer’ des produits finaux seront particulièrement sensibles aux offres SaaS.

Source : http://www.silicon.fr/fr/news/2010/02/05/vmware_forum___iaas__paas_et_saas__le_nouveau_visage_de_vmware

vendredi 5 février 2010

Combien de machines virtuelles sur un serveur, les avis d'experts ne concordent pas

Savoir combien de machines virtuelles peuvent être installées sur un serveur a toujours été un défi difficile à relever. Plusieurs experts nous apportent un début de réponse

Exécuter un ensemble de serveurs virtuels - et les applications associées - sur un serveur physique animé par un seul système d'exploitation (VDC-OS ou autre) semble assez facile au premier abord. Il est toutefois nécessaire de s'assurer que le matériel peut supporter cette charge supplémentaire, ce qui peut devenir un véritable casse-tête en raison de la variété presque infinie de logiciels qui peuvent s'exécuter dans un environnement virtuel. Chaque demande entraîne un ensemble de requêtes légèrement différentes sur le matériel et le système d'exploitation hôte, explique Chris Wolf, analyste chez Burton Group. La consolidation de serveurs physiques en machines virtuelles devrait permettre de réaliser de substantielles économies, mais il est fortement déconseillé de lésiner sur la partie matérielle pour éviter de tirer vers le bas les performances des applications et même, au final, d'aggraver les risques de non-disponibilité pour les utilisateurs finaux, indique Ian Scanlon, directeur des opérations pour ComputaCenter, un centre de données et de services informatiques basé à Londres, mais couvrant la majeure partie de l'Europe.

«Si vous mettez cinq machines virtuelles sur un serveur, vous avez au final six systèmes d'exploitation en fonction et toutes les applications associées. Et vous devez garder la main pour gérer au mieux les niveaux de services pour garantir les meilleures performances aux applications les plus importantes", précise Ian Scanlon. "Nous avons fini par installer beaucoup plus de mémoire vive que ce qui avait été défini lors de nos tests de qualifications ». Obtenir des estimations précises et détaillées sur la façon dont un serveur va fonctionner comme un hôte VM est également compliqué par les capacités inégales des jeux de composants des cartes mères chipsets qui supportent les charges de travail virtuelles et les hyperviseurs, indique Gordon Haff, analyste en informatique de haute performance chez Illuminata. Les machines virtuelles exploitent beaucoup plus intensivement qu'un serveur physique la mémoire cache des processeurs et les puces ne réagissent pas toutes de la même façon aux requêtes des applications et des hyperviseurs, rappelle-t-il.

Intel et AMD ont conçu des processeurs adaptés aux besoins de la virtualisation et de la migration des serveurs virtuels et leurs prochaines générations de puces - Nehalem-EX avec huit coeurs chez le premier et Magny-Cours avec 12 coeurs chez le second - feront encore mieux. Un serveur donné peut ainsi avoir aujourd'hui entre deux et huit processeurs, chacun ayant entre deux et huit coeurs de traitement. Dans quelle mesure la configuration d'un serveur répondra à la charge idiosyncrasique d'un logiciel est une variable presque impossible à prédire sans une étude précise et minutieuse, commente Andi Mann, analyste chez Enterprise Management Associates (EMA).

Même en demandant des informations techniques à un commercial avant-vente ou directement aux constructeurs, vous n'obtiendrez pas de réponse précise sans une évaluation détaillée de la charge de travail que vous envisagez de mettre sur le serveur. Bien qu'il n'y ait pas vraiment de règles rapides au sujet de la question matérielle, une démarche peut vous aider à obtenir des réponses suffisamment proches pour déceler les points faibles d'une offre et savoir ainsi comment la renforcer, explique Massimo Re Ferre, architecte IT senior chez IBM. Premièrement, sur chaque coeur issu d'un nouveau processeur Intel ou AMD, vous pouvez associer trois à cinq machines virtuelles, dit-il. C'est une vision plus optimiste que celle de Ian Scanlon, qui estime qu'il est préférable de se limiter à cinq ou six machines virtuelles sur un serveur unique. Si les applications exigent des ressources intenses comme avec les bases de données ou les ERP, il même recommandé, selon lui, de se limiter à deux VM.

Trop se concentrer sur la consolidation conduit inévitablement à tirer les performances vers le bas et entraine l'insatisfaction des utilisateurs. Deuxième règle de Massimo Re Ferre : pour chaque coeur sur un processeur récent, ajouter sans hésiter de deux à quatre Go de mémoire vive. Un point qui coïncide avec l'évaluation de Ian Scanlon : 48 Go de Ram recommandés sur chaque serveur lame. "Une fois la mémoire vive en place, nous n'avons pas connu de problèmes de performance à proprement parler », précise-t-il.

Les autres points à suivre de près

Premièrement: ne pas oublier la tuyauterie. Avec plusieurs serveurs en action, les exigences en terme d'entrées/sorties deviennent beaucoup plus importantes. Assurez-vous d'avoir suffisamment de liens entre les baies de stockage et le réseau pour supporter la charge, explique Gordon Haff, de la société de conseil Illuminata. Cisco répond d'ailleurs à ce problème avec ses serveurs maison ESX équipés d'une intergace 10 Gigabit Ethernet.

Deuxièmement: construire une clôture. Les machines virtuelles (VM) sont devenues très faciles à lancer et difficiles à suivre ensuite avec la prolifération des serveurs. Un grand nombre de VM finissent par fonctionner dans leur coin sans être réellement utilisées. C'est un élément qui est devenu très courant avec la multiplication des machines virtuelles. Tuer tous les serveurs non utilisés et réallouer l'espace disque réservé a ainsi permis à ComputaCenter de récupérer de nombreuses ressources qui ont ensuite pu être utilisé pour d'autre tâche en attendant de nouveaux investissements, indique Ian Scanlon.

Troisièmement: Utilisez les outils qui sont disponibles sur le marché pour obtenir une cartographie détaillée de votre installation, conseille Chris Wolf. VMware commercialise vCenter VMware CapacityIQ 1.0, et Microsoft propose ses outils d'évaluation et de planification pour Hyper-V pour guider les clients. Des solutions particulièrement intéressantes quand on dispose d'environnements qui incluent VMware et Hyper-V. De nombreux outils tiers ne couvrent pas les deux versions - HP dispose par exemple d'un outil de calibrage spécialement conçu pour VMware et d'un autre pour Hyper-V. Ceux qui sont plus ou moins affiliés à VMware ou Microsoft ne peuvent pas fournir une évaluation indépendante explique encore Andi Mann d'Enterprise Management Associates. Parmi les outils recommandés citons toutefois, PowerRecon de Novell, Data Center Intelligence de Cirba, Balance Point d'Akorri et Capacity Modeler de Vkernel.

En fin de compte, il est possible de construire un profil détaillé pour bien déployer ses machines virtuelles. Mais vu la quantité de temps et d'argent nécessaire pour une évaluation professionnelle, il est quelquefois plus intéressant de rester sur des serveurs qui ne fonctionnent qu'à 70% de leurs capacités plutôt que de chercher à atteindre à tout prix les 95% de taux d'utilisation conclut Massimo Re Ferre.

Source : http://www.lemondeinformatique.fr/actualites/lire-combien-de-machines-virtuelles-sur-un-serveur-les-avis-d-experts-ne-concordent-pas-29862.html

jeudi 4 février 2010

OpenOffice.org dépasse les 20 % de parts de marché en Allemagne

OpenOffice.org gagne rapidement des parts de marché en Allemagne. Ce logiciel rassemblerait aujourd’hui 21,5 % des utilisateurs de suites bureautiques

Il est difficile de mesurer le taux d’utilisation des logiciels libres, ces derniers étant en général diffusés gratuitement. Pour la suite bureautique open source OpenOffice.org, une seule donnée est disponible officiellement ; le nombre de téléchargements effectués sur le site du projet. À ce jour, le logiciel a été téléchargé 63 millions de fois. Il faudra bien entendu ajouter à ce chiffre les installations actives de Linux, la plupart des distributions étant livrées avec leur propre version d’OpenOffice.org.

Le site Webmasterpro.de vient de publier une étude intéressante, qui détermine les parts de marché des suites bureautiques sur le territoire allemand. Sans grande surprise, Microsoft Office est le leader du marché, avec 72 % d’utilisateurs. OpenOffice.org et ses dérivés (StarOffice, Lotus Symphony, NeoOffice, etc.) sont présents chez 21,5 % des utilisateurs. Un excellent résultat. D’autres acteurs comme Corel, Apple, SoftMaker et KOffice se partagent le reste du marché. L’étude montre aussi que Microsoft Office est plus favorisé en entreprise, alors qu’OpenOffice.org reste privilégié par les particuliers. Ce mouvement pourrait toutefois s’inverser rapidement, car dans les grandes entreprises et le secteur public chaque adoption suppose la migration de centaines de postes de travail.

Source : http://www.silicon.fr/fr/news/2010/02/03/openoffice_org_depasse_les_20___de_parts_de_marche_en_allemagne

mardi 2 février 2010

Google veut « tuer » Internet Explorer 6

Considéré comme obsolète et ne supportant pas certains formats, Google annonce qu’IE 6 ne sera plus compatible avec plusieurs de ses services web

Les versions les plus récentes des navigateurs seront désormais obligatoires pour utiliser Google Docs, la plate-forme d'applications bureautiques en ligne de Google. L'entreprise de Mountain View annonce ainsi qu'à partir du 1er mars prochain, il ne sera plus possible d’utiliser Internet Explorer 6 (IE6), ni d’anciens navigateurs comme Firefox 2.0, Safari 2.0 et même Chrome 3.0, pour bénéficier des fonctions évoluées de Docs et Sites (création de sites web). Le géant relaie les inquiétudes des internautes.

Annoncé sur un blog officiel de Google, le service bureautique en ligne ne sera plus disponible via l’ancienne version du navigateur de Microsoft, IE6. Et de justifier sa politique en rappelant que « le Web évolue à la vitesse de la lumière et l’usage d’un navigateur de dernière génération vous permet d’accéder aux dernières applications en ligne. » Autrement dit, pour profiter de des innonvations les plus récentes du web, mieux vaut ne pas se fier à Microsoft. Selon StatCounter, en janvier, IE6 détient encore 13,46 % du marché mondial de la navigation. Un chiffre encore trop important dans la mesure où le navigateur est souvent la cible d’attaques pirates, et reste montré du doigt comme étant peu sécurisé. Certains sites de réseaux sociaux comme Twitter ou Digg relaient l’inquiétude d’internautes et blogueurs, certains souhaitent même la « mort d’IE6 ». Le site de micro-blogging a même recueilli pas moins de 14.000 signatures réclamant l’arrêt du navigateur.

Agé de 9 ans, IE 6 pourrait bien connaître ses dernières heures si la campagne prend de l'ampleur. Reste la possibilité de changer de navigateur ou de basculer sur IE8. Car ce n’est pas le navigateur qui prend le Web mais le Web qui prend le navigateur. Ou l’inverse…

Source : http://www.silicon.fr/fr/news/2010/02/01/google_veut___tuer___internet_explorer_6

lundi 1 février 2010

Firefox fait son entrée officielle sur les terminaux mobiles !

Le navigateur web Firefox est maintenant disponible en version définitive sur les terminaux mobiles Nokia N810 et N900

La mouture définitive de Firefox Mobile 1.0 (nom de code Fennec) est sortie dans l’indifférence presque générale. Et pourtant, l’événement est d’importance car il signe l’entrée de la fondation Mozilla sur le marché des smartphones et des terminaux mobiles.

Dans l’absolu, cela permettra de lever de nombreuses barrières, en permettant de surfer librement sur Internet, avec un outil open source qui reprend le moteur de rendu de la version desktop de Firefox. Dans la pratique, Firefox Mobile souffre de sa faible compatibilité avec les terminaux mobiles. Ainsi, il n’est aujourd’hui disponible que sur deux produits Nokia, fonctionnant sous Maemo : la tablette N810 et le smartphone N900. Espérons que d’autres versions seront livrées dans un futur proche. Celle dédiée à Windows Mobile est toujours en cours d’écriture.

La fondation Mozilla a bien pensé son logiciel, qui propose une interface graphique adaptée aux écrans de petite taille. Le navigateur est également compatible avec la géolocalisation et certains éléments issus de l’HTML5 (audio, vidéo, stockage local…). Ses fonctionnalités pourront être étendues par le biais de modules complémentaires. L’extension Weave Sync, elle aussi disponible en mouture définitive depuis quelques jours, permettra ainsi de synchroniser diverses informations entre les versions desktop et mobile du navigateur : marque-pages, historique de navigation, mots de passe, etc.

Source : http://www.silicon.fr/fr/news/2010/01/31/firefox_fait_son_entree_officielle_sur_les_terminaux_mobiles__

vendredi 29 janvier 2010

Larry Ellison (Oracle) : «Enfin !»

Lors d’une séance de questions/réponses, Larry Ellison, le CEO d’Oracle, est revenu sur le futur des produits Sun

Il se montre particulièrement confiant : « Cela a pris du temps, mais Sun Microsystems et Oracle ne font maintenant plus qu’un », se réjouit Larry Ellison. Un constat qui n’est pas seulement lié aux difficultés rencontrées lors de cette acquisition. De fait, le CEO d’Oracle n’a jamais caché son admiration pour Sun Microsystems, qu’il souhaitait racheter depuis de nombreuses années. Lors de son allocution, il n’a pas tari d’éloges envers Sun Microsystems, ni même d’anecdotes concernant les autres acteurs de ce secteur, comme HP et IBM. Les mots Solaris, SPARC et ZFS sont revenus de façon régulière.

Affable, Larry Ellison rappelle que 2000 emplois vont être créés chez Oracle. Largement de quoi compenser les licenciements passés et futurs. « Nous ne licencions pas, nous embauchons », martèle-t-il. Ce surcroit de personnel permettra de mettre de l’ordre dans les activités de Sun Microsystems. Pour lui, aucune inquiétude : « Lorsqu’on me demande quand l’activité issue de Sun deviendra profitable, je réponds dès le mois de février. Et cela ne fera que progresser avec le temps. »

Il n’est également pas inquiet quant au rapprochement entre les serveurs Sun Microsystems et les logiciels Oracle, qui pourraient faire fuir certains grands éditeurs. Il souligne ainsi que des sociétés comme SAP utilisent les solutions de bases de données d’Oracle, « mais en général sur des serveurs IBM », ironise-t-il.

Le sort de MySQL est un sujet important pour la communauté open source. Encore une fois, Larry Ellison se veut rassurant : « Nous participons activement au projet MySQL depuis plus de cinq ans, et nous allons continuer. Nous avons maintenant plusieurs solutions de bases de données ; Berkeley DB, MySQL et Oracle. Chacune a sa place sur le marché. »

Source : http://www.silicon.fr/fr/news/2010/01/28/larry_ellison__oracle______enfin____

jeudi 28 janvier 2010

Apple iPad, un MacBook tactile sans clavier?

Steve Jobs a présenté la nouvelle ardoise électronique d'Apple.
Dans un design propre à l'iPod, l'iPad se partage entre portable (sans clavier) tactile et liseuse électronique

On attendait l'iSlate. Ce sera l'iPad. Mais le nom commercial de la deuxième tentative d'ardoise numérique d'Apple (après l'échec du Newton dans les années 90) que Steve Jobs a présenté ce 27 janvier ne change rien aux fonctionnalités du produit. L'iPad enferme une architecture proche de celle d'un ordinateur portable derrière un écran tactile multi points comme il se doit selon Cupertino.

Equipé d'un écran LED de 9,7 pouces, avec affichage en 1024x768 en résolution 132 pixels/pouce (ce qui devrait considérablement renforcer la finesse de l'image comparé aux 72 ou 96 dpi des écrans traditionnels) mais ne supportant que la haute définition en 720p (et non 1080p), l'iPad embarque un système sur puce composé d'un processeur à 1 GHz et du moteur graphique (Apple n'est pas très explicite sur cet élément). La mémoire de stockage se limitera à une capacité maximale de 64 Go sur disque Flash SSD. Interface de communication Bluetooth 2.1, Wifi n et 3G (en option) sont bien sûr au rendez-vous. Si l'iPad est bien doté d'un port USB, Apple n'a pas jugé utile de munir son ardoise d'un connecteur Ethernet nous refaisant ainsi le même coup qu'avec le MacBook Air. Il est vrai que, depuis, les réseaux Wifi se sont multipliés et que les haut débits de la 3G (quand ils sont là) remplacent allègrement une connexion filaire.

Côté applicatif, Apple a vu les choses en grand. Outre les 140 000 applications iPhone disponibles depuis l'App Store, Cupertino a (re)développé 12 logiciels propres aux caractéristiques de l'iPad. Safari, Mail, photos, vidéos, iTunes, iPod, Maps, Calendar, Contact, Notes, Spotlight Search... sont tous adaptés à l'interface tactile et s'utilisent en mode vertical comme horizontal avec une détection automatique de l'orientation. Le lecteur de livres électronique iBooks fait son apparition et permettra, à l'avenir, de piocher des ouvrages dans la bibliothèque iBookstore qui l'accompagne. Apple n'a pas précisé le nombre et la nature des contenus disponibles si ce n'est qu'ils proviendront des «principaux éditeurs et des indépendants». Signalons également l'arrivée de versions dédiée de iWork, Pages, Keynote et Numbers proposées en option.

Autre surprise, le prix de ce (très) gros iPod Touch débute à 499 dollars (355 euros au taux du change mais la parité euro/dollars risque d'être maintenue) alors que les analystes l'attendaient autour de 1000 dollars. On s'en approche avec la version la plus complète (3G, SSD 64 Go) qui s'élève à 829 dollars. Entre les deux, pas moins de 4 configurations sont proposées pour répondre aux exigences et moyens financiers des futurs clients. Un petit exploit en regard de l'effort apporté à sa fabrication face aux normes environnementales. Selon Apple, sa tablette est exempte de mercure, arsenic retardateur de flamme et autres PVC polluants. Il restera néanmoins à vérifier que l'iPad restera compétitif face aux produits estampillés Windows 7 (comme la tablette HP présentée au CES 2010) voire ceux sous Linux ou Android que nombre de constructeurs asiatiques préparent dans leurs coins. 500 dollars, c'est le prix bas d'un portable de moyenne gamme pour un produit aux capacités similaires (si ce n'est supérieures avec la 3G) mais plus transportable.

Qu'on en juge : à peine plus épais qu'un boîtier de CD (1,27 cm) pour moins de 25 cm en hauteur et 19 de large, l'iPad pèse moins de 700 grammes (730 g. pour le modèle 3G). Et sa batterie embarquée lithium-polymère de 25 W/h assure une autonomie de 10 heures avec l'usage du Wifi, aux dires d'Apple.

L'iPad n'est cependant pas exempt de défauts. Outre sa mémoire de stockage un peu légère qu'il est impossible d'augmenter faute de lecteur de carte SD, l'iPad n'embarque apparemment pas de caméra (webcam). Impossible de faire des photos ou de se voir en vidéo lors d'une visioconférence. A défaut d'image, micro et les hauts-parleurs embarqués pourvoiront au son. Il restera aussi à vérifier que l'ensemble processeur et moteur graphique supporte correctement l'affichage des vidéos ou des jeux 3D. Autant d'éléments qu'Apple se fera un plaisir d'introduire dans de futures versions de son ardoise. A condition que l'iPad, contrairement au Newton, rencontre cette fois son public. A vérifier à partir de mars prochain, date de disponibilité officielle du nouveau bijou d'Apple.

Source : http://www.silicon.fr/fr/news/2010/01/27/apple_ipad__un_macbook_tactile_sans_clavier_

mercredi 27 janvier 2010

Google Chrome 4.0 est disponible en version stable !

Google Chrome 4.0 est enfin accessible en mouture stable.
D’excellentes performances et la gestion des extensions sont les deux principales nouveautés de cette version

Google lance la version 4.0 de son navigateur web Google Chrome. Au menu, de meilleures performances, la gestion des extensions et la possibilité de synchroniser les marques-page entre plusieurs ordinateurs. Nous avons pu constater que les performances de Google Chrome 4.0 étaient en progrès. Comparé aux versions stables des autres navigateurs, Chrome 4.0 décroche la première place au test Peacekeeper et à la V8 Benchmark Suite. Il conserve la seconde place au test SunSpider, mais il se rapproche de Safari.

Plus de 1500 extensions sont aujourd’hui disponibles. Ces modules complémentaires permettent à Chrome de devenir aussi extensible que Firefox. Soyons honnêtes : le pire côtoie souvent le meilleur. Il est ainsi regrettable que certaines extensions essentielles (par exemple celle permettant de supprimer les messages publicitaires) soient si gourmandes en temps processeur et en mémoire. La synchronisation des marques pages entre plusieurs installations du navigateur était également une fonction très attendue. Dans la pratique, elle se montre efficace. Nous regrettons cependant que Google ne permette pas la synchronisation avec son service web de stockage des marque-pages. Fort heureusement, des extensions pallient ce manque.

Les professionnels seront heureux d’apprendre que Chrome 4.0 fait également le plein de nouvelles technologies, issues de l’HTML5 : sockets web, stockage local, bases de données web… Enfin, l’équipe responsable du projet profite de cette version pour corriger de nombreuses failles de sécurité. Ces fonctionnalités devraient permettre à ce butineur de conforter sa troisième place. StatCounter évalue les parts de marché de Chrome à 5,94 % sur les trente derniers jours. Malheureusement, cette mouture ne sera pas suffisante pour permettre un réel décollage de ce navigateur. De fait, elle est aujourd’hui uniquement disponible pour Windows. Les personnes disposant de Mac OS X ou de Linux devront donc se contenter de versions de test.

Source : http://www.silicon.fr/fr/news/2010/01/26/google_chrome_4_0_est_disponible_en_version_stable__

mardi 26 janvier 2010

Les déplacements professionnels sont en chute libre

« La crise oblige les professionnels à sortir de leur zone de confort »
Ce constat touche également l’organisation des entreprises, qui exploitent les TIC afin de réduire leurs déplacements

Une étude commanditée par Skype auprès du cabinet Redshift Research montre que plus de 60 % des PME européennes ont remplacé leurs déplacements à l’étranger par de nouveaux modes de communication. Le courrier électronique reste l’outil le plus apprécié des professionnels (74 %), quoique le plus critiqué, car il ne permet pas de tenir une discussion en temps réel. Les appels téléphoniques restent également une valeur sûre (56 %). D’autres usages montent en flèche, comme les appels vidéo (32 %) et la messagerie instantanée (29 %). Bon point pour Skype, son offre de VoIP est plébiscitée par 20 % des personnes interrogées (73 % en Russie, un pays très friand de solutions vidéo).

« Contraintes de réduire leur budget déplacements, les entreprises doivent trouver de nouveaux moyens de communication et de collaboration pour être compétitives. En l’absence de réunions traditionnelles en tête à tête, elles doivent se doter de nouveaux outils. Dans ce contexte, l’essor météorique des communications vidéo n’est guère surprenant », déclare Stefan Oberg, vice-président de Skype for Business.

Les courriers électroniques et les appels téléphoniques classiques ne sont pas en mesure d’expliquer cette réduction soudaine des déplacements professionnels. Il semblerait donc que la téléconférence et la vidéo soient les éléments qui président à ce changement de cap de la part des entreprises. Un bon point pour Skype, qui se démarque par la qualité de ses transmissions audio et vidéo. Toutefois, l’éditeur aura encore des efforts à faire avant de proposer une solution de conférence virtuelle à la hauteur de celles disponibles chez ses concurrents.

Source : http://www.silicon.fr/fr/news/2010/01/25/les_deplacements_professionnels_sont_en_chute_libre

lundi 25 janvier 2010

Firefox 3.6 : déjà 13 millions de téléchargements

Succès mondial pour la nouvelle version du navigateur de Mozilla quelques heures après sa disponibilité

Firefox met le feu aux poudres. A peine 24 heures après l'annonce de sa disponibilité, Firefox 3.6 a dépassé les 3 millions de téléchargements dans le monde si l'on en croit le compteur en temps réel proposé par la fondation Mozilla [13 millions au moment où j'écris ces lignes].

Avec plus de 700 000 téléchargements (dans la matinée de vendredi 22 janvier), les Etats-Unis arrivent en tête des pays où le navigateur open source cartonne. Un effet d'échelle dû à la taille du pays qui ne masque pas les succès européens du fureteur : plus de 350 000 copies en Allemagne, 150 000 en France, 90 000 au Royaume-Uni, 77 000 en Espagne, 70 000 en Italie... Le Brésil (175 000), le Japon (135 000), le Canada (81 000) ou encore la Russie (80 000) se classent parmi les pays où Firefox 3.6 est le plus consulté.

Rappelons que, parmi les nouveautés, cette nouvelle mouture du navigateur s'enrichit de Personas, un système de personnalisation dynamique des thèmes graphiques depuis un site dédié, l'affichage vidéo en plein écran, la vérification des mises à jour des plugins, le support des polices de caractères web au format WOFF (Web Open Font Format, qui allège le poids des polices et fournit les informations de provenance), etc. L'application améliore par ailleurs ses performances, notamment sur les traitements des scripts JavaScript comme l'ont montré nos tests.

Il adopte par ailleurs le moteur de rendu Gecko 1.9.2 toujours plus proche des standards du web, notamment les nouvelles feuilles de styles CSS 3 et des éléments du futur HTML 5 qui rapproche l'usage des applications en ligne de l'expérience locale. Firefox 3.6 implémente notamment une fonction drag and drop qui permet de glisser-déposer des fichiers depuis le disque dur local du PC vers un service en ligne à travers le navigateur. Transférer des photos dans son compte FlickR, par exemple, devient un jeu d'enfant. Une fonctionnalité que les développeurs doivent cependant adopter sur leurs services.

Firefox 3.6 est donc bien parti pour battre des records d'adoption. Objectif : continuer à grignoter les parts de marché d'Internet Explorer (qui pourrait se montrer offensif avec la version 9) tout en maintenant la distance avec Google Chrome qui monte, qui monte... Selon le site promotionnel SpreadFirefox, le navigateur a été téléchargé plus de 1,2 milliard de fois, toutes versions confondues depuis sa sortie officielle en novembre 2004. Téléchargements ne signifient évidemment pas utilisateurs. Fin décembre, Mozilla revendiquaient 350 millions d'utilisateurs actifs. Et une part de marché mondiale de plus de 31 % selon StatCounter.

Mozilla multipliera la fréquence des mises à jour innovantes en poursuivant les développements de Firefox 3.7 et 4 respectivement attendus pour le milieu et la fin 2010 (si les retards ne s'accumulent pas trop). Ils se distingueront notamment en adoptant un modèle multiprocesseur qui devrait renforcer la stabilité de Firefox.

Source : http://www.silicon.fr/fr/news/2010/01/22/firefox_3_6___deja_3_millions_de_telechargements

vendredi 22 janvier 2010

La Commission européenne donne son accord pour le rachat de Sun Microsystems par Oracle

Validé aux États-Unis, le rachat de Sun Microsystems par Oracle l’est maintenant aussi en Europe

L’acquisition de Sun Microsystems par Oracle a fait couler beaucoup d’encre. La Commission européenne s’est tout d’abord montrée inquiète, estimant que MySQL pourrait souffrir de ce rachat, ce produit étant un concurrent des offres de la firme. Une inquiétude partagée par Michael Widenius (« Monty », le créateur de MySQL), qui a lancé une pétition visant à bloquer cette vente. Lors de son enquête, la Commission a reconnu que MySQL occupait la première place dans le secteur des bases de données open source. Toutefois, MySQL et Oracle ne sont pas en concurrence sur tous les segments de marché. Les engagements d’Oracle concernant l’avenir de cette solution ont également joué un rôle décisif dans la décision de Bruxelles.

La Commission a aussi levé des doutes concernant l’avenir de Java, lesquels ont été rapidement balayés. « Oracle n’aurait aucun intérêt à restreindre l’accès de ses concurrents aux droits de propriété intellectuelle liés à Java, car cela compromettrait les bénéfices résultant de la large adoption de cet environnement », expliquent les responsables européens. En conséquence, Bruxelles a décidé de valider le rachat de Sun Microsystems par Oracle (communiqué officiel). « Je suis convaincue que la concurrence et l’innovation seront préservées sur l’ensemble des marchés en cause. Le rachat de Sun Microsystems par Oracle est susceptible de redynamiser des actifs importants et de donner naissance à de nouveaux produits innovants », explique Neelie Kroes, membre de la Commission chargée de la concurrence.

Les responsables de la Commission rappellent aussi que MySQL étant placé sous licence open source, la création de dérivés (forks) est possible. Au pire, ils signalent que PostgreSQL est une alternative toute à fait crédible à MySQL (Monty appréciera sans aucun doute cette remarque). Une analyse partagée par Marc Fleury (fondateur et ancien président de JBoss), qui considère également que puisque MySQL a été vendu à Sun Microsystems, la cause est entendue. Il ne se gène pas pour tancer vertement Monty, en précisant que ce genre de campagne pourrait mener les grandes entreprises à se montrer frileuses lorsqu’elles décideront de racheter des technologies open source. La réaction de Michael Widenius n’est pas encore connue, mais ce dernier avait prédit ce retournement de situation et en appelle d’ores et déjà aux autorités de régulation chinoises et russes.

Source : http://www.silicon.fr/fr/news/2010/01/21/la_commission_europeenne_donne_son_accord_pour_le_rachat_de_sun_microsystems_par_oracle

jeudi 21 janvier 2010

Avast lance la version 5 de sa suite sécurité

L’éditeur de sécurité Alwil Software lance un nouvel anti-virus gratuit décliné en version Premium et Pro

Le tchèque Alwil Software, éditeur d’Avast annonce la sortie de la version 5 de sa solution anti-virus. La firme annonce avoir plus de 100 millions d’utilisateurs et continue son appel du pied aux internautes en proposant une solution gratuite.

Avast explique la différence entre les versions gratuites et payantes, selon les mots de son p-dg, Vince Steckler : « Nos versions gratuites et payantes sont identiques en termes de niveau de protection contre les logiciels malveillants. La version gratuite se destine à l’utilisateur d’internet moyen alors qu’Avast! Internet Security 5.0, notre nouveau produit phare, est recommandé pour les utilisateurs réalisant des activités sur Internet sensibles en matière de sécurité telles que l’achat et les transactions bancaires en ligne ». De plus, la solution se dote d’un pare-feu et d’un service anti-spam. Côté professionnel, Avast pro permet de personnaliser de son antivirus mais intègre aussi une technologie « bac à sable », l’inspection du script en temps réel et un scanner de commande en ligne. Ainsi, des statistiques permettent de voir le nombre de fichiers scannés et le nombre de fichiers infectés sous forme de graphique, il suffit simplement de déplacer la souris pour avoir les informations sur le graphique.

Avast Sécurité Internet 5.0 est la nouveauté de l’éditeur. La suite de sécurité est complète dans le sens où elle propose un pare-feu, un service antispam et antiphishing avec mises à jour en continu. La suite est proposée à partir de trois licences et un an de protection pour 54,95 euros. Pour sa part, la version d’Avast Pro est disponible pour 1, 3, 5 et jusqu’à 10 PC. Une licence simple pour 1 poste d’un an coûte 34.95 euros.

Source : http://www.silicon.fr/fr/news/2010/01/20/avast_lance_la_version_5_de_sa_suite_securite